Archiv verlassen und diese Seite im Standarddesign anzeigen : Apple - CPU/SoC-Eigenentwicklungen von Apple
Ailuros
2013-09-25, 08:33:12
http://www.fudzilla.com/home/item/32605-apple-iphone-5s-a7-soc-detailed
Ich weiss zwar nicht woher Anand und co. sich so sicher sind dass es sich bei der GPU um einen 6430 und nicht einen 6400 handelt, aber irgendwo muessen sie es schon herhaben. Wesentlichster Unterschied bei den 30-gern ist die zusaetzliche framebuffer compression.
Sonst auch nach privaten Besprechungen ist die GPU tatsaechlich etwas ueber 400MHz getaktet wobei ich voruebergehend bei meinen spekulierten 433MHz bleibe.
Ich lehn mich auch ein bisschen mehr aus dem Fenster und spekuliere folgendes:
Rogue 6430 Apple A7 GPU:
4 * SIMD16
2 FMACs/SIMD lane
2 TMUs/SIMD
32 z/stencil
FP32 = 110.85 GFLOPs
FP16 = 138.56 GFLOPs
3.46 GTexels/s
~110 MTris/s (peak sustained)
13.86 GPixels/s
Wer ein bisschen ein Verstaendnis hat fuer GPUs wird wohl schnell herausfinden woher die extra FP16 FLOPs unter Bedingungen kommen.
Nightspider
2013-09-25, 21:32:20
Wann sind denn bei der Konkurrenz die ersten A15-Nachfolger-Kerne zu erwarten?
Und wie hoch stehen die Chancen das Apple wenigstens beim iPad5 auf 2GB RAM oder 4 CPU-Kerne erhöht?
SentinelBorg
2013-09-26, 00:24:53
Wann sind denn bei der Konkurrenz die ersten A15-Nachfolger-Kerne zu erwarten?
Und wie hoch stehen die Chancen das Apple wenigstens beim iPad5 auf 2GB RAM oder 4 CPU-Kerne erhöht?
Da Samsung 64 Bit für nächstes Jahr angekündigt hat, muss man davon ausgehen, dass Exynos 6xxx A57.A53 BIG.little implementieren wird und irgendwann 2014 kommen wird. Erst in 28nm, dann gegen Ende des Jahres als Refresh in 20nm.
robbitop
2013-09-26, 11:36:16
Ich denke Apple macht bewusst noch keine 4 Kerne, weil der Nutzen noch sehr gering bei SFF ist. (außer dass sich alle super toll fühlen, weil Quadcore und so...)
Die Fläche/TDP Budget nutzen sie offenbar für:
- leistungsfähigere CPU Kerne
- GPU Fläche
- Energieeffizienz
Halte ich im Moment für sinnvoller als der Specs wegen 2 zusätzliche Kerne herumzuschleppen.
Ailuros
2013-09-26, 11:43:04
Ich denke Apple macht bewusst noch keine 4 Kerne, weil der Nutzen noch sehr gering bei SFF ist. (außer dass sich alle super toll fühlen, weil Quadcore und so...)
Die Fläche/TDP Budget nutzen sie offenbar für:
- leistungsfähigere CPU Kerne
- GPU Fläche
- Energieeffizienz
Halte ich im Moment für sinnvoller als der Specs wegen 2 zusätzliche Kerne herumzuschleppen.
Wenn ich mir den A7 so ansehe ist er weder als SoC fuer Apple's Verhaeltnisse zu gross, noch nimmt die GPU sehenswert mehr Platz ein als bei vorigen SoCs.
Nur weil Apple keinen Flecken ihren Wuchermargen schenken will heisst es nicht dass quad cores nutzlos waeren oder auch dass sie nie und nirgends etwas damit anfangen koennten unter ihrem eigenen OS.
Es ist lediglich wahr dass wenn man ein eigenes OS hat, man sich seine eigenen Notwendigkeiten entwickeln kann. Der Rest ist dann eben doch idiotisches marketing-geblubber um 180 Grad gedreht.
urpils
2013-09-26, 11:48:13
Wenn ich mir den A7 so ansehe ist er weder als SoC fuer Apple's Verhaeltnisse zu gross, noch nimmt die GPU sehenswert mehr Platz ein als bei vorigen SoCs.
Nur weil Apple keinen Flecken ihren Wuchermargen schenken will heisst es nicht dass quad cores nutzlos waeren oder auch dass sie nie und nirgends etwas damit anfangen koennten unter ihrem eigenen OS.
Es ist lediglich wahr dass wenn man ein eigenes OS hat, man sich seine eigenen Notwendigkeiten entwickeln kann. Der Rest ist dann eben doch idiotisches marketing-geblubber um 180 Grad gedreht.
Anhand hatte in seinem Review erwähnt, dass aktuell das Powergateing in mobilen ARM Quadcores wohl noch nicht weit genug ist, um die Mehrleistung energieeffizient ohne Last zu gewährleisten. Er meinte, dass sich dies aber im kommenden Jahr ändern könnte, sodass diese Einschränkung wegfiele und auch für Apple Quadcores attraktiv würden.
Ailuros
2013-09-26, 12:01:16
Anhand hatte in seinem Review erwähnt, dass aktuell das Powergateing in mobilen ARM Quadcores wohl noch nicht weit genug ist, um die Mehrleistung energieeffizient ohne Last zu gewährleisten. Er meinte, dass sich dies aber im kommenden Jahr ändern könnte, sodass diese Einschränkung wegfiele und auch für Apple Quadcores attraktiv würden.
Das ist eine technische Erklaerung die ich gerne in Kauf nehme; es faellt mir zwar schwer zu glauben dass man es bei custom cores es nicht haette loesen koennen, aber zumindest akzeptiere ich dieses um zich Male leichter als den oeden "quad cores sind Ueberfluss"-Kaugummi.
Nebenbei wie schon erwaehnt es gab auf ersten Blick keinen besonderen Grund warum Apple einen quad core Rogue ueber einem dual core Rogue benutzt hat; der Grund den ich verdaechtige ist dass bei >2 cluster Rogue GPUs man jeweils 2 clusters durch power gating total ausschalten kann. Wenn's auch fuer A7 zufallen sollte heisst es dass die GPU nur unter 3D oder anspruchsvollen fuellraten-Faellen z.B. alle 4 clusters einschaltet und sonst im Normalverbrauch nur mit der halben GPU eingeschaltet herumtrottelt.
robbitop
2013-09-26, 12:10:03
Wenn ich mir den A7 so ansehe ist er weder als SoC fuer Apple's Verhaeltnisse zu gross, noch nimmt die GPU sehenswert mehr Platz ein als bei vorigen SoCs.
Nur weil Apple keinen Flecken ihren Wuchermargen schenken will heisst es nicht dass quad cores nutzlos waeren oder auch dass sie nie und nirgends etwas damit anfangen koennten unter ihrem eigenen OS.
Es ist lediglich wahr dass wenn man ein eigenes OS hat, man sich seine eigenen Notwendigkeiten entwickeln kann. Der Rest ist dann eben doch idiotisches marketing-geblubber um 180 Grad gedreht.
Schau dir an, wie schlecht Quadcores bei SFF momentan skalieren. Ein schneller Dualcore ist immernoch im Schnitt besser als ein langsamer Quad.
Ich halte es nicht für sinnvoll TDP und Fläche für etwas zu verschenken, was mehr belastet als nützt. Schau dir die Laufzeiten an, die man mit dem 5S erzielt und das aus einem sehr sehr kleinem Akku. Und das bei sehr guter Performance. Am Ende ist das Erlebnis entscheidend und nicht die Specs.
Also verteilt man Ressourcen lieber effizient. Insbesondere, wenn HW und SW aus einer Hand kommen.
Ailuros
2013-09-26, 12:23:42
Schau dir an, wie schlecht Quadcores bei SFF momentan skalieren. Ein schneller Dualcore ist immernoch im Schnitt besser als ein langsamer Quad.
Es ist NICHTS neues dass CPUs mit steigender Anzahl von cores generell schlecht skalieren. Der Punkt ist nicht wie oft man N mehr cores braucht sondern wenn man sie braucht wie dringend man sie richtig braucht.
Ich halte es nicht für sinnvoll TDP und Fläche für etwas zu verschenken, was mehr belastet als nützt. Schau dir die Laufzeiten an, die man mit dem 5S erzielt und das aus einem sehr sehr kleinem Akku. Und das bei sehr guter Performance. Am Ende ist das Erlebnis entscheidend und nicht die Specs.
Also verteilt man Ressourcen lieber effizient. Insbesondere, wenn HW und SW aus einer Hand kommen.
Wie gesagt wenn es stimmt dass es Probleme mit power gating von quad ARM cores gibt dann reicht mir die Erklaerung fuer Apple's Perspektive. Sonst weiterhin das Henne/Ei Dilemma zu besprechen ist Ueberfluss. Weder iOS noch Apple brauchen momentan auch kein 64bit in Prozessoren welches weder umsonst ist in Transistoren und um einiges mehr den Stromverbrauch beinflussen koennte als quad vs. dual core und halloechen Du kannst heute zich mehr Faelle fuer ULP SoCs finden wo man vier simultane CPU threads auch wirlich einsetzen kann als 64bit.
Zwischen verstehen und verteufeln gibt es einen gewaltigen Unterschied.
Nightspider
2013-09-26, 12:40:03
Falls Apple im iPad5 keinen QuadCore verbaut könnten sie ja wenigstens die Taktrate nach oben schrauben. Selbst der DualCore im iPad 4 taktet nur mit 1,4 Ghz.
2Ghz würden bei der 64Bit Architektur zumindest locker bisherige QuadCores schlagen. Damit könnte ich mich dann auch anfreunden.
Wobei Apple eigentlich den RAM auf 2GB verdoppeln MUSS.
Denn das iPad 3 hatte auf Grund der hohen Auflösung schon 1GB vor 1,5 Jahren.
urpils
2013-09-26, 12:49:18
Es ist NICHTS neues dass CPUs mit steigender Anzahl von cores generell schlecht skalieren. Der Punkt ist nicht wie oft man N mehr cores braucht sondern wenn man sie braucht wie dringend man sie richtig braucht.
Wie gesagt wenn es stimmt dass es Probleme mit power gating von quad ARM cores gibt dann reicht mir die Erklaerung fuer Apple's Perspektive. Sonst weiterhin das Henne/Ei Dilemma zu besprechen ist Ueberfluss. Weder iOS noch Apple brauchen momentan auch kein 64bit in Prozessoren welches weder umsonst ist in Transistoren und um einiges mehr den Stromverbrauch beinflussen koennte als quad vs. dual core und halloechen Du kannst heute zich mehr Faelle fuer ULP SoCs finden wo man vier simultane CPU threads auch wirlich einsetzen kann als 64bit.
Zwischen verstehen und verteufeln gibt es einen gewaltigen Unterschied.
Müssen oder unbedingt brauchen tut man selten etwas ;) die 64Bit Architektur ist jedoch für ca 30% des Geschwindigkeitszuwachses ggü dem A6 verantwortlich. (Vgl selbe app 32bit ggüb 64Bit Version)
Dementsprechend ist das mehr als Spielerei oder Marketing. Klar für >4gb RAM würden sie es brauchen, aber aktuell ist ein unabhängiger Faktor eben auch etwas mehr Speed.
Ailuros
2013-09-26, 12:56:21
Müssen oder unbedingt brauchen tut man selten etwas ;) die 64Bit Architektur ist jedoch für ca 30% des Geschwindigkeitszuwachses ggü dem A6 verantwortlich. (Vgl selbe app 32bit ggüb 64Bit Version).
Dementsprechend ist das mehr als Spielerei oder Marketing. Klar für >4gb RAM würden sie es brauchen, aber aktuell ist ein unabhängiger Faktor eben auch etwas mehr Speed.
Gibt es irgendwelchen standfesten Beweiss dafuer oder ist es nur eine waage Behauptung die sich ueber's Netz verbreitet?
http://semiaccurate.com/forums/showpost.php?p=194623&postcount=35
In most cases the lack of ia32 registers is hidden by renaming and top of stack caching.
I certainly don't think 30% is observable across a variety of programs. In most cases I only get a few percent when playing with -m32/-m64 options. There are obviously counter examples where using 64-bit data is needed, but that's a minority of typical programs.
Can you show a wide range of programs that are 30% faster?
Wenn ich jetzt sage dass laurent bei ARM arbeitet hilft es oder nicht?
urpils
2013-09-26, 14:21:35
Gibt es irgendwelchen standfesten Beweiss dafuer oder ist es nur eine waage Behauptung die sich ueber's Netz verbreitet?
http://semiaccurate.com/forums/showpost.php?p=194623&postcount=35
Wenn ich jetzt sage dass laurent bei ARM arbeitet hilft es oder nicht?
wie gesagt - das Review von Anand ist bisher das ausführlichste, das ich gefunden habe:
http://www.anandtech.com/show/7335/the-iphone-5s-review/4
hier zeigen sich in theoretischen Benchmarks die Vergleiche zwischen 32 und 64 bit, sowie in der darauf folgenden Seite glaube ich mich zu erinnern, dass er dort ähnliches berichtet (habe leider aktuell keine Zeit mir das nochmal im Detail durchzulesen und die Abschnitte zu zitieren).
Ailuros
2013-09-26, 14:28:21
Mir fehlt die Erfahrung solche Einzelheiten zu beurteilen wenn es zu CPUs kommt, aber da es eigentlich in bester Interesse eines ARM Angestellten waere die +30% These fuer 64bit zu unterstuetzen frage ich jetzt mal ganz daemlich ob die jeweiligen Leistungssteigerungen dank 64bit von 32bit kommen oder einfach einer effizienteren CPU Architektur + surrounding logic?
robbitop
2013-09-27, 10:02:40
dass es Probleme mit power gating von quad ARM cores gibt dann reicht mir die Erklaerung fuer Apple's Perspektive. Sonst weiterhin das Henne/Ei Dilemma zu besprechen ist Ueberfluss.
Ich sehe kein Henne-Ei Problem. Parallelisierten Code gibt es nicht erst seit gestern. Auf vielen Plattformen gibt es schon >4 Kerne. Wenn man prinzipiell versucht, den Code so parallel wie möglich zu halten, ist es egal, ob es einen 4 oder 6 oder 8 Kerner gibt oder nicht. Die SW skaliert dann mit.
Außerdem sind 4 Kerne bei Android seit 2 Jahren längst Standard. Und noch immer bringen sie wenig.
Weder iOS noch Apple brauchen momentan auch kein 64bit in Prozessoren welches weder umsonst ist in Transistoren und um einiges mehr den Stromverbrauch beinflussen koennte als quad vs. dual core und halloechen Du kannst heute zich mehr Faelle fuer ULP SoCs finden wo man vier simultane CPU threads auch wirlich einsetzen kann als 64bit.
Apples and Oranges. 64 Bit wird nicht gebraucht. Aber man führt es frühzeitig ein, so dass in 2-3 Jahren die Verbreitung von 64 bit iOS Devices möglichst groß ist und nicht die lange Warterei auf >4 GiB wie im PC hat. Dort dauerte es ja wirklich Jahre, bis sich 64 bit durchgesetzt hat.
Mehr Kerne einführen kann man hingegen immer. Wenn Software gut parallelisiert ist, profitiert sie sofort.
Zwischen verstehen und verteufeln gibt es einen gewaltigen Unterschied.
Wer verteufelt denn? Ich kann Apple lediglich in ihrer Wahl verstehen. Sie investieren TDP/Transistoren dort, wo es lohnt und aasen nicht. Das Ergebnis ist ein sehr ausgewogener SoC mit sehr geringem Verbrauch -> kleines Gerät mit kleinem Akku und dennoch guter Laufzeit.
Mir fehlt die Erfahrung solche Einzelheiten zu beurteilen wenn es zu CPUs kommt, aber da es eigentlich in bester Interesse eines ARM Angestellten waere die +30% These fuer 64bit zu unterstuetzen frage ich jetzt mal ganz daemlich ob die jeweiligen Leistungssteigerungen dank 64bit von 32bit kommen oder einfach einer effizienteren CPU Architektur + surrounding logic?
Auch 32 bit Apps laufen massiv schneller. Die CPU hat per se schon eine deutlich höhere IPC als Swift (was mich immernoch umhaut!).
Ailuros
2013-09-27, 11:52:50
Ich sehe kein Henne-Ei Problem. Parallelisierten Code gibt es nicht erst seit gestern. Auf vielen Plattformen gibt es schon >4 Kerne. Wenn man prinzipiell versucht, den Code so parallel wie möglich zu halten, ist es egal, ob es einen 4 oder 6 oder 8 Kerner gibt oder nicht. Die SW skaliert dann mit.
Außerdem sind 4 Kerne bei Android seit 2 Jahren längst Standard. Und noch immer bringen sie wenig.
"Wenig" ist stets relativ zur Perspektive. Es steht nirgends in meinen Antworten drin dass es "oft" gebraucht wird; eher ein Gedankensporn wenn sie gebraucht werden wie dringend; eine Antwort aufs letzte erwarte ich natuerlich nicht aus verstaendlichen Gruenden.
Apples and Oranges. 64 Bit wird nicht gebraucht. Aber man führt es frühzeitig ein, so dass in 2-3 Jahren die Verbreitung von 64 bit iOS Devices möglichst groß ist und nicht die lange Warterei auf >4 GiB wie im PC hat. Dort dauerte es ja wirklich Jahre, bis sich 64 bit durchgesetzt hat.
Mir ist schon seit einer Ewigkeit klar wieso Apple schon so frueh 64bit geplant hatte (und ich kommt nochmal darauf zurueck), aber wenn es zu hw Investierung kommt ist es eben KEIN apples to oranges bullshit sondern man nennt es PRIORITAETEN. Der hw Aufwand von 2 zu 4 cores ist fuer Apple's Verhaeltnisse NICHT der Rede wert und schon gar nicht bei einem 100+mm2 SoC und schon gar nicht bei den Herstellungspreisen die sie bei Samsung bezahlen. Mag sein dass Dir meine Vereinfachung in dem Fall nicht passt, aber es tut mir aufrichtig leid aber es geht hier nur um die Maximalisierung ihrer Wuchermargen und nichts anderes.
Wer verteufelt denn? Ich kann Apple lediglich in ihrer Wahl verstehen. Sie investieren TDP/Transistoren dort, wo es lohnt und aasen nicht. Das Ergebnis ist ein sehr ausgewogener SoC mit sehr geringem Verbrauch -> kleines Gerät mit kleinem Akku und dennoch guter Laufzeit.
Siehe oben. Ich kann auch Apple's gigantische Gewinnmargen und ihre im Vergleich laecherlichen BOMs durchaus verstehen.
Auch 32 bit Apps laufen massiv schneller. Die CPU hat per se schon eine deutlich höhere IPC als Swift (was mich immernoch umhaut!).
Wie war es nochmal damit dass Apple nieeeeeeeeeeeeeeeeeeeeeeeeeee in absehbarer Zeit sich Intel's CPU Effizienz naehern koennte? :P Nochmal Cyclone ist nach wie vor nur ein smartphone SoC CPU, aber von einem so niedrigen Potential kann man schon einschaetzen ob und inwiefern es in weiterer Zukunft skalieren koennte.
smalM
2013-09-27, 14:05:31
Wenn's auch fuer A7 zufallen sollte heisst es dass die GPU nur unter 3D oder anspruchsvollen fuellraten-Faellen z.B. alle 4 clusters einschaltet und sonst im Normalverbrauch nur mit der halben GPU eingeschaltet herumtrottelt.
Seit wann gibt es unter iOS 2D?
Ailuros
2013-09-27, 14:11:38
Seit wann gibt es unter iOS 2D?
Gute Frage nur hab ich 2D auch nirgends in dem Absatz erwaehnt. Der Sinn war woanders: wenn's mit der Abschalterei stimmt dann hast Du in nicht anspruchsvollen Faellen immer noch 4 TMUs bei 433MHz mit >90% Fuellraten-Effizienz welches fuer die iPhone5S Aufloesung auch durchaus ausreicht.
Mir macht uebrigens A7X bzw. iPad5 und dessen GPU sorgen ausser ich verpasse irgend etwas wesentliches.
robbitop
2013-09-27, 14:27:21
Mir ist schon seit einer Ewigkeit klar wieso Apple schon so frueh 64bit geplant hatte (und ich kommt nochmal darauf zurueck), aber wenn es zu hw Investierung kommt ist es eben KEIN apples to oranges bullshit sondern man nennt es PRIORITAETEN.
Davon rede ich doch die ganze Zeit. Man priorisiert, was der SoC benötigt und was man evtl. für die Zukunft investieren muss. Quadcore ist keine Investition in die Zukunft (hinsichtlich henne-ei). 64 bit schon.
Der hw Aufwand von 2 zu 4 cores ist fuer Apple's Verhaeltnisse NICHT der Rede wert und schon gar nicht bei einem 100+mm2 SoC und schon gar nicht bei den Herstellungspreisen die sie bei Samsung bezahlen. Mag sein dass Dir meine Vereinfachung in dem Fall nicht passt, aber es tut mir aufrichtig leid aber es geht hier nur um die Maximalisierung ihrer Wuchermargen und nichts anderes.
Siehe oben. Ich kann auch Apple's gigantische Gewinnmargen und ihre im Vergleich laecherlichen BOMs durchaus verstehen.
Apple macht alles richtig. Marktanteil ist nur sekundär. Sie wollen den Premiumstatus nutzen, um eine hohe Gewinnspanne zu erzielen. Das tun Mercedes/BMW etc auch.
Apple könnte locker einen Quadcore oder ein 5" Display verbauen. Das wollen sie aber gar nicht. Das Ding soll nicht zu groß werden und immernoch super Laufzeiten haben.
Wie war es nochmal damit dass Apple nieeeeeeeeeeeeeeeeeeeeeeeeeee in absehbarer Zeit sich Intel's CPU Effizienz naehern koennte? :P Nochmal Cyclone ist nach wie vor nur ein smartphone SoC CPU, aber von einem so niedrigen Potential kann man schon einschaetzen ob und inwiefern es in weiterer Zukunft skalieren koennte.
Naja von Haswell ist man noch Meilen entfernt und bei dem IPC Level gibt es noch massig "low hanging fruits". Aber die IPC kombiniert mit der Leistungsaufnahme ist eine sehr gute Leistung.
Vieleicht muss ich mein "neeeeee..." auch ein Stück weit zurücknehmen.
robbitop
2013-09-27, 14:29:13
Mir macht uebrigens A7X bzw. iPad5 und dessen GPU sorgen ausser ich verpasse irgend etwas wesentliches.
Weil nicht mehr viel Luft in der bestehenden Rogue Palette nach oben ist? 6 Cluster + höherer Takt käme man auf 2x A7 GPU Leistung.
Danach braucht es entweder mehr Cluster oder eine MP Variante. Die Geometrie muss irgendwann auch wieder skaliert werden.
Sunrise
2013-09-27, 15:33:34
...Mir macht uebrigens A7X bzw. iPad5 und dessen GPU sorgen ausser ich verpasse irgend etwas wesentliches.
Ab wann können wir eigentlich mit Series 6 XT rechnen? Da sehe ich noch nichts Offizielles auf der HP.
Der Rogue im 5s ist einfach schon verdammt schnell, wenn man die Auflösung des 5s bedenkt. Da das iPad 5 etwas weniger Platz für Akku etc. haben wird, sollte eine Mischung aus etwas höher getakteter CPU und deutlich mehr die area fuer die GPU gut ins Budget passen. Fragt sich eben, ob Apple dann noch genug Spielraum für die Erhöhung der GPU-Frequenzen hat. Wenn man die Größe des neuen iPad 5-Akkus wüsste, könnte man mal ein bisschen rechnen. Sollte aber möglich sein, die Verdopplung mit ein paar Tricks zu erreichen. Wenn Apple schon Dinge im Rogue direkt ändert, schrecken die so schnell vor nichts zurück, wenn das Ziel unbedingt doppelte GPU-Performance ist.
Ailuros
2013-09-27, 15:46:54
Ab wann können wir eigentlich mit Series 6 XT rechnen? Von PowerVR sehe ich noch nichts Offizielles auf der HP.
XT wird bald vorgestellt ergo dauert es zumindest ein Jahr selbst bei einer Rekordzeit fuer Implementierung.
Der Rogue im 5s ist einfach schon verdammt schnell, wenn man die Auflösung des 5s bedenkt. Da das iPad 5 etwas weniger Platz für Akku etc. haben wird, sollte eine Mischung aus etwas höher getakteter CPU und deutlich mehr die area fuer die GPU gut ins Budget passen. Fragt sich eben, ob Apple dann noch genug Spielraum für die Erhöhung der GPU-Frequenzen hat. Wenn man die Größe des neuen iPad 5-Akkus wüsste, könnte man mal ein bisschen rechnen.
Das daemliche an der Affaere ist dass nur ein single cluster G6100 (nur DX9L3) und dual cluster G62x0 ein verdammt hohes perf/FLOP ratio haben. Du hast hoechstwahrscheinlich bei 4 (oder sogar mehr) clusters zwar zich Mal mehr FLOPs und TMUs aber eben nicht zich Mal so hohe Geometrie- bzw. z/stencil Raten. Im GLB2.7 limitieren hauptsaechlich z/stencil dank der unendlichen alpha tests und in GLB2.5 Geometrie:
http://gfxbench.com/compare.jsp?D1=Apple+iPhone+5S&D2=MediaTek+MT8135+%28PowerVR+Rogue+Han%29&cols=2
Unter der Logik schau Dir mal die Resultate an und bedenk dass der "Rogue Han" im Mediatek ein dual cluster G6200 womoeglich bei 220MHz ist waehrend im A7 ein G6430 bei 433MHz steckt.
Taktet jetzt der Mediatek SoC auf vollen Frequenzen auch fuer die GPU muesste er 18 fps in GLB2.7 und 46 fps in GLB2.5 erreichen, welches aber die A7 ziemlich "blamiert" im Vergleich.
So und jetzt denk ein Stueck weiter fuer was auch immer im A7X stecken koennte kann ich mir verdammt schwer vorstellen dass sie 2x Mal iPad4 GPU Leistung diesmal erreichen ausser sie haben einen G6630 bei ueber 600MHz benutzt oder ich verrechne mich einfach mit dem Zeug.
robbitop
2013-09-27, 15:54:51
Die Frage ist, wie stark die Geometrieraten außerhalb von synthetischen Benchmarks limitieren. Es hat bei PC Grafikkarten ja wirklich Ewigkeiten gedauert, bis man mehrere Rasterizer und Trisetups pro GPU hatte. Die SFF Dinger sind ja noch über einer Größenordnung darunter.
Rogue kann sicherlich 1 Dreieck pro Takt oder? Dann schafft A7 bei 60 fps immerhin 6,5 Mio Dreiecke pro Bild. Ich glaube nicht, dass SFF Spiele schon bei so hohen Geometrieraten sind, oder?
edit: Crysis 2 hat auf Ultra-Settings einen Peak von 3,5 Mio Dreicken pro Bild. Und dafür sind heutige SFF GPUs noch deutlich zu schwach. IMG hat Rogue offenbar nicht für Synthies ausgelegt sondern für real world Applikationen. Und dort scheinen Dreiecksraten noch lange nicht der Bottleneck zu sein.
Sunrise
2013-09-27, 16:18:34
Du hast hoechstwahrscheinlich bei 4 (oder sogar mehr) clusters zwar zich Mal mehr FLOPs und TMUs aber eben nicht zich Mal so hohe Geometrie- bzw. z/stencil Raten. Im GLB2.7 limitieren hauptsaechlich z/stencil dank der unendlichen alpha tests und in GLB2.5 Geometrie...
...So und jetzt denk ein Stueck weiter fuer was auch immer im A7X stecken koennte kann ich mir verdammt schwer vorstellen dass sie 2x Mal iPad4 GPU Leistung diesmal erreichen ausser sie haben einen G6630 bei ueber 600MHz benutzt oder ich verrechne mich einfach mit dem Zeug.
Also 6 cluster mit um die 600MHz sollten drin sein, wenn man die Größe des Akkus bedenkt. Nur bringt unsere Rechnerei glaub ich nichts, da wir ja nicht genau wissen, wann die Geometrie so stark limitiert, dass es sich auswirkt (und dann ist wieder das iPad 6 draußen).
Ailuros
2013-09-27, 17:50:42
Also 6 cluster mit um die 600MHz sollten drin sein, wenn man die Größe des Akkus bedenkt. Nur bringt unsere Rechnerei glaub ich nichts, da wir ja nicht genau wissen, wann die Geometrie so stark limitiert, dass es sich auswirkt (und dann ist wieder das iPad 6 draußen).
Ich hab Angst dass sich bei 6630 auch nichts mehr tolles aendert im Vergleich zum 6430 und 62x0. Du kannst dann zwar mit fast 300 GFLOPs herumschmeissen hast aber womoeglich pro Takt nicht mehr Geometrie oder Z Fuellraten als bei einem 2 cluster core. Fuer GPGPU eine ausgezeichnetes Ergebnis aber ich kann mir nicht vorstellen wie in einem Spiel shader Komplexitaet wie verrueckt steigert und alle andere Raten einfach flach bleiben sollen.
Sonst steht eben XT nicht nur womoeglich fuer multi-core sondern fuer Rogue-revamped wie wir es schon bei den 5XT cores gesehen haben. Es ist ja eben so dass die SGX cores ihre richtige "Balance" erst bei 5XT fanden und dazu dann eben noch multi-core. Momentan ist fuer Rogue multicore bei weitem noch kein Drang wenn sie schon bis zu 12 clusters skalieren koennen; was sie brauchen ist balanciertere clusters bevor allem anderem ;)
Nightspider
2013-09-27, 18:29:01
An Platz mangelt es ja noch nicht. Der A5X (45nm) war mit 165mm² immerhin knapp 65% größer als der A7. Würde man 4 CPU Kerne und eine doppelt so große GPU verbauen würde man auf ~150mm² kommen. Keine Ahnung wie stark der Rest mitwachsen müsste damit kein Flaschenhals entsteht.
Im iPad5 wird Apple ja sicherlich den gleichen M7 Coprozessor verbauen wie im iPhone 5S oder?
Ist mittlerweile bekannt in welchem Prozess der M7 gefertigt wird?
robbitop
2013-09-27, 19:52:24
Es geht ja nicht nur um Platz sondern auch um Energie. Schau dir Tegra 4 an und dagegen A7. Letzterer ist größer aber trotzdem massiv sparsamer.
Nightspider
2013-09-27, 19:58:20
Ob A7 unter voller GPU Last sparsamer ist muss sich erst noch zeigen. Die Cyclone CPU Kerne sind sparsamer aber dafür hat ein T4 auch fast die doppelte CPU Leistung.
robbitop
2013-09-27, 20:00:49
Ob A7 unter voller GPU Last sparsamer ist muss sich erst noch zeigen. Die Cyclone CPU Kerne sind sparsamer aber dafür hat ein T4 auch fast die doppelte CPU Leistung.
Soweit ich weiß, ist Cyclone deutlich leistungsfähiger als alles andere auf dem Markt.
Die Laufzeiten bei 3D Anwendungen sprechen eher für einen sehr sparsamen SoC. Tegra 4 hingegen bekommt man kaum in ein Phone - geschweige denn in ein so kleines. T4 ist eher ein Tablet SoC. Hinzu kommt noch das deutlich höhere Techlevel vom A7. IMO ist der A7 der im Moment ausgewogenste SoC am Markt.
Nightspider
2013-09-27, 20:04:14
Cyclone taktet nur mit 1,4 Ghz und ist, würde ich schätzen, 30% schneller als Swift und dürfte mit A15 Kernen @~2,2Ghz vergleichbar sein. Wenn nicht lasse ich mich gerne berichtigen.
Da T4 aber 4 A15 Kerne @1,9Ghz hat, dürfte T4 immer noch deutlich mehr CPU Power haben, wenn alle 4 Kerne genutzt werden. In einigen Games wird daher ein T4 merklich schneller sein, auch wenn er mehr Leistung frisst.
Für Smartphones wäre ein A7 sicherlich die bessere Wahl aber bei einem Tablet wäre ein T4 vielleicht klüger.
robbitop
2013-09-27, 20:08:26
Cyclone ist bis zu doppelt so schnell wie Swift. 4 Kerne bringen sehr selten was.
Außerdem muss A15 in einem Smartphone Formfaktor mit 1,6 GHz takten wegen der TDP. Und vermutlich säuft er dann immernoch wesentlich mehr. Wenn man beide auf gleiche TDPs setzen würde, würde es noch schlimmer aussehen für A15. Was meinst du, warum ich solche Bauklötzer über Cyclone staune? ;)
Nightspider
2013-09-27, 20:12:38
Okay ich dachte eben auch noch das Swift nur mit 1Ghz taktet aber der taktete ja auch schon mit 1,3Ghz.
Dennoch liegen die Cyclone Kerne in realworld Benchmarks wie Javascript und die üblichen 10 Browser-Benchmarks im Durchschnitt kaum vor der aktuellen S800 Konkurrenz. Manchmal liegen sie sogar dahinter.
robbitop
2013-09-27, 20:32:07
Tja und S800 taktet mit >2 GHz. Cyclone packt das mit 1,3 GHz. S800 benötigt ggf. mehr Energie. Der Akku des iPhone 5S ist wesentlich kleiner und die Laufzeit höher.
Sunrise
2013-09-27, 20:49:11
Okay ich dachte eben auch noch das Swift nur mit 1Ghz taktet aber der taktete ja auch schon mit 1,3Ghz.
Dennoch liegen die Cyclone Kerne in realworld Benchmarks wie Javascript und die üblichen 10 Browser-Benchmarks im Durchschnitt kaum vor der aktuellen S800 Konkurrenz. Manchmal liegen sie sogar dahinter.
Kaum? Hast du die gleichen Tests wie wir gelesen?
Schau mal hier bei Anand:
http://www.anandtech.com/show/7335/the-iphone-5s-review/5
Das sind schon verdammt gravierende Unterschiede. Vom "simpleren" SunSpider aus schon ca. 50% schneller, über Mozilla Kraken (~66%), Google JS (~83%) und Browsermark (~23%). Der Snapdragon 800 wird hier gut an die Wand gedrückt.
Finde das schon erstaunlich, denn mein i7 auf 4GHz ist nur ca. um den Faktor 3,5 schneller. Ist aber noch ein Nehalem. Das sollte jetzt aber dennoch endlich ausreichen, damit man quasi sofort die Webseite (bei entsprechender Latenz bzw. Bandbreite aus dem Netz) vor sich hat, und das ist IMHO schon ein verdammt netter AHA-Effekt.
Und wie schon gepostet, der A7 ist beim Video-Rendern (welche Komponente dafür jetzt auch immer verantwortlich ist) quasi so schnell wie ein Macbook Pro von 2009. Und das ist einfach nur unglaublich bei der Größe und Stromverbrauch (wobei der unter Volllast sicher auch nicht ohne ist).
PS: Könnte entweder morgen oder spätestens Montag mal paar Tests machen, meins ist endlich unterwegs. Dann erfahren wir auch endlich, welche Limits beim Decoding das Teil hat.
Ailuros
2013-09-27, 21:49:46
Was fuer tests wollt Ihr denn genau vom S800 sehen; und wenn dann im throttel-benchmark-gewinn-modus oder im unschuldsengel-alltags-modus :freak:
Ich will wetten dass wenn man den G6430 auf die bis zu 4W GPU Verbrauch treibt wie QCOM ihre 330-er in benchmarks dass der erste um einiges schneller sein wird.
Nightspider
2013-09-28, 02:13:46
Tja und S800 taktet mit >2 GHz. Cyclone packt das mit 1,3 GHz. S800 benötigt ggf. mehr Energie. Der Akku des iPhone 5S ist wesentlich kleiner und die Laufzeit höher.
Laufzeit höher als was?
Im iPhone Thread beschweren sich einige über die Laufzeit beim 5S und das es gerade so einen Tag schafft.
Ein LG G2 schafft da teilweise 3 Tage.
Aber nachdem ich mir nochmal die Benchmarks von Anandtech angesehen habe muss ich dir zustimmmen, bei der Leistung.
Schade das man kein Infos darüber hat wie Apple in so kurzer Zeit so viel mehr Leistung pro Watt herausholen kann und die anderen Entwickler so blöd dastehen lässt.
Jetzt müsste man nur noch wissen wie groß das Entwicklerteam von Apple im Vergleich zu denen von ARM und QualComm ist.
Ein 5" FHD AMOLED Anroid Smartphone mit 2Ghz Cylcone QuadCore und 3000mAh Akku wäre der Burner. ;D
robbitop
2013-09-28, 08:47:20
http://www.anandtech.com/show/7335/the-iphone-5s-review/9
Also was Laufzeit angeht, steht das iP5S sehr gut da. Einzig die Gesprächsdauer ist bei anderen Geräten besser. Dort zählt aber nur der Akku, weil Display und SoC quasi nichts verbrauchen. Und größere Smartphones haben nunmal 50 % größere Akkus.
In einem 5" Smartphone mit 50 % mehr Akkukapazität (als Galaxy S4 Formfaktor) würde A7 sicher auch mit deutlich höherer Frequenz laufen können und nochmehr alle anderen blosstellen. A7 ist schon eine Meisterleistung. Ein Vergleich auf gleicher TDP Ebene ist für andere demütigend.
Apple hat mitlerweile die besten Leute in der Industrie was SoCs angeht. Ich bin gespannt, wie QCOM/ARM kontern wird in 2014. Vergleichen würde ich dann immer bei gleicher TDP.
Undertaker
2013-09-28, 09:40:59
http://www.anandtech.com/show/7335/the-iphone-5s-review/9
Also was Laufzeit angeht, steht das iP5S sehr gut da. Einzig die Gesprächsdauer ist bei anderen Geräten besser. Dort zählt aber nur der Akku, weil Display und SoC quasi nichts verbrauchen. Und größere Smartphones haben nunmal 50 % größere Akkus.
http://www.computerbase.de/artikel/handys/2013/apple-iphone-5s-im-test/6/#videodauertest-200-cdm
Videowiedergabe scheint allerdings "nur" auf dem Niveau des G2 und unter einem S4 zu sein. Insgesamt würde ich also von einer zweifellos guten Laufzeit sprechen, aber nicht besser als bei den besten 5"-Androiden. Jetzt Akkugröße und Display gegenzurechnen, ist so ohne weiteres aber recht schwierig.
Bzgl. Browserbenchmarks muss man immer vorsichtig sein, vor allem wenn nicht die gleichen Browser verwendet wurden. Wenn man aber z.B. dem Geekbench glauben mag, ist der A7 schon unter 32 Bit mit zwei Kernen so schnell wie etwa der Snapdragon 600 mit vier.
deekey777
2013-09-28, 11:21:39
Inside the Apple A7 from the iPhone 5s (http://www.chipworks.com/en/technical-competitive-analysis/resources/blog/inside-the-a7/)
The CPU itself is not packed the same way as the A6 (see below), it looks much more like a conventional automated layout; although Linley Gwennap thinks that it’s still Apple designed, not the first ARM A53/57 usage. There’s a great review of the A7’s capability over at AnandTech.
robbitop
2013-09-28, 13:22:33
Nur weil es nicht handlayoutet ist, muss es nicht von ARM stammen. Automatisierte Layouts sparen Zeit und Kosten. Idr sind sie auch besser portierbar. Nachteil: Taktraten. Hohe Taktraten sind für A7 sowieso nicht vorgesehen gewesen (Leistungsaufnahme).
Mir fehlt die Erfahrung solche Einzelheiten zu beurteilen wenn es zu CPUs kommt, aber da es eigentlich in bester Interesse eines ARM Angestellten waere die +30% These fuer 64bit zu unterstuetzen frage ich jetzt mal ganz daemlich ob die jeweiligen Leistungssteigerungen dank 64bit von 32bit kommen oder einfach einer effizienteren CPU Architektur + surrounding logic?
Sehr sicher letzteres.
Ailuros
2013-09-29, 08:27:40
Sehr sicher letzteres.
Danke. Es haette mich auch brutal gewundert wenn Laurent daneben gelegen haette.
http://www.anandtech.com/show/7335/the-iphone-5s-review/9
Also was Laufzeit angeht, steht das iP5S sehr gut da. Einzig die Gesprächsdauer ist bei anderen Geräten besser. Dort zählt aber nur der Akku, weil Display und SoC quasi nichts verbrauchen. Und größere Smartphones haben nunmal 50 % größere Akkus.
In einem 5" Smartphone mit 50 % mehr Akkukapazität (als Galaxy S4 Formfaktor) würde A7 sicher auch mit deutlich höherer Frequenz laufen können und nochmehr alle anderen blosstellen. A7 ist schon eine Meisterleistung. Ein Vergleich auf gleicher TDP Ebene ist für andere demütigend.
Apple hat mitlerweile die besten Leute in der Industrie was SoCs angeht. Ich bin gespannt, wie QCOM/ARM kontern wird in 2014. Vergleichen würde ich dann immer bei gleicher TDP.
Ist hoffentlich irgend ein sw bug mit der Gespraechszeit, denn es ist das ueberhaupt wichtigste bei einem smartphone.
Am Rand und ja es hat keiner erwaehnt hier aber wenn man sich den die shot mal so ansieht:
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9937162&postcount=1042
http://i.imgur.com/7MUdABO.jpg
Dann ist die GPU ungefaehr 1/3 des SoCs, aber auch um schaetzungsweise 20% hoeherer Packdichte im Vergleich zum A6. Sonst ist jeder cluster fuer dass was er liefert relativ klein; uebrings sind grosse SRAM Brocken in GPUs der neueste trend. Der naechste Kandidat der dabei einfaellt ist Samsung's Exynos 5420 mit dem T628MP6 von dem ich auch liebend gern einen die shot sehen wuerde.
Nightspider
2013-09-29, 08:27:46
Würde mur 64Bit etwas (größeres) bringen, hätte man ja auch schon am Windows PC etwas von Vorteilen bei 64Bit gemerkt. ;)
Nicht umsonst war die Stimmung verhalten, etwas stark auf 64Bit auszulegen.
Das man bei der limitierten Bandbreite des RAMs und den derzeit so pervers schnellen GPUs auf große SRAM Blöcke ausweichen muss ist der einzige Weg noch effizient Leistung aus dem Silizium herauszuholen.
Sonst würde es den GPUs bald wie Intels HD5000 ohne eDRAm gehen, indem sie an der fehlenden Bandbreite ersticken.
Gibt es eigentlich auch Die-Aufschlüsselungen aktueller SoCs wo alle Teile benannt sind? Mich würde mal interessieren was dort noch so drin steckt und wie groß die Logik für zB. LTE ist bzw. Wlan. Mich wundert ja fast immer wieder das so viele Transistoren für Fläche drauf gehen, die nicht zu GPU oder CPU gehören.
Ailuros
2013-09-29, 15:31:52
Ich bin mir sicher dass es Sunrise z.B. auch interessieren wuerde wo genau die VXD und VXE Bloecke liegen und wie gross sie sind. Wenn sie aber keiner einkreidet oder sonst irgendwie darauf hinweisst verstehe ich bei solchen Bildern nur Bahnhof.
Mich wundert ja fast immer wieder das so viele Transistoren für Fläche drauf gehen, die nicht zu GPU oder CPU gehören.
Wenn man mit einem fixed function Block wie der VXD/ video decoder so viel von der CPU entladen kann, dann ist es die Investition durchaus wert. Auf dem A7 und auch nach IMG's wiederholten Angaben verbraucht ein solcher 28nm SoC weniger als 10mW fuer das decoding eines 60fps 1080p einzelnen streams. Schmeisst Du das decoding nur auf die CPU wird er wohl wieviel verbrauchen muessen?
Die Logik etwas mehr die area fuer weniger Stromverbrauch ist fuer ULP SoCs durchaus nichts Neues; man sieht es sogar in neuesten ultra high end GPU chips. Genau deshalb hat auch ARM big.LITTLE entworfen (obwohl ich eigentlich eher fuer asynchrone Frequenzen bin - ist aber ein anderes Kapitel).
smalM
2013-09-29, 15:35:48
Der Übergang von 32bit auf 64bit lief auf dem PC so schlecht, weil MS das einfach vergeigt hat. Dagegen lief es unter OS X fast reibungslos und machte einen Mac einfach nur ein Stückchen schneller.
Übrigens: Seltsame Verteilung der DRAM-Interfaces; zwei ganze und zwei halbe?
Ailuros
2013-09-29, 15:40:46
Übrigens: Seltsame Verteilung der DRAM-Interfaces; zwei ganze und zwei halbe?
Leider keine Ahnung; ich hab nicht mal eine Ahnung was oben rechts im SoC stecken koennte.
robbitop
2013-09-29, 18:06:25
Ist hoffentlich irgend ein sw bug mit der Gespraechszeit, denn es ist das ueberhaupt wichtigste bei einem smartphone.
Bzgl. Softwarebug: Glaube ich nicht. Denn diese ist sogar etwas besser als beim iP5. http://www.anandtech.com/show/7335/the-iphone-5s-review/9
Außerdem reichen doch 9,3h Gesprächszeit auch locker aus.
Gesprächszeit ist halt ein reiner Akkubenchmark. Je größer das Gerät, desto größer der Akku desto größer die Gesprächszeit. Das ist nunmal Gesetz der Physik.
Dann ist die GPU ungefaehr 1/3 des SoCs, aber auch um schaetzungsweise 20% hoeherer Packdichte im Vergleich zum A6. Sonst ist jeder cluster fuer dass was er liefert relativ klein; uebrings sind grosse SRAM Brocken in GPUs der neueste trend. Der naechste Kandidat der dabei einfaellt ist Samsung's Exynos 5420 mit dem T628MP6 von dem ich auch liebend gern einen die shot sehen wuerde.
Wieviel SRAM ist das eigentlich? Bei einem TBDR braucht es zumindest Tilebuffers. Die sind ja prinzipbedingt da. Je nach dem wie groß die Tiles werden und wie viele Buffer man halten will, braucht man auch etwas SRAM. Bandbreite ist in dem Umfeld ja sicherlich immer ein knappes gut. Insofern ergeben Caches auch viel Sinn.
Die Packdichteangabe die du machst: hast du dabei schon den Shrink berücksichtigt? (normiert oder nicht normiert)
Zur CPU - könnte es sein, dass Apple auch bei Cyclone etwas ähnliches wie ARMs big.LITTLE macht? In der Mitte des CPU Blocks sieht es fast so aus, als wären da 2 kleine Kerne eingebettet.
Ailuros
2013-09-29, 20:37:45
Bzgl. Softwarebug: Glaube ich nicht. Denn diese ist sogar etwas besser als beim iP5. http://www.anandtech.com/show/7335/the-iphone-5s-review/9
Außerdem reichen doch 9,3h Gesprächszeit auch locker aus.
Gesprächszeit ist halt ein reiner Akkubenchmark. Je größer das Gerät, desto größer der Akku desto größer die Gesprächszeit. Das ist nunmal Gesetz der Physik.
Touche an die Batterie hatte ich nicht gedacht und da hast Du natuerlich recht.
Wieviel SRAM ist das eigentlich?
Ich lass mich gerne eines besseren belehren aber vielleicht 3MB? Muss ja nicht unbedingt dediziert fuer die GPU sein (bei den Exynos SoCs ist der SRAM uebrigens fuer GPU und memory interface; denn wer immer den Scheiss eingekreidet hat schreibt immer noch "cores" fuer Rogue und "GPU shared digital logic". Du kannst beruhigt das alles vergessen da es reiner bullshit ist. Das gesamte Rechteck unten rechts ist der GPU block und der Rest ist Kaffeesatzleserei.
Bei einem TBDR braucht es zumindest Tilebuffers. Die sind ja prinzipbedingt da. Je nach dem wie groß die Tiles werden und wie viele Buffer man halten will, braucht man auch etwas SRAM. Bandbreite ist in dem Umfeld ja sicherlich immer ein knappes gut. Insofern ergeben Caches auch viel Sinn.
Wie oben schon erwaehnt es weiss keiner ob der erwaehnte SRAM erstmal ausschliesslich der GPU zusteht welches nicht unbedingt sein muss. Ausserdem da stets von IMG buffers im design liegen steckt das Zeug schon im eigentlichen GPU block drin und es sind KB und keine MB Werte.
Rogue hat nebenbei wie schon SGX eine multi-level cache; beim letzten war die maximale Menge pro core bei 128KB; fuer Rogue keine Ahnung.
Die Packdichteangabe die du machst: hast du dabei schon den Shrink berücksichtigt? (normiert oder nicht normiert).
Kann sein dass ich mir die 20% auch nur vorgestellt habe; ich hatte es in Erinnerung dass es so viel sein sollte jedoch steht in den relevanten e-mails die ich nochmal durchgelesen habe kein einziges Prozentual drin.
Zur CPU - könnte es sein, dass Apple auch bei Cyclone etwas ähnliches wie ARMs big.LITTLE macht? In der Mitte des CPU Blocks sieht es fast so aus, als wären da 2 kleine Kerne eingebettet.
Hattest Du den Verdacht nicht auch schon beim A6/A6X und es lag nicht daran oder irre ich mich? Apple benutzt asychrone Frequenzen afaik; implementiert man es richtig ist jegliches big.LITTLE total ueberfluessig. Mich wundert nur wieso der Kerl der die Bloecke eigenkreidet fuer das Rechteck in der Mitte der CPUs nicht auch "CPU shared digital logic" eigentragen hat. Wuerde genauso viel Sinn machen wie bei der GPU :P
smalM
2013-09-29, 23:09:36
Die SRAM-Struktur besteht aus 8 Blöcken, die wiederum aus einer Doppelreihe á 16 Zellen bestehen.Der 1MB L2 besteht hingegen aus 4 Doppelreihen á 32 Zellen (die Anordnung könnte vermuten lassen, daß er geshared ist).
Das bewirkt, daß die Zellen und Blöcke der SRAM-Struktur deutlich kompakter angeordnet sind als beim L2. Ich vermute daher, es sind 4MB.
Leider ist die Qualität diesesmal nicht so hoch wie beim A6 Die, wo man noch in den Bereichen zwischen den Funktionsblöcken Strukturen erkennen konnte.
@Ailuros: Ich hege den leichten Verdacht, Dein "CPU shared digital logic" könnte die Secure Enclave (mit)enthalten.
Felixxz2
2013-09-30, 03:51:28
4MB SRAM ist ja gigantsich. Wie viel L2 hat Titan?^^
robbitop
2013-09-30, 10:39:27
Hattest Du den Verdacht nicht auch schon beim A6/A6X und es lag nicht daran oder irre ich mich?
Coda hat das festgestellt. Ich habe es nur wiederholt.
Ailuros
2013-09-30, 10:58:26
Coda hat das festgestellt. Ich habe es nur wiederholt.
Ich weiss zwar nicht wer Herr smalM ist, aber er hoert sich danach an als ob er weiss wo es langgeht mit die-shot "Kaffeesatzleserei" ;)
Ailuros
2013-09-30, 11:41:26
Gute Lektuere uebrigens zum Thema 32 vs. 64bit: http://www.mikeash.com/pyblog/friday-qa-2013-09-27-arm64-and-you.html
smalM
2013-09-30, 22:42:34
@Ailuros
Die eine oder andere Die-Analyse hab' ich die letzten 30 Jahre schon gesehen…
Meldung (http://appleinsider.com/articles/13/09/30/apple-continues-building-out-its-ios-gpu-development-team-in-orlando) von AppleInsider: Apple sucht weitere Verstärkung für Ihr GPU-Team in Orlando.
Stellt sich sofort die Frage, bis wann plant Apple IMG GPUs durch Eigenkonstrukte zu ersetzen?
Irgendwie habe ich das Gefühl, dass sich Apple mit der Nummer ganz schön aus dem Fenster gelehnt hat. Ich sehe irgendwie nicht so die riesige Zukunft für iOS dass sich das auch noch in Zukunft rechnen wird.
smalM
2013-10-01, 03:51:48
@Coda
Im abgelaufenen Geschäftsjahr gab es ca. eine ¼ Milliarde abweichende Meinungen zur Zukunftsfähigkeit von iOS.
urpils
2013-10-01, 07:47:53
Irgendwie habe ich das Gefühl, dass sich Apple mit der Nummer ganz schön aus dem Fenster gelehnt hat. Ich sehe irgendwie nicht so die riesige Zukunft für iOS dass sich das auch noch in Zukunft rechnen wird.
worauf basiert denn dein Gefühl?
Ailuros
2013-10-01, 09:59:55
@Ailuros
Die eine oder andere Die-Analyse hab' ich die letzten 30 Jahre schon gesehen…
Wir koennen stets "neues Blut" mit langer Erfahrung gebrauchen, ergo auch offiziell sois bienvenue ;)
Meldung (http://appleinsider.com/articles/13/09/30/apple-continues-building-out-its-ios-gpu-development-team-in-orlando) von AppleInsider: Apple sucht weitere Verstärkung für Ihr GPU-Team in Orlando.
Stellt sich sofort die Frage, bis wann plant Apple IMG GPUs durch Eigenkonstrukte zu ersetzen?
Ich halte es nicht fuer unmoeglich, denn afaik entwickelt Apple die GPU Treiber selber (IMG liefert lediglich den compiler) und im A7 hat die GPU ohnehin schon zumindest angepasste TMUs nach Indizien.
Das merkwuerdige ist dass von dem was ich bis jetzt gehoert habe, Apple zuerst komplett auf eigene CPUs steigen will und der naechste logische Schritt danach waere natuerlich auch eine custom GPU.
robbitop
2013-10-01, 10:18:37
Und wer weiß, wie lange das Zeug im SFF bleiben soll und nicht in die OSX Devices wandert. Langfristig.
Ailuros
2013-10-01, 10:31:01
Und wer weiß, wie lange das Zeug im SFF bleiben soll und nicht in die OSX Devices wandert. Langfristig.
Langfristig wird es keine zwei OSs geben; Microsoft wird auch windows phone mit windows desktop vereinen wobei das daemliche an der Geschichte ist dass smartphones auch DX11.x haben werden.
Persoenlich juckt mich fruitco mit ihrem ueberteurtem gear nicht besonders; ich wuerde eher liebend gerne wissen was Google und Qualcomm langfristig im Visier haben.
basti333
2013-10-01, 16:41:09
Irgendwie habe ich das Gefühl, dass sich Apple mit der Nummer ganz schön aus dem Fenster gelehnt hat. Ich sehe irgendwie nicht so die riesige Zukunft für iOS dass sich das auch noch in Zukunft rechnen wird.
iOS + IPhone & co sind mit abstand das profitabelsete was es zur Zeit im mobile computing gibt. Und wenn sich das wachstum auch verlangsamt, es geht weiter nach oben momentan.
Wie seht ihr denn die chancen das Apple nvidia GPUs lizensieren wird?
robbitop
2013-10-01, 16:48:59
Eher macht Apple was eigenes. IMGs Zeug ist, was Lizensierung angeht, kaum zu toppen. (das kann sich aber schnell ändern)
Ich hoffe nicht, dass ein OS für SFF und Desktop herhalten muss. Dann sind am Ende beide Welten nicht glücklich. Ich sage nur Touch auf dem Desktop *würg*...
Undertaker
2013-10-01, 16:49:53
Wie seht ihr denn die chancen das Apple nvidia GPUs lizensieren wird?
Halte ich für nicht ausgeschlossen, aber so wie es aussieht, könnte schon in wenigen Jahren eigenes GPU Know-How bei Apple bereit stehen. Ob bis dahin noch ein Design-Win für Nvidia herausspringt? Schwer abzuschätzen. Da sehe ich für Nvidia bei Mediatek, Samsung und anderen bessere Chancen.
robbitop
2013-10-01, 17:07:41
Warum sollten sie jetzt umschwenken? Mit IMG ist man immer sehr gut gefahren. Die Prozesse sind eingefahren, die Leute kennen sich, die Spezialisten kennen die Archtektur, das Treiberteam auch etcpp. Auch sind IMG Designs soziemlich das beste, was man lizensieren kann. Ich sehe keinen Grund, das zu tun, es sei denn NV liefert kontinuierlich deutlich bessere Designs als der Rest.
Ailuros
2013-10-01, 18:06:20
Ich werde Euch vielleicht den Brei verderben aber ein peak auf Apple's roadmap zeigt eine ziemlich lange Kette an Rogue GPU IP in ihren zukuenftigen SoCs.
Wie seht ihr denn die chancen das Apple nvidia GPUs lizensieren wird?
Apple ist langweilig als Option weil es man dann wieder zu nichts vergleichen kann; wenn schon denn schon ein semi der mit S anfaengt und mit G aufhoert :biggrin:
robbitop
2013-10-01, 18:32:32
Hm ... also muss IMG mit Series 6XT noch ein paar skalierbare Designs in petto haben. Apple will schließlich jedes Jahr mind. Faktor 2 sehen. (solange das die Prozesse und die Designs hergeben..)
Ailuros
2013-10-01, 18:51:29
Hm ... also muss IMG mit Series 6XT noch ein paar skalierbare Designs in petto haben. Apple will schließlich jedes Jahr mind. Faktor 2 sehen. (solange das die Prozesse und die Designs hergeben..)
Der Rogue im A7 ist um einiges mehr schneller in Echtzeit als nur 2x Mal im Vergleich zum 543MP3 im A6. "2x" war nur wohl Apple's "Stunk" an IMG dass sich die Geometrie etwas vernachlaessigt anfuehlt und ja es soll in einigen ihrer Applikationen auch spuerbar sein ich kann mir nur nicht vorstellen in welchen.
Fuer Rogue und afaik: marketing behauptet dass man bis zu 8 cluster skalieren kann bis man zu MP gehen muss; ist aber afaik bei 12 clusters ergo gibt es noch genug Leistungsluftraum bis man wirklich zu MP greifen muss wenn es ueberhaupt notwendig ist.
IMHO kommt mit 6XT folgendes:
* Die paar rohen Ecken in heutigen Rogues wurden ausgeschliffen.
* Skalierung bis zu 12 clusters und moegliche multi-core Ankuendigung.
* Varianten fuer windows mit DX11.2.
robbitop
2013-10-01, 19:25:16
Nunja wenn im A7X bereits ein 6C integriert ist, muss man nächstes Jahr scho 12C nehmen und 2015 dann Multicore.
Ailuros
2013-10-01, 20:11:15
Nunja wenn im A7X bereits ein 6C integriert ist, muss man nächstes Jahr scho 12C nehmen und 2015 dann Multicore.
6630 ist nur eine These; sie koennten auch stattdessen auf Frequenz setzen mit einem 6430.
robbitop
2013-10-02, 20:38:43
6630 ist nur eine These; sie koennten auch stattdessen auf Frequenz setzen mit einem 6430.
Ich hab so das Bauchgefühl, dass sie das nicht ausschließlich über die reine Frequenz prügeln. Ab einem gewissen Punkt kostet Frequenz überproportional mehr Leistungsaufnahme. Sie wollen für A7X sicher 2x A7 GPU Performance. Und Rogue ist im A7 schon nicht gerade niedrig getaktet. Faktor 2 nur über die Frequenz? Dann lieber 50 % über die 2C mehr und den Rest über die Taktrate.
deekey777
2013-10-02, 21:12:10
Apple's 64-bit A7 chip a 'marketing gimmick', Qualcomm exec says (http://news.techworld.com/personal-tech/3471543/apples-64-bit-a7-chip-a-marketing-gimmick-qualcomm-exec-says/)
"I know there's a lot of noise because Apple did [64-bit] on their A7," said Anand Chandrasekher, senior vice president and chief marketing officer at Qualcomm, in an interview. "I think they are doing a marketing gimmick. There's zero benefit a consumer gets from that."
Mimimi...
robbitop
2013-10-02, 21:34:54
Was man nicht bieten kann, ist unwichtig. Sobald man es bieten kann, wird es groß beworben. Das war schon immer so.
Felixxz2
2013-10-02, 23:55:42
Apple's 64-bit A7 chip a 'marketing gimmick', Qualcomm exec says (http://news.techworld.com/personal-tech/3471543/apples-64-bit-a7-chip-a-marketing-gimmick-qualcomm-exec-says/)
Bis Qualcomm mit dem Snapdragon XY mit 64 Bit kommt, der ist dann der first 64-Bit Quadcore ever :freak:
Ailuros
2013-10-03, 06:16:24
Ich hab so das Bauchgefühl, dass sie das nicht ausschließlich über die reine Frequenz prügeln. Ab einem gewissen Punkt kostet Frequenz überproportional mehr Leistungsaufnahme. Sie wollen für A7X sicher 2x A7 GPU Performance. Und Rogue ist im A7 schon nicht gerade niedrig getaktet. Faktor 2 nur über die Frequenz? Dann lieber 50 % über die 2C mehr und den Rest über die Taktrate.
Wie gesagt ich bin mir nicht mehr sicher ob sie so oder so wirklich 2x A6 GPU Leistung erreichen; als IP wurde 6430 06/12 angekuendigt und 6630 dann 11/12. Ich dachte der letzte war noch juenger; wird aber trotz allem eine Rekord-Integrierungszeit wenn's stimmt.
Scheissegal was das ex-AMD Orlando team in der Zukunft machen wird, wenn sie es schaffen IP in einem Jahr von der Fertigstellung auf den Ladentisch zu bekommen dann "ouch"; ausser natuerlich IMG sass ziemlich lange auf dem IP und bruetete darauf was ich fuer absurd halte. Es ist ja nicht so dass es mit den CPUs anders ist.
robbitop
2013-10-03, 10:23:07
Wie gesagt ich bin mir nicht mehr sicher ob sie so oder so wirklich 2x A6 GPU Leistung erreichen; als IP wurde 6430 06/12 angekuendigt und 6630 dann 11/12. Ich dachte der letzte war noch juenger; wird aber trotz allem eine Rekord-Integrierungszeit wenn's stimmt.
Scheissegal was das ex-AMD Orlando team in der Zukunft machen wird, wenn sie es schaffen IP in einem Jahr von der Fertigstellung auf den Ladentisch zu bekommen dann "ouch"; ausser natuerlich IMG sass ziemlich lange auf dem IP und bruetete darauf was ich fuer absurd halte. Es ist ja nicht so dass es mit den CPUs anders ist.
Es ist ja nicht so, dass Apple/IMG eine Wahl hätte. Bei dem kompetativen SFF GPU Umfeld muss man, wenn man vorn sein will (und ich denke, das sind Apples Ansprüche), sehr schnell auf den Markt. Implementierungszeiträume von 2 Jahren sind einfach viel zu lang. (ich habe mich früher schon immer gewundert, warum das bei SFF so lange dauert - AMD/NV schaffen in 2 Jahren den kompletten Zyklus vom Design bis zum Massenprodukt!)
Ich sehe die latente Gefahr, dass IMG von ihrer Entwicklungsgeschwindigkeit mittelfristig nicht mehr nachkommen. Der Markt will jedes Jahr Faktor 2 sehen. Wie viele Leute hat IMG denn an den GPUs in der Entwicklungsabteilung?
Ailuros
2013-10-03, 11:03:57
Es ist ja nicht so, dass Apple/IMG eine Wahl hätte. Bei dem kompetativen SFF GPU Umfeld muss man, wenn man vorn sein will (und ich denke, das sind Apples Ansprüche), sehr schnell auf den Markt. Implementierungszeiträume von 2 Jahren sind einfach viel zu lang. (ich habe mich früher schon immer gewundert, warum das bei SFF so lange dauert - AMD/NV schaffen in 2 Jahren den kompletten Zyklus vom Design bis zum Massenprodukt!)
Was schafft genau AMD/NV innerhalb 2 Jahren?
Ich sehe die latente Gefahr, dass IMG von ihrer Entwicklungsgeschwindigkeit mittelfristig nicht mehr nachkommen. Der Markt will jedes Jahr Faktor 2 sehen. Wie viele Leute hat IMG denn an den GPUs in der Entwicklungsabteilung?
Bei wieviel clusters glaubst Du wuerde es bei Rogue genau so weit kommen? Ein theoretischer MP4 mit 12c/core erreicht bei 600MHz die 1.8TFLOPs nur als Beispiel. Ich erwarte dass die Latenz des designs auch nicht bei 64c halt machen muss. So viel Leistung wird Apple nie brauchen bevor die Prozesse den Wind aus ihren Segeln ziehen.
robbitop
2013-10-03, 11:18:27
Was schafft genau AMD/NV innerhalb 2 Jahren?
Eine GPU. Oder auch im Falle von AMD einen kompletten SoC.
Bei wieviel clusters glaubst Du wuerde es bei Rogue genau so weit kommen? Ein theoretischer MP4 mit 12c/core erreicht bei 600MHz die 1.8TFLOPs nur als Beispiel. Ich erwarte dass die Latenz des designs auch nicht bei 64c halt machen muss. So viel Leistung wird Apple nie brauchen bevor die Prozesse den Wind aus ihren Segeln ziehen.
Die Frage ist, wie effizient die reine Skalierung von einem bestehendem Design ist.
Ailuros
2013-10-03, 11:36:46
Eine GPU. Oder auch im Falle von AMD einen kompletten SoC.
Wo entwickelt der eine oder andere eine GPU innerhalb nur 2 Jahren?
Die Frage ist, wie effizient die reine Skalierung von einem bestehendem Design ist.
Die Latenz bei Series5XT war bei MP16; bei Rogue ist sie zich Male hoeher (nur diesmal natuerlich clusters anstatt cores).
robbitop
2013-10-03, 11:39:15
Wo entwickelt der eine oder andere eine GPU innerhalb nur 2 Jahren?
Es gibt 2x GPU Stories auf Anandtech. Dort waren es IIRC 2 Jahre für RV770 und RV870.
Die Latenz bei Series5XT war bei MP16; bei Rogue ist sie zich Male hoeher (nur diesmal natuerlich clusters anstatt cores).
Die Frage ist nur, wie effizient das Ganze ist. Ab einem gewissen Punkt is ein neues Design wieder effizienter. Skalierung geht immer nur bis zu einem gewissen Punkt effizient (Transistoren, Kosten, TDP etc).
Ailuros
2013-10-03, 12:02:21
Es gibt 2x GPU Stories auf Anandtech. Dort waren es IIRC 2 Jahre für RV770 und RV870.
"GPU" ist eine ziemlich wage Beschreibung in dem Fall; refresh einer Architektur ist dann wohl doch auch wieder etwas anderes.
Die Frage ist nur, wie effizient das Ganze ist. Ab einem gewissen Punkt is ein neues Design wieder effizienter. Skalierung geht immer nur bis zu einem gewissen Punkt effizient (Transistoren, Kosten, TDP etc).
Der 554 im A6X ist der refresh vom refresh des refreshs der originalen SGX. Wenn ich versuche aufzuzaehlen wie oft sich die roadmap geaendert hat wird es mir schwindlig. Anfangs gab es wenn ich mich jetzt nicht irre:
SGX530 = 2Vec2, 1TMU, 8z
SGX545 = 4Vec2, 2 TMUs, 16z
SGX555 = 8Vec2, 4 TMUs, 16z
Wie es heute aussieht weisst Du schon selber. Diese schnellen und radikalen Wandlungen sind aber nichts Neues bei GPU IP IHVs. Es ist auch bei ARM Mali und Vivante nicht anders.
Ich vermute dass sie jetzt mit dem ersten Schub von 62x0, 64x0, 6630, 6100 die ersten 20 SoCs ausgestattet haben (4 davon innerhalb 2013) und es geht dann mit 6XT ab 2014/5 dann weiter.
deekey777
2013-10-08, 22:44:32
..
Ich halte es nicht fuer unmoeglich, denn afaik entwickelt Apple die GPU Treiber selber (IMG liefert lediglich den compiler) und im A7 hat die GPU ohnehin schon zumindest angepasste TMUs nach Indizien.
Wurden diese von Apples Orlando-Team angepasst oder waren sie schon serienmäßig angepasst?
-----------------
64-bit CPUs seen bolstering possible 13" iPad notebook from Apple
The decision to move the A7 processor and iOS 7 to a 64-bit architecture may signal the beginning of a strategy for Apple to build a 13-inch, notebook-style iPad, one analyst has speculated.
Ohne nachzudenken, wieviel Wert diese Spekulation hat, aber interessant ist sie allemal.
Ailuros
2013-10-09, 08:57:39
Wurden diese von Apples Orlando-Team angepasst oder waren sie schon serienmäßig angepasst?
Schon vorher.
64-bit CPUs seen bolstering possible 13" iPad notebook from Apple
Ohne nachzudenken, wieviel Wert diese Spekulation hat, aber interessant ist sie allemal.
Ich wuerde es nicht so leicht als Spekulation abstempeln; dass iOS mit der Zeit "erwachsener" wird ist nichts Neues.
Ailuros
2013-10-12, 17:10:25
http://www.xbitlabs.com/news/other/display/2013101023305_Analysts_Speculate_on_Apple_s_Next_Year_Roadmap.html
Die_Allianz
2013-10-12, 18:44:20
http://www.xbitlabs.com/news/other/display/2013101023305_Analysts_Speculate_on_Apple_s_Next_Year_Roadmap.html
was für ein bullshit :freak:
Ailuros
2013-10-13, 18:24:47
Einiges ist keineswegs "bullshit".
Die_Allianz
2013-10-13, 18:38:31
Einiges ist keineswegs "bullshit".
erzähl mehr... ;)
iPad 5 9,7" mit gleicher Auflösung wie bisher, yay. Alles andere sind feuchte Träume von irgendwelchen Analysten oder sonstigen überbezahlten Idioten die wirklich keinerlei mehr Einblick haben wie alle anderen auf der Welt.
Wenn man natürlich 5 fiktive Geräte mit 36 fiktiven Display-Größen und Auflösungen aufzählt kann man schon mal einen Glückstreffer haben. ;D
Scheiße an die Wand werfen.... lautet das Sprichwort, glaub ich.
Ailuros
2013-10-13, 18:50:54
erzähl mehr... ;)
iPad 5 9,7" mit gleicher Auflösung wie bisher, yay. Alles andere sind feuchte Träume von irgendwelchen Analysten oder sonstigen überbezahlten Idioten die wirklich keinerlei mehr Einblick haben wie alle anderen auf der Welt.
Wenn man natürlich 5 fiktive Geräte mit 36 fiktiven Display-Größen und Auflösungen aufzählt kann man schon mal einen Glückstreffer haben. ;D
Scheiße an die Wand werfen.... lautet das Sprichwort, glaub ich.
Was soll ich buntes erzaehlen? Es gibt seit neuestem ein iPhone5C und seit letztem Jahr ein iPadmini. Deren Nachfolger koennen langfristig locker die heutigen Aufloesungen von den normalen iPhone/iPads erben, waehrend die 5S bzw. iPad5 Nachfolger durchaus auf groesere displays bzw. Aufloesungen setzen koennen.
Beim naechsten mini gibt es Zweifel ob sie so viele 2048 displays finden koennen fuer einen vollen launch, ergo bleibt abgesehen was sie in dem Bereich geschafft haben. Sonst haengen wohl auch zukuenftige Plaene von der Verfuegbarkeit der displays ab am Anfang aber ich hab sonst keine Zweifel dass es in die Richtung gehen wird und iPads werden auch NICHT bei "nur" 13" langfristig stecken bleiben.
deekey777
2013-10-13, 19:41:39
Coming from Apple in 2014: 12-inch Retina MacBook, sharper iPad, cheaper iMac? (http://9to5mac.com/2013/10/12/coming-from-apple-in-2014-12-inch-retina-macbook-sharper-ipad-cheaper-imac/)
Bei Apple soll aktuell mit verschiedenen Displaygrößen fürs iPhone experimentiert werden, Apple wird ein größeres iPhone bringen (müssen). Vor einigen Tagen hieß es wirklich, dass Apple auch ein größeres iPad bringt, denkbar wäre, dass beide die gleiche Auflösung haben, die höher sein wird als heute. Das iPad mini 3 bleibt bei der Auflösung des iPad mini 2, für welches ebenfalls Retina-Auflösung spekuliert wird. Vielleicht bringt Apple auch eine Art iPad mini C mit der Auflösung des heutigen iPad mini, aber mit einem A6 (für 1024x768 vollkommen ausreichend).
... Sonst haengen wohl auch zukuenftige Plaene von der Verfuegbarkeit der displays ab am Anfang aber ich hab sonst keine Zweifel dass es in die Richtung gehen wird und iPads werden auch NICHT bei "nur" 13" langfristig stecken bleiben.
Wie jetzt? Braucht Fox News neue iPads?
mboeller
2013-10-13, 22:08:52
Bei Apple soll aktuell mit verschiedenen Displaygrößen fürs iPhone experimentiert werden, Apple wird ein größeres iPhone bringen (müssen).
Wie? Das Display-System scheint ja ziemlich starr zu sein. Die iPhones haben ja immer eine horizontale Auflösung von 320 od. 640 Pixel gehabt. Das nächste wären dann 960 Pixel...und damit im Vergleich zu HD-Konkurrenz ein "Fail". Eine horizontale Auflösung von 1280 Pixel wird aber ziemlich heftig werden.
Apple pusht seit der WWDC 2011 (iOS5) massiv Cocoa Auto Layout (https://developer.apple.com/library/ios/documentation/UserExperience/Conceptual/AutolayoutPG/Introduction/Introduction.html). Das machen sie sicherlich nicht, um auf immer und ewig bei derselben Display-Auflösung zu bleiben. ;)
Allerdings skaliert Auto Layout nicht in Sachen PPI, d.h. entweder sie bleiben bei ~330 wie im Moment, oder sie führen einen "3x" oder "4x" Modus ein. Die aktuellen "Retina"-Displays sind "2x", d.h. aus Anwendungssicht hat ein iPhone5 eine Auflösung von 320x568 Punkten, wobei ein Punkt definiert ist durch 2x2 Pixel.
smalM
2013-10-20, 21:31:53
Das nächste wären dann 960 Pixel...und damit im Vergleich zu HD-Konkurrenz ein "Fail".
Im Vergleich zur Konkurrenz ist ein 4" Bildschirm winzig; das kann doch unmöglich verkäuflich sein! :eek:
4,5" mit 1280x720 Punkten ergäben mit 326dpi dieselbe Auflösung wie bisher.
Wieso sollte Apple das nicht als zusätzliches 6er Modell bringen? Für die ordentliche Darstellung des Startfensters werden sie schon eine Lösung finden, sind doch schlaue Kerlchen...
AnarchX
2013-10-22, 20:15:42
iPad Air nur mit A7, trotzdem will man die Renderingleistung gegen dem A6X verdoppelt haben.
Sunrise
2013-10-22, 20:19:31
iPad Air nur mit A7, trotzdem will man die Renderingleistung gegen dem A6X verdoppelt haben.
Wollte ich auch gerade posten. Wie soll das bitte gehen? Ich bin grade etwas baff.
YfOrU
2013-10-22, 20:23:30
iPad Air nur mit A7, trotzdem will man die Renderingleistung gegen dem A6X verdoppelt haben.
Und auch das Mini. Damit gibt Apple was den 64-bit Support des kompletten Portfolios (inkl. OSX) angeht ordentlich Gas und zum anderen scheint man bei den SoCs einen ähnlichen Weg wie Qualcomm zu gehen. Der SoC wird je nach verfügbaren TDP Budget skaliert (Smartphone, Tablet->Taktfrequenzen).
Sunrise
2013-10-22, 20:25:54
Es scheint also wohl so, dass man beim A7 auf 28nm HKMG nun über den Takt die Modelle skaliert. Durch die ständige Verkleinerung kann man wohl nichtmehr in die Breite skalieren.
YfOrU
2013-10-22, 20:31:13
Es scheint also wohl so, dass man beim A7 auf 28nm HKMG nun über den Takt die Modelle skaliert. Durch die ständige Verkleinerung kann man wohl nichtmehr in die Breite skalieren.
A5X und A6X sind dem Schritt hin zu den Retina Displays geschuldet. Mit einem A5 wäre das kaum vernünftig gegangen. Gibt ja einige China Tabs mit derart hochauflösenden Displays und vergleichbarer GPU. Auf dem Niveau von Apple kann man sowas nicht bringen ;)
Ailuros
2013-10-22, 20:36:04
A5X und A6X sind dem Schritt hin zu den Retina Displays geschuldet. Mit einem A5 wäre das kaum vernünftig gegangen. Gibt ja einige China Tabs mit derart hochauflösenden Displays und vergleichbarer GPU. Auf dem Niveau von Apple kann man sowas nicht bringen ;)
Dafuer muss die GPU aber auf ~660MHz takten. Ein Problem sehe ich damit nicht, aber ich werde mal wieder Grund zum schmunzeln haben gegen all diejenigen die behaupteten dass Apple es nicht so mit Frequenzen hat :D
smalM
2013-10-22, 20:40:52
:comfort:
Sunrise
2013-10-22, 20:43:01
A5X und A6X sind dem Schritt hin zu den Retina Displays geschuldet. Mit einem A5 wäre das kaum vernünftig gegangen. Gibt ja einige China Tabs mit derart hochauflösenden Displays und vergleichbarer GPU. Auf dem Niveau von Apple kann man sowas nicht bringen ;)
Schon klar, nur hast du ja auch hier wieder Retina und bei der Angabe der doppelten Leistung zum vorherigen Modell, braucht Apple runde 160 GFLOPs GPU-Leistung, damit das eingehalten wird. Der A7 wird mir immer unheimlicher. Das Ding zersägt alles.
Ailuros
2013-10-22, 20:46:59
Schon klar, nur hast du ja auch hier wieder Retina und bei der Angabe der doppelten Leistung zum vorherigen Modell, braucht Apple runde 160 GFLOPs GPU-Leistung, damit das eingehalten wird. Der A7 wird mir immer unheimlicher. Das Ding zersägt alles.
Bei hypothetischen 660MHz sind es:
169 GFLOPs FP32
211 GFLOPs FP16
5.28 GTexels/s (w/o overdraw)
21.12 GPixels/s ?
168 MTris/s (real)
***edit: CPU Frequenz? 1.4GHz oder mehr? (ehrliche Frage)
******edit: kudos an den Freund der vor einiger Zeit sagte dass das naechste iPad die ersten fast "spielbaren" frameraten in GLB2.7 erreichen wird.
fizzo
2013-10-22, 21:04:37
CPU: 1,3GHZ - laut Computerbase (http://www.computerbase.de/news/2013-10/ipad-heisst-jetzt-ipad-air-und-ist-schneller-und-duenner/)
Der Akku ist demnach von 42,5Wh auf 32,4Wh geschrumpft - bei gleicher Laufzeit :up:
Undertaker
2013-10-22, 21:08:31
Wenn das auch für die Laufzeit in 3D-Spielen gilt – man bedenke den hohen GPU-Takt – dann ist das wirklich eine ziemlich beeindruckende Leistung...
Btw: Warum keine Lizenzierung der Cyclone-Architektur? :naughty:
deekey777
2013-10-22, 21:45:00
CPU: 1,3GHZ - laut Computerbase (http://www.computerbase.de/news/2013-10/ipad-heisst-jetzt-ipad-air-und-ist-schneller-und-duenner/)
:
Was ist die Quelle dafür?
fizzo
2013-10-22, 21:49:53
Was ist die Quelle dafür?
Autor: Nicolas La Rocco - Quelle: Apple :ugly:
Kann ich auch noch nicht wirklich 100%ig glauben. Mich würde auch interessieren, ob der A7 im Mini die selben Taktraten wie im Air hat. Das Display ist zwar kleiner aber bei gleicher Laufzeit müsste doch der noch kleinere Akku im Mini früher schwächeln...oder?
deekey777
2013-10-22, 21:54:00
Autor: Nicolas La Rocco - Quelle: Apple :ugly:
Apple gibt nie den Takt an, es sei denn sie haben den größten.
Kann ich auch noch nicht wirklich 100%ig glauben. Mich würde auch interessieren, ob der A7 im Mini die selben Taktraten wie im Air hat. Das Display ist zwar kleiner aber bei gleicher Laufzeit müsste doch der noch kleinere Akku im Mini früher schwächeln...oder?
Es wäre nachvollziehbar, dass der A7 im mini langsamer getaktet ist. Aber wer weiß, vielleicht taktet der A7 überall mit 1,3 GHz.
Nightspider
2013-10-23, 01:50:29
1,3 Ghz im großen iPad wären echt lächerlich.
Genauso finde ich 1GB RAM in einem 500-900 Euro Produkt Ende 2013 sowas von frech.
Bei Android gibts bei den Top-Modellen teilweise 3GB, also 3 mal so viel und bald gibt es die ersten 4GB Tablets.
Terrarist
2013-10-23, 02:19:55
1,3 Ghz im großen iPad wären echt lächerlich.
Genauso finde ich 1GB RAM in einem 500-900 Euro Produkt Ende 2013 sowas von frech.
Bei Android gibts bei den Top-Modellen teilweise 3GB, also 3 mal so viel und bald gibt es die ersten 4GB Tablets.
Wenn nächstes mal sonst nicht mehr viel zu verdoppeln ist dann verdoppeln die auf 2GB RAM, wetten? ;D
Fairerweise sollte jedoch erwähnt werden dass Apple's OS einfach mit weniger auskommt da die Technologien die für das OS verwendet werden ressourcenschonender sind.
Dieser Java Müll macht die Menge an RAM auf Android nötig damit das alles konkurrenzfähig bleibt. Früher oder später wird Google das eh alles durch Go Entwicklungen ersetzen.
Sunrise
2013-10-23, 03:31:15
***edit: CPU Frequenz? 1.4GHz oder mehr? (ehrliche Frage)
Hm, also wenn der CPU-Teil im A7 des iPad Air in gleichem Maße 2x schneller relativ zum A6X des iPad 4 ist, wie der A7 des iPhone 5s relativ zum A6 des iPhone 5, dann ergibt sich für mich in der Tat folgendes Bild:
iPhone 5 (A6 1.3GHz) x 2 (CPU) = iPhone 5s (A7 1.3GHz)
iPad 4 (A6X 1.4GHz) x 2 (CPU) = iPad Air (A7 1.4GHz)
Wenn überhaupt, wird dafür nur wenig zusätzliche Spannung nötig sein und man kann dann bei der GPU-Leistung Vollgas geben, sodass man wieder auf die etwa 10 Stunden Akku-Laufzeit bei kleinerem Akku, relativ zum iPad 4 kommt.
Bei hypothetischen 660MHz sind es:
169 GFLOPs FP32
211 GFLOPs FP16
5.28 GTexels/s (w/o overdraw)
21.12 GPixels/s ?
168 MTris/s (real)
Danke, das kommt gut hin. Ich freu mich schon auf das Teil. :eek:
Und zum iPad mini Retina:
Das iPad mini Retina hat laut Apple einen 23,8 Wattstunden Akku, das sind relativ zu den 32,4 Wattstunden des iPad Air ca. 36% weniger Akku-Kapazität.
Da Apple dort aber auch von etwa 10 Stunden Akku-Laufzeit spricht und ich bei Apple keine anderen Unterschiede in den technischen Angaben gefunden habe, hat der A7 im iPad mini Retina auch wieder andere Taktfrequenzen (wie schon angesprochen).
Die einzigen Angaben von Apple sind 4x CPU- und 8x GPU-Leistung relativ zum iPad mini (A5 dual-core auf 32nm HKMG). Da komme ich dann auf 1.0GHz (CPU) und etwa 102.4/128GFLOPS (GPU), wenn ich mich nicht verrechnet habe. Wobei das schon ein wenig komisch aussieht, ein A7 im iPad mini Retina der den CPU-Teil niedriger taktet als der A7 im iPhone 5s?! Normalerweise sollte das iPhone 5S hier den niedrigsten bzw. energieeffizientesten Takt vorgeben, also bleibt man evtl. doch bei 1.3GHz und spart evtl. doch mehr an der GPU des mini Retina als gedacht? Oder aber Apples Angaben stimmen hier nicht ganz.
Ailuros
2013-10-23, 08:20:36
Vergiss nicht dass sie hoechstwahrscheinlich in 2D und/oder idle die halbe GPU (ie 2 cluster) ganz abschalten koennen.
Uebrigens wenn ich mich nicht irre duerfte der iPhone5S um die 12+GB Bandbreite haben; iPadAir A7 muss dementsprechend zumindest doppelt so viel haben wenn nicht noch mehr.
8x Mal GPU zum iPad mini klingt eher nach realistischen Echtzeit-Messungen in irgend etwas wie dem kommenden infinity blade. Marketing kann sich nicht so schlagartig wenden innerhalb von Monaten sonst wird die uebliche Uebertreibung zu "durchsichtig" fuer den Normalverbraucher :P
Beim 5S/A7 behaupteten sie 2x Mal GPU gegenueber 5/A6:
A6 = 543MP3@325MHz
3* (4*8) * 0.325GHz = 31.2 GFLOPs
A7 = G6430@433MHz (?)
4* (4*16) * 0.433GHz = 110.8 GFLOPs
110.8 / 31.2 = 3.55x ;)
***edit: sie geben nur 2x an weil die Geometrie-Leistung u.a. zum Stillstand kam bzw. stellenweise reduziert wurde. Der MP2 im iPad mini bei 200MHz duerfte in Echtzeit bis zu 67M Tris liefern. Oben meine Schaetzung fuer G6400@660MHz; der Unterschied ist trotz brutalem Frequenz-Unterschied laecherlich klein.
Ailuros
2013-10-23, 09:41:09
Sicher bin ich mir zwar nicht aber es scheint ein schnellerer A7 Treiber unterwegs zu sein (iOS 7xx) der das iPhone5S in den Adreno330 Leistungs-bereich bringt; es wird nicht der einzige sein denn es kommt spaeter wohl noch ein gesunder Leistungschub von der Geometrie-Seite her. Das obrige ist ohne die Geometrie relevanten Optimierungen.
iPhone5S
GLB2.7 offscreen 26.8 fps (1498)
GLB2.5 offscreen 63.7 fps (7193)
Wenn es stimmt koennte die Frequenz des A7 im Air etwas naeher zu 600MHz (~610) ausfallen.
***edit: es waere auch sehr passend fuer meine Milchmaedchen-thesen wenn die CPU im Air bei 1800 takten wuerde :D und ja natuerlich ist es nur ein Scherz!
deekey777
2013-10-23, 09:56:29
Uebrigens wenn ich mich nicht irre duerfte der iPhone5S um die 12+GB Bandbreite haben; iPadAir A7 muss dementsprechend zumindest doppelt so viel haben wenn nicht noch mehr.
Wie erreicht man die doppelte Bandbreite bei einem schon fertigen und gefertigten SoC?
Ailuros
2013-10-23, 09:58:50
Wie erreicht man die doppelte Bandbreite bei einem schon fertigen und gefertigten SoC?
Hoehere Speicherfrequenz?
robbitop
2013-10-23, 10:00:00
Schon klar, nur hast du ja auch hier wieder Retina und bei der Angabe der doppelten Leistung zum vorherigen Modell, braucht Apple runde 160 GFLOPs GPU-Leistung, damit das eingehalten wird. Der A7 wird mir immer unheimlicher. Das Ding zersägt alles.
Naja - Rogue ist ungleich effizienter in der Ausnutzung der Rechenleistung. Serie5 hat SIMD ALUs IIRC ohne splitting. Rogue kann analog zu G80 die ALUs "skalar" nutzen. (sind natürlich trotzdem SIMDs, die aber anders/aufwändiger angesteuert werden)
Das kann eine ganze Menge Effizienz bringen. In einigen Nicht-Geometrielimitierten Benchmarks bläßt Rogue G4630 den 544MP3 um deutlich mehr weg als den Faktor 2.
Btw: Warum keine Lizenzierung der Cyclone-Architektur? :naughty:
Die Frage kann nicht ernst gemeint sein? :)
1,3 Ghz im großen iPad wären echt lächerlich.
Genauso finde ich 1GB RAM in einem 500-900 Euro Produkt Ende 2013 sowas von frech.
Bei Android gibts bei den Top-Modellen teilweise 3GB, also 3 mal so viel und bald gibt es die ersten 4GB Tablets.
Du warst bestimmt auch mal begeisterter Pentium 4 käufer, oder? :| Takt ist irrelevant. Leistung ist entscheident*. Und da bläßt Cyclone mit seinen 1,3 GHz selbst einen A15 oder einen Krait mit 2 GHz weg. Und hat dabei nur einen Bruchteil der Leistungsaufnahme. Auch der Rogue mit 660 MHz tut genau das gleiche mit dem Adreno 330.
*und selbst die reine Rohleistung ist nicht entscheidend sondern das Gesamtergebnis aus Hard und Software. Wie flüssig sich alles anfühlt etc. Und ich glaube kaum, dass es ein Tablet gibt, was das iPad Air dort alt aussehen lässt.
Ein Tablet ist kein Windows-PC... ;)
Sicher bin ich mir zwar nicht aber es scheint ein schnellerer A7 Treiber unterwegs zu sein (iOS 7xx) der das iPhone5S in den Adreno330 Leistungs-bereich bringt; es wird nicht der einzige sein denn es kommt spaeter wohl noch ein gesunder Leistungschub von der Geometrie-Seite her. Das obrige ist ohne die Geometrie relevanten Optimierungen.
Außerhalb von völlig realitätsfremden* Geometriebenchmarks ist A7 auch jetzt schon im Leistungsbereich von Adreno 330. Benchmarks habe ich schon genug verlinkt.
*ich habe ja schon mal vorgerechnet, ab wann das Front-End von Rogue limitiert. Und was wird in den nächsten Jahren nicht der Fall sein.
Ailuros
2013-10-23, 10:05:33
Naja - Rogue ist ungleich effizienter in der Ausnutzung der Rechenleistung. Serie5 hat SIMD ALUs IIRC ohne splitting. Rogue kann analog zu G80 die ALUs "skalar" nutzen. (sind natürlich trotzdem SIMDs, die aber anders/aufwändiger angesteuert werden)
Das kann eine ganze Menge Effizienz bringen. In einigen Nicht-Geometrielimitierten Benchmarks bläßt Rogue G4630 den 544MP3 um deutlich mehr weg als den Faktor 2.
Zwar stimmt die eigentliche Schlussvolgerung oben, aber das S5 ALU relevante Zeug oben ist so daneben dass es weh tut. Bleib bei der vector ALU vs. "scalar" ALU Vereinfachung es hilft.
deekey777
2013-10-23, 10:09:07
Hoehere Speicherfrequenz?
Woher soll sie kommen?
Es gibt zwei Möglichkeiten: Entweder ist überall der A7 gleich und im Air höher getaktet (GPU&CPU, aber der Speicher nicht), oder der A7 im Air ist anders (zB doppelt so breite Anbindung des Speichers).
Ailuros
2013-10-23, 10:14:04
Wieso sollten sie den Speicher nicht hoeher takten koennen?
AnarchX
2013-10-23, 10:23:02
Selbst mit 1,866Gbps LP-DDR3 hat man noch weniger Bandbreite als der A6X.
Wie hoch war eigentlich der Takt beim A7@iP5S?
Ailuros
2013-10-23, 10:26:30
Selbst mit 1,866Gbps LP-DDR3 hat man noch weniger Bandbreite als der A6X.
Wie hoch war eigentlich der Takt beim A7@iP5S?
Ich hab keine Ahnung wie der Takt auf A7 im 5S aussieht, aber ich schaetze nach den geekbench Resultaten eine Bandbreite von 8-12+GB ein; anders nicht mehr als schaetzungsweise 400MHz:
http://en.wikipedia.org/wiki/Apple_%28system_on_chip%29#cite_note-AnandTech-iPhone5s-Cyclone-58
robbitop
2013-10-23, 10:48:02
das S5 ALU relevante Zeug oben ist so daneben dass es weh tut.
Splitting rettet sehr selten den Tag. ;)
----------------
Nicht immer ist brutale Bandbreite nötig. Das Speicherinterface von A7 ist angeblich nochmal deutlich effizienter geworden und auch durch die richtigen Caches kann man viel abfangen. Rogue ist ein TBDR, da läuft der Großteil des fragmentiertesten Traffics eh über die Tilebuffers. Offensichtlich ist das in den Benchmarks auch kein Problem. In nicht geometrielimitieren Benchmarks wird Serie 5 z.T einfach nur weggeblasen.
Ailuros
2013-10-23, 11:09:31
Splitting rettet sehr selten den Tag. ;)
http://withimagination.imgtec.com/index.php/powervr/powervr-rogue-designing-an-optimal-architecture-for-graphics-and-gpu-compute
Nicht immer ist brutale Bandbreite nötig. Das Speicherinterface von A7 ist angeblich nochmal deutlich effizienter geworden und auch durch die richtigen Caches kann man viel abfangen. Rogue ist ein TBDR, da läuft der Großteil des fragmentiertesten Traffics eh über die Tilebuffers. Offensichtlich ist das in den Benchmarks auch kein Problem. In nicht geometrielimitieren Benchmarks wird Serie 5 z.T einfach nur weggeblasen.
PowerVR GPUs haben auch wie alle anderen GPUs groessere caches gern; schon Serie5 hatten multi-level caches integriert bei Rogue wird es noch ein Stueck weiterentwickelt sein obwohl es an Daten darueber fehlt. Wenn's obrige stimmt dann liefert das iPhone5S seit neuestem 63 fps in GLB2.5 (ziemlich geometry bound) gegen 54+ fps beim iPad4 mit steigender Tendenz fuer's erste fuer die Zukunft. Sollte aber kein Schwein interessieren und auch nicht die GLB2.7 Leistung. Ich will endlich GLB3.0 fuer OGL_ES3.0 sehen und egal wenn es von single digit framerates wieder nur so regnet ;)
***edit: wissen wir eigentlich schon ob die fette cache ueber der A7 GPU auch fuer die GPU ist?
robbitop
2013-10-23, 14:55:16
Den Cache wollte ich gerade einwerfen. Der sollte auch einiges abfedern können. Ggf. ist es einfach ein LLC Cache vor dem Speichercontroller (analog zu Intels LLC).
Ailuros
2013-10-23, 14:57:16
4MB oder nicht?
Ailuros
2013-10-23, 18:12:12
Guter Punkt:
http://forum.beyond3d.com/showpost.php?p=1797480&postcount=2228
I've had some thoughts on the lack of an A7x and would like to run it past you guys.
My theory is the the X chips were driven by the need for more bandwidth rather than just more performance. If you remember the A5 at the time it had 6.4GB/sec bandwidth. Retina displays are bandwidth hungry; for a 2048×1536 display the frame buffer alone could take something approaching 2GB/Sec, if we take into account some overdraw. 6.4GB/s was clearly not enough and the only way they could achieve higher bandwidth at the time was by moving to a 128-bit memory interface. That requires lot of pads, which in turn requires a large die.
Now that we have fast LPDDR3 memory, you can achieve very high bandwidth by using higher clocked chips on a 64 bit bus (the Exynos 5420 has a bandwidth of 15GB/s on 2×32bit memory bus for example). Thus the big die is no longer required and performance can be increased by clocking the GPU higher.
In short, the X chips were a short term measure while they waited for memory technology to catch up with what’s needed to drive a retina display.
robbitop
2013-10-23, 19:17:11
Die Argumentation ist schlüssig.
Undertaker
2013-10-23, 19:50:08
Die Frage kann nicht ernst gemeint sein? :)
War sie aber eigentlich schon... ;) Oder ist die Lizenzierung einer eigenen ARM-kompatiblen Architektur gar nicht erlaubt?
Was ein solches Vorhaben in meinen Augen attraktiv erscheinen lässt: Die Gefahr einer Stärkung der eigenen Konkurrenz ist imo nicht gegeben. Die Entscheidung für ein iOS-Gerät ist zu 99% nicht auf die CPU-Power des SoCs zurückzuführen, sonst hätte Apple die letzten Monate (vor dem 5S-Launch) keinen Stich gegen die Qualcomm bestückte Android-Konkurrenz gesehen. Apple verkauft seine Geräte in erster Linie über Image, Design, Qualität, Software und Features. Nur weil ein Konkurrent statt z.B. eines Snapdragon 800 einen Cyclone-SoC hätte, würde das keinen potentiellen iPhone 5S Käufer zur Konkurrenz wechseln lassen.
robbitop
2013-10-24, 08:49:45
Lizenzen bringen nur Peanuts. Apple braucht keine Peanuts. Außerdem ist es gerade die Eigenentwicklung des SoCs und insbesondere der CPU, welches Diversifizierung erlaubt in diesem kompetativen Markt. Qualcomm hat dadurch viele Designwins eingefahren. Die A Reihe von Apple hebt sich immer mehr vom Rest des Marktes ab und bringt schon immer mehr Vorteile in Punkto Geschwindigkeit/Verbrauch. Apple will mit aller Macht ihre margenträchtigen Geräte verkaufen und da braucht es jedes Fitzel an Exklusivität. Der SoC gehört eindeutig dazu.
Ailuros
2013-10-24, 10:26:55
Undertaker,
Apple will aus gutem Grund einzigartige hw und sw anbieten. Wenn sie so weit gehen wuerden SoCs bzw. hw zu lizenzieren dann warum auch nicht auch iOS an dritte?
Ailuros
2013-10-24, 10:33:57
http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple%20iPhone%205S
A7@iPhone5S jetzt wie vorher spekuliert auf Adreno330 Nivaeu. iPadAir braucht somit ~600MHz um doppelt so viel wie das iPad4 zu erreichen (IMHO).
Der update der Leistung kam uebrigens mit 7.0.3.
BigKid
2013-10-24, 11:13:49
http://gfxbench.com/device.jsp?benchmark=gfx27&D=Apple%20iPhone%205S
A7@iPhone5S jetzt wie vorher spekuliert auf Adreno330 Nivaeu. iPadAir braucht somit ~600MHz um doppelt so viel wie das iPad4 zu erreichen (IMHO).
Der update der Leistung kam uebrigens mit 7.0.3.
Wie groß ist denn der Schub ?
Ailuros
2013-10-24, 12:15:46
Wie groß ist denn der Schub ?
~9% in GLB2.7
~12% in GLB2.5
robbitop
2013-10-24, 12:24:29
Egypt oder T-Rex?
Ailuros
2013-10-24, 12:29:25
Egypt oder T-Rex?
Fuer was steht wohl in meinem vorigen Post GLB2.7 und GLB2.5? 2.7 ist TRex mit dem unendlichen alpha test Brei und 2.5 Egypt + extra Geometrie (vs 2.1 z.B.).
Der "iphonecommunityuser" der normalerweise Apple Resultate offiziell eintraegt fummelt schon seit 2 Tagen damit rum. Er braucht eigentlich nur noch eine klein bisschen um den ersten Platz zu erreichen wenn er so weiterfummelt, nur wird dann wohl QCOM ihren 330 wohl auf 5W Verbrauch fuer die GPU in benchmarks treiben und gut ist es :D
robbitop
2013-10-24, 12:38:52
Was kann der iphone-Mensch da beeinflussen durch Fummelei? Ernsthafte Frage. :)
Ailuros
2013-10-24, 13:02:24
Was kann der iphone-Mensch da beeinflussen durch Fummelei? Ernsthafte Frage. :)
Apple hat bis jetzt nie die Frequenzen beruehrt; sonst liegt momentan der Adreno330 bei 1503 frames und das iPhone5S bei 1500 frames. Mit etlichen runs koennte er locker ein paar frames dazugewinnen; machen die meisten auch.
Sieht man auch hier: http://gfxbench.com/subtest_results_of_device.jsp?D=Apple+iPhone+5S&id=478&benchmark=gfx27
BigKid
2013-10-24, 13:03:31
~9% in GLB2.7
~12% in GLB2.5
+12% bei eher Geometrie limitierten Tests durch bessere Treiber ist ja schon nicht schlecht... Meinst du die holen da noch ein mehr raus ?
robbitop
2013-10-24, 13:03:56
Mit welchem Takt läuft der Adreno 330 eigentlich für die 1500 frames? Rogue läuft auf 440 MHz?
+12% bei eher Geometrie limitierten Tests durch bessere Treiber ist ja schon nicht schlecht... Meinst du die holen da noch ein mehr raus ?
T-Rex und Egypt sind Offscreen geometrielimtiert? Sieht IMO nicht so aus. Dort wird Serie 5XT von Rogue verprügelt. Und Rogue ist derzeit schwächer in Geometrie (aber dennoch stark genug um realitätsnah mittelfristig zu keinem Flaschenhals zu werden). Aber massiv stärker was Rechenleistung angeht.
Es gibt aber den MTri Test von GLB - den meinst du ggf?
BigKid
2013-10-24, 13:17:57
Mit welchem Takt läuft der Adreno 330 eigentlich für die 1500 frames? Rogue läuft auf 440 MHz?
T-Rex und Egypt sind Offscreen geometrielimtiert? Sieht IMO nicht so aus. Dort wird Serie 5XT von Rogue verprügelt. Und Rogue ist derzeit schwächer in Geometrie (aber dennoch stark genug um realitätsnah mittelfristig zu keinem Flaschenhals zu werden). Aber massiv stärker was Rechenleistung angeht.
Es gibt aber den MTri Test von GLB - den meinst du ggf?
Ich spekulier blos und im Gegensatz zu vielen anderen nicht mal mit gefährlichem Halbwissen sondern mit gefährlichem Viertelwissen ;)
Ich deute das was ich über die Tests gelesen habe so, dass bei T-Rex die Leistung anderwärtig verbraten wird und Egypt mit extra Geomtrie eben eher mit Geometrie... Und irgendwas limitiert Offscreen am Ende ja immer... Und wenns CPU oder Speicherbandbreite sind...
Ailuros
2013-10-24, 13:41:45
+12% bei eher Geometrie limitierten Tests durch bessere Treiber ist ja schon nicht schlecht... Meinst du die holen da noch ein mehr raus ?
Ja spaeter schon wenn sie den neuesten IMG Treiber benutzen.
Mit welchem Takt läuft der Adreno 330 eigentlich für die 1500 frames? Rogue läuft auf 440 MHz?
Ich glaube bin mir aber nicht sicher dass Samsung den 330 auf bis zu 550MHz von 450MHz default treibt. Rogue ist IMHO irgendwo bei =/>430MHz.
T-Rex und Egypt sind Offscreen geometrielimtiert?
T-Rex/2.7 ist alpha test (ergo z/stencil) bound und Egypt hauptsaechlich geometry bound fuer ULP GPUs.
Sieht IMO nicht so aus. Dort wird Serie 5XT von Rogue verprügelt.
Zwei so verschiedene Architekturen zu vergleichen ist bullshit.
Mal zum obrigen und ja ich kann die MT8135 GPU Frequenz nur einschaetzen und nur wenn richtig eingeschaetzt stimmt das folgende (frei erfunden ist die Frequenz nun auch nicht); alle Resultate offscreen:
Rogue Han G6200@220MHz
14.4 fps GLB2.7 (32z*220 = 7.04 GPixels)
34.9 fps GLB2.5 (~56M Tris/s real ?)
A7 GPU G6430@433MHz
26.8 fps GLB2.7 (32z*433 = 13.86 GPixels)
63.7 fps GLB2.5 (~110M Tris/s real ?)
(ich muesste eigentlich die alten A7 Resultate benutzen weil die Rogue Han Resultate auch ziemlich alt sind).
Faellt der Groschen anhand der Resultate oder immer noch nicht?
Und Rogue ist derzeit schwächer in Geometrie (aber dennoch stark genug um realitätsnah mittelfristig zu keinem Flaschenhals zu werden). Aber massiv stärker was Rechenleistung angeht.
SGX cores sind in den 2.7/2.5 benchmarks ALU limitiert und SGX haben auch einen hw bug mit scissoring sonst wuerde jeglicher MP4 mit seinen 64z check units ziemlich ablegen in 2.7. Rogue hingegen ist input assembly/geometry bound in 2.5 und in 2.7 siehste wohl selber oben wieso was und wo. Und nein nicht frei erfunden.
Es gibt aber den MTri Test von GLB - den meinst du ggf?
Gott bei denen tut's regelrecht weh; schlimmstes Beispiel:
Triangle throughput: Textured, fragment lit - Offscreen (1080p)
iPhone5S = 35M
iPhone5 = 79M
iPad4 = 114M
robbitop
2013-10-24, 14:23:13
Irgendwas skaliert beim G6430 nicht mit. Und du denkst es ist Geometrie? Wie dem auch sei: Rogue bietet genug Geometrieleistung. Selbst für Crysis 2 würde es reichen (die Geometrieleistung!). IMO ist der Benchmark realitätsferner Kram.
Ailuros
2013-10-24, 14:47:13
Irgendwas skaliert beim G6430 nicht mit. Und du denkst es ist Geometrie?
No shit Sherlock; sowohl die 62x0 als auch 64x0 cores haben den genau gleichen trisetup und z check Einheiten u.a. Ich "denke" nicht dass es Geometrie u.a. ist, ich weiss es. Bis zu 6630 wenn clusters skalieren heisst es hauptsaechlich nur mehr ALUs bzw. TMUs (fuer jeweils 2 clusters <-> 1 quad TMU).
Dass ein G64x0 auch zu wenig z check Einheiten hat hast Du zufaellig uebersehen?
Wie dem auch sei: Rogue bietet genug Geometrieleistung. Selbst für Crysis 2 würde es reichen (die Geometrieleistung!). IMO ist der Benchmark realitätsferner Kram.
"Genug" ist relativ wie stark man wirklich voreigenommen mit etwas ist. Es ist eben nicht "genug" nur weil es in Deine persoenliche Apple Vorstellung passt und ja es kommt von mir denn ich verlier bei deutlichen Schwaechen nicht meine Objektivitaet selbst wenn es um mein eigenes Kind ginge.
Der trisetup ist verdammt knapp geraten fuer den Rest der GPU und ich kann mir schon vorstellen dass wenn sie es dann in kommenden Series6XT cores besser auflegen, werde ich eben NICHT behaupten dass die Dinger jetzt zu 'viel' Geometrie bearbeiten koennen. Und ja es gibt eine ziemlich peinliche Hintergrundgeschichte dafuer ueber die ich mich nicht aeussern kann und ja Apple ist auch nicht zufrieden damit.
Der benchmark ist eines der besten momentan in der Industrie fuer ULP GPUs, das Problem im gegebenen Fall entschuldige liegt eher bei Dir weil Du wohl immer noch nicht die bisherigen Rogues richtig geschnallt hast. Wie gross ist den genau der 6430 im A7 nach dem dieshot unter Samsung's 28nm?
Nochmal bis es sitzt: ein MP4 S5XT config kann zwar stets nur 1 Tri/clock maximal bearbeiten aber bei 4 cores sind es stets vier rasterizer und vier trisetups die sich die Geometrie ueber die fuer sie zugesprochenen macro tiles unter den cores teilen. Man muss wirklich einen einzelnen Ueber-trisetup entwickeln um dagegen ankommen zu koennen.
***edit: uebrigens ist eines der Unterschiede zwischen 6400 und 6430 framebuffer compression fuer die 30-iger u.a. Man sollte uebrigens die zusaetzlichen FP16 FLOPs nur bei den 30-igern mitzaehlen.
robbitop
2013-10-24, 15:02:37
No shit Sherlock; sowohl die 62x0 als auch 64x0 cores haben den genau gleichen trisetup und z check Einheiten u.a. Ich "denke" nicht dass es Geometrie u.a. ist, ich weiss es. Bis zu 6630 wenn clusters skalieren heisst es hauptsaechlich nur mehr ALUs bzw. TMUs (fuer jeweils 2 clusters <-> 1 quad TMU).
Dass ein G64x0 auch zu wenig z check Einheiten hat hast Du zufaellig uebersehen?
Nun arbeite bitte ersteinmal an deinem "Ton". Ich habe lediglich eine Frage gestellt.
Ich finde es äußerst interessant und würde am liebsten selbst ein paar Synthies durchjagen, um zu sehen, wo genau der Flaschenhals ist.
Wieviel Z-Check Einheiten hat denn 2C und 4C? Wobei Z-Tests eigentlich in wenigen Takten erledigt sind.
"Genug" ist relativ wie stark man wirklich voreigenommen mit etwas ist. Es ist eben nicht "genug" nur weil es in Deine persoenliche Apple Vorstellung passt und ja es kommt von mir denn ich verlier bei deutlichen Schwaechen nicht meine Objektivitaet selbst wenn es um mein eigenes Kind ginge.
Was soll denn diese patzige Reaktion? :|
Rechnen wir mal nach 430 MHz * 1 Tri /Clk sind 440 Mio Dreiecke pro Sekunde. Bei 60 fps sind es 7,16 Mio Dreiecke pro Frame.
Crysis 2 hat als peak 3,5 Mio Dreiecke pro Frame. Bedeutet, dass das Trisetup mehr als schnell genug ist.
Eh SFF Grafik bei der Polyrate ist, limitieren ganz andere Dinge. Deshalb halte ich solche Benchmarks für realitätsfern.
Der trisetup ist verdammt knapp geraten fuer die Rest der GPU
1 Tri/clk war bis vor Fermi / Cypress Standard und hat nirgends limitiert. Und die hatten schon > 2 TFLOPS und da lief ein ganz anderes Kaliber an grafischem Detail als auf SFF momentan. Bis zu 1 TFLOPs zumindest reichte 1 Tri/Clk.
und ich kann mir schon vorstellen dass wenn sie es dann in kommenden Series6XT cores besser auflegen, werde ich eben NICHT behaupten dass die Dinger jetzt zu 'viel' Geometrie bearbeiten koennen. Und ja es gibt eine ziemlich peinliche Hintergrundgeschichte dafuer ueber die ich mich nicht aeussern kann und ja Apple ist auch nicht zufrieden damit.
Der benchmark ist eines der besten momentan in der Industrie fuer ULP GPUs, das Problem im gegebenen Fall entschuldige liegt eher bei Dir und Deinem endlosen Klugscheisser-modus.
Nun komm mal wieder runter - ich begründe meine Argumente mit Zahlen, Daten, Fakten (Benchmarks habe ich in einem anderen Thread schon geliefert und die selbe Berechnung und den Vergleich zu Desktop GPUs auch).
Wenn ich einen Benchmark so auslege, dass er brutal auf einen einzigen Flaschenhals geht, kann ich auch Faktor 1000 anliegen haben. Wenn andere Faktor 5000 haben, sind sie dort 5x besser. Selbst wenn sie in real Szenarien (normal gewichtete 3D Grafik) keinen Einfluss hat.
Der benchmark ist eines der besten momentan in der Industrie fuer ULP GPUs
Woran macht man das fest? Jedenfalls offensichtlich nicht an seiner Balancierung.
weil Du wohl immer noch nicht die bisherigen Rogues richtig geschnallt hast
Mag sein - es gibt wenig Informationen und ohne Messungen tastet man im Dunklen. Man kann nur mutmaßen.
Was genau habe ich denn deiner Meinung nach nicht "geschnallt"?
Wie gross ist den genau der 6430 im A7 nach dem dieshot unter Samsung's 28nm?
Keine Ahnung - was willst du mir damit sagen?
Nochmal bis es sitzt: ein MP4 S5XT config kann zwar stets nur 1 Tri/clock maximal bearbeiten aber bei 4 cores sind es stets vier rasterizer und vier trisetups die sich die Geometrie ueber die fuer sie zugesprochenen macro tiles unter den cores teilen. Man muss wirklich einen einzelnen Ueber-trisetup entwickeln um dagegen ankommen zu koennen.
"no shit, sherlock?" Das wissen doch mittlerweile schon alle seit Monaten/Jahren...
***edit: uebrigens ist eines der Unterschiede zwischen 6400 und 6430 framebuffer compression fuer die 30-iger u.a. Man sollte uebrigens die zusaetzlichen FP16 FLOPs nur bei den 30-igern mitzaehlen.
Es gibt ernsthaft noch SFF GPUs ohne Framebuffercompression? :eek: Was genau meinst du damit eigentlich? Z-Compression oder Color-Compression?
Z-Komprimierung bringt praktisch immer was. Farbkomprimierung hauptsächlich bei MSAA (größtenteils gleiche Farbwerte pro Pixel - nur an Dreieckskanten nicht).
Ailuros
2013-10-24, 17:00:58
Nun arbeite bitte ersteinmal an deinem "Ton". Ich habe lediglich eine Frage gestellt.
Ich aendere gar nichts an meinem Ton.
Ich finde es äußerst interessant und würde am liebsten selbst ein paar Synthies durchjagen, um zu sehen, wo genau der Flaschenhals ist.
Tut mir leid aber faehiger als die eigentlichen IMG engineers bist Du nicht.
Wieviel Z-Check Einheiten hat denn 2C und 4C? Wobei Z-Tests eigentlich in wenigen Takten erledigt sind.
Ich schaetze mal 32 konservativ; es geht nicht um Takte. GFXbench kann man auch fuer iOS herunterladen und es haut einem die Augen aus wie vollgestopft 2.7 mit alpha tests/foliage genau ist.
Was soll denn diese patzige Reaktion? :|
Rechnen wir mal nach 430 MHz * 1 Tri /Clk sind 440 Mio Dreiecke pro Sekunde. Bei 60 fps sind es 7,16 Mio Dreiecke pro Frame.
Crysis 2 hat als peak 3,5 Mio Dreiecke pro Frame. Bedeutet, dass das Trisetup mehr als schnell genug ist.
Eh SFF Grafik bei der Polyrate ist, limitieren ganz andere Dinge. Deshalb halte ich solche Benchmarks für realitätsfern.
Dann schreib gefaelligst Deine eigenen oder lade Dir GFXbench runter denn ich hab das Gefuehl dass Du Dir das Ding bis jetzt noch nie angesehen hast. Es sind zwei ganz einfache tests die eben direkt fuer das ULP Zeug angepasst wurden.
Wer sagt uebrigens dass ein 6430 ein Tri/clock schafft? Ich hab's auf jeden Fall nie erwaehnt.
1 Tri/clk war bis vor Fermi / Cypress Standard und hat nirgends limitiert. Und die hatten schon > 2 TFLOPS und da lief ein ganz anderes Kaliber an grafischem Detail als auf SFF momentan. Bis zu 1 TFLOPs zumindest reichte 1 Tri/Clk.
*seufz*
Nun komm mal wieder runter - ich begründe meine Argumente mit Zahlen, Daten, Fakten (Benchmarks habe ich in einem anderen Thread schon geliefert und die selbe Berechnung und den Vergleich zu Desktop GPUs auch).
Von wo soll ich genau runter kommen? Tut mir leid aber mehr als das vorige geb ich nicht heraus was Rogue betrifft. Entweder liest Du es vorsichtig genug durch und kapierst um was es geht oder lass es bleiben bevor Du Dich noch schlimmer blamierst.
Woran macht man das fest? Jedenfalls offensichtlich nicht an seiner Balancierung.
Wie gesagt seh Dir das Zeug erstmal an als Abwechslung und dann kannst Du es ja gerne gegen anderen ULP relevante GPU benchmarks vergleichen.
Mag sein - es gibt wenig Informationen und ohne Messungen tastet man im Dunklen. Man kann nur mutmaßen.
Was genau habe ich denn deiner Meinung nach nicht "geschnallt"?
Wie clusters bei Rogue skalieren.
Keine Ahnung - was willst du mir damit sagen?
Wohl nicht das einzige von dem Du keine Ahnung hast, trotz allem schnell zu Schlussfolgerungen kommst.
"no shit, sherlock?" Das wissen doch mittlerweile schon alle seit Monaten/Jahren...
Und wir haben's von wem genau erfahren?
Es gibt ernsthaft noch SFF GPUs ohne Framebuffercompression? :eek: Was genau meinst du damit eigentlich? Z-Compression oder Color-Compression?
Ich dachte es wissen schon "alle" seit Monaten/Jahren ueber Rogue bescheid :rolleyes:
Es gibt ein whitepaper auf IMG's Hauptseite ueber Rogue dass die jeweiligen Methoden erwaehnt. Framebuffer ist bis zu 50%.
Und jetzt mal ernsthaft wer erinnert sich noch an den vaporware ST Ericson A9600 der in 2011 angekuendigt wurde?
http://www.investegate.co.uk/ArticlePrint.aspx?id=20110215090000H8862
....The Nova A9600, built in 28nm, will deliver groundbreaking multimedia and graphics performance, featuring a dual-core ARM Cortex- A15-based processor running up to up to 2.5 GHz breaking the 20k DMIPS barrier, and a POWERVR Rogue GPU that delivers in excess of 210 GFLOPS. The graphics performance of the A9600 will exceed 350 million 'real' polygons per second and more than 5 gigapixels per second visible fill rate (which given POWERVR's deferred rendering architecture results in more than 13 gigapixels per second effective fill rate).
PowerVR G64x0@660+MHz
211 GFLOPs FP16
5.28 GTexels/s
350M Polys/s
Jetzt scroll mal hoch zu vorigen Posts wo ich die Dreieck-Rate bei iPadAir einschaetze mit gleicher Frequenz und frag Dich selber wieso ich nur in etwa die Haelfte einschaetze. Rein zufaellig deutet das fettgedruckte auf 1 Tri/2 clocks und ich geh noch mit meiner Schaetzung radikaler nach unten. Zwischen 1 Tri/clock und 1 Tri alle 3 oder 4 clocks gibt es wohl schon einen bombastischen Unterschied.
Ailuros
2013-10-24, 18:37:19
Bite me aber ich hab bei dem newsblurb nur an einen Hersteller als ersten gedacht:
http://www.xbitlabs.com/news/monitors/display/20131022231857_JDI_Introduces_4K_Display_for_Media_Tablets.html
robbitop
2013-10-25, 11:21:58
Ich aendere gar nichts an meinem Ton.
Ein sehr gutes Vorbild gibst du mit deinem Diskussionsstil jedenfalls nicht ab. Du solltest schon auf einem sachlichen (und wünschenswerterweise) höflichen Level bleiben. Du wirst aber persönlich. Das ist ganz schlechter Stil.
Tut mir leid aber faehiger als die eigentlichen IMG engineers bist Du nicht.
Polemik. Das habe ich auch nie behauptet. Und das sind weder du noch sonst jemand auf der Welt. Da gibt es vieleicht ein paar hundert Leute auf der Welt, die "besser" sind.
Dann schreib gefaelligst Deine eigenen oder lade Dir GFXbench runter denn ich hab das Gefuehl dass Du Dir das Ding bis jetzt noch nie angesehen hast. Es sind zwei ganz einfache tests die eben direkt fuer das ULP Zeug angepasst wurden.
Man kann auch Kritik üben, ohne es besser zu können. Wenn Kritik nur dann erlaubt wäre, wenn man etwas besser könnte, würde die Welt sich fast immer in Schweigen hüllen.
Was soll man großartig für ULP anpassen? Das sind GPUs für einen entsprechenden Formfaktor. Weniger Leistung und Abstriche in der Komplexität. Hinsichtlich der Rohleistung sind sie halt dort, wo GPUs im Desktop vor ~ 10 Jahren waren.
Benchmarks sollten möglichst so balanciert sein, so dass sie Realworldanwendungsfälle abbilden. Da macht es wenig Sinn, sich auf einen Bottleneck zu stützen. Sobald sich ein Benchmark auf einen Bottleneck stützt, ist er zumindest für eine generelle Aussage der Leistung nicht aussagekräftig sondern nur über einen Teilbereich der Leistung.
Wer sagt uebrigens dass ein 6430 ein Tri/clock schafft? Ich hab's auf jeden Fall nie erwaehnt.
Davon bin ich ausgegangen - normale Trisetups schaffen pro Takt ein Dreieck. Wenn es allerdings nur alle 4 Takte ist, wird die Situation schon schlechter. Ja.
*seufz*
Gutes Argument.
Von wo soll ich genau runter kommen?
Von deiner agressiven Art. Ich habe dir keinen Grund dazu gegeben. Ich bin nicht persönlich geworden, sondern habe ehrlich gemeinte Fragen gestellt. Und du reagierst patzig.
Tut mir leid aber mehr als das vorige geb ich nicht heraus was Rogue betrifft. Entweder liest Du es vorsichtig genug durch und kapierst um was es geht oder lass es bleiben bevor Du Dich noch schlimmer blamierst.
Ich bin nicht derjenige, der sich in seinem Diskussionsstil gehen lässt.
Es ist keine Kunst, etwas über eine geheime Sache zu wissen, wenn man die Kontakte hat, die einem alles zuflüstern.
Ich habe diese Möglichkeiten nicht und muss mutmaßen - ich sehe nicht, wo das unter diesen Randbedingungen "blamabel" sein soll.
Wie clusters bei Rogue skalieren.
Geht es genauer? Ich nehme an, sie skalieren ähnlich wie bei PC GPUs (also keine Erhöhung der Rasterleistung sondern nur Rechenleistung/Texturleistung).
Wohl nicht das einzige von dem Du keine Ahnung hast, trotz allem schnell zu Schlussfolgerungen kommst.
Und wir haben's von wem genau erfahren?
Du hast halt Beziehungen, die wir nicht haben. Wo liegt aber darin die Kunst, die dich dazu bewegt, überheblich zu reagieren?
Ich dachte es wissen schon "alle" seit Monaten/Jahren ueber Rogue bescheid :rolleyes:
Über die Cluster, nicht über die FB Komprimierung.
Es gibt ein whitepaper auf IMG's Hauptseite ueber Rogue dass die jeweiligen Methoden erwaehnt. Framebuffer ist bis zu 50%.
Du weißt also auch nichts genaueres.
Und jetzt mal ernsthaft wer erinnert sich noch an den vaporware ST Ericson A9600 der in 2011 angekuendigt wurde?
http://www.investegate.co.uk/ArticlePrint.aspx?id=20110215090000H8862
PowerVR G64x0@660+MHz
211 GFLOPs FP16
5.28 GTexels/s
350M Polys/s
Jetzt scroll mal hoch zu vorigen Posts wo ich die Dreieck-Rate bei iPadAir einschaetze mit gleicher Frequenz und frag Dich selber wieso ich nur in etwa die Haelfte einschaetze. Rein zufaellig deutet das fettgedruckte auf 1 Tri/2 clocks und ich geh noch mit meiner Schaetzung radikaler nach unten. Zwischen 1 Tri/clock und 1 Tri alle 3 oder 4 clocks gibt es wohl schon einen bombastischen Unterschied.
Siehe oben.
Ailuros
2013-10-25, 12:05:23
Polemik. Das habe ich auch nie behauptet. Und das sind weder du noch sonst jemand auf der Welt. Da gibt es vieleicht ein paar hundert Leute auf der Welt, die "besser" sind.
Es wird wohl nicht allzu schwer zu verstehen sein dass es direkt vom Maul des Loewen kommt.
Was soll man großartig für ULP anpassen? Das sind GPUs für einen entsprechenden Formfaktor. Weniger Leistung und Abstriche in der Komplexität. Hinsichtlich der Rohleistung sind sie halt dort, wo GPUs im Desktop vor ~ 10 Jahren waren.
Benchmarks sollten möglichst so balanciert sein, so dass sie Realworldanwendungsfälle abbilden. Da macht es wenig Sinn, sich auf einen Bottleneck zu stützen. Sobald sich ein Benchmark auf einen Bottleneck stützt, ist er zumindest für eine generelle Aussage der Leistung nicht aussagekräftig sondern nur über einen Teilbereich der Leistung.
Genauso wie im mobilen Forum im Apple thread: Du drehst Dich mit Absicht um den Brei, erzaehlst einen Haufen Mist ohne Dir die Muehe zu machen das besprochene erstmal selber anzusehen. Spar mir den theoretischen Krampf und konzentrier Dich auf's Thema. Es liegt nichts krummes an GFXbench und dafuer kannst Du mir Kopfstaende bis morgen machen.
Es dauert ein paar Minuten es runterzuladen.
Sonst ist der ULP Markt verdammt cut throat momentan und man kann leider nicht alles stets vorhersehen weil es viel zu viele Konstanten und Spieler gibt. Die SGX roadmaps haben sich durch die Lebenszeit von Eurasia/Series5 zumindest 3 Mal insgesamt geandert und dazu radikal. Die ersten SGX cores waren auch extrem langweilig und es ging erst mit 5XT bergauf.
Rogue wurde nicht vor kurzem konzipiert sondern einige Jahre zuvor; noch kommt dazu dass sie zumindest mit dem geometry throughput ihre Ziele um einen Faktor 2 verpasst haben, welches auch der obrige Novathor A9600 link bewiesen hat. Hier gibt es nichts abzulenken oder unter den Teppich zu kehren. IMG weiss es intern und es wird Aenderungen geben. IMG ist in dem Bereich auch nicht alleine; ARM hat mit Midgaard mit dem nativen FP64 Scheiss so brutal ihre originalen floating point Ziele verpasst dass es nicht mehr schoen ist. ARM hat kurzfristig alle originalen cores auf ihrer roadmap nach T604 storniert und sie mit 62x Varianten ersetzt; der originale 8 cluster 658 wurde storniert und seinen Platz nahm der 8 cluster T678 der fuer 2014 angelegt ist mit doppelt so vielen ALU lanes pro cluster.
Logan und Adreno 420 sind kurz um die Ecke und es sind beide GPUs schon verdammt nahe in IMG's Leistungsrevier gerueckt dass sie sich keine Fehler erlauben koennen. Dass ist der eine und einzige springende Punkt der Debatte und nicht wer hier den laengeren hat.
Davon bin ich ausgegangen - normale Trisetups schaffen pro Takt ein Dreieck. Wenn es allerdings nur alle 4 Takte ist, wird die Situation schon schlechter. Ja.
Willkommen in der ULP Welt. Bei Rogue skalieren jeweils 2 cluster immer mit einer quad TMU; der G6100 (low end Rogue nur DX9L3) hat zwar nur einen cluster ergo 1 SIMD16 aber die quad TMU blieb so wie sie ist. TMUs sind hier nicht entkoppelt. IHVs sparen wo immer es Sinn macht und die Geschichte mit der Geometrie beim Rogue ist entweder ein peinlicher Fehler oder jemand war zu uebereifrig mit der unendlichen Sparerei.
Von deiner agressiven Art. Ich habe dir keinen Grund dazu gegeben. Ich bin nicht persönlich geworden, sondern habe ehrlich gemeinte Fragen gestellt. Und du reagierst patzig.
Dann komm endlich aus Deinem Heulmodus raus und diskuttier sachlich auf den Punkt. Mir ist es scheissegal was Du von mir haelst. Ich hab von dem Quark hier gar nichts zu gewinnen ich verlier eher meine Zeit.
Ich bin nicht derjenige, der sich in seinem Diskussionsstil gehen lässt.
Es ist keine Kunst, etwas über eine geheime Sache zu wissen, wenn man die Kontakte hat, die einem alles zuflüstern.
Ich habe diese Möglichkeiten nicht und muss mutmaßen - ich sehe nicht, wo das unter diesen Randbedingungen "blamabel" sein soll.
Wenn man momentan denkt irgend eine mobile GPU koennte selbst randmaessig etwas mit jedem Crysis zu tun haben ist es verdammt blamierend und total realitaetsfremd.
Geht es genauer? Ich nehme an, sie skalieren ähnlich wie bei PC GPUs (also keine Erhöhung der Rasterleistung sondern nur Rechenleistung/Texturleistung).
Und was passiert im Fall wo im einem benchmark mal die Geometrie limitiert und im anderen das unendliche foliage? Leistung skaliert zwischen 2 und 4 clusters nur analog zur Frequenz-differenz oder? In dem Fall ist eben nicht der benchmark schuld wenn er genau diese Schwaechen beweisst.
Du weißt also auch nichts genaueres.
Alles geht bis zu einem Punkt in aller Oeffentlichkeit ueberhaupt mit IMG und ihrer beschissener Geheimnistuerei.
Siehe oben.
Siehe oben und hiermit EOD.
robbitop
2013-10-25, 14:26:04
Genauso wie im mobilen Forum im Apple thread: Du drehst Dich mit Absicht um den Brei, erzaehlst einen Haufen Mist ohne Dir die Muehe zu machen das besprochene erstmal selber anzusehen. Spar mir den theoretischen Krampf und konzentrier Dich auf's Thema. Es liegt nichts krummes an GFXbench und dafuer kannst Du mir Kopfstaende bis morgen machen.
Ich habe nicht den gesamten Bench kritisiert. Sondern lediglich die Bedeutung eines Flaschenhalses.
Es dauert ein paar Minuten es runterzuladen.
Habe ich mir angeschaut. T-Rex und Egypt sehen nicht geometrielimitiert aus. So viele Dreiecke sind das da wirklich nicht.
Wo Geometrie natürlich limitiert ist der MTri-Teilbench. Aber das ist reine Synthetik wie auch der Füllratenbenchmark. Entscheidend ist, was am Ende bei realitätsnahen Szenen herauskommt. Egypt und T-Rex im Offscreen würde ich eher als sinnvollen Vergleich zwischen ULPs wählen. Zumindest vom optischen Eindruck.
Sonst ist der ULP Markt verdammt cut throat momentan und man kann leider nicht alles stets vorhersehen weil es viel zu viele Konstanten und Spieler gibt. Die SGX roadmaps haben sich durch die Lebenszeit von Eurasia/Series5 zumindest 3 Mal insgesamt geandert und dazu radikal. Die ersten SGX cores waren auch extrem langweilig und es ging erst mit 5XT bergauf.
Rogue wurde nicht vor kurzem konzipiert sondern einige Jahre zuvor; noch kommt dazu dass sie zumindest mit dem geometry throughput ihre Ziele um einen Faktor 2 verpasst haben, welches auch der obrige Novathor A9600 link bewiesen hat. Hier gibt es nichts abzulenken oder unter den Teppich zu kehren. IMG weiss es intern und es wird Aenderungen geben. IMG ist in dem Bereich auch nicht alleine; ARM hat mit Midgaard mit dem nativen FP64 Scheiss so brutal ihre originalen floating point Ziele verpasst dass es nicht mehr schoen ist. ARM hat kurzfristig alle originalen cores auf ihrer roadmap nach T604 storniert und sie mit 62x Varianten ersetzt; der originale 8 cluster 658 wurde storniert und seinen Platz nahm der 8 cluster T678 der fuer 2014 angelegt ist mit doppelt so vielen ALU lanes pro cluster.
Logan und Adreno 420 sind kurz um die Ecke und es sind beide GPUs schon verdammt nahe in IMG's Leistungsrevier gerueckt dass sie sich keine Fehler erlauben koennen. Dass ist der eine und einzige springende Punkt der Debatte und nicht wer hier den laengeren hat.
Willkommen in der ULP Welt. Bei Rogue skalieren jeweils 2 cluster immer mit einer quad TMU; der G6100 (low end Rogue nur DX9L3) hat zwar nur einen cluster ergo 1 SIMD16 aber die quad TMU blieb so wie sie ist. TMUs sind hier nicht entkoppelt. IHVs sparen wo immer es Sinn macht und die Geschichte mit der Geometrie beim Rogue ist entweder ein peinlicher Fehler oder jemand war zu uebereifrig mit der unendlichen Sparerei.
Interessant. Eine mögliche Erklärung für die Kopplung zwischen TMU und ALU kann sein, dass bisherige 3D Anwendungen noch kein allzuhohes TEX:ALU Verhältnis haben. Dann stockt ja auch noch nicht allzuviel. Aber der Trend geht auch hier nach oben. Sieht man ja auch daran, dass sich das TEX:ALU Verhältnis in den ULPs steigert.
Dann komm endlich aus Deinem Heulmodus raus und diskuttier sachlich auf den Punkt. Mir ist es scheissegal was Du von mir haelst. Ich hab von dem Quark hier gar nichts zu gewinnen ich verlier eher meine Zeit.
Ich habe nirgends "herumgeheult". Ich habe einen Aspekt eines Benchmarks kritisiert. Lag sicherlich auch nicht überall richtig. Mehr nicht. Du bist daraufhin aggressiv geworden. Und das ist unnötig. Zeige Größe und sieh das ein.
Wenn man momentan denkt irgend eine mobile GPU koennte selbst randmaessig etwas mit jedem Crysis zu tun haben ist es verdammt blamierend und total realitaetsfremd.
Ich habe nirgends geschrieben, dass eine mobile GPU Crysis 2 bedienen könnte.
Ich habe lediglich beschrieben, welche Geometrieanforderungen Crysis 2 (um bildlich aufzuzeigen, in welchen Regionen Geometrieleistung heute notwendig ist!) hat und welche Voraussetzungen aktuell vorhanden sind. Der Rest der ULPs (Bandbreite, Rechenleistung, Rasterleistung, Füllrate) ist dafür zu gering. Und genau das wollte ich darstellen.
Als Resultat sollte ersichtlich werden, warum Geometrie in heutigen SFF Anwendungen nicht limitieren kann.
Selbst bei 1:4 schafft man bei 30 fps noch immer fast 4 Mio Polygone pro Frame. Heutige SFF Anwendungen sind sicherlich eine Größenordnung darunter.
Sicherlich kommt der Zeitpunkt irgendwann und man will vorsorgen. Vieleicht sind bestimmte Balkenlängen in Geometriesynthies ja auch wichtig für Designwins. Ich weiß es nicht.
Und was passiert im Fall wo im einem benchmark mal die Geometrie limitiert und im anderen das unendliche foliage? Leistung skaliert zwischen 2 und 4 clusters nur analog zur Frequenz-differenz oder? In dem Fall ist eben nicht der benchmark schuld wenn er genau diese Schwaechen beweisst.
Die Frage ist, was ist eine Schwäche? Im Moment ist mehr als genug Geometrieleistung in 3D Anwendungen für SFF da. Klar kann man eine Anwendung programmieren, die extra stark auf Geometrie geht. (was aber mMn bei T-Rex und Egypt nicht der Fall ist - sondern nur der MTri Test)
Aber sie gibt denn nicht die Realworldperformance wieder sondern entspricht einem Synthetiktest. Ich nehme aber an, dass ist für Designwins wichtig?
Nun lass uns bitte wieder anständig miteinander umgehen, anstatt mit dem Finger aufeinander zu zeigen.
Ailuros
2013-10-25, 18:06:43
Ich habe nicht den gesamten Bench kritisiert. Sondern lediglich die Bedeutung eines Flaschenhalses.
Hier nochmal Deine originale Aussage:
IMO ist der Benchmark realitätsferner Kram.
Habe ich mir angeschaut. T-Rex und Egypt sehen nicht geometrielimitiert aus. So viele Dreiecke sind das da wirklich nicht.
Bei T Rex/2.7 limitieren alpha tests und bei Egypt Geometrie fuer die heutigen ULP GPUs. Nochmal Du hast hier NICHT mit desktop GPUs zu tun sondern Schleudern die Bruchteile selbst eines low end desktop SoCs liefern koennen.
Wo Geometrie natürlich limitiert ist der MTri-Teilbench. Aber das ist reine Synthetik wie auch der Füllratenbenchmark. Entscheidend ist, was am Ende bei realitätsnahen Szenen herauskommt. Egypt und T-Rex im Offscreen würde ich eher als sinnvollen Vergleich zwischen ULPs wählen. Zumindest vom optischen Eindruck.
Kishonti selber in GFXbench selber unter Test Information fuer Egypt HD/GLB2.5:
GFXBench 2.5 Egypt HD is an OpenGL_ES2.0 based high-level gaming test. This test utilizes complex geometry stressing mainly the vertex shader side. It features high resolution textures, planar reflection, specular highlights and soft-shadows among other effects. The test is optimized for 1080p.
Interessant. Eine mögliche Erklärung für die Kopplung zwischen TMU und ALU kann sein, dass bisherige 3D Anwendungen noch kein allzuhohes TEX:ALU Verhältnis haben. Dann stockt ja auch noch nicht allzuviel. Aber der Trend geht auch hier nach oben. Sieht man ja auch daran, dass sich das TEX:ALU Verhältnis in den ULPs steigert.
Es sind eine lange reihe an Sparmassnahmen sonst bekommt man nicht so leicht einen quasi G80 Grossenkel in <2W TDP in der Form eines G6430.
Ich habe nirgends "herumgeheult". Ich habe einen Aspekt eines Benchmarks kritisiert. Lag sicherlich auch nicht überall richtig. Mehr nicht. Du bist daraufhin aggressiv geworden. Und das ist unnötig. Zeige Größe und sieh das ein.
Keep moving those goalposts; siehe ersten Paragraph denn Du verdrehst Dir selber Deine eigenen Behauptungen im Mund.
Ich habe nirgends geschrieben, dass eine mobile GPU Crysis 2 bedienen könnte.
Ich habe lediglich beschrieben, welche Geometrieanforderungen Crysis 2 (um bildlich aufzuzeigen, in welchen Regionen Geometrieleistung heute notwendig ist!) hat und welche Voraussetzungen aktuell vorhanden sind. Der Rest der ULPs (Bandbreite, Rechenleistung, Rasterleistung, Füllrate) ist dafür zu gering. Und genau das wollte ich darstellen.
Als Resultat sollte ersichtlich werden, warum Geometrie in heutigen SFF Anwendungen nicht limitieren kann.
Es war realitaetsfern und ueberfluessig. Punkt.
Selbst bei 1:4 schafft man bei 30 fps noch immer fast 4 Mio Polygone pro Frame. Heutige SFF Anwendungen sind sicherlich eine Größenordnung darunter.
Das heisst nicht dass die Architektur momentan etwas schlecht balanciert ist an einigen Stellen.
Die Frage ist, was ist eine Schwäche? Im Moment ist mehr als genug Geometrieleistung in 3D Anwendungen für SFF da.
Die Architektur ist momentan schlecht balanciert. Was genau ist daran schwer zu verstehen?
Klar kann man eine Anwendung programmieren, die extra stark auf Geometrie geht. (was aber mMn bei T-Rex und Egypt nicht der Fall ist - sondern nur der MTri Test)
Es nuetzt Dir gar nichts vergebens zu versuchen darauf zu bestehen.
Aber sie gibt denn nicht die Realworldperformance wieder sondern entspricht einem Synthetiktest. Ich nehme aber an, dass ist für Designwins wichtig?
Nochmal Apple hat es ungern gesehen dass Rogue einen Rueckzieher in Geometrie gemacht hat im Vergleich zu 5XT MP4s weil es die Leistung in einiger ihrer Applikationen beinflusst hat. Wie oft muss man etwas schreiben bis es bei Dir sitzt? Apple ist der Kunde hier und der groesste ueberhaupt und wenn Apple "jump" sagt heisst die Antwort "wie hoch?" kapisch?
Nun lass uns bitte wieder anständig miteinander umgehen, anstatt mit dem Finger aufeinander zu zeigen.
Ja wenn Du aufhoerst den gleichen Mist zu wiederholen. Ich hab das obrige mehr als einmal im Hintergrund bestaetigt bekommen.
robbitop
2013-10-25, 19:52:26
Hier nochmal Deine originale Aussage:
Ungünstig ausgedrückt meinerseits. Ich meinte vor allem den MTRi Test.
Bei T Rex/2.7 limitieren alpha tests und bei Egypt Geometrie fuer die heutigen ULP GPUs.
Das dachte ich mir nach genauerem Hinsehen vor ein paar Stunden auch.
Nochmal Du hast hier NICHT mit desktop GPUs zu tun sondern Schleudern die Bruchteile selbst eines low end desktop SoCs liefern koennen.
....
Es sind eine lange reihe an Sparmassnahmen sonst bekommt man nicht so leicht einen quasi G80 Grossenkel in <2W TDP in der Form eines G6430
Ich habe offenbar zu viel von den ULPs erwartet. Mea Culpa.
Es war realitaetsfern und ueberfluessig. Punkt.
Genau das war doch eben der Punkt! Es sollte zeigen, wie unrealistisch viel Geometrie man bräuchte, um das Trisetup zum Flaschenhals zu machen. Vorher klappt dir 10x der Rest des kleinen ULPs weg. Das war die Schlussfolgerung aus diesem Vergleich. Selbst im MTri Test (also in der Praxis) immerhin runtergerechnet noch 1,7 Mio Dreiecke bei 60 fps.
Das heisst nicht dass die Architektur momentan etwas schlecht balanciert ist an einigen Stellen.
Die Architektur ist momentan schlecht balanciert. Was genau ist daran schwer zu verstehen?
Verstanden.
Es nuetzt Dir gar nichts vergebens zu versuchen darauf zu bestehen.
Mir geht es nicht darum, dass ich Recht habe. Ich will wissen, warum es so ist. Ich bin gern bereit, meine Meinung zu revidieren, wenn mir jemand argumentativ erklärt, warum.
Nochmal Apple hat es ungern gesehen dass Rogue einen Rueckzieher in Geometrie gemacht hat im Vergleich zu 5XT MP4s weil es die Leistung in einiger ihrer Applikationen beinflusst hat. Wie oft muss man etwas schreiben bis es bei Dir sitzt? Apple ist der Kunde hier und der groesste ueberhaupt und wenn Apple "jump" sagt heisst die Antwort "wie hoch?" kapisch?
Das kann ich mir gut vorstellen.
Ja wenn Du aufhoerst den gleichen Mist zu wiederholen. Ich hab das obrige mehr als einmal im Hintergrund bestaetigt bekommen.
Ich bezweifle deine Quellen nicht. Entschuldige, falls es so rüberkam. Ich wollte lediglich wissen an welchem Punkt ich mich wo genau irre. OK. Ich nehme es jetzt einfach mal hin, dass es so ist.
deekey777
2013-10-25, 20:22:41
Was kann der iphone-Mensch da beeinflussen durch Fummelei? Ernsthafte Frage. :)
Nur als Beispiel:
3DMark gibt mir in Ice Storm Default 6030 Punkte, wenn ich im Flugmodus bin und Bedienunghilfen deaktiviere, sonst 53xx.
robbitop
2013-10-26, 07:30:03
Turbo 2.0 auch in SFF?
Undertaker
2013-10-26, 17:58:53
Außerdem ist es gerade die Eigenentwicklung des SoCs und insbesondere der CPU, welches Diversifizierung erlaubt in diesem kompetativen Markt. Qualcomm hat dadurch viele Designwins eingefahren. Die A Reihe von Apple hebt sich immer mehr vom Rest des Marktes ab und bringt schon immer mehr Vorteile in Punkto Geschwindigkeit/Verbrauch. Apple will mit aller Macht ihre margenträchtigen Geräte verkaufen und da braucht es jedes Fitzel an Exklusivität. Der SoC gehört eindeutig dazu.
Apple hatte bis Swift keine eigene CPU-Architektur, für den gesamten Mac OS Bereich gilt das auch heute noch. Wie gesagt: Ich denke nicht, dass es Apples Verkäufe irgendwie beeinflusst, wenn auch andere Hersteller Cyclone für ihre SoCs lizenzieren dürften.
Ailuros
2013-10-26, 18:13:09
Apple hatte bis Swift keine eigene CPU-Architektur, für den gesamten Mac OS Bereich gilt das auch heute noch.
Worauf das eigentliche Thema hier zielt; bleiben die Eigenentwicklungen bei tablets eventuell stehen in der Zukunft oder geht es irgendwann Schritt fuer Schritt weiter nach oben? Bleiben iOS und MacOS in der weiteren Zukunft eigenstaendig oder wird es eine Vereinigung irgendwann geben? Klare Antworten gibt es noch keine, jedoch Indizien die vielleicht etwas von Apple's zukuenftigen Plaenen verraten koennte.
Wie gesagt: Ich denke nicht, dass es Apples Verkäufe irgendwie beeinflusst, wenn auch andere Hersteller Cyclone für ihre SoCs lizenzieren dürften.
Die "mythische" Einzigartigkeit fuer Apple's hw ist dann aber im Eimer. Sonst hab ich das Gefuehl dass Du das wichtigste uebersiehst bei Deiner These: angenommen Apple wuerde wirklich Cyclone lizenzieren wuerde ihn wer genau kaufen bei den Wucherpreisen die Apple mit aller Wahrscheinlichkeit dafuer verlangen wuerde? Sonst haben viele leider den Eindruck dass eine Lizenz zu verkaufen eine sehr einfache Sache ist in dem man nur jemand einen Batzen Unterlagen mit specs und Integrierungs-Instruktionen schickt und aus ist es. Es steckt bei IP Verkauf ziemlich intensive Unterstuetzung Deiner Kunden drin vom Kreideboard design bis zur finalen Produktion.
Wenn wir schon dabei sind frag mal ARM warum Samsung nach zwei vergebenen Versuchen es nicht geschafft hat big.LITTLE richtig zu integrieren und WER wirklich dafuer verantwortlich ist. Ziemlich blamierend dass jemand mit weniger "Erfahrung" wie MediaTek es auf Anhieb ohne jegliche Hilfe geschafft hat..... :weg:
Der einzige grosse Semi der je an einer solchen Lizenz vielleicht interessiert sein koennte waere Samsung; und genau hier geht ein anderer Teufelskreis los mit den verwurschtelten Interessen zwischen Samsung mit ihren 80+ Abteilungen und Apple's feingranulierter Werkelei mit der Herstellung wo sie Samsung koeniglich die Hosen runtergezogen haben :P
***edit: wo zum Teufel ist Anand's iPad Air review? *seufz*
robbitop
2013-10-26, 18:27:38
Apple hatte bis Swift keine eigene CPU-Architektur, für den gesamten Mac OS Bereich gilt das auch heute noch. Wie gesagt: Ich denke nicht, dass es Apples Verkäufe irgendwie beeinflusst, wenn auch andere Hersteller Cyclone für ihre SoCs lizenzieren dürften.
Der Markt wurde aber zunehmend umkämpfter. Apple versucht mit eigenen SoCs Vorteile zu erarbeiten.
Schau dir mal an, welche Verbreitung ARM hat und welche lächerlich kleinen Gewinne sie daraus schlagen. Das sind Peanuts für Apple.
Apple hat nicht umsonst eine sehr große SoC Abteilung aufgebaut und die besten der besten engagiert. Sie wollen sich damit diversifizieren.
***edit: wo zum Teufel ist Anand's iPad Air review? *seufz*
Ich dachte, du magst Anand nicht? :) (ich warte aber auch schon drauf - und aufs MBPr und iPad mini retina Review)
Undertaker
2013-10-26, 18:36:29
WSonst hab ich das Gefuehl dass Du das wichtigste uebersiehst bei Deiner These: angenommen Apple wuerde wirklich Cyclone lizenzieren wuerde ihn wer genau kaufen bei den Wucherpreisen die Apple mit aller Wahrscheinlichkeit dafuer verlangen wuerde? Sonst haben viele leider den Eindruck dass eine Lizenz zu verkaufen eine sehr einfache Sache ist in dem man nur jemand einen Batzen Unterlagen mit specs und Integrierungs-Instruktionen schickt und aus ist es. Es steckt bei IP Verkauf ziemlich intensive Unterstuetzung Deiner Kunden drin vom Kreideboard design bis zur finalen Produktion.
Hmm, da wird wohl der Hund begraben liegen...
Nightspider
2013-10-26, 19:11:37
Anandtech lässt mit dem iPad Air Review aber auf sich warten. :(
deekey777
2013-10-26, 21:08:37
Anandtech lässt mit dem iPad Air Review aber auf sich warten. :(
Bestimmt am 01.11.2013 geht's los.
Ailuros
2013-10-27, 06:42:54
Ich dachte, du magst Anand nicht? :) (ich warte aber auch schon drauf - und aufs MBPr und iPad mini retina Review)
Ganz im Gegenteil.
Hmm, da wird wohl der Hund begraben liegen...
LOL nicht unbedingt...lediglich ein realistischer "was waere wenn" Fall wenn Apple tatsaechlich daran denken wuerde ihre "Einzigartigkeit" aufzugeben. Es wundern sich ja viele z.B. warum sie das ex Orlando GPU team enganiert haben. Momentan zumindest sorgen sie dafuer dass IP in Rekordzeiten implementiert wird. Wenn mich mein Gedaechtnis nicht betruegt liegt zwischen der IP Ankuendingung vom G6430 und dessen Integrierung im A7 irgendwo =/>12 Monate.
***edit: G6230 und 6430 wurden im Juni 2012 angekuendigt. Da Massenproduktion des A7 wohl nicht erst im Oktober 2013 angefangen hat, duerfte die obrige Zeiteinschaetzung schon mehr oder weniger stimmen.
Kurz diese Abenteuer kosten Apple Unsummen und werden ihnen langfristig zunehmend groessere Vorteile einraeumen; da man von IP tatsaechlich nur laecherliches verdient werden sie wohl nicht so bloed sein diese auch der Konkurrenz zu verschenken.
-----------------------------------------------------------------------------------------------------------------------------------------
Image processing/GPGPU:
http://forum.beyond3d.com/showpost.php?p=1798807&postcount=2246
http://sunsetlakesoftware.com/2013/10/21/optimizing-gaussian-blurs-mobile-gpu
Keine Ueberraschung dass hier Rogue mit seinen Vorgaengern regelrecht den Boden aufwischt.
Sunrise
2013-10-27, 19:41:19
...Momentan zumindest sorgen sie dafuer dass IP in Rekordzeiten implementiert wird. Wenn mich mein Gedaechtnis nicht betruegt liegt zwischen der IP Ankuendingung vom G6430 und dessen Integrierung im A7 irgendwo =/>12 Monate.
Was meinst du kommt als nächstes (ehrliche Frage):
1) G6630 oder
2) Rogue 6XT
Rogue 6XT soll ja nochmal wesentlich energieeffizienter sein (bei gleicher Performance) als der normale Series 6. Da 20nm planar kaum energieeffizienter werden wird und auch nicht wirklich viel mehr Platz lässt, könnte man beim MHz-Scaling wie aktuell bleiben. Aus meiner Logik ergibt es wenig Sinn, dann noch auf den alten Series 6 zu gehen. Der übernächste Schritt wäre dann eine multi-core Variante von Series 6XT.
Image processing/GPGPU:
http://forum.beyond3d.com/showpost.php?p=1798807&postcount=2246
http://sunsetlakesoftware.com/2013/10/21/optimizing-gaussian-blurs-mobile-gpu
Keine Ueberraschung dass hier Rogue mit seinen Vorgaengern regelrecht den Boden aufwischt.
Der A7 ist einfach nur noch krank. Schade, dass man hier immernoch sowenige Entwickler-Ergebnisse hat. Da würde ich gerne mal mehr Vergleiche wie diese sehen.
Ailuros
2013-10-27, 20:14:49
Was meinst du kommt als nächstes (ehrliche Frage):
1) G6630 oder
2) Rogue 6XT
Rogue 6XT soll ja nochmal wesentlich energieeffizienter sein (bei gleicher Performance) als der normale Series 6. Da 20nm planar kaum energieeffizienter werden wird und auch nicht wirklich viel mehr viel Platz lässt, könnte man beim MHz-Scaling wie aktuell bleiben. Aus meiner Logik ergibt es wenig Sinn, dann noch auf den alten Series 6 zu gehen. Der übernächste Schritt wäre dann eine multi-core Variante von Series 6XT.
Ich bete ernsthaft fuer (2); es ist aber zu frueh IMO fuer multi-core. Afaik kann man sinnvoll bis zu 12 clusters in einem core skalieren. Alles was Rogue braucht ist eine so optimal wie moegliche Balance zu finden.
Der A7 ist einfach nur noch krank. Schade, dass man hier immernoch sowenige Entwickler-Ergebnisse hat. Da würde ich gerne mal mehr Vergleiche wie diese sehen.
Fuer alles GPGPU hoere ich schon seit einiger Zeit nur Entwickler-Kinnladen fallen die sich mit den Dingern beschaeftigen. Dank der "skalaren" ALUs haben sie bei IMG verdammt weniger Arbeit mit dem compiler z.B.
AnarchX
2013-10-30, 07:40:14
Anandtech Test des A7@Air: http://anandtech.com/show/7460/apple-ipad-air-review
Die GPU taktet wohl nur geringfügig höher als im 5S.
Ailuros
2013-10-30, 10:19:47
Anandtech Test des A7@Air: http://anandtech.com/show/7460/apple-ipad-air-review
Die GPU taktet wohl nur geringfügig höher als im 5S.
Hoechstwahrscheinlich ueberhaupt nicht hoeher, weil er das 5S wohl nicht mit dem neuesten Treiber durchlaufen liess.
robbitop
2013-10-30, 10:55:08
Schon erstaunlich, was der LLC an Bandbreite kompensieren kann.
Ailuros
2013-10-30, 10:57:50
Schon erstaunlich, was der LLC an Bandbreite kompensieren kann.
Schoen und gut, aber fuer ein tablet ist die GPU Leistung diesmal erstaunlich bescheiden von vielen Aspekten.
robbitop
2013-10-30, 11:00:32
Schoen und gut, aber fuer ein tablet ist die GPU Leistung diesmal erstaunlich bescheiden von vielen Aspekten.
Geometrie - jopp. Aber sonst steht A7 doch überall auf der Poleposition (auch im Trex und Egypt Offscreen). Oder geht es generell darum, dass du mehr Performance ggü dem iPhone erwartest? Das ist verglichen mit dem iPad schon ein wenig overpowerd bei der Auflösung. :D
Ailuros
2013-10-30, 11:05:01
Geometrie - jopp. Aber sonst steht A7 doch überall auf der Poleposition (auch im Trex und Egypt Offscreen). Oder geht es generell darum, dass du mehr Performance ggü dem iPhone erwartest? Das ist verglichen mit dem iPad schon ein wenig overpowerd bei der Auflösung. :D
Generell war Apple's tablet stets sehenswert schneller als die schnellsten smartphones der Konkurrenz (welche aber auch teilweise ziemlich brutal mit benchmarks bescheisst). Nun gut sie haben verdammt viel in CPU diesmal investiert wofuer man tatsaechlich das eine Auge zudruecken kann, aber langfristig halte ich die Vidal-Sasoon Masche fuer alle Geraete ein gleicher SoC als verdammt langweilig.
robbitop
2013-10-30, 11:16:00
Die A(n)X SoCs waren offenbar hauptsächlich wegen dem Einstieg in die Retina-Display-Welt notwendig und weil man dafür mehr Bandbreite brauchte. Mit dem LLC ist das erstmal nicht mehr notwendig. Etwas enttäuscht bin ich auch. Ein 6C Rogue wäre ganz nett gewesen. Vieleicht waren deine Befürchtungen bezüglich der Skalierungen ja brutal richtig, so dass Apple zu wenig Mehrwert in einem 6C gesehen hat. Viel mehr Frequenz wäre (insbesondere im nun beschränkterem TDP Umfeld des Airs) auch nicht ideal für die Leistungsaufnahme gewesen.
Vieleicht gibt es ja wieder einen A8x, sofern man mit Serie 6XT wieder eine nahezu lineare Skalierung mit den Clustern oder Kernen erreicht.
BigKid
2013-10-30, 11:27:04
Schade, dass es wieder "nur" 1GB Hauptspeicher ist...
Andererseits habe ich bisher noch nicht wirklich gemerkt dass der irgendwo limitiert... Auch nicht mit 8 Tabs offen...
Aber diesmal hat mich Apple wirklich in eine Zwickmühle gebracht. Das iPad Mini kam für mich bisher nicht in Frage weil es technologisch einen Schritt hinterher war... Ich nutze das Ding als Rollenspieler als Nachschlagewerk und bei den "dicken" (und teils auch schlecht optimierten) PDFs war/ist mir mein iPad3 zu langsam (beim Suchen und beim Bildaufbau (somit auch beim blättern)...).
Also wollte ich mir nun das iPad5 kaufen... Und was machen sie ? Schnüren mit dem iPad Mini2 ein echt sexy Päckchen...
*grummel*
Zurück zum topic: Kann jemand einen educated guess machen wieviel schneller das iPad5 beim rendern/anzeigen und suchen innerhalb von PDFs sein dürfte - verglichen mit dem iPad3 ?
Ich denke suchen ist rein CPU ... Und rendern ?
robbitop
2013-10-30, 11:42:15
Das ist einfach. GPU und CPU sind beide ca. um den Faktor 3-4 schneller geworden seit dem iPad 3. Sollte also deutlich fixer sein.
Sunrise
2013-10-30, 14:21:19
Laut Anands Review dürfte die Schlussfolgerung dann wohl lauten, dass das aktuelle Retina-Display einfach zuviel Strom frisst, andererseits kann ich mir die Akku-Laufzeit auf dem Niveau des 4er iPads nicht erklären.
Gut, der A7 taktet nun bei extremer Beanspruchung (die real world wohl nie auftreten wird) nichtmehr runter, was zumindest zeigt, dass hier deutlich mehr Spielraum als im 5s vorhanden ist.
Im Grunde sind das jetzt dünnere Salamischeiben.
Wie aber bitte ist nun Apples Aussage zu deuten, dass das iPad Air doppelt so schnell ist? CPU natürlich, aber bei der GPU ist diese Aussage nun doch eine glatte unverblümte Lüge. Das hätte ich Apple jetzt eigentlich nicht zugetraut.
Ich bin aktuell sogar stark am überlegen, ob ich das Air überhaupt benötige.
YfOrU
2013-10-30, 14:33:19
Laut Anands Review dürfte die Schlussfolgerung dann wohl lauten, dass das aktuelle Retina-Display einfach zuviel Strom frisst, andererseits kann ich mir die Akku-Laufzeit auf dem Niveau des 4er iPads nicht erklären.
Kapazität: 32.4Wh (Air) zu 42.5Wh (4)
Die Leistungsaufnahme ist somit sehr deutlich reduziert worden und dazu muss auch das Display gehören. Ansonsten würde die Laufzeit zumindest im Videotest niedriger ausfallen.
Sunrise
2013-10-30, 14:34:37
Kapazität: 32.4Wh (Air) zu 42.5Wh (4)
Das hatten wir alles schon berücksichtigt. Setz das mal in Relation zum 5s bei annähernd gleicher Laufzeit und dem im Gegensatz winzigen Akku.
robbitop
2013-10-30, 14:38:41
Laut Anands Review dürfte die Schlussfolgerung dann wohl lauten, dass das aktuelle Retina-Display einfach zuviel Strom frisst, andererseits kann ich mir die Akku-Laufzeit auf dem Niveau des 4er iPads nicht erklären.
Meinst du mit "aktuelle" das alte?
Die Gewichtsersparnis kam zu einem großen Teil aus dem kleineren Akku, der nur möglich war, weil das Display nun weniger verbraucht. Und das war vermutlich nur dank IGZO möglich.
IMO ist der Formfaktor des 10" iPads durch die Veränderungen des Airs deutlich interessanter geworden. Deutlich leichter, deutlich dünner, deutlich schmaler. Und das ohne Akkulaufzeit zu verlieren. Bei doppelter CPU Leistung und je nach Loadcase 1,5-2 facher GPU Leistung. Bei Artimetiklimitierung dürfte 2 fach schon drin sein (dank "skalaren" ALUs).
Ich finde das schon beachtlich (insbesondere den verbesserten Formfaktor).
Mehr RAM und mehr GPU Leistung gibt es dann bei der nächsten Runde.
YfOrU
2013-10-30, 14:45:46
Das hatten wir alles schon berücksichtigt. Setz das mal in Relation zum 5s bei annähernd gleicher Laufzeit und dem im Gegensatz winzigen Akku.
Ohne groß rechnen zu wollen ist die Fläche des Panels geschätzt um die 6x größer. Kapazität 5S: 5.96 Wh
Es ist dabei ebenfalls sehr hochauflösend und braucht dementsprechend eine ziemlich mächtige Hintergrundbeleuchtung.
Sunrise
2013-10-30, 14:50:03
Meinst du mit "aktuelle" das alte?
Die Gewichtsersparnis kam zu einem großen Teil aus dem kleineren Akku, der nur möglich war, weil das Display nun weniger verbraucht. Und das war vermutlich nur dank IGZO möglich.
Hab ich etwas verpasst (ehrliche Frage)?
Ich hatte ja meine starken Zweifel, dass das ein IGZO ist und das Anandtech Review bestätigt das eigentlich auch indirekt. Das Display wurde wohl dünner aufgrund von Optimierungen (evtl. auch ein weniger komplexes Backlight), aber die Display-Werte sind eher schlechter als besser geworden, was auch nicht für IGZO spricht.
Jedenfalls (darum ging es mir ja) kann ich mir unter Berücksichtigung der genannten Punkte sonst nicht erklären, warum der Akku nicht mehr Laufzeit liefern soll beim Air.
Sunrise
2013-10-30, 14:55:04
Ohne groß rechnen zu wollen ist die Fläche des Panels geschätzt um die 6x größer. Kapazität 5S: 5.96 Wh
Es ist dabei ebenfalls sehr hochauflösend und braucht dementsprechend eine ziemlich mächtige Hintergrundbeleuchtung.
Danke, genau das bestätigt dann nämlich auch meine Vermutung.
6x5.96 Wh=35.76 Wh
Kommt also ungefähr hin.
YfOrU
2013-10-30, 14:59:52
Der Blick auf die Diagonale täuscht immer. Also 4 Zoll (16:10) zu 9,7 Zoll (4:3). Das Ergebnis:
iPad: 290.48cm²
5S: 46.394cm²
Die Leistungsaufnahme steigt hier zwangsläufig fast proportional an. Mit der Problematik haben alle mobilen Geräte zu kämpfen solange Pixeldichte und Leuchtkraft halbwegs vergleichbar sind. Aus dem Grund sind viele Chinatabs mit derart hohen Auflösungen alles andere als Dauerläufer ;)
Sunrise
2013-10-30, 15:06:22
Der Blick auf die Diagonale täuscht immer. Also 4 Zoll (16:10) zu 9,7 Zoll (4:3). Das Ergebnis:
iPad: 290.48cm²
5S: 46.394cm²
Die Leistungsaufnahme steigt hier zwangsläufig fast proportional an...
Der Denkfehler passiert mir ständig, weil das 5s eben deutlich weniger Pixel hat und das Backlight dann dementsprechend monstermäßig viel Energie auf die gesamte Fläche braucht.
Das heißt im Umkehrschluss jetzt, dass Apple unbedingt neue Displays braucht, andererseits wird es fast nicht möglich sein, weiterhin 2x pro Generation zu liefern.
YfOrU
2013-10-30, 15:34:14
Das heißt im Umkehrschluss jetzt, dass Apple unbedingt neue Displays braucht, andererseits wird es fast nicht möglich sein, weiterhin 2x pro Generation zu liefern.
Interessant ist hier vor allen der Vergleich zum Note 10.1 (2014):
http://www.anandtech.com/show/7378/samsung-galaxy-note-101-2014-edition-review
Bei Display, Akkukapazität (31Wh) und Laufzeit (Video) gibt sich das nicht viel. Am Ende kochen in dem Bereich alle nur mit Wasser und müssen nehmen was der Markt hergibt.
Da die Geräte ein ähnliches Preisschild haben ist es für Samsung (eigener und deutlich langsamerer SoC sowie billigeres Gehäuse) am Ende trotzdem keine besonders überzeugende Vorstellung. Apple schafft es sich hier nicht nur über das eigene OS sondern auch über die eigene SoC Entwicklung und den Qualitätsanspruch sehr deutlich abzugrenzen.
Sowohl der neue Exynos 5420 als auch Apple A7 werden bei Samsung Semi hergestellt (28nm HKMG und ähnliche Die Size). Da muss von Samsung selbst einfach mehr kommen ansonsten kann man gleich vollständig bei Qualcomm einkaufen.
Ailuros
2013-10-30, 16:44:33
Sowohl der neue Exynos 5420 als auch Apple A7 werden bei Samsung Semi hergestellt (28nm HKMG und ähnliche Die Size). Da muss von Samsung selbst einfach mehr kommen ansonsten kann man gleich vollständig bei Qualcomm einkaufen.
Moment der A7 soll 102mm2 gross sein und der 5420 mit aehnlicher Groesse oder hab ich Dich falsch verstanden? Der 5410 war irgendwo ueber 120mm2 unter 28 HKMG ergo WTF fuer den 5420?
------------------------------------------------------------------------------------
Uebrigens am Rand sind es nicht SFU FLOPs im 6430 fuer FP16 wie ich schaetzte sondern normale ALU FLOPs und es sind sogar mehr als mir bis jetzt bewusst war. Mal sehen ob es die Marketing-Heinis jeh schaffen eine Zahl richtig hinzubekommen :rolleyes:
robbitop
2013-10-30, 18:08:04
Hab ich etwas verpasst (ehrliche Frage)?
Ich hatte ja meine starken Zweifel, dass das ein IGZO ist und das Anandtech Review bestätigt das eigentlich auch indirekt. Das Display wurde wohl dünner aufgrund von Optimierungen (evtl. auch ein weniger komplexes Backlight), aber die Display-Werte sind eher schlechter als besser geworden, was auch nicht für IGZO spricht.
Jedenfalls (darum ging es mir ja) kann ich mir unter Berücksichtigung der genannten Punkte sonst nicht erklären, warum der Akku nicht mehr Laufzeit liefern soll beim Air.
Verstehe ich nicht. Der Akku ist auf 76 % der Kapazität des Vorgängers gerutscht. Der SoC ist vermutlich nicht sparsamer geworden. Die gleiche Laufzeit wird erreicht. Das Display ist -sagen wir mal- für ~50 % des Energieverbrauchs zuständig. Bedeutet, dass es massiv sparsamer geworden ist.
Wie soll das gehen? IGZO heißt ja nur, dass das Panel einen höheren Transparenzwert hat und die Hintergrundbeleuchtung dann nicht ganz so hell sein muss.
Viewing angles are still great, and overall the display remains the best you can get at this size.
Color accuracy on my iPad Air review sample is better than on any previous iPad I’ve ever tested, in fact it’s more accurate than any other tablet I’ve ever tested. The numbers are easily backed up by images that show a vibrant and, more importantly, accurate display.
Die Wert sehen auch nicht schlechter aus.
Akkulaufzeit ist sogar eher etw. besser geworden. Trotz deutlich kleinerem Akku und vermutlich nicht sparsameren SoC.
Ich verstehe nicht, wie du zu deinen Schlüssen kommst. :confused:
Interessant ist hier vor allen der Vergleich zum Note 10.1 (2014):
http://www.anandtech.com/show/7378/samsung-galaxy-note-101-2014-edition-review
Bei Display, Akkukapazität (31Wh) und Laufzeit (Video) gibt sich das nicht viel.
Nunja. Das iPad Air hat ca. 1-1,5 h mehr Laufzeit (Video+Wifi):
http://www.anandtech.com/show/7460/apple-ipad-air-review/8
Hinzu kommt, dass das Air zusätzlich auch noch schneller und 100 g leichter ist.
Das ist im Grenzbereich (abnehmender Grenzertrag in Natur und Technik) schon eine ziemlich starke Leistung.
Sowohl der neue Exynos 5420 als auch Apple A7 werden bei Samsung Semi hergestellt (28nm HKMG und ähnliche Die Size). Da muss von Samsung selbst einfach mehr kommen ansonsten kann man gleich vollständig bei Qualcomm einkaufen.
Es wäre schlimm, wenn Apple mit custom designs und so viel Investitionsmitteln und Manpower (man hat praktisch die besten Leute der Industrie zusammengescharrt) nicht ein deutlich besseres Design hinbekommt als Samsung, welches hauptsächlich aus Lizenzdesigns besteht. Fertigungsprozess ist nicht alles.
Messen muss sich hauptsächlich QCom an Apple. Was GPUs angeht, braucht man sich im Moment nicht zu verstecken. Was SFF CPUs angeht, ist es einfach nur extrem was Apple mit Cyclone geleistet hat. Ich bezweifle, dass A57 und der nächste QCom Kern die gleiche IPC und Leistung pro Watt erreichen wie Cyclone. Und Apple bleibt auch nicht stehen.
Extrem finde ich außerdem, dass Swift praktisch nur 1 Jahr gelebt hat. Cyclone ist offenbar keine Swift-Weiterentwicklung (wie K10 vom K8 vom K7) sondern zumindest weitestgehend ein neues Design. Es ist wesentlich breiter aufgebaut. Das sieht praktisch nach einer separaten Entwicklung aus. (außerdem sind beide Designs zeitlich einfach zu nah aneinander, um solche Unterschiede in einem Jahr herauszuarbeiten)
Uebrigens am Rand sind es nicht SFU FLOPs im 6430 fuer FP16 wie ich schaetzte sondern normale ALU FLOPs und es sind sogar mehr als mir bis jetzt bewusst war. Mal sehen ob es die Marketing-Heinis jeh schaffen eine Zahl richtig hinzubekommen :rolleyes:
Was genau meinst du? MAD FLOPs? Sollten so sein, wie bei Anand zu sehen. 4x Cluster mit je 1x 32 Slot SIMD (der "skalar" angesteuert wird). Sind 4 x 32 x 2 FLOPs x 450 MHz. Sind dann 115 GFLOPs für reines MAD. Und das sollte doch wenigstens FP16 sein oder?
Parallele vom PC: FP24 ist seit DX9 Standard. Bis auf NV30 konnten alle GPUs seit jeher FP24 (und ab R520 FP32) in Fullspeed.
Oder muss Rogue dafür loopen?
Felixxz2
2013-10-30, 18:21:01
Natürlich ist der SoC sparsamer. Neue Fertigung, gleicher Takt und 64 Bit DDR3 anstatt 128 Bit DDR2. Und natürlich deutlich kleinerer Die.
Zu IGZO sagst du dich schon alles: Die Beleuchtung muss nicht so hell sein -> niedrigerer Energieverbrauch.
robbitop
2013-10-30, 18:29:46
Natürlich ist der SoC sparsamer. Neue Fertigung, gleicher Takt und 64 Bit DDR3 anstatt 128 Bit DDR2. Und natürlich deutlich kleinerer Die.
Klar so einfach ist das. :D
Cyclone ist mit Sicherheit wesentlich energiehungriger als Swift. Das Teil ist brutal breit. Auch bei Rogue wäre ich mir nicht so sicher was Energieaufnahme angeht.
Das iPhone 5S hat jedenfalls trotz leicht größerem Akku nicht mehr Laufzeit als das 5 (ohne S). Vieleicht ist der A7 ein wenig sparsamer als der A6X. Das bleibt aber abzuwarten. Anand möchte ja später mit einem Nicht-Reviewsample genauer nachmessen. Die Hauptkomponente ist aber IMO das Display.
YfOrU
2013-10-30, 18:39:46
Moment der A7 soll 102mm2 gross sein und der 5420 mit aehnlicher Groesse oder hab ich Dich falsch verstanden? Der 5410 war irgendwo ueber 120mm2 unter 28 HKMG ergo WTF fuer den 5420?
Ja, der Exynos ist ein Stück größer als der A7 und das ist mir auch bewusst. Es ging mir nur darum aufzuzeigen das die Performance (A7) nicht über die Chipgröße erkauft wurde.
Das bei Samsung genaugenommen viel wenig bringt steht auf einem anderen Blatt ;)
Nunja. Das iPad Air hat ca. 1-1,5 h mehr Laufzeit (Video+Wifi):
http://www.anandtech.com/show/7460/apple-ipad-air-review/8
Hinzu kommt, dass das Air zusätzlich auch noch schneller und 100 g leichter ist.
Das ist im Grenzbereich (abnehmender Grenzertrag in Natur und Technik) schon eine ziemlich starke Leistung.
Das Note hat im Gegenzug eine höhere Auflösung und ist was das Zusammenspiel von Hardware zu Software betrifft (Effizienz) kaum auf dem Niveau von A7/iOS. Das Ergebnis im Videotest geht meiner Ansicht nach schon in Ordnung (Kapazität zu Panel). Performance, Gehäuse, Gewicht und der zugehörige Preis in Relation natürlich nicht.
Messen muss sich hauptsächlich QCom an Apple. Was GPUs angeht, braucht man sich im Moment nicht zu verstecken. Was SFF CPUs angeht, ist es einfach nur extrem was Apple mit Cyclone geleistet hat. Ich bezweifle, dass A57 und der nächste QCom Kern die gleiche IPC und Leistung pro Watt erreichen wie Cyclone. Und Apple bleibt auch nicht stehen.
Auch Samsung und Intel. Für letztere ist das keine unlösbare Aufgabe aber bei Samsung stell ich mir jedes mal wieder die Frage ob man sich bei der Projektion nicht gnadenlos verkalkuliert hat. Konkurrenzfähige GPUs sind relativ problemlos lizenzierbar aber sich auf die ARM CPU Cores zu verlassen ist in dem Segment nicht gerade optimal. Was A57 betrifft sehe ich das ähnlich aber die wird es sicher von Anfang an wieder als Quadcore geben.
robbitop
2013-10-30, 19:12:31
Das Note hat im Gegenzug eine höhere Auflösung und ist was das Zusammenspiel von Hardware zu Software betrifft (Effizienz) kaum auf dem Niveau von A7/iOS. Das Ergebnis im Videotest geht meiner Ansicht nach schon in Ordnung (Kapazität zu Panel). Performance, Gehäuse, Gewicht und der zugehörige Preis in Relation natürlich nicht.
Die Auflösung ist höher - das stimmt. Aber natürlich ist ein Großteil des Ergebnisses die bessere Hardware-Softwareverzahnung und der sehr gute A7.
Sunrise
2013-10-30, 19:12:46
Wie soll das gehen? IGZO heißt ja nur, dass das Panel einen höheren Transparenzwert hat und die Hintergrundbeleuchtung dann nicht ganz so hell sein muss.
Du sagst es doch selbst, die Hintergrundbeleuchtung muss nicht so intensiv sein und die benötigt ja die meiste Energie im iPad.
IGZO wird frühestens beim iPhone 6 kommen, da Apple dann schauen muss, wo sie die Effizienz noch weiter steigern können. Allein der SoC wird das nichtmehr rausreißen, dafür sind die Sprünge zu groß und Apple kann auch nicht zaubern. Und wie gesagt, Apple wird sicher schauen, das werbetechnisch maximal auszuschlachten, was IGZO bieten wird.
Hier steht zu IGZO übrigens noch etwas mehr (das betrifft aber evtl. nur die Sharp IGZO-Panels):
http://www.idownloadblog.com/2013/01/08/ces-2013-sharp-igzo/
Auszug:
...Sharp’s IGZO technology requires only a fraction of energy compared to traditional LCD screens and provides richer, livelier colors, deeper blacks and overall sharper images while maintaining the thinness of in-cell display tech featured on the iPhone 5…
• super high-resolution and clarity: IGZO’s transistors are much smaller than traditional LCDs and have significantly higher electron mobility. Therefore, more data can be shown in a single display, creating a stunningly detailed image – up to four times that of conventional full-HD or 1080p LCDs
• ultra-low power consumption: IGZO can maintain the onscreen data for a certain period of time without refreshing the data, even when the current is off. This helps cut back the power consumption to achieve longer battery life for displays
• high performance touch response: Compared to conventional LCDs, IGZO displays have drastically minimized the noise caused during touch input. This allows for quick, easy, more natural-feeling writing and smooth lines
Die Wert sehen auch nicht schlechter aus.
Akkulaufzeit ist sogar eher etw. besser geworden. Trotz deutlich kleinerem Akku und vermutlich nicht sparsameren SoC.
Ich verstehe nicht, wie du zu deinen Schlüssen kommst. :confused:
Ich sehe einfach keine nennenswerten Unterschiede zum iPhone 5s außer der höheren Auflösung und dem Display mehr.
Weißpunkt ist auf dem Air zu hoch, Kontrast ist besser beim 4er, die Graustufen-Resultate sind mit Vorsicht zu genießen, weil der Schwarzwert insgesamt auch schlechter wurde. Ich sehe hier keine Verbesserung, wie Anand sie sehen möchte. Das Air hat eine höhere maximale Helligkeit, was evtl. ein Vorteil sein kann, das wars aber auch schon.
Ich bin eben nicht sonderlich angetan. Hätte mehr erwartet. Die Erwartungshaltung war bei mir zu hoch, da ich den Verbrauch des Displays nicht richtig eingeschätzt habe. YfOrU hat ja sehr gut erklärt, wie enorm viel mehr Strom da effektiv benötigt wird, im Gegensatz zum 5s. Da bleibt bei dem reduzierten Gehäuse des Air einfach kein Platz für weitere Steigerungen.
Undertaker
2013-10-30, 19:13:48
Performance, Gehäuse, Gewicht und der zugehörige Preis in Relation natürlich nicht.
Meinst du das jetzt in Bezug auf das Note oder das iPad? Denn bezogen auf den Preis finde ich das iPad auch in der neuesten Auflage noch immer viel zu teuer: Der A7-SoC mag etwas schneller sein, allerdings ist der Unterschied jetzt auch nicht gigantisch groß, weder auf CPU- noch auf GPU-Seite. Ansonsten spricht ziemlich viel für das aktuelle Note, sofern man der Wahl zwischen iOS und Android offen gegenüber steht: 802.11ac WLAN, dreifacher Arbeitsspeicher (was sehr wohl einen Unterschied macht, wie auch Anandtech in Bezug auf mehrere Browsertabs schreibt), Stylus (für ein auch produktiv genutztes Tablet ein gigantischer Vorteil) und Kartenleser (beim iPad ist man auf die überteuerten Versionen mit mehr Flashspeicher angewiesen). Der Gewichts- und Größenunterschied ist im Übrigen auch ziemlich klein.
YfOrU
2013-10-30, 19:28:50
Meinst du das jetzt in Bezug auf das Note oder das iPad?...
Auf das Note. 30€ Differenz (16GB) sind meiner Ansicht nach zu wenig. Über 450€ ist Premium und da sehe ich Performance und Konstruktion (Gehäuse etc) nicht als nebensächlich an. Mit LTE und 32GB liegen beide bei deutlich über 600€. Der Aufpreis von einer richtig flotten Speicherkarte zu mehr internen Speicher macht es dann ehrlich gesagt nicht mehr fett.
Was den Arbeitsspeicher betrifft sehe ich das beim Air auch kritisch. Wird in Summe zwar trotzdem besser laufen als ein Note aber ist für heutige Verhältnisse schon mager.
Ailuros
2013-10-30, 19:36:04
Was genau meinst du? MAD FLOPs? Sollten so sein, wie bei Anand zu sehen. 4x Cluster mit je 1x 32 Slot SIMD (der "skalar" angesteuert wird). Sind 4 x 32 x 2 FLOPs x 450 MHz. Sind dann 115 GFLOPs für reines MAD. Und das sollte doch wenigstens FP16 sein oder?
Parallele vom PC: FP24 ist seit DX9 Standard. Bis auf NV30 konnten alle GPUs seit jeher FP24 (und ab R520 FP32) in Fullspeed.
Oder muss Rogue dafür loopen?
FP16 ist anderhalb Mal so viel wie FP32. Alle Tegra GPUs haben FP20/PS und sind DX9L1.
Undertaker
2013-10-30, 19:36:23
Auf das Note. 30€ Differenz (16GB) sind meiner Ansicht nach zu wenig. Über 450€ ist Premium und da sehe ich Performance und Konstruktion (Gehäuse etc) nicht als nebensächlich an.
Mit LTE und 32GB liegen beide bei um die 600€. Ob man dann 20-30€ für eine flotte 32GB Speicherkarte oder ~50€ Aufpreis für 64GB zahlt macht es nicht mehr fett.
Es sind 100 Euro (edit: sry, 90 €) Aufpreis für jede Speicherverdoppelung. Und dann ist eben die Frage, ob man ein paar Prozent mehr Performance und Gehäusequalität (auch da schneidet das Note ja sehr gut, wenn auch nicht ganz auf iPad-Niveau ab) als wichtiger einschätzt als schnelleres WLAN, vielfältigere Einsatzmöglichkeiten (Stylus) sowie besseres Multitasking (Mehrspeicher und imo bessere Softwaremöglichkeiten des Note).
Apple hatte lange Zeit das einzige wirklich High-endige Tablet auf dem Markt. Diese Zeit ist aber definitiv vorbei. In einigen Punkten ist man noch immer vorn, in anderen aber von der Konkurrenz überholt. Letztlich unterscheidet nun die persönliche Präferenz der einzelnen Vorzüge.
robbitop
2013-10-30, 19:36:27
Der Gewichts- und Größenunterschied ist im Übrigen auch ziemlich klein.
Ziemlich klein? Das sind fast 100 g. Also ~25 %.
Undertaker
2013-10-30, 19:41:08
Ziemlich klein? Das sind fast 100 g. Also ~25 %.
Es sind genau 66 Gramm, also 14 Prozent mehr. Bitte nicht solche großzügige Schönrechnerei. ;) Zum Vergleich: Das iPad 4 war 181 Gramm oder knapp 39% schwerer als das Air – nur um mal die Relationen im Blick zu behalten. Da ist der aktuelle Unterschied in der Tat ziemlich klein, ja.
deekey777
2013-10-30, 19:41:29
Seit heute gehen die Spekulationen zum iPhone 6 los (ok, die gab's schon früher). Vermutet wird ein größeres iPhone mit 5 Zoll und Full-HD, was eine neue Auflösung wäre (man darf nicht vergessen, dass mit dem iPhone 5 bereits eine neue Auflösung eingeführt wurde, daher ist eine weitere Auflösung nicht unbedingt "pures Wunschdenken").
2 GB RAM werden es wohl sein.
Interessant sind auch Spekulationen zum größeren iPad. Denn Apple könnte ein iPad mit vollwertigen OS X anbieten, zumindest so vollwertig wie Windows 8.1 RT.
Ailuros
2013-10-30, 19:46:45
Ja, der Exynos ist ein Stück größer als der A7 und das ist mir auch bewusst. Es ging mir nur darum aufzuzeigen das die Performance (A7) nicht über die Chipgröße erkauft wurde.
Das bei Samsung genaugenommen viel wenig bringt steht auf einem anderen Blatt ;)
Ich weiss nicht wie gross der 5420 ist, aber da die MaliT628 MP6 nicht gerade bescheiden sein sollte wenn es zu die area kommt wuerde ich sogar etwas mehr als 120mm2 schaetzen.
Auch Samsung und Intel. Für letztere ist das keine unlösbare Aufgabe aber bei Samsung stell ich mir jedes mal wieder die Frage ob man sich bei der Projektion nicht gnadenlos verkalkuliert hat. Konkurrenzfähige GPUs sind relativ problemlos lizenzierbar aber sich auf die ARM CPU Cores zu verlassen ist in dem Segment nicht gerade optimal. Was A57 betrifft sehe ich das ähnlich aber die wird es sicher von Anfang an wieder als Quadcore geben.
Es ist blamierend dass im Gegensatz zu Mediatek, Samsung es bisher nicht schaffen konnte nach 2 Versuchen etwas so laecherlich einfaches wie big.LITTLE auf Anhieb richtig zu integrieren. Ich weiss jetzt nicht genau ob ARM oder Samsung daran schuld ist, aber frueher oder spaeter wird jemand die Rechnung schon indirekt bezahlen muessen. Na ich will hoffen dass big.LITTLE diesmal auf Exynos 6 (4*A57+4*A53) endlich wie erwartet funktioniert.
Sonst fuer Apple wird es fuer's naechste Jahr wohl doch ein 6630@~650MHz werden.
deekey777
2013-10-31, 20:37:30
https://itunes.apple.com/de/app/galaxy-on-fire-2-hd/id465072566?mt=8
• Zusätzliche Bloom-Shader und Anti-Aliasing für eine noch bessere Grafikdarstellung auf iPhone 5S, iPad Air und dem neuen iPad mini mit Retina-Display
Ok, vor etwa sechs Wochen wurde das Spiel für iPhone 5, 5c und 5s verbessert (Anti-Aliasing und Bloom-Shader), dann für das iPhone 5s nochmal und jetzt für alle A7-Geräte (vielleicht hat man nur die Erkennung kommender iPads eingebaut). Das Spiel ist nicht gerade neu, aber es war damals eine Art Launch-Titel für iPhone 4s (die SD-Version läuft auf älteren Geräten). Jetzt wird es weiter gepusht.
smalM
2013-11-01, 00:24:37
Auf diesem Bild (http://forum.beyond3d.com/showpost.php?p=1798880&postcount=2252) des iPad Air Mainboards steht auf dem dem A7 "APL5698".
Der A7 im iPhone trägt die Bezeichnung "APL0698".
Wo ist der Unterschied?
APL0698 = mit RAM auf dem Package, APL5698 = ohne RAM auf dem Package (und dadurch höhere thermische Belastbarkeit)?
Ailuros
2013-11-01, 20:00:12
Meine Augen sind wohl zu schlecht um zu sehen was Du siehst ;)
Sonst scheint Anand genau an dem zu arbeiten was ich mir gewuenscht habe und der 6430 duerfte nun wohl doch eher bei 467MHz takten. Bei 3459 MTexels/s die offscreen erreicht werden sind es bei 8 TMUs theoretisch 432MHz; meine vorige Schaetzung fuer 433 klingt unwahrscheinlich. Soooo gut ist ihre Fuellraten-Effizienz nun auch wieder nicht :freak:
Das schiesst aber den A7 6430 dann schon auf 150 GFLOPs.
deekey777
2013-11-01, 20:05:28
Meine Augen sind wohl zu schlecht um zu sehen was Du siehst ;)
http://www.ifixit.com/Teardown/iPad+Air+Teardown/18907#s53577
Apple APL5698 A7 Processor—a slightly different version from the APL0698 in the iPhone 5s
Ailuros
2013-11-02, 08:23:45
http://www.ifixit.com/Teardown/iPad+Air+Teardown/18907#s53577
Ok wobei der Unterschied zwischen den beiden nur bei der CPU Frequenz liegen koennte? (ehrliche Frage).
smalM
2013-11-02, 13:47:19
Nein, der Unterschied ist auf den Photos von iFixit in Form des Elpida-RAM direkt neben dem A7 zu sehen: Kein RAM auf dem SoC-Package.
deekey777
2013-11-02, 14:12:52
Das ist quasi ein anderer SoC, der zumindest günstiger in der Fertigung wäre, womit die Kosten für das Mini mit Retina senkt.
smalM
2013-11-04, 03:07:31
Ich glaube nicht, daß der 8965 (mit aufwendigerem Gehäuse) + separatem RAM billiger ist als ein 8960 mit dem inkludierten RAM, wohl eher im Gegenteil.
Ailuros
2013-11-07, 09:35:45
http://www.fudzilla.com/home/item/33070-a-bigger-ipad-in-the-works?
13" bei 2048*1536 oder wenn kommt das groessere display auch mit einer hoeheren Aufloesung (3072*2304)? Im zweiten Fall dann bitte nicht mit den gleichen wie bisher A7 Frequenzen.
deekey777
2013-11-11, 21:28:57
GlobalFoundries to make Apple chips in New York fab (http://blog.timesunion.com/business/globalfoundries-to-make-apple-chips-with-samsung/57805/)
GlobalFoundries is preparing to make chips for Apple’s iPhone and iPad at its Fab 8 complex in Malta, according to a source close to the company.
Samsung Electronics, which currently makes the logic microprocessors used in Apple’s popular iPhone and iPad devices at its Austin, Texas fab, will help with the start-up of the Apple program, ensuring that Apple will have a second U.S. source for chips for the popular smart phones and tablets. Logic chips are the workhorse chips that are essentially the brains of a smart phone.
Hm...
Ailuros
2013-11-12, 09:00:57
Entweder hab ich den Artikel zu schnell durchgelesen oder Malta ist seit neuestem in New York :freak:
deekey777
2013-11-12, 09:28:20
Bundesstaat New-York ist es schon, http://de.wikipedia.org/wiki/Saratoga_County
Ailuros
2013-11-12, 10:21:33
Schon mal wieder etwas dazugelernt. Danke.
deekey777
2013-11-12, 13:06:53
Globalfoundries soll Chips für Apple fertigen (http://www.heise.de/newsticker/meldung/Globalfoundries-soll-Chips-fuer-Apple-fertigen-2044029.html)
[Update 12.11.2013 12:10 Uhr] Nach Informationen von AllThingsD wird Apple wohl kein direkter Kunde von Globalfoundries – stattdessen will angeblich Samsung in Zeiten besonders hoher Nachfrage auf das Werk des US-Halbleiterherstellers in Malta, New York zurückgreifen und würde dort dann sowohl Chips für iPhone und iPad als auch eigene Mobilgeräte fertigen. (lbe)
Das ergibt mehr Sinn.
robbitop
2013-11-12, 17:32:18
Ich frage mich, wann sie sich von Samsung lösen...
Sunrise
2013-11-12, 18:06:18
Ich frage mich, wann sie sich von Samsung lösen...
Wenn man sich mal anschaut, wie Apple die Fertiger für sich arbeiten lässt, wird das wohl immer eine Option bleiben. Samsung verdient an Apple sicher überdurchschnittlich gut (zumindest aktuell, da Apple unbedingt mehr Volumen benötigt, das sie aktuell woanders scheinbar nicht bekommen) und Samsung wird es auch gerade recht sein, die eigenen Fabs gut auslasten zu können.
Wenn TSMC dann zusätzlich noch "hochfährt", wird es interessanter, es wird sich aber wohl nicht allzu viel daran ändern, da Apple bald noch mehr Produkte hat, die wahrscheinlich auch wieder gigantische Volumina brauchen, auch da hat man dann immer höheren Bedarf an Fab-Kapazitäten und neuen Technologien.
Und was Samsung an eigenem Know-how mitbringt ist denke ich klar, zusätzlich sind sie dann auch noch so breit aufgestellt, dass man dort fast "alles aus einer Hand" einkaufen könnte, wenn man denn bereit ist, zu zahlen.
Ailuros
2013-11-12, 19:08:25
Die Antwort zur Frage ist eigentlich "nie" so lange Apple keine Plaene hat eine eigene foundry auf die Beine zu stellen (verdammt teuer und umstaendlich).
Das unendliche Affentheater wo Samsung angeblich Apple rausschmeissen wuerde wegen der irrelevanten rechtlichen Zankereien und anderer Duennschiss war wohl nur eigentlich dass Samsung etwas die Herstellungpreise fuer Apple erhoeht hat und dafuer Apple es einfach geschluckt hat. Danach hat Apple wohl mit fast jeder grossen foundry angeblich geflirtet nur um sich um 360 Grad zu drehen und voilaaaaaaaa einen neuen Vertrag mit Samsung fuer Herstellung abzuschliessen.
Ich persoenlich war schon IMMER der Einstellung dass es weder in Apple's noch in Samsung's bester Interesse ist dass Apple woanders herstellt. Wie Sunrise schon sagte Samsung kann (auch mit dem oben erwaehnten outsourcing an GloFo) Apple's Volumen decken und Apple bekommt auch die niedrigen Herstellungspreise die sie stets haben wollen.
robbitop
2013-11-12, 19:42:47
Gleichzeitig stärken sie damit aber ihren schärfsten Kontrahenten..
basti333
2013-11-12, 20:12:57
Apple setzt ja bis auf wenige ausnahmen bei fast allen Zulieferprodukten auf 2 oder mehr Zulieferer, vielleicht wird man das Zukünftig auch im SoC Bereich machen, dann halt mit samsung und TSMC.
deekey777
2013-11-12, 21:53:06
Vielleicht sollte die Meldung der letzten Tage, wonach sich Intel für "Dritte" öffnen will, in die Überlegungen miteiinbeziehen: Samsung will eine Trumpfkarte haben, damit Apple ja nicht auf dumme Gedanken kommt.
Das iPad mini mit Retina-Display ist ja seit heute im Verkauf, hier ein kleiner Vorgeschmack: http://9to5mac.com/2013/11/12/retina-ipad-mini-clocks-in-at-same-speed-as-iphone-5s-slightly-slower-than-air/
Sein A7 taktet wie im iPhone 5s und damit etwas langsamer als im Air, also etwas niedrigere Performance.
Ailuros
2013-11-13, 09:03:48
Gleichzeitig stärken sie damit aber ihren schärfsten Kontrahenten..
Samsung als Konzern ist so riesig dass es ihnen zwar ziemlich schaden wuerde wenn Apple ueber Nacht wo anders herstellen wuerde, aber ein wirklichen Schaden nach aussen wirst Du nicht sehen koennen. Ganz im Gegenteil wenn Apple geht und da es verdammt schwer sein wird schlagartig so grosse Kapazitaeten zu finden wird es ihr i-Geschaeft schon verdammt schwer mit uebermaessigen Knappheiten beinflussen.
Apple setzt ja bis auf wenige ausnahmen bei fast allen Zulieferprodukten auf 2 oder mehr Zulieferer, vielleicht wird man das Zukünftig auch im SoC Bereich machen, dann halt mit samsung und TSMC.
Und die grosse Menge bekommt Samsung und ein paar Ueberreste fuer TSMC? Schoen dann kostet die Herstellung beim ersten verstaendlicherweise um einiges weniger als beim zweiten. Wenn jetzt aber Samsung fuer Apple Herstellung zu einem dritten wie Glofo engagiert dann kann es Apple wurscht sein was Samsung dafuer bezahlt. :P
deekey777
2013-11-13, 11:29:31
Analyst Ming-Chi Kuo expects A7-based Apple TV in 2014, television set in 2015-2016 (http://9to5mac.com/2013/11/12/analyst-ming-chi-kuo-expects-a7-based-apple-tv-in-2014-television-set-in-2015-2016/)
Irgendwie will das Update des ATV nicht kommen. Vielleicht klappt es nächstes Jahr :biggrin:
Aber ein A7 im ATV? Er allein kostet 19 US-Dollar (wenn man den Schätzungen glauben darf).
Ailuros
2013-11-13, 14:07:57
Analyst Ming-Chi Kuo expects A7-based Apple TV in 2014, television set in 2015-2016 (http://9to5mac.com/2013/11/12/analyst-ming-chi-kuo-expects-a7-based-apple-tv-in-2014-television-set-in-2015-2016/)
Irgendwie will das Update des ATV nicht kommen. Vielleicht klappt es nächstes Jahr :biggrin:
Aber ein A7 im ATV? Er allein kostet 19 US-Dollar (wenn man den Schätzungen glauben darf).
Die Schaetzungen liegen zu hoch IMHO und der SoC wird zunehmend mit der Zeit einen kleineren BOM haben.
lumines
2013-11-13, 14:30:24
Aber ein A7 im ATV? Er allein kostet 19 US-Dollar (wenn man den Schätzungen glauben darf).
Soweit ich weiß kommen ins Apple TV auch immer teildeaktivierte oder sogar defekte SoCs mit nur einem CPU-Kern rein. Davon abgesehen sehe ich im Apple TV jetzt auch nicht so den Vorteil für einen schnelleren SoC, denn die Features werden ja auch nicht wirklich mehr. Wahrscheinlich wird der ATV daher noch lange Zeit einfach nur den Ausschuss der günstigen Chips erhalten. Ich wüsste jetzt auch nicht, was gegen einen A6 statt A7 im ATV sprechen würde.
smalM
2013-11-13, 14:36:11
Da es ein doch recht heftiger Leistungssprung vom S5L8947 zum S5L8960 ist, ist das nur glaubhaft, wenn dem aTV eine neue Rolle zugewiesen wird, nämlich DAS stationäre volltaugliche iOS-Device zu werden.
@lumines
Nein, der S5L8947 ist eine eigens entwickelte Single-Core-Variante des 32nm-A5, bei der dem A9-Kern auch noch ein Teil des L2 genommen und Grafikleistung halbiert wurde.
Sunrise
2013-11-13, 14:55:06
@lumines
Nein, der S5L8947 ist eine eigens entwickelte Single-Core-Variante des 32nm-A5, bei der dem A9-Kern auch noch ein Teil des L2 genommen und Grafikleistung halbiert wurde.
Er hat schon teilweise Recht, denn bevor Apple diese spezielle Version gefertigt hatte, wurde der "normale" A5 genommen, der teildeaktiviert war. Gab ja auch Vergleiche, dass der neue SoC nochmal deutlich stromsparender ist. Der Die schrumpfte beim Neuen von 69.6 mm2 auf nur noch 37.8 mm2.
Allerdings sehe ich im Moment auch nicht, weshalb der Apple TV einen A7 unbedingt nötig hätte. Da müssten schon irgendwelche gravierend neuen Funktionen hinzu kommen, dass das überhaupt Sinn ergibt. Allerdings muss das auch garnichts mit "Nötigkeit" zu tun haben. Wenn Apple wieder teildeaktivierte A7 "rumliegen" hat, dann kann man hier wieder etwas Geld verdienen. Und Cook denkt bei seinem Hintergrund sehr oft ans Geld verdienen.
Ein wirklich nachvollziehbarer Grund wäre allerdings, zumindest die 1080p60-Fähigkeit auch im Apple TV verfügbar gemacht wird, da die neue VXD/VXE-Einheit im A7 nochmal deutlich mehr Spielraum hat. Dem A5 im alten Apple TV, geht recht schnell "die Luft aus", was aber auch scheinbar am Pufferspeicher liegt, denn der normale A5 (im iPhone bzw. iPad 3 von mir) ist hier schneller. Da Apple aber aktuell nichts über 1080p24 im iTunes-Store anbietet (in DE sowieso nicht), ist das dann auch nicht wichtig.
Ob man den Apple TV (wieder) zu einem vollstationären iOS-Device macht ist fraglich (aber natürlich nicht ausgeschlossen), würde ich mir zwar wünschen, aber so überzeugt bin ich davon noch nicht, denn dann kann man wohl den aktuellen Preis auch nicht halten (z.B. bei einer spekulierten Öffnung zum App-Store würde man zusätzlichen Speicher benötigen, und/oder eine größere SSD).
Interessant wäre für Apple ein neuer Apple TV, der schon H.265 dekodieren könnte (theoretisch kann das der A7, praktisch weiß niemand außer Apple, welche VXD-Einheit dort genau verbaut wurde). Ich frage mich nämlich, wann Apple darauf umsteigt. Bietet ja doch so einige Vorteile, entweder sparen sie dadurch Bandbreite, erhöhen die Bitrate oder bieten bald vielleicht sogar exklusiv 4K-Content an. Apple war in Sachen H.264 ja auch recht fix. Und irgendein iDevice muss hier ja den Vorreiter spielen.
deekey777
2013-11-13, 17:57:06
Das ATV2 hatte den A4 (vollwertig). Das ATV3 hatte zunächst einen teildeaktivierten A5, aktuell einen eigenen Single-Core-A5. Offensichtlich lohnt es sich für Apple für ATV3 einen eigenen SoC zu fertigen, obwohl der volle A5 in vier Produkten eigesetzt wird (iPod Touch 5, iPod Touch 5 mit 16 GB, iPad mini und iPad 2).
iPad mini Retina wird auseinandergenommen: iPad Mini Retina Display Teardown (http://www.ifixit.com/Teardown/iPad+Mini+Retina+Display+Teardown/19374?utm_medium=email&utm_campaign=iPad+Mini+Teardown&utm_content=iPad+Mini+Teardown+CID_7dd168d7a9beadb0d94759da4026438b&utm_source=CampaignMonitor&utm_term=Teardown)
http://www.ifixit.com/Teardown/iPad+Mini+Retina+Display+Teardown/19374?utm_medium=email&utm_campaign=iPad+Mini+Teardown&utm_content=iPad+Mini+Teardown+CID_7dd168d7a9beadb0d94759da4026438b&utm_source=CampaignMonitor&utm_term=Teardown#s54293
Apple A7 APL0698 SoC—This is the same part number as seen on the iPhone 5s, as opposed to the iPad Air's hotrod 1.4 GHz version
Within the A7 package is Elpida F8164A1PD 1 GB LPDDR3 DRAM
robbitop
2013-11-14, 11:52:21
Ist der A5 im AppleTV 3 denn ein eigener Kern mit eigener Maske oder ist einfach nur 1 Kern deaktiviert?
deekey777
2013-11-14, 14:13:20
Ist der A5 im AppleTV 3 denn ein eigener Kern mit eigener Maske oder ist einfach nur 1 Kern deaktiviert?
http://www.anandtech.com/show/6834/apple-tv-2013-a1469-short-review-analysis-of-a-new-a5
The old A5 package measured roughly 14mm x 13mm, while the new package is approximately 12mm x 12mm. Chipworks removed and de-lidded the new chip, determining that it’s truly a new piece of silicon with a single core ARM Cortex A9 and a dual-core GPU. The previous part was a die harvested A5 with one CPU core fused off (S5L8942), but this new chip physically removes the unused core (S5L8947). The GPU seems to be untouched. There are other changes however, resulting in a 37.8mm^2 die down from 69mm^2 in the previous A5 design.
smalM
2013-11-14, 22:40:32
"The GPU seems to be untouched"
Ich denke immer noch, da ist Anand & Chipsworks zu widersprechen; ich halte die GPU des S5L8947 für einen SGX543MP1. Es fehlt ein Teil der Funktionsblöcke, die den SGX543MP2 ausmachen, Chipswork hat nur einen Teilbereich der GPU als "GPU" markiert.
Das ist ihnen beim S5L8945 übrigens nicht passiert, dort sind gerade diese Funktionsblöcke jeweils zusammen als "GPU Core" bezeichnet.
Ailuros
2013-11-20, 16:04:26
"The GPU seems to be untouched"
Ich denke immer noch, da ist Anand & Chipsworks zu widersprechen; ich halte die GPU des S5L8947 für einen SGX543MP1. Es fehlt ein Teil der Funktionsblöcke, die den SGX543MP2 ausmachen, Chipswork hat nur einen Teilbereich der GPU als "GPU" markiert.
Das ist ihnen beim S5L8945 übrigens nicht passiert, dort sind gerade diese Funktionsblöcke jeweils zusammen als "GPU Core" bezeichnet.
Kann vieles sein ausser einem reduziertem GPU core; was Du da eingekreidet siehst ist inklusive caches, surrounding logic und power islands.
-------------------------------------------------------------------------------------
Sonst scheinen sich die Geruechte fuer das iPad PRO anzuhaeufen:
http://www.fudzilla.com/home/item/33179-ipad-jumbo-likely-for-early-2014-release
Ailuros
2013-12-14, 19:45:37
http://gfxbench.com/compare.jsp?D1=Alps+mt8135_mg2w_a2+%28PowerVR+Rogue+Han%29&D2=Apple+iPad+Air&cols=2
Da es endlich die ersten MT8135 low level Resultate gibt, muss ich fuer die Frequenz des G6200 in diesem einen Rueckzieher machen; diese muss irgendwo auf A7 G6430 Nivaeu und ergo bei -/>450MHz liegen.
1744MTexels/s bei 1080p offscreen durch 4 TMUs = 436.
Aendert im Grundsatz nichts gegen meine Meinung dass die groesseren Rogues schlecht mit Geometrie u.a. skalieren. Man sieht es ja auch an den Geometrie-Resultaten oben. Dafuer hat ein G6430 im A7 fast 3x Mal so viel GFLOPs als der G6200 im MT8135.
mboeller
2013-12-16, 09:36:32
http://gfxbench.com/compare.jsp?D1=Alps+mt8135_mg2w_a2+%28PowerVR+Rogue+Han%29&D2=Apple+iPad+Air&cols=2
Da es endlich die ersten MT8135 low level Resultate gibt, muss ich fuer die Frequenz des G6200 in diesem einen Rueckzieher machen; diese muss irgendwo auf A7 G6430 Nivaeu und ergo bei -/>450MHz liegen.
1744MTexels/s bei 1080p offscreen durch 4 TMUs = 436.
Aendert im Grundsatz nichts gegen meine Meinung dass die groesseren Rogues schlecht mit Geometrie u.a. skalieren. Man sieht es ja auch an den Geometrie-Resultaten oben. Dafuer hat ein G6430 im A7 fast 3x Mal so viel GFLOPs als der G6200 im MT8135.
der MT8135 schaut für mich definitiv nicht mehr nach Lowend aus, zumindest von der Grafikseite her:
http://gfxbench.com/compare.jsp?D1=Alps+mt8135_mg2w_a2+%28PowerVR+Rogue+Han%29&D2=NVidia+Tegra+4+%28Wayne%29&cols=2
Ailuros
2013-12-16, 09:50:03
der MT8135 schaut für mich definitiv nicht mehr nach Lowend aus, zumindest von der Grafikseite her:
http://gfxbench.com/compare.jsp?D1=Alps+mt8135_mg2w_a2+%28PowerVR+Rogue+Han%29&D2=NVidia+Tegra+4+%28Wayne%29&cols=2
Doch; denn die Geraete werden wohl erst Anfang 2014 irgendwo ausrollen. Zu dem Zeitpunkt wirst Du es wohl mit eher mit Tegra5, Adreno420, A7revamped und dergleichen vergleichen wollen und in den Faellen ist es dann durchaus mainstream.
Ich will sowieso erstmal den Stromverbrauch bzw. Batterie-laufzeit vom MT8135 von unabhaengigen Quellen getestet sehen; stimmt hier dann auch alles wird es tatsaechlich eine Super-Loesung fuer =/<$200 tablets.
Es wird noch higher end MTK Varianten innerhalb von 2014 geben und wie auch schon oben angedeutet womoeglich auch ein A7@steroids wenn es die PRO tablets auch wirklich geben wird.
Ailuros
2014-01-25, 16:30:30
http://gfxbench.com/device.jsp?benchmark=gfx30&os=iOS&api=gl&D=Apple%20iPhone%205S
Aus 11 mach 13 fps durch eine leichte Treiber-steigerung (iOS7.2).
deekey777
2014-01-25, 17:54:17
Wie taktet eigentlich Xiaomi MI 3W, dass es aktuell auf dem ersten Platz ist?
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Xiaomi%20MI%203W
Undertaker
2014-01-25, 18:03:21
Müssten 578 MHz sein, da die AB-Variante des S800.
Ailuros
2014-01-25, 19:49:07
Wie taktet eigentlich Xiaomi MI 3W, dass es aktuell auf dem ersten Platz ist?
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Xiaomi%20MI%203W
13 ist mehr als 11 :P Alles was die Apple-Fritzen machen muessen ist Manhattan so oft durchlaufen lassen bis die vorigen 11 fps den Durchschnitt nicht mehr beinflussen...
4153 MTexels/s bei 1080p durch 8 TMUs = 519MHz. Unter 600MHz taktet das Ding wohl schwer.
deekey777
2014-02-03, 20:41:22
Apple sued by University of Wisconsin over A7 chip at heart of iPhone, iPad (http://appleinsider.com/articles/14/02/03/apple-sued-by-university-of-wisconsin-over-a7-chip-at-heart-of-iphone-ipad)
Mal was neues.
(Ist übrigens nicht neu, die außergerichtliche Auseinandersetzung war ja schon bekannt.)
deekey777
2014-02-06, 13:30:33
Imagination Technologies extends its multi-year licensing agreement with Apple (http://www.imgtec.com/corporate/newsdetail.asp?NewsID=836)
Imagination Technologies Group plc (LSE: IMG, "Imagination") announces that Apple has extended its multi-year, multi-use license agreement, which gives Apple access to Imagination's wide range of current and future PowerVR graphics and video IP cores.
Also kein K1 im A8/A9/A10...
Avalox
2014-02-06, 13:42:53
Imagination Technologies extends its multi-year licensing agreement with Apple (http://www.imgtec.com/corporate/newsdetail.asp?NewsID=836)
Also kein K1 im A8/A9/A10...
Würde mich nicht wundern, wenn Apple früher oder später den Laden ganz kauft. Apple sollte doch schon heute der beste Kunde sein. Ist nicht Apple sogar heute schon beteiligt?
Ailuros
2014-02-06, 13:46:41
Imagination Technologies extends its multi-year licensing agreement with Apple (http://www.imgtec.com/corporate/newsdetail.asp?NewsID=836)
Also kein K1 im A8/A9/A10...
Wieso hast Du wirklich JE so etwas erwartet? ROFL :D Spass beiseite es ist kein eigenes Hirngespinst wenn ich sage dass Apple nicht das geringste Interesse an DX11 hat; es gab vor einiger Zeit ein Geruecht dass sie planen durch IMG eine open source mobile Tessellations-Methode (mit anstaendigem LOD *hust*) bei Khronos anbieten wollten aber es gab wohl nie Zeit dazu.
Bei der ersten multi-year Lizenz wurde Apple uebrigens nie mit ihrem Namen erwaehnt; diesmal komischerweise schon. Vielleicht aber auch nur um die ewigen "eigene GPU Entwicklung" Geruechte zu begraben. Die originale multi-year Lizenz Ankuendigung hielt vom originalen iPhone bis zum heutigen A7 an; die neue streckt sich ueber eine noch hoehere GPU IP Generations-Anzahl als die vorige :biggrin: (na uebler praesentiert geht es gar nicht LOL....)
deekey777
2014-02-06, 13:53:55
Wieso hast Du wirklich JE so etwas erwartet? ROFL :D Spass beiseite es ist kein eigenes Hirngespinst wenn ich sage dass Apple nicht das geringste Interesse an DX11 hat; es gab vor einiger Zeit ein Geruecht dass sie planen durch IMG eine open source mobile Tessellations-Methode (mit anstaendigem LOD *hust*) bei Khronos anbieten wollten aber es gab wohl nie Zeit dazu.
Mein Spruch ist immernoch besser als "und was ist mit MIPS, was IMG gekauft hat? Will Apple keine eigene CPU bauen?"
Würde mich nicht wundern, wenn Apple früher oder später den Laden ganz kauft. Apple sollte doch schon heute der beste Kunde sein. Ist nicht Apple sogar heute schon beteiligt?
Das ist genau so wie "Apple soll ARM übernehmen".
Ailuros
2014-02-06, 14:21:46
Würde mich nicht wundern, wenn Apple früher oder später den Laden ganz kauft. Apple sollte doch schon heute der beste Kunde sein. Ist nicht Apple sogar heute schon beteiligt?
Warum kauft dann Samsung nicht die Mali Sparte? Im Vergleich zu dem was ARM an Mali GPU IP verkauft ist Samsung ein diametrisch groesserer Kunde als IMG fuer Apple.
Realistisch gesehen fuer all diese Faelle:
* Wenn sich heute eine Firma nicht verkaufen lassen will, dann wird sie auch nicht verkauft.
* Intel hat auch Aktien in IMG und ihr Anteil in voting rights ist genauso laecherlich klein wie der von Apple.
* Apple bedeutet momentan ca. 1/3 vom PowerVR IP das verkauft wird; welcher der 2/3 wuerde mit dem Aufkauf zustimmen?
* Apple's Verkaufsvolumen werden zwar dazuwachsen in absehbarer Zukunft aber da sie ihre Wuchermargen viel zu viel schaetzen NIE & NIMMER analog zur jeglichen Markterweiterung. Wieviel iPhones verkaufen sie pro Jahr? 100+ Mio? Viel mehr wird es langfristig nicht werden egal ob pro Jahr in der Zukunft 3x Mal so viel smartphones weltweit verkauft werden wie heute.
* Wart mal ab wie es mit GPU IP nach ca. 1 Jahr aussehen wird wenn Rogue sich wirklich verbreitet hat.
Mein Spruch ist immernoch besser als "und was ist mit MIPS, was IMG gekauft hat? Will Apple keine eigene CPU bauen?"
Sie verkaufen momentan genauso viel CPU wie GPU IP; nur verdienen sie aus dem MIPS Zeug fast nichts. Sonst wuerde ich ueber den letzten Satz nicht so leicht lachen wollen (Vorsicht: nicht MIPS relevant...)
Das ist genau so wie "Apple soll ARM übernehmen".
Es waere eine bessere Idee wenn Apple Cyclone an ARM ruecklizenzieren wuerde damit ARM endlich einsieht wie beschissen ihre A15 designs wirklich sind fuer smartphones :P
Avalox
2014-02-06, 14:28:09
* Wenn sich heute eine Firma nicht verkaufen lassen will, dann wird sie auch nicht verkauft.
* Intel hat auch Aktien in IMG und ihr Anteil in voting rights ist genauso laecherlich klein wie der von Apple.
* Apple bedeutet momentan ca. 1/3 vom PowerVR IP das verkauft wird; welcher der 2/3 wuerde mit dem Aufkauf zustimmen?
* Apple's Verkaufsvolumen werden zwar dazuwachsen in absehbarer Zukunft aber da sie ihre Wuchermargen viel zu viel schaetzen NIE & NIMMER analog zur jeglichen Markterweiterung. Wieviel iPhones verkaufen sie pro Jahr? 100+ Mio? Viel mehr wird es langfristig nicht werden egal ob pro Jahr in der Zukunft 3x Mal so viel smartphones weltweit verkauft werden wie heute.
* Wart mal ab wie es mit GPU IP nach ca. 1 Jahr aussehen wird wenn Rogue sich wirklich verbreitet hat.
Mal sehen.
Apple muss am Markt einkaufen gehen. PowerVR ist für Apple immer noch ein Risiko.
Es sind 150 Mio iPhones letztes Jahr gewesen, + 26 Mio iPads.
Hinzu kommen alsbald Notebooks und weitere Smartdevices mit entsprechenden SoCs aus der eigenen Entwicklung.
Die Patente aus der Mips Entwicklung würden sicherlich in das Portfolio von Apple passend bereichern.
Für Samsung ist ein ARM, wo jeder seinen MALI Design einkaufen kann sicherlich mehr wert.
Demgegenüber lizenziert nVidia seinen SoC GPU Kern für Dritte und macht damit der PowerVR Linie zukünftig Wettbewerb.
Es würde mich immer noch nicht wundern, wenn Apple zuschlägt.
Ailuros
2014-02-06, 14:52:16
Mal sehen.
Apple muss am Markt einkaufen gehen. PowerVR ist für Apple immer noch ein Risiko.
Wenn Apple einkaufen muss dann sollte sie auch gleich ARM einkaufen.
Es sind 150 Mio iPhones letztes Jahr gewesen, + 26 Mio iPads.
Hinzu kommen alsbald Notebooks und weitere Smartdevices mit entsprechenden SoCs aus der eigenen Entwicklung.
Es sind schon heute ueber 200Mio Geraete und? Da Du es Dir schwer tust den vorigen Post durchzulesen lies ihn nochmal durch. Der Markt insgesamt wird um einiges mehr zuwachsen als Apple's Marktanteil egal wo.
Die Patente aus der Mips Entwicklung würden sicherlich in das Portfolio von Apple passend bereichern.
Apple hat kein Interesse an weiterem CPU IP; ihre roadmap geht in eine andere Richtung.
Für Samsung ist ein ARM, wo jeder seinen MALI Design einkaufen kann sicherlich mehr wert.
Samsung kann sowieso nie entscheiden was sie wirklich wollen am Ende. Es war lediglich ein daemliches Gegenbeispiel fuer Dein total absurdes Beispiel.
Demgegenüber lizenziert nVidia seinen SoC GPU Kern für Dritte und macht damit der PowerVR Linie zukünftig Wettbewerb.
Bis zum Punkt wo NV die erste sehenswerte GPU IP Lizenz ankuendigt halt mal Deinem Atem an.
Es würde mich immer noch nicht wundern, wenn Apple zuschlägt.
Es wuerde mich mal wundern wenn Du zur Abwechslung eine realistische Erwartung haettest :P
Undertaker
2014-02-06, 15:37:17
Bis zum Punkt wo NV die erste sehenswerte GPU IP Lizenz ankuendigt halt mal Deinem Atem an.
Ist die (modifizierte) Kepler-GPU eines K1 so schlecht, als dass eine IP-Lizenz davon so abwegig erscheint? Und das mal ganz ab von DX11, sondern vielmehr hinsichtlich Perf/Watt und Perf/mm². Die Frage ist allenfalls, wie schnell die erst vor ~9 Monaten angekündigte Lizenzierung sich auch in fertigen Produkten niederschlägt, und natürlich welche Preise seitens Nvidia aufgerufen werden.
Ailuros
2014-02-06, 16:06:18
Ist die (modifizierte) Kepler-GPU eines K1 so schlecht, als dass eine IP-Lizenz davon so abwegig erscheint? Und das mal ganz ab von DX11, sondern vielmehr hinsichtlich Perf/Watt und Perf/mm². Die Frage ist allenfalls, wie schnell die erst vor ~9 Monaten angekündigte Lizenzierung sich auch in fertigen Produkten niederschlägt, und natürlich welche Preise seitens Nvidia aufgerufen werden.
Ich erinnere daran dass wir im Apple thread sind und Avalox es nur in die Debatte geschmissen hat weil ihm nichts anderes eingefallen ist :D Das daemlichste ist dabei dass Samsung eines der moeglichsten semis fuer NV GPU IP waere, welches im obrigen Zusammenhang eher ein Eigentor ist :P
Wir haben momentan eine weitere multi-year Lizenz seitens Apple fuer IMG GPU IP und die Pille wird er wohl schlucken muessen. 2007 bis 2014 sind 7 Jahre.
Perf/W beantworten wir alle erst fuer GK20A nachdem es in finalen Geraeten erscheint und wir es gegen Apple A8 und S810 vergleichen koennen.
smalM
2014-02-07, 01:58:37
* Wenn sich heute eine Firma nicht verkaufen lassen will, dann wird sie auch nicht verkauft.
* Apple bedeutet momentan ca. 1/3 vom PowerVR IP das verkauft wird; welcher der 2/3 wuerde mit dem Aufkauf zustimmen?
Der Kauf und Verkauf von Aktien ist weder vom Wunsch der Kunden einer Firma, noch von den Wünschen der Firma selbst abhängig.
Würde Apple heute eine ½ Mrd. £ auf den Tisch legen, hätten sie wohl morgen über 75% aller Aktien in der Hand (und damit das alleinige Sagen bei IM - auch wenn ich mir z.Z. nicht vorstellen kann, wozu das gut sein sollte... Etwas anderes wäre der Erwerb einer Sperrminotität).
Im letzten Geschäftsjahr hatten IMs Kunden 535 Mio. SoCs mit PowerVR IP ausgeliefert. Davon waren ca. 230 Mio von Apple - und die dürften im Schnitt preislich deutlich höher gelegen haben als der Rest.
deekey777
2014-02-07, 08:51:37
Cook says Apple to enter 'new categories' with upcoming devices (http://appleinsider.com/articles/14/02/06/cook-says-upcoming-apple-devices-will-be-new-categories)
iWatch ist klar. Zu einer Settop-Box ausgebautes Apple TV könnte denkbar sein, aber auch ein Fernseher und eine Art Kindle-Leser für iBook. Alles mit einem Chip mit PowerVR-Technik vorstellbar (nicht nur Grafik, sondern auch nur Videochip, wie es QCOM macht).
Was hat das mit dem Thema zu tun?
urpils
2014-02-07, 10:06:01
ernsthafte Frage:
Laut meinen Recherchen gibt es 1.400.270.000 ARM-Holdings Aktien. Der aktuelle Kurs liegt bei knapp 11€.. genzugenommen wären alle Arm-Aktien für 15 Mrd € zu haben (ich weiß, dass man es nicht so rechnen kann und auch eigentlich keinen Sinn ergibt, aber es gibt einem eine Ahnung der Größenordnung, in denen sich ein ARM-Aufkauf bewegen würde). Wir würden also bei einem deutlich unter 100 Mrd-Euro-Geschäft für ARM liegen und damit absolut machbar für Apple.
Die Frage ist: was würde Apple mit ARM anfangen wollen? An der Firma selbst hätten sie kein Interesse - höchstens an den Ingenieuren und den Patenten/Rechten. Was hätten sie damit also gewonnen? "Aussperren" der Konkurrenz? wohl kaum - Intel/AMD/nVidia/MIPS würden sicherlich in die Presche springen. (wäre außerdem ein ziemlich übler move).
Ailuros
2014-02-07, 12:13:06
Der Kauf und Verkauf von Aktien ist weder vom Wunsch der Kunden einer Firma, noch von den Wünschen der Firma selbst abhängig.
Würde Apple heute eine ½ Mrd. £ auf den Tisch legen, hätten sie wohl morgen über 75% aller Aktien in der Hand (und damit das alleinige Sagen bei IM - auch wenn ich mir z.Z. nicht vorstellen kann, wozu das gut sein sollte... Etwas anderes wäre der Erwerb einer Sperrminotität).
Und Du glaubst dass kein anderer einen einzigen Einspruch dagegen haette?
Im letzten Geschäftsjahr hatten IMs Kunden 535 Mio. SoCs mit PowerVR IP ausgeliefert. Davon waren ca. 230 Mio von Apple - und die dürften im Schnitt preislich deutlich höher gelegen haben als der Rest.
Je hoeher das Volumen eines Vertrags desto kleiner der Preis, ergo wuerde ich an Deiner Stelle den letzten Satz nochmal ueberdenken. Die hoechste royalty liegt etwas ueber einem Pfund und der insgesamte Durchschnitt ein gutes Stueck unter 30 pennies.
smalM
2014-02-08, 15:00:17
Und Du glaubst dass kein anderer einen einzigen Einspruch dagegen haette?
Mit welchen rechtlichen Mitteln wollte eine dritte Partei verhindern, daß Apple oder ein anderer die Mehrheit der Aktien am Markt aufkauft? IM hat ja keine Monopolstellung, die dann auf den Käufer überginge.
Je hoeher das Volumen eines Vertrags desto kleiner der Preis, ergo wuerde ich an Deiner Stelle den letzten Satz nochmal ueberdenken.
Danke für den Hinweis, aber ich weiß wie solche Verträge gestaltet sind. Meine Überlegung war einfach, daß das durch die höherwertigen GPU IPs, die Apple verbaut, mehr als wettgemacht wird. Waren doch gerade die SoCs anderer Hersteller, die ebenfalls auf höherwertige GPU IPs von IM gesetzt hatten, im letzten Jahr nicht so erfolgreich...
Ailuros
2014-02-08, 15:19:07
Mit welchen rechtlichen Mitteln wollte eine dritte Partei verhindern, daß Apple oder ein anderer die Mehrheit der Aktien am Markt aufkauft? IM hat ja keine Monopolstellung, die dann auf den Käufer überginge.
Wieso drehen wir uns im Kreis mit einer unrealistischen Moeglichkeit?
1. Die Zeiten der feindlichen Uebernahmen sind vorbei.
2. Werden eben so grosse Aktien-Summen nicht unter dem Tisch und ohne jegliche Trasparenz verkauft (nur ein Beispiel): http://www.imgtec.com/corporate/newsdetail.asp?NewsID=829
deekey777
2014-02-12, 20:45:13
Was hat das mit dem Thema zu tun?
Hat was mit der letzten Seite war zu tun.
Apple Said to Plan New Set-Top Box Amid Time Warner Cable Talks (http://www.bloomberg.com//news/2014-02-12/apple-said-to-plan-new-set-top-box-amid-time-warner-cable-talks.html)
Apple Inc. (AAPL) is planning to introduce a new Apple TV set-top box as early as April and is negotiating with Time Warner Cable Inc. and other potential partners to add video content, according to people with knowledge of the matter.
Malwieder soll Apple neue ATV-Generation präsentieren, aber erst zu Weihnachten wird sie verkauft? Und wie immer heißt es, welcher SoC zum Einsatz kommt.
Sunrise
2014-02-13, 13:49:30
...Malwieder soll Apple neue ATV-Generation präsentieren, aber erst zu Weihnachten wird sie verkauft? Und wie immer heißt es, welcher SoC zum Einsatz kommt.
Wenn sie H.265 integrieren wollen, wird es wohl eher Richtung A8 gehen, wenn nicht, bleiben sie beim A7. So eine A8-Krücke im Apple TV ohne H.265-Support wäre jedenfalls Quatsch, das kann man ansonsten alles problemlos mit A7 lösen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.