PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Cortex A7 - energieeffizienter Spar-DualCore und Companion für High-End-SoCs


AnarchX
2011-10-19, 18:44:31
http://img41.imageshack.us/img41/5234/screen20shot20201110192.jpg (http://imageshack.us/photo/my-images/41/screen20shot20201110192.jpg/)

http://img828.imageshack.us/img828/5234/screen20shot20201110192.jpg (http://imageshack.us/photo/my-images/828/screen20shot20201110192.jpg/)

big.LITTLE

http://www.anandtech.com/show/4991/arms-cortex-a7-bringing-cheaper-dualcore-more-power-efficient-highend-devices

LovesuckZ
2011-10-19, 19:09:39
Haha@Qualcomm. ;D

Das ist jetzt eine richtige Überraschung, dass ARM den Weg von nVidia als "Standard" ermöglicht.

Screemer
2011-10-19, 23:34:08
warum soll man nicht teile der caches und sonstiger logic eines a9/15 per powergating abkoppeln um auf selbe niveau an stromverbrauch und rechenleistung zu kommen? zu kompliziert, zu viele transitoren noetig?

mboeller
2011-10-20, 08:13:52
hört sich fast schon zu gut an um wahr zu sein:

Taken together, these attributes of ARM’s big.LITTLE processing enable a best-of-both-worlds solution for modern mobile devices: energy savings of up to 70% over today’s high-end smartphone application processors, with peak performance significantly higher than the highest end 2011 smartphone. Note this is not an either/or proposition, it really is both higher peak performance and energy savings, on the same workload.


http://blogs.arm.com/soc-design/598-combining-large-and-small-compute-engines-arm-cortex-a7/

robbitop
2011-10-20, 08:44:54
Haha@Qualcomm. ;D

Das ist jetzt eine richtige Überraschung, dass ARM den Weg von nVidia als "Standard" ermöglicht.
Klar :rolleyes: Der Weg von NVIDIA. Der Cortex A7 ist auch nur ein paar Monate in Entwicklung gewesen...
Entweder waren die Ideen unabhängig oder ARM hat NV einen Tip gegeben. So ein CPU Design dauert Jahre! Einen SoC mit fertigen Komponenten zum Tapeout zu bringen hingegen nur Monate.

Eggcake
2011-10-20, 08:45:27
hört sich fast schon zu gut an um wahr zu sein:



http://blogs.arm.com/soc-design/598-combining-large-and-small-compute-engines-arm-cortex-a7/

Nun, im Standby wohl "up to" 70% energy savings, nicht allgemein.

=Floi=
2011-10-20, 10:33:50
nvidia hat schon beim tegra 1 einen extra core verbaut! hier war wohl NV erster. jetzt soll er aber richtige aufgaben übernehmen und direkt für idle und low power aufgaben optiert und gedacht sein. das ist schon noch ein stück mehr.


ich bin gespannt, wann amd oder intel dies auch bei ihren X86 cpus anwenden werden.


edit
es wäre ja sowieso schlimm, wenn wegen nv dies arm in ihr neues prozessordesign integrieren würde. hehe :D

LovesuckZ
2011-10-20, 11:08:48
Klar :rolleyes: Der Weg von NVIDIA. Der Cortex A7 ist auch nur ein paar Monate in Entwicklung gewesen...
Entweder waren die Ideen unabhängig oder ARM hat NV einen Tip gegeben. So ein CPU Design dauert Jahre! Einen SoC mit fertigen Komponenten zum Tapeout zu bringen hingegen nur Monate.

Du hast es falsch verstanden. Ich sage nicht, dass nVidia oder Marvell ARM überzeugt haben. Sondern das dies den Kritiker des nVidia's Weg klar zeigt, dass es die Zukunft ist. Und Qualcomm ist ein Kritiker, die erst vor kurzem in einer PDF über Krait diese Umsetzung als absurd abgetan haben.

Und man sieht hier auch sehr schön, wieviel flexibler ARM gegen über x86 von Intel und AMD ist. Es wird richtig schwer für Intel gegen ARM im Low-Power Markt zu bestehen, wenn man immer so dermaßen weit abgeschlagen ist mit dem eigenen Design.

mboeller
2011-10-20, 13:16:07
Nun, im Standby wohl "up to" 70% energy savings, nicht allgemein.

Das ist ja das kuriose. 70% Ersparnis allgemein! Nicht im Standby! Lies den Text, dann verstehst du wie es gemeint ist.

mboeller
2011-10-20, 13:17:40
Übrigens, wenn man sich die Leistungsfähigkeit mal so ansieht:

Ein Quad-Core SoC mit 4 A7 @ 1,5GHz sollte wohl fast so schnell sein wie ein Quad-core A9 SoC, aber nur einen Bruchteil verbrauchen.

Dural
2011-10-20, 13:20:03
Klar :rolleyes: Der Weg von NVIDIA. Der Cortex A7 ist auch nur ein paar Monate in Entwicklung gewesen...
Entweder waren die Ideen unabhängig oder ARM hat NV einen Tip gegeben. So ein CPU Design dauert Jahre! Einen SoC mit fertigen Komponenten zum Tapeout zu bringen hingegen nur Monate.


laut NV haben sie auf den Spar Kern aber ein Patent.

AnarchX
2011-10-20, 13:20:21
Beachten, dass ARM da A9@45nm vs A7@28nm vergleicht.

LovesuckZ
2011-10-20, 13:26:18
Laut Anandtech ist A9 31% schneller. Du müsstest also deine A7 Cores deutlich höher takten. Und A9 geht auf 40nm auf ca. 1,5GHz.

laut NV haben sie auf den Spar Kern aber ein Patent.

Ja, das ist interessant. ARM macht im Grunde das selbe wie nVidia.

/edit: PDF zu big.LITTLE, vorallem auch Vegleich zwischen A7 und A15: http://www.arm.com/files/downloads/big.LITTLE_Final.pdf

dildo4u
2011-10-20, 15:23:39
ARM Cortex-A7 launch -- big.LITTLE demonstration

http://www.youtube.com/watch?v=UUWObh3Kkvk&hd=1


Nun, im Standby wohl "up to" 70% energy savings, nicht allgemein.
Common workloads im Video wird z.b Websitescrolling genannt wo nur der A7 aktiv ist.Es ist nicht möglich das der A7 mit verringerten Takt immer an die 70% weniger verbraucht?

Screemer
2011-10-20, 19:10:46
warum soll man nicht teile der caches und sonstiger logic eines a9/15 per powergating abkoppeln um auf selbe niveau an stromverbrauch und rechenleistung zu kommen? zu kompliziert, zu viele transitoren noetig?
die frage war ernst gemeint. warum muss für sowas ein dedizierter kern herhalten?

LovesuckZ
2011-10-20, 19:13:27
die frage war ernst gemeint. warum muss für sowas ein dedizierter kern herhalten?

Die Ausrichtung auf höhrere Taktraten und die deutlich aufwendigeren Architektur führen dazu, dass das Perf/Watt Verhältnis bei geringer Last schlechter ist - das hat mit dem verwendeten Prozess bzw. den Transistorentypen und wie erwähnt der Architektur zu tun.

Und laut ARM scheint man auch den L2-Cache auf Low-Power optimieren zu können, wodurch man nochmal etwas spart.

VooDoo7mx
2011-10-20, 19:25:19
Klar :rolleyes: Der Weg von NVIDIA. Der Cortex A7 ist auch nur ein paar Monate in Entwicklung gewesen...
Entweder waren die Ideen unabhängig oder ARM hat NV einen Tip gegeben. So ein CPU Design dauert Jahre! Einen SoC mit fertigen Komponenten zum Tapeout zu bringen hingegen nur Monate.

Richtig. Das als nVidia Erfindung hinzustellen ist mal wieder ein Hirngespinnst eines NV Fanboys und das sage ich als überzeugter nVidia Nutzer, ich habe sogar ein Tegra 2 Smartphone.
ARM hat auch schon seit längeren kleinere Companion Cores für simplere Aufgaben. Wie z.B. den Cortex M3 der im Omap 4470 gleich doppelt verbaut ist.

Diese ganze Idee ist weder neuer, noch hat sie nVidia "erfunden".

LovesuckZ
2011-10-20, 19:35:42
Und jetzt die 1€ Frage:
Warum denkt ARM, dass es besser wäre eine neue, zu A15 kompartible, CPU-Architektur, als "Companion" zu verwenden, wenn ein beschränkte Controller-Chip ausreichen würde?

Manchmal sollte man nur gleiches mit gleichem vergleichen.

Trap
2011-10-20, 20:02:46
die frage war ernst gemeint. warum muss für sowas ein dedizierter kern herhalten?
Es sind völlig unterschiedliche Designs, durch Abschalten von Funktionen im schnellen Kern kommt man nicht annähernd in die Nähe des kleinen Kerns. Außerdem ist der A7-Kern so winzig, dass sich es kaum lohnt den einzusparen.

Ein ungefähr passender Vergleich wäre ein Motorrad und ein Fahrrad: Motor ausbauen und Pedale dranmachen macht aus dem Motorrad kein Fahrrad.

robbitop
2011-10-21, 10:34:07
nvidia hat schon beim tegra 1 einen extra core verbaut! hier war wohl NV erster. jetzt soll er aber richtige aufgaben übernehmen und direkt für idle und low power aufgaben optiert und gedacht sein. das ist schon noch ein stück mehr.

Es haben auch schon andere SoC Hersteller andere kleinere Nicht-Application Prozessorein in ihrem SoC verbaut. Schon weit vor Tegra.
Diesesmal hat ist es aber ein Application Prozessor, der das gleiche Instructionset hat. Das ist schon ein Unterschied. (weil Restriktionen den Nutzwert in dem Fall erheblich schmälern)

FlashBurn
2011-10-21, 21:40:06
Man darf auch nicht vergessen, dass die Software davon gar nix weiß/wissen muss. Das ist in dem Sinne neu (ist allerdings doch bei Tegra3 auch so oder?) und vorallem denke ich nicht, dass ARM den Cortex-A7 einfach mal auf die schnelle erstellt hat, die werden da schon ein wenig länger dran werkeln.

Wer nun erster war ist ja auch erstmal egal, aber die Idee finde ich verdammt gut, insbesondere da es transparent zur Software ist.

Avalox
2011-10-25, 11:37:49
Man darf auch nicht vergessen, dass die Software davon gar nix weiß/wissen muss. Das ist in dem Sinne neu (ist allerdings doch bei Tegra3 auch so oder?).

Na ganz so ist es ja auch nicht.

Natürlich ist es in diesem Fall auch "Spezialsoftware" oder eben Software mit Spezialaufgaben für welche der Stromsparkern konzipiert ist. Es sind eben die Funktionen, welche das Gerät im Standby ausführt. Also klassisch warten auf einen Telefonanruf, einer SMS usw.

Der Knacktus ist doch, dass erst jetzt mit den neuen Smartphones kein Mensch mehr weiß, welche Anwendungen dort mit umfänglichen Hintergrunddiensten im Standby arbeiten (bei iOS oder Windows 7 Phone sind solche Dienste ja von Hause eingeschränkt).
Dieser neue Ansatz ist ja letztendlich nur eine Vereinfachung in der Verwaltung, bzw. bei der Software Erstellung. Es ist ja gar nicht Sinn der Sache, dass Software welche mit voller Benutzerinteraktion und Rechenleistungsbedarf, dann irgendwie stromsparend auf dem Stromsparkern ausgeführt wird.
Früher hatten solche Telefone durchaus eine zweite CPU getrennt auf dem dem Board für Standby Rechenleistung, dann rutschten diese mit in den SoC und nun haben diese einen einheitlichen Befehlssatz. Die Standby Funktionalität wächst ja zusehends, Autoupdate hier, Facebook dort, usw. usw

FlashBurn
2011-10-25, 11:50:46
@Avalox

Soweit ich das von ARM verstanden habe, entscheidet die Firmware wann die Stromsparkerne genutzt werden und da geht es nicht nur um Spezialsoftware. In der Demo wurde auch gezeigt, das eine Webpage auf den A15 gerendert wird, aber das Scrolling findet dann auf den A7 statt.
Es ist also allgemein geplant und nicht nur für "Spezialsoftware".

Ich bin durchaus der Meinung das sich sowas auch für den PC lohnen würde. Denn die meiste Zeit macht der PC eh nix und wenn dann nur solche Stromsparkerne laufen, wäre das doch z.B. für Laptops genial.

LovesuckZ
2011-10-25, 11:57:48
@Avalox

Soweit ich das von ARM verstanden habe, entscheidet die Firmware wann die Stromsparkerne genutzt werden und da geht es nicht nur um Spezialsoftware. In der Demo wurde auch gezeigt, das eine Webpage auf den A15 gerendert wird, aber das Scrolling findet dann auf den A7 statt.
Es ist also allgemein geplant und nicht nur für "Spezialsoftware".


Richtig. Das wurde auch schon im Tegra Thread nicht verstanden. Die Low-Power Kerne können die selben Aufgaben übernehmen. Nur eben langsamer. Sie sind nicht nur für beschränkte Aufgabengebiete geeignet. Die einzige Differenzierung liegt in der Geschwindigkeit.

Avalox
2011-10-25, 13:35:17
@Avalox

Soweit ich das von ARM verstanden habe, entscheidet die Firmware wann die Stromsparkerne genutzt werden und da geht es nicht nur um Spezialsoftware. In der Demo wurde auch gezeigt, das eine Webpage auf den A15 gerendert wird, aber das Scrolling findet dann auf den A7 statt.
Es ist also allgemein geplant und nicht nur für "Spezialsoftware".


Was ist denn der Allgemeinfall bei einem Telefon? Es ist der Standby Fall.
Standby ist der allgemeine Betriebszustand eines Telefons.

Natürlich kann dieser Prozessor diese o.g. Aufgabe übernehmen, dass ist aber das Beispiel der Flexibilität und nicht ein praktisches Beispiel.
Sinn dieses Prozessor ist es im Standby Betrieb allen möglichen Anwendungen, mit mehr oder weniger ausgeprägten Hintergrunddiensten stromsparend zu betreiben. Weil diese A) ungeheuer zunehmen und B) diese über alle möglichen APPs ins System kommen und nicht mehr nur vom Systemhersteller entwickelt werden. Deshalb ist der Anspruch einfach da, es den Dritt-Entwicklern möglichst einfach zu machen.

Zuhause hat dieses keine ernste Relevanz, da würde diese Stromsparfunktion schon in der Netzteileffizienz völlig untergehen. Jedenfalls solange diese Zuhause Computer aussehen wie ein PC.

LovesuckZ
2011-10-25, 14:15:59
Ich glaube, hier übersehen viele das komplette Bild.

big.LITTLE sowie alle anderen gleichwertigen Umsetzungen ersetzen die Ansicht der Eierlegendenwollmilchsau. Es ist eben nicht mehr möglich mit einer Prozessorarchitektur und einem Prozesstyp in jedem Bereich die bestmögliche Effizienz zu erbringen. Deswegen kommt es zu einer Aufsplittung in verschiedene Verbunde mit kompartibler Architektur. Jeder Verbund kann die selben Aufgaben übernehmen, die einzigen Differenzierungen liegen schlussendlich in der Leistungsfähigkeit sowie dem Perf/Watt Verhältnis. So kann der High-Performance-Verbund natürlich auch die zeitunkritischen Aufgaben übernehmen, aber die Effizienz ist (deutlich) schlechter.

Zeitunkritisch ist nicht nur "active Standby". Viele Aufgaben bei tatsächlicher Nutzung des Gerätes brauchen nicht viel Leistung: Anschauen von Content, Videowiedergabe, Wordprocessing...

Es geht hierbei also nicht mehr um die reine Leistungssteigerung. Es ist eine Ansicht, um die Effizienz so zu verbessern, dass es keinen Nachteil durch Leistungssteigerung gibt. Dafür opfert man Fläche.

Gipsel
2011-10-25, 14:16:46
@ MadManniMan und LS:

Klärt das bitte per PN. Hier ist das OT.

AnarchX
2011-10-28, 10:00:52
Die-Shot-Vergleich:
http://pc.watch.impress.co.jp/img/pcw/docs/487/030/9.jpg

0,45mm² @ 28nm. :D

Weitere Folien zum A7: http://pc.watch.impress.co.jp/docs/column/kaigai/20111028_487030.html?ref=rss

LovesuckZ
2011-10-28, 11:33:05
Komischer vergleich. DualCore A9 auf 40nm, gegen SingleCore A7 auf 28nm...

AnarchX
2011-10-28, 11:38:21
Aus ~2,5mm² @ 40nm für einen A9-Core werden unter 28nm noch lange keine 0,45mm².

disap.ed
2011-10-28, 12:43:14
Was mich mehr überrascht ist dass der Bobcat in 28nm wohl kleiner wird als ein A9 @40nm.

EDIT: Er ist wohl jetzt schon nicht größer, weil beim A9 ist ja offenbar kein L2 angegeben.
Also Bobcat inkl. L2 Cache @28nm < A9 ohne L2 Cache @40nm.

AnarchX
2011-10-28, 13:02:22
Wird doch aufgeführt.

A9: 6,7mm² HP / 4,9mm² LP (beides Dualcore)
Bobcat: <5mm² (ohne L2)

Wobei ein Bobcat in den Verbrauchsregionen eines A9 wohl auch um einiges mehr Die-Flache benötigen würde.

Knuddelbearli
2011-10-28, 13:05:57
ebenso würde ein arm der x86-64 ausführen müsste extrem größer werden ;-)

robbitop
2011-10-28, 13:41:33
Ein Bobcat ist ungefähr so groß wie ein A9 Dualcore. Ich bin auf die Flächenangaben und Leistung des A15 gespannt. In Relation zu 28 nm Bobcat.

RLZ
2011-10-28, 14:12:40
AMD gibt den Core übrigens mi 4.6mm2 an

ebenso würde ein arm der x86-64 ausführen müsste extrem größer werden ;-)
Dann zeig mal auf wo x86 soviel Fläche verbraucht.
Alternativ könnte man auch drüber nachdenken, dass die höhere IPC Fläche kostet.

mboeller
2011-10-28, 15:59:00
ein A7-Dual-Core @ 1,2GHz sollte, zumindest beim Browsen (siehe Broswer-Benchmark) so schnell sein wie ein A9-Dual-Core @ 1,0 GHz wenn man der Folie von ARM glauben schenkt.

Link: http://pc.watch.impress.co.jp/img/pcw/docs/487/030/html/7.jpg.html

Eine wirklich beeindruckende Leistung für so eine kleine CPU.