PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Qualcomm Snapdragon-SoCs


Seiten : 1 [2] 3 4 5 6 7 8 9 10 11

Ailuros
2013-01-31, 09:56:18
Qualcomm's roadmap geleakt:

http://forum.beyond3d.com/showpost.php?p=1700375&postcount=308

Ein paar Bemerkungen:

Endlich eine offizielle Bestaetigung dass Adreno 320 auf 400MHz taktet. Dafuer hat das Ding aber 8 TMUs und ich wunder mich ernsthaft wo zum Henker die Texelfuellrate verschwindet in Fuellraten-tests: http://www.glbenchmark.com/compare.jsp?D1=Google+Nexus+4&D2=Google+Nexus+10&cols=2 Offscreen 1080p erreicht ein MaliT604 bei 533MHz/4 TMUs mehr Fuellrate als ein Adreno320.

Der Nachfolger des heutigen SoCs APQ8074 hat einen quad Krait bei 2.3GHz (ewwww!) einen fetten Happen mehr Bandbreite und einen Adreno330@450MHz dem aber 30% mehr Leistung im Vergleich zu 320 zugeschrieben wird bei gleicher Anzahl von TMUs. Womoeglich ein gute Anzahl von mehr ALUs. Insgesamt ist die bisherige Beschreibung dass 8074 im Vergleich zum 8064 um 50% schneller sein soll wohl keine Uebertreibung.

Fuer diejenigen die sich Sorgen gemacht haben ueber API support der APQ8084 (2014?) hat einen Adreno420/8TMUs/500MHz mit DX11.1 support, aber leider noch keine Leistungsangabe.

Qualcomm ist zwar nicht froh dass ihre roadmap durchgesickert ist, aber verstecken brauchen sie sich mit den Daten vor jeglicher Konkurrenz sicher nicht.

***edit: und ja natuerlich: http://www.fudzilla.com/home/item/30318-qualcomm-posts-monster-earnings

Ailuros
2013-02-10, 03:17:11
http://www.fudzilla.com/home/item/30411-next-gen-nexus-7-is-qualcomm

Nightspider
2013-02-10, 03:55:42
Genaue Angaben zum Release für Snapdragon 600 und 800 gibt es aber noch nicht oder?

Qualcomm könnte Nvidia und Co. echt weiter hinter sich lassen, wenn der 800 vom CPU-Speed vielleicht nochmal 30% (kommt das hin?) schneller ist als die A15 Konkurenz.

Neosix
2013-02-10, 04:12:31
Qualcomm muss nicht mal "schneller" sein, es reicht schon ein Gleichstand auf der CPU Seite, wenn sie kein Design bauen was durch die eigene thermische Abwärme dauernd in den TDP Limit donnert und untertakten muss (*hust A15 hust*).

AffenJack
2013-02-10, 11:01:42
Das machen die Quallcomm SoCs auch schon sehr stark, wenn auch bei Grafikbelastung.

Zitat ausn anderen Thread

In GLBenchmark2.5 landet der 320@400MHz etwas ueber 3800 frames

Nur wenn er sehr kurz oder im Kühlschrank läuft. Sonst sinds dann eher die Average Werte von 3000 frames oder sogar weniger. Das Ding ist total Temperaturabhängig.
Siehe hier:http://www.anandtech.com/show/6440/google-nexus-4-review/3

40% Throttling finde ich schon ziemlich krass. Das LG Optimus G bei Anandtech hat die hohen Werte übrigens, weils bei Wiederholungen des Benches abgeschmiert ist und daher nie Dauerbelastung hatte.

Ailuros
2013-02-11, 09:23:27
Das machen die Quallcomm SoCs auch schon sehr stark, wenn auch bei Grafikbelastung.

Zitat ausn anderen Thread


Nur wenn er sehr kurz oder im Kühlschrank läuft. Sonst sinds dann eher die Average Werte von 3000 frames oder sogar weniger. Das Ding ist total Temperaturabhängig.
Siehe hier:http://www.anandtech.com/show/6440/google-nexus-4-review/3

40% Throttling finde ich schon ziemlich krass. Das LG Optimus G bei Anandtech hat die hohen Werte übrigens, weils bei Wiederholungen des Benches abgeschmiert ist und daher nie Dauerbelastung hatte.

Stimmt schon, nur befuerchte ich dass es vielleicht nur ein LG spezifisches Phaenomaen ist, denn Nexus4 ist auch ein LG Geraet.

Ailuros
2013-02-12, 10:50:25
http://www.glbenchmark.com/phonedetails.jsp?benchmark=glpro25&D=Samsung+SHV-E300S

Fast 4700 frames fuer einen Adreno320@400MHz sind durchaus beindruckend. Ca. 23% mehr Leistung als das Nexus4. Mehr SoC Bandbreite und wohl auch leistungs-optimierte Treiber fuer Adreno3xx. Aendert wohl einiges an Projektionen fuer den Adreno330. Wenn Qualcomm's +30% dafuer stimmen sollten koennte 330 locker bei ~6k frames landen.

Womoeglich hat Qualcomm mit ihren neuesten Behauptungen fuer T4 doch nicht so uebertrieben am Ende.

Nightspider
2013-02-18, 18:46:49
Wohl erstes Snapdragon S600 Smartphone.

http://www.computerbase.de/news/2013-02/groessere-variante-des-lg-optimus-g-pro-vorgestellt/

deekey777
2013-03-08, 12:27:13
Rumor: Apple to purportedly use Qualcomm's Snapdragon SoC in low-cost iPhone (http://appleinsider.com/articles/13/03/08/rumor-apple-to-use-qualcomms-snapdragon-soc-in-low-cost-iphone)
An unverified report out of the Far East on Friday claims that Apple will use a version of Qualcomm's Snapdragon system on a chip in a much-rumored low-cost iPhone, with manufacture of the purported handset expected to begin in the second quarter.

Gerücht ist Gerücht, aber schon interessant. Wie stark ist ein Adreno 305 im Vergleich zum SGX543MP2?

Ailuros
2013-03-08, 16:53:18
Rumor: Apple to purportedly use Qualcomm's Snapdragon SoC in low-cost iPhone (http://appleinsider.com/articles/13/03/08/rumor-apple-to-use-qualcomms-snapdragon-soc-in-low-cost-iphone)


Gerücht ist Gerücht, aber schon interessant. Wie stark ist ein Adreno 305 im Vergleich zum SGX543MP2?

Adreno 305@400MHz vs. 543MP2@250MHz vs. 543MP2@200MHz:

http://www.glbenchmark.com/compare.jsp?D1=Samsung+SCH-I425&D2=Apple+iPad+2&D3=Apple+iPhone+4S&cols=3

Hier ein Geruecht dass womoeglich fuer die Zukunft realer sein koennte: http://www.xbitlabs.com/news/other/display/20130307234000_Apple_and_Intel_Have_Discussed_Foundry_Deal_Media_Report.html

Ailuros
2013-03-19, 18:50:58
http://www.fudzilla.com/home/item/30814-qualcomm-snatches-new-nexus-7-from-nvidia

Ailuros
2013-03-27, 07:19:40
http://www.brightsideofnews.com/news/2013/3/26/qualcomm-and-unity-team-up-to-optimize-for-snapdragon.aspx

Nevertheless, the sheer fact that Unity is going to now be optimized for Snapdragon is a big win for the company over their competitors.

Nicht wirklich, aber es ist auch verdammt schwer sich mit jeglicher Bums-these im Netz auszusetzen. Adreno braucht aktivere Unterstuetzung von Entwicklern weil deren tiling ziemlich "empfindlich" ist und es ist definitiv ein Schritt in die richtige Richtung. Es geht hier eher darum dass Adrenos dass liefern was man von der hw erwarten wuerde und nicht irgendwelche dunkle Konspirations-thesen dass Unity irgendwelche Vorteile fuer N IHV bzw. GPU in ihren code stecken wird.

Ailuros
2013-03-29, 08:25:33
Qualcomm hat es gerade geschafft mit dem S800/Adreno330 das iPad4 mit 29% Mehrleistung im GLB2.7 zu schlagen: http://glbenchmark.com/phonedetails.jsp?D=LG+D801

Wie war es nochmal genau mit Tegra4 das schneller als der S800 sein soll genau? :rolleyes:

Locuza
2013-03-29, 08:37:10
Und jetzt noch einmal für den Ahnungslosen,
ist ein S800 in ungefähr den gleichen Verbrauchgrößen erhältlich wie das Tegra4 oder ist es nur in Tablets quetschbar?

Avalox
2013-03-29, 08:43:27
Und jetzt noch einmal für den Ahnungslosen,
ist ein S800 in ungefähr den gleichen Verbrauchgrößen erhältlich wie das Tegra4 oder ist es nur in Tablets quetschbar?


Es sind zumindest offiziell Smartphones mit S800 angekündigt, sobald der lieferbar ist.

Ailuros
2013-03-29, 08:44:58
Und jetzt noch einmal für den Ahnungslosen,
ist ein S800 in ungefähr den gleichen Verbrauchgrößen erhältlich wie das Tegra4 oder ist es nur in Tablets quetschbar?

Da es sich um ein LG handelt (mir ist bis jetzt kein tablet von LG bewusst, aber man weiss ja auch nie genau) und die CPU "nur" bei 1728MHz taktet, handelt es sich wohl mit aller Wahrscheinlichkeit um eine smartphone Variante im gegebenen Fall. Der S800 duerfte bei der Frequenz deutlich weniger verbrauchen als ein quad A15@1.9GHz wie im T4.

Nexus5 ahoi?

AffenJack
2013-03-29, 09:39:31
Und wieviel davon bleibt nach 5min Betrieb übrig?
Der Wert des S800 ist zwar gut, aber nach dem N4 Fiasco würde ich keinem Glbench Wert mehr vertrauen ohne nen richtigen Test zu lesen, der sich mit der Leistung bei längerer Laufzeit auseinandersetzt. Das gilt natürlich ebenso für alle anderen SoCs wie T4. Die jetzige art Benches auf den Smartphones zu machen ist einfach nur noch sinnlos. Werte hochtreiben mit Turbomodi und nix anderes. Die Werte dürften am Ende eher in der Tabletversion ankommen, als beim Smartphone. Dumm nur, dass außer Anandtech jede Testseite die Werte für voll nimmt.

Ailuros
2013-03-29, 09:53:39
Und wieviel davon bleibt nach 5min Betrieb übrig?
Der Wert des S800 ist zwar gut, aber nach dem N4 Fiasco würde ich keinem Glbench Wert mehr vertrauen ohne nen richtigen Test zu lesen, der sich mit der Leistung bei längerer Laufzeit auseinandersetzt. Das gilt natürlich ebenso für alle anderen SoCs wie T4. Die jetzige art Benches auf den Smartphones zu machen ist einfach nur noch sinnlos. Werte hochtreiben mit Turbomodi und nix anderes. Die Werte dürften am Ende eher in der Tabletversion ankommen, als beim Smartphone. Dumm nur, dass außer Anandtech jede Testseite die Werte für voll nimmt.

Das ist eines der wichtigen Punkte die ich immer und immer wieder betone wenn es zu den neuesten quad Kraits kommt aber leider hat keiner eine anstaendige Antwort dafuer. Ein ausgekapseltes LG Implementierungs-Problem? Ein generelles Problem dank zu aggressiver Taktung teilweise oder einfach total beschissene Verwaltungs-sw?

Beim Nexus4 sind die Leistungs-unterschiede stellenweise brutal gross; bei GLB2.5 liegt es zwischen 18 und 33 fps je nach throttle or non-throttle Fall.

Ich hab gerade eine ziemlich haarige Debatte in einem anderen Forum wie beschissen big.LITTLE genau sei. Ich bin zwar kein absoluter Fan von big.LITTLE denn mir klingt asynchrone Taktung a la Krait auch selber technisch "eleganter" aber wenn ich beim letzten schon solche Probleme sehe will ich erstmal wissen was genau los ist und es ist dann eben auch so dass wenn big.LITTLE keine aehnlichen ernsthafte Probleme aufweisst, eben NICHT unbedingt die schlechtere bzw. weniger "elegante" Loesung zu sein scheint.

Ailuros
2013-04-02, 17:56:15
Anandtech: 3dmark for Android

http://www.anandtech.com/show/6875/3dmark-for-android-performance-preview

Im Qualcomm thread da Adreno320 der zweifellose Gewinner hier ist.

Avalox
2013-04-02, 18:01:09
Anandtech: 3dmark for Android

http://www.anandtech.com/show/6875/3dmark-for-android-performance-preview

Im Qualcomm thread da Adreno320 der zweifellose Gewinner hier ist.


Ja. Allerdings sind die Ergebnisse noch etwas schwierig zu interpretieren.
Die Geräte scheinen etwas verwürfelte Ergebnisse zu liefern, scheint noch nicht richtig rund zu sein.

Ailuros
2013-04-02, 18:11:48
Ja. Allerdings sind die Ergebnisse noch etwas schwierig zu interpretieren.

Bei den relativ ausfuehrlichen Erklaerungen wo der Schwerpunkt in jeglichem Test liegt sehe ich nichts das besonders schwer zu interpretieren ist. Im Physics test z.B. dass hauptsaechlich die CPU belastet via multi-threading ist es ziemlich klar dass das Nexus4 vom Nexus10 Vorsprung nimmt. Ebenso im Game Test 1 wo die Geometrie-Last relativ brutal ist fuer solche Geraete soll es mich wieso genau wundern dass der Mali400 hier total versagt und auch der T604 den kuerzeren zieht? Kann man nicht alles in anderen synthetischen benchmarks nachweisen?


Die Geräte scheinen etwas verwürfelte Ergebnisse zu liefern, scheint noch nicht richtig rund zu sein.

Jeweilige IHVs haben lediglich jetzt mehr und komplizierteres Material ihre sw dafuer zu optimieren. Und das wichtigste dass ich vom Artikel festhalten wuerde:

Before we get to the results, I should note that a number of devices wouldn't complete the tests. The Intel based Motorola RAZR i wouldn't run, the AT&T HTC One X (MSM8960) crashed before the final score was calculated so both of those devices were excluded. Thankfully we got the Galaxy S 3 to complete, giving us a good representative from the MSM8960/Adreno 225 camp. Thermal throttling is a concern when running 3DMark. You have to pay close attention to the thermal conditions of the device you're testing. This is becoming something we're having to pay an increasing amount of attention to in our reviews these days.

Avalox
2013-04-02, 18:20:49
Bei den relativ ausfuehrlichen Erklaerungen wo der Schwerpunkt in jeglichem Test liegt sehe ich nichts das besonders schwer zu interpretieren ist. Im Physics test z.B. dass hauptsaechlich die CPU belastet via multi-threading ist es ziemlich klar dass das Nexus4 vom Nexus10 Vorsprung nimmt. Ebenso im Game Test 1 wo die Geometrie-Last relativ brutal ist fuer solche Geraete soll es mich wieso genau wundern dass der Mali400 hier total versagt und auch der T604 den kuerzeren zieht? Kann man nicht alles in anderen synthetischen benchmarks nachweisen?



Es geht ja nicht um die GPU, das steht ausser Frage.

Es gibt allerdings schon einiges an Ungereimtheiten.

Das Razr I habe ich aber auf irgend einer Seite heute schon im 3DMark gesehen. Muss also jemand gestartet bekommen haben. Mit schon extrem schlechten Werten.

Wenn doch ein paar CPU lastige Tests dabei sind (was ja durchaus wichtig ist), dann sollte man dort doch diese eher transparenter zeigen.

Man versteht aber auch so ein paar Sachen nicht. (davon gibt es einige, nur mal zwei Beispiele)

Ein Nexus 10 hat im CPU lastigen Geometrie Bench im Standard und im Extrem Durchlauf das selbe Ergebnis. Gibt es keine extreme Geometrie als CPU Last? Dieser scheint bei beiden Benchmark Einstellungen identisch zu sein, der Unterschied nur aus der GPU zu kommen.
Spricht nicht gerade für eine CPU Orientierung des Tests.

Oder warum sind die S4 Pro Ergebnisse besser als die S600 Ergebnisse, trotz des höheren Takts des moderneren SoCs? Zählt die CPU überhaupt im Test?


Ist schon ein merkwürdiges Ding. Ich suche mal die Razr I Ergebnisse raus. Die sind nämlich auch interessant.

Bin mal gespannt, wann die ersten x86 Android Benchmarks von potenten PCs mit dicker Grafik eingespielt werden...

Ailuros
2013-04-02, 18:38:51
Es geht ja nicht um die GPU, das steht ausser Frage.

Es gibt allerdings schon einiges an Ungereimtheiten.

Das Razr I habe ich aber auf irgend einer Seite heute schon im 3DMark gesehen. Muss also jemand gestartet bekommen haben. Mit schon extrem schlechten Werten.

Selbst wenn Du sie findest werden sie nicht viel wert sein. Erstens wird die CPU wohl throtteln und zweitens ist die GPU zu laecherlich schwach fuer den benchmark so oder so.


Ein Nexus 10 hat im CPU lastigen Geometrie Bench im Standard und im Extrem Durchlauf das selbe Ergebnis. Gibt es keine extreme Geometrie als CPU Last?

Du meinst wohl das Physics demo zwischen 720 und 1080p oder? Wenn ja:

Dieser scheint bei beiden Benchmark Einstellungen identisch zu sein, der Unterschied nur aus der GPU zu kommen.
Spricht nicht gerade für eine CPU Orientierung des Tests.

The purpose of the Physics test is to benchmark the hardware’s ability to do gameplay physics simulations on CPU. The GPU load is kept as low as possible to ensure that only the CPU’s capabilities are stressed.

The test has four simulated worlds. Each world has two soft bodies and two rigid bodies colliding with each other. One thread per available logical CPU core is used to run simulations. All physics are computed on the CPU with soft body vertex data updated to the GPU each frame. The background is drawn as a static image for the least possible GPU load.

The Physics test uses the Bullet Open Source Physics Library.

Wenn ich Dich jetzt nicht falsch verstanden habe und wir meinen den gleichen Test, wundert es wieso gerade dass der Exynos5250 mit nur 2 CPU cores extrem CPU limitiert ist in dem Test?

Oder warum sind die S4 Pro Ergebnisse besser, als die S600 Ergebnisse, trotz des höheren Takts? Zählt die CPU überhaupt im Test?

Wo?



Bin mal gespannt, wann die ersten x86 Android Benchmarks von potenten PCs mit dicker Grafik eingespielt werden...

http://dxbenchmark.com/result.jsp Wieso Android wenn der Berg zu Moses kommen kann? :biggrin:

Undertaker
2013-04-02, 18:45:42
Wo?


Das HTC One kommt nicht so recht am Nexus 4 vorbei. Speicherlimitierung?

Nightspider
2013-04-02, 19:00:37
Qualcomm hat es gerade geschafft mit dem S800/Adreno330 das iPad4 mit 29% Mehrleistung im GLB2.7 zu schlagen: http://glbenchmark.com/phonedetails.jsp?D=LG+D801

Wie war es nochmal genau mit Tegra4 das schneller als der S800 sein soll genau? :rolleyes:

Das ist schon Wahnsinn, nur ein halbes Jahr nach dem Release des iPad4 schon 30% mehr Leistung in einem Smartphone bekommt. Auch wenn der S800 wohl noch nicht gleich für Smartphones verfügbar sein wird.
Kannst du nochmal, für Leute mit schlechtem Gedächtnis, sagen wo sich das Galaxy S4 zwischen ipad4 und S800 einordnen würde?

Der S800 duerfte bei der Frequenz deutlich weniger verbrauchen als ein quad A15@1.9GHz wie im T4.

Das ist jetzt auch aber reine Spekulation von dir oder? Irgendwo muss das Mehr an CPU-Power ja herkommen und falls QualComm an der CPU Architektur in Richtung A15 schraubt, werden sicherlich auch die Krait-Kerne deutlich mehr verbrauchen.
Bisher ist ja auch noch nicht bekannt ob die Kerne vom S800 schneller oder langsamer als herkömmliche A15 Kerne sind, oder?

Avalox
2013-04-02, 19:02:27
Wenn ich Dich jetzt nicht falsch verstanden habe und wir meinen den gleichen Test, wundert es wieso gerade dass der Exynos5250 mit nur 2 CPU cores extrem CPU limitiert ist in dem Test?



Ja, es war der Physics Test.

http://www.abload.de/img/3dmarkhcss8.png

Hier limitiert doch nicht die CPU beim Nexus 10.


Die Razr I Tests waren glaube ich bei Golem zu finden.

Die S4 Pro und S600 Ergebnisse finde ich jetzt nicht.

Aber man sieht ja z.B. dass das Nexus 4 (S4 Pro) vor den HTC One (S600) liegen.

Das übrigens nur bei diesen Benchmark. Andere auch GPU intensive Benchmarks zeigen ein komplett anderes Bild.

Da ist so einiges undufte im Hause Futuremark.



Bisher ist ja auch noch nicht bekannt ob die Kerne vom S800 schneller oder langsamer als herkömmliche A15 Kerne sind, oder?


Na langsamer sind die Krait Kerne im S800, gab doch doch den großen Performance Bericht in Schwarz auf Weiß.

Ailuros
2013-04-02, 19:21:19
Das HTC One kommt nicht so recht am Nexus 4 vorbei. Speicherlimitierung?

Kann sein oder das One wird einfach zu heiss. Kann sogar sein dass das Nexus4 in der Zwischenzeit gar nicht mehr throttelt und es hat sich nur keiner darueber geschert. Anand hat es als erster berichtet und wenn sich etwas geaendert haben sollte, schreibt man anstandsweise einen update fuer den originalen Artikel.

Wie dem auch sei die CPU im HTC One taktet bei 1.7GHz und die GPU duerfte bei 450MHz. Nexus4 CPU:1.5GHz, GPU: 400MHz.

Ja, es war der Physics Test.

http://www.abload.de/img/3dmarkhcss8.png

Hier limitiert doch nicht die CPU beim Nexus 10.

Es ist aber ein CPU Test an fuer sich da die physics calculations eben auf der CPU laufen. Was sonst soll auf dem Nexus10 limitieren?

Das ist schon Wahnsinn, nur ein halbes Jahr nach dem Release des iPad4 schon 30% mehr Leistung in einem Smartphone bekommt. Auch wenn der S800 wohl noch nicht gleich für Smartphones verfügbar sein wird.
Kannst du nochmal, für Leute mit schlechtem Gedächtnis, sagen wo sich das Galaxy S4 zwischen ipad4 und S800 einordnen würde?

Die S800 wurden aus unbekannten Gruenden wieder zurueckgezogen obwohl sie klipp und klar unter Adreno330 eingereicht wurden. Wenn die S800 Resultate wieder erscheinen sollten und die GLB2.7 Resultate sind in etwa gleich dann wird S800 an der Spitze liegen, gefolgt vom iPad4, gefolgt vom Adreno320 crop und dann erst kommt das GalaxyS4 (Exynos5410). In 4-5 Jahren wenn Spiele mit der Komplexitaet von T-Rex erscheinen werden sowieso keine der erwaehnten Geraete besonders relevant sein fuer high end SFF mobile gaming.

Das ist jetzt auch aber reine Spekulation von dir oder? Irgendwo muss das Mehr an CPU-Power ja herkommen und falls QualComm an der CPU Architektur in Richtung A15 schraubt, werden sicherlich auch die Krait-Kerne deutlich mehr verbrauchen.
Bisher ist ja auch noch nicht bekannt ob die Kerne vom S800 schneller oder langsamer als herkömmliche A15 Kerne sind, oder?

Maximal soll S800 zwar eine Frequenz von 2.3GHz erreichen koennen, aber das LG Exemplar dass kurz in der Kishonti Datenbank mit einem S800 erschienen ist taktete seine CPU nur auf 1.7GHz. Ich sagte bei der Frequenz; wie schwer ist es genau einen so einfachen Satz richtig zu lesen und nein es ist eben KEINE Spekulation.

Avalox
2013-04-02, 19:38:19
Es ist aber ein CPU Test an fuer sich da die physics calculations eben auf der CPU laufen. Was sonst soll auf dem Nexus10 limitieren?



Wenn bei einem CPU Test, zwischen extrem und standard die Ergebnisse gleich bleiben, dann wird wohl die Grafik limitieren und nicht die CPU. Aber das ist in dem Fall wohl auch nicht der Fall.

Ich würde mal eher vermuten, dass der Benchmark dort schlicht irgend eine Macke hat.

Ailuros
2013-04-02, 19:52:39
Wenn bei einem CPU Test, zwischen extrem und standard die Ergebnisse gleich bleiben, dann wird wohl die Grafik limitieren und nicht die CPU. Aber das ist in dem Fall wohl auch nicht der Fall.

Ich würde mal eher vermuten, dass der Benchmark dort schlicht irgend eine Macke hat.

Standard= 720p, texture resolution = normal, post-processing quality = normal
Extreme = 1080p, texture resolution = high, post-processing quality = high

Nochmal die Beschreibung vom Physics test:

The purpose of the Physics test is to benchmark the hardware’s ability to do gameplay physics simulations on CPU. The GPU load is kept as low as possible to ensure that only the CPU’s capabilities are stressed.

The test has four simulated worlds. Each world has two soft bodies and two rigid bodies colliding with each other. One thread per available logical CPU core is used to run simulations. All physics are computed on the CPU with soft body vertex data updated to the GPU each frame. The background is drawn as a static image for the least possible GPU load.

The Physics test uses the Bullet Open Source Physics Library.

Ausser der Aufloesung aendert sich in dem Test womoeglich nicht besonders viel, ueberhaupt wenn die GPU load so niedrig wie moeglich gehalten wird EBEN damit die CPU hauptsaechlich gestresst wird. Keine besondere Texturen und auch nichts von fancy post-processing in dem Test. Was verpass ich gerade nochmal?

Du hast VIER Welten die simuliert werden aber nur ZWEI CPU cores im 5250 :rolleyes:

Avalox
2013-04-02, 20:07:23
Du hast VIER Welten die simuliert werden aber nur ZWEI CPU cores im 5250 :rolleyes:

Ja und trotzdem ist es das beste Ergebniss über alle Plattformen. (Quadcore Krait (1,7GHz), Quadcore A9 (1,2GHz))

Der S600 mit seinem Adreno320 knallt in diesem "minimal GPU belastenden" CPU Test ausschließlich durch die Erhöhung der Grafikauflösung gewaltig in den Keller.

Ne, das passt überhaupt nicht.

http://www.abload.de/img/3dmarkhcss8.png


Ich freue mich ja über jeden Benchmark, der Plattformvergleiche ermöglicht. Aber der 3DMark zeigt doch so einigen merkwürdige Absonderlichkeiten. Der GL/DXBenchmark erscheint mir runder zu sein.

Nightspider
2013-04-02, 20:18:45
Maximal soll S800 zwar eine Frequenz von 2.3GHz erreichen koennen, aber das LG Exemplar dass kurz in der Kishonti Datenbank mit einem S800 erschienen ist taktete seine CPU nur auf 1.7GHz. Ich sagte bei der Frequenz; wie schwer ist es genau einen so einfachen Satz richtig zu lesen und nein es ist eben KEINE Spekulation.

Warum so genervt? Ich habe deinen Satz schon richtig verstanden.
Ich sprach aber von der ProMhz Leistung, also taktbereinigte Leistung und im gleichen Zusammenhang eben vom Verprauch pro Leistung. ;)

Ailuros
2013-04-02, 21:37:06
Ja und trotzdem ist es das beste Ergebniss über alle Plattformen. (Quadcore Krait (1,7GHz), Quadcore A9 (1,2GHz))

Der S600 mit seinem Adreno320 knallt in diesem "minimal GPU belastenden" CPU Test ausschließlich durch die Erhöhung der Grafikauflösung gewaltig in den Keller.

Ne, das passt überhaupt nicht.

http://www.abload.de/img/3dmarkhcss8.png


Ich freue mich ja über jeden Benchmark, der Plattformvergleiche ermöglicht. Aber der 3DMark zeigt doch so einigen merkwürdige Absonderlichkeiten. Der GL/DXBenchmark erscheint mir runder zu sein.

Weiss der Geier was Anand bzw. Brian da gemessen haben. Aus Anand's eigenem forum einfacher User mit einem Nexus4 mit 4.2.2:

http://forums.anandtech.com/showpost.php?p=34829682&postcount=17

Warum so genervt? Ich habe deinen Satz schon richtig verstanden.
Ich sprach aber von der ProMhz Leistung, also taktbereinigte Leistung und im gleichen Zusammenhang eben vom Verprauch pro Leistung. ;)

Gut dann packen wir es von einem anderen Ende an: nach Indizien soll Samsung's Exynos5410 etwas sparsamer sein als sein S600 "Bruder" im GalaxyS4, aber Du hast in dem Fall 4*A15@1.6GHz + 4*A7@1.2GHz vs. 4*Krait@1.89GHz. Hier hat die erste Loesung den Vorteil der ultra-sparsamen A7 cores. Im Fall T4 gilt dieses eben nicht weil es ein 5*A15 (4+1) CPU config ist bei 1.9GHz. Es gibt nichts absurdes daran zu glauben dass ein S800 (und ja es ist die gleiche CPU Generation wie im S600) bei 1.7GHz stromsparender sein wird als ein Tegra4. Das erste ist ein smartphone und das zweite ein tablet design und das LG Geraet dass ich erwaehnte wird wohl nicht einen 5W TDP haben oder?

Undertaker
2013-04-02, 22:08:49
Gut dann packen wir es von einem anderen Ende an: nach Indizien soll Samsung's Exynos5410 etwas sparsamer sein als sein S600 "Bruder" im GalaxyS4, aber Du hast in dem Fall 4*A15@1.6GHz + 4*A7@1.2GHz vs. 4*Krait@1.89GHz.
Hier hat die erste Loesung den Vorteil der ultra-sparsamen A7 cores.

Sparsamer wobei? Volllast? Das wäre erstaunlich bzw. würde den A-15 ggü. Krait doch besser als gedacht dastehen lassen. Leerlauf? Gut möglich, wobei der Leerlaufverbrauch des SoCs bei der aktuellen High-End-Generation von Smartphones (mit Akkus an die 10Wh) schon praktisch bedeutungslos ist. Oder gehts um ein irgendein Anwendungsmittel? Da bräuchte es schon genauere Details; hier kann man enorme Unterschiede in der Effizienz erwarten, je nach dem, ob beim Exynos gerade noch die A7 zum Einsatz kommen, oder aber bereits A-15 Kerne einspringen müssen.

Im Fall T4 gilt dieses eben nicht weil es ein 5*A15 (4+1) CPU config ist bei 1.9GHz. Es gibt nichts absurdes daran zu glauben dass ein S800 (und ja es ist die gleiche CPU Generation wie im S600) bei 1.7GHz stromsparender sein wird als ein Tegra4.

Und auch hier wieder die Frage: Wobei sparsamer? Noch kann man nur spekulieren... Und gerade durch die drei unterschiedlichen Designansätze – a) verschiedene Taktstufen bei Krait b) Big-Little beim Exynos c) 4+1 beim Tegra – könnte es auch drei verschiedene Beispielsituationen geben, in denen jeweils eines er Konzepte am vorteilhaftesten ist.

Ailuros
2013-04-03, 17:13:11
Sparsamer wobei? Volllast? Das wäre erstaunlich bzw. würde den A-15 ggü. Krait doch besser als gedacht dastehen lassen. Leerlauf? Gut möglich, wobei der Leerlaufverbrauch des SoCs bei der aktuellen High-End-Generation von Smartphones (mit Akkus an die 10Wh) schon praktisch bedeutungslos ist. Oder gehts um ein irgendein Anwendungsmittel? Da bräuchte es schon genauere Details; hier kann man enorme Unterschiede in der Effizienz erwarten, je nach dem, ob beim Exynos gerade noch die A7 zum Einsatz kommen, oder aber bereits A-15 Kerne einspringen müssen.

Nochmal vereinfacht: beim 5410 operiert in der Mehrzahl der Faelle der quad A7 cluster und nur wenn die Last mal zwischendrin mal kurz ansteigt springt ein Anteil oder der ganze A15 cluster ein. Du hast mehr Chancen dass ein oder mehr A15 aufleuchten wenn Du beim surfen eine neue Seite ladest als in einem stinknormalem mobilen 3D Spiel.

Und auch hier wieder die Frage: Wobei sparsamer? Noch kann man nur spekulieren...

Wieviel die area bzw. Strom verbraucht denn der A15 companion core im Tegra4 genau? Wieso muss ich dazu genau spekulieren? Schlag im Linley report nach mit dem NV so toll wirbt und es ist kinderleicht den maximalen theoretischen Stromvebrauch fuer den companion core herauszulesen. Ja natuerlich alles Spekulation....

Und gerade durch die drei unterschiedlichen Designansätze – a) verschiedene Taktstufen bei Krait b) Big-Little beim Exynos c) 4+1 beim Tegra – könnte es auch drei verschiedene Beispielsituationen geben, in denen jeweils eines er Konzepte am vorteilhaftesten ist.

Willst Du eine Wette eingehen dass ein Tegra4 eine laengere Batterielaufzeit in einem smartphone haben wird als das GalaxyS4 bei theoretisch gleich grosser Batterie? Ein Gegenwort ist ja durchaus immer erwuenscht, aber jetzt muss wohl ich fragen woher diese bunte Spekulation im obrigen Paragraphen genau kommt.

Undertaker
2013-04-03, 21:29:10
Interpretier mal nich mehr in meine Aussagen hinein, als ich auch geschrieben habe. ;)

Knackpunkt ist, wenn wir uns mal auf BigLittle vs. Companion Core beschränken, genau die Situation, in der der Exynos von A7 auf A15 umschalten muss bzw. bei Tegra der Companion Core eben nicht mehr ausreicht. Ich sprach eben bewusst von einer Situationsabhängigkeit.

Was ist denn, wenn eine Anwendung mangels Parallelisierung mit vier langsamen A7-Kernen nicht viel anfangen kann, sondern vor allem Last auf einem Thread erzeugt? Was gerade bei 0815-Tasks nicht selten der Fall sein dürfte. ;) Ein 800 MHz A15 ist noch immer schneller als der A7 bei 1,2 GHz, sodass eine Aktivierung der schnellen A15-Kerne entsprechend später erfolgen kann. Und wie genau verhält sich der Companion Core überhaupt bei Teillast? Ich sage mitnichten, dass Tegra 4 grundsätzlich sparsamer wäre als der 5410 – schon gar nicht in der ohnehin schnelleren 1,9-Ghz-Version – sondern lediglich, dass das die unterschiedlichen Stromsparkonzepte ihre jeweiligen Vor- und Nachteile haben.

Edit: Btw, da du Linley erwähntest: Die haben keineswegs irgendwo die Leistungsaufnahme des Companion Cores beziffern können! Grundlage für den entsprechenden Abschnitt von denen war dieser Slide:

http://images.anandtech.com/doci/6787/Screen%20Shot%202013-02-24%20at%202.56.13%20PM.png

Und der geht einfach von einem heruntergetakteten Chip aus, das ist keine Messung des Companion Cores. Und letzterer ist ja bekanntermaßen eben nicht 1:1 identisch mit den 4 anderen A15.

Ailuros
2013-04-03, 21:49:25
Interpretier mal nich mehr in meine Aussagen hinein, als ich auch geschrieben habe. ;)

Knackpunkt ist, wenn wir uns mal auf BigLittle vs. Companion Core beschränken, genau die Situation, in der der Exynos von A7 auf A15 umschalten muss bzw. bei Tegra der Companion Core eben nicht mehr ausreicht. Ich sprach eben bewusst von einer Situationsabhängigkeit.

Es ist eben nicht Situationsabhaengig da der A15 companion core selbst bei single threading mehr verbraten wird als ein A7 core.

Was ist denn, wenn eine Anwendung mangels Parallelisierung mit vier langsamen A7-Kernen nicht viel anfangen kann, sondern vor allem Last auf einem Thread erzeugt? Was gerade bei 0815-Tasks nicht selten der Fall sein dürfte. ;)

Nicht dass ich beim durchlesen das obrige nicht erwartet habe...

http://forum.beyond3d.com/showpost.php?p=1724443&postcount=1009

I've commented on this before, but the statement from nVidia is that the 825MHz power saver Cortex-A15 core will use 40% less power than a Tegra 3 Cortex-A9 core at 1.6GHz.

That's pretty much a best-case scenario for them. That's not good. They may claim that Cortex-A15 offers nearly twice the IPC as Cortex-A9 and that may be true for SPEC2k but for most programs it won't be.

Starting at 1.6GHz for Tegra 3 is a very bad place to make a comparison: the power consumption curve drops a lot quicker going down from the Cortex-A9 at 1.6GHz than it does for a Cortex-A15 going down from 825MHz. And you can only run that one power saver core in isolation. We don't know how much worse the other cores are but hopefully nVidia wasn't daft enough to make a separate mutually exclusive core that barely uses less power.

So my expectation is that Tegra 4's perf/W curve will barely look better than Tegra 3's, if at all for the lower regions.

Ein 800 MHz A15 ist noch immer schneller als der A7 bei 1,2 GHz, sodass eine Aktivierung der schnellen A15-Kerne entsprechend später erfolgen kann. Und wie genau verhält sich der Companion Core überhaupt bei Teillast?

Der Companion core taktet wie jeder andere CPU core (egal ob 4+1, asynchronous oder big.LITTLE) auf einer minimalen Frequenz.

Ich sage mitnichten, dass Tegra 4 grundsätzlich sparsamer wäre als der 5410 – schon gar nicht in der ohnehin schnelleren 1,9-Ghz-Version – sondern lediglich, dass das die unterschiedlichen Stromsparkonzepte ihre jeweiligen Vor- und Nachteile haben.

Mist die Wette haette ich mit 200% Sicherheit gewonnen :mad:

Du darfst mich gerne ueberzeugen dass ein T4 mit den 4*A15 auf 1.6GHz getaktet in einem smartphone zumindest vergleichbare Batterie-laufzeiten haben wird mit einem GalaxyS4. Nebenbei wird der 5410 auch gegen Mitte des Jahres hoeher takten in groesseren Geraeten.

Undertaker
2013-04-03, 22:04:52
Es ist eben nicht Situationsabhaengig da der A15 companion core selbst bei single threading mehr verbraten wird als ein A7 core.

Da stimme ich dir ebenfalls zu. Dennoch bleibt die Frage des Konzeptes situationsabhängig, ein Beispiel: Du kannst einen 800 MHz A15 eben auch dann noch nutzen, wenn ein 1,2 GHz A7 nicht mehr ausreichend Leistung pro Thread bietet. Das wäre dann übrigens genau ein Fall, wo der (speziell auf low-clock und low-voltage synthetisierte) A15 Companion Core sparsamer sein dürfte als ein A15-Kern des Exynos, der schließlich auch auf Taktraten von 1,6 GHz ausgelegt wurde. Ebenso unstrittig ist natürlich, dass BigLittle in Situationen mit guter Parallelisierung, aber insgesamt mäßiger Last im Vorteil ist, da hier noch die A7-Kerne rechnen können, während bei T4 schon alle 4 A15 aktiv werden müssen. Aber damit erstmal genug für heute...


Mist die Wette haette ich mit 200% Sicherheit gewonnen :mad:

Hihi, solche Wetten kann ich dir auch anbieten. :D

Avalox
2013-04-03, 22:14:19
Da stimme ich dir ebenfalls zu. Dennoch bleibt die Frage des Konzeptes situationsabhängig, ein Beispiel: Du kannst einen 800 MHz A15 eben auch dann noch nutzen, wenn ein 1,2 GHz A7 nicht mehr ausreichend Leistung pro Thread bietet. Das wäre dann übrigens genau ein Fall, wo der (speziell auf low-clock und low-voltage synthetisierte) A15 Companion Core sparsamer sein dürfte als ein A15-Kern des Exynos, der schließlich auch auf Taktraten von 1,6 GHz ausgelegt wurde. Ebenso unstrittig ist natürlich, dass BigLittle in Situationen mit guter Parallelisierung, aber insgesamt mäßiger Last im Vorteil ist, da hier noch die A7-Kerne rechnen können, während bei T4 schon alle 4 A15 aktiv werden müssen. Aber damit erstmal genug für heute...



Im Fall dessen würde der eine Thread auf einem A15 Kern laufen und restliche Threads weiterhin auf den drei A7 Kernen. Es würde energetisch kaum in Gewicht fallen, bei voller A15 Performance für den wichtigen Thread.

Im Schnitt wird durch Task Migration, also der aktuelle Android Ansatz für heterogene Mehrkerner, mit dem Achtkern Exynos rund 60% des Energieverbrauchs einsparen, bei 90% der A15 Performance.

In einem späteren Software Update (irgendwann in diesem Jahr) wird Android eh ein heterogenes Multiprocessing spendiert bekommen, dann laufen eh alle 8 Kerne des Octas bei Bedarf parallel und die Kerne werden viel gesteuerter die jeweiligen Threads zugewiesen bekommen.

Undertaker
2013-04-04, 10:11:13
Im Fall dessen würde der eine Thread auf einem A15 Kern laufen und restliche Threads weiterhin auf den drei A7 Kernen. Es würde energetisch kaum in Gewicht fallen, bei voller A15 Performance für den wichtigen Thread.

Wenn der speziell low-power optimierte Companion-Core bei gleicher Belastung und Taktrate nicht deutlich weniger Energie als ein "normaler" A15 konsumieren sollte, warum sollte er dann verbaut werden? Dann könnte man bei Tegra ja auch nur 4 Kerne verbauen und sich auf klassische Stromspar-Mechanismen beschränken. Ich bin mir ziemlich sicher, dass man bei BigLittle einen recht drastischen Verbrauchsanstieg beobachtet, sobald der erste A15 aktiviert werden muss. Im Gegenzug sind natürlich die A7-Kerne konkurrenzlos effizent.

Btw: Man wird demnächst alle 8 Kerne des Exynos parallel nutzen können? Wow, das wusste ich noch nicht. Allerdings dürfte das praktisch extrem durch die TDP eingeschränkt werden.

Avalox
2013-04-04, 10:26:46
Wenn der speziell low-power optimierte Companion-Core bei gleicher Belastung und Taktrate nicht deutlich weniger Energie als ein "normaler" A15 konsumieren sollte, warum sollte er dann verbaut werden? Dann könnte man bei Tegra ja auch nur 4 Kerne verbauen und sich auf klassische Stromspar-Mechanismen beschränken. Ich bin mir ziemlich sicher, das man bei BigLittle einen recht drastischen Verbrauchsanstieg beobachtet, sobald der erste A15 aktiviert werden muss.


Ja. Zweifelsohne. Allerdings ist es eine Irrung anzunehmen, dass der A15 Kern viel Energie verbraucht. Im Betrieb ist der A15 ein extrem Energie sparendes Design.
Eben mit dem Problem, dass bei einer geringen Last dieses Verhältnis kippt im Vergleich zu den alten In-order Designs.

Der ganze big.LITTLE Design ist ausgesprochen energieeffizient.

Es ist keinesfalls so, dass man einen Stromfresser und ein leistungsschwachen CPU Kern kombiniert hat.

Man hat zwei ausgesprochen sparsame Designs kombiniert, die halt ihren Arbeitspunkt nur in anderen Lastpunkten haben. Wenn im Exynos ein A15 Kern hochgefahren wird, dann wird auch dieser die Last sehr Energie schonend abarbeiten.

Mit dem Achtkerner, oder big.LITTLE allgemein hat der wichtige Smartmobile Bereiche einen Innovationsprung vor dem klassischen PC vorgelegt. Es gibt noch nicht vergleichbares.

Was ich beim Tegra 3/4 nicht weiß ist, ob dieser auch in der Lage ist nach Implementierung vom heterogenen Muliprocessing im Android mit allen 5 Kernen gleichzeitig zu rechnen, wie es big.LITTLE durchaus dann kann.

Undertaker
2013-04-04, 11:33:54
Ja. Zweifelsohne. Allerdings ist es eine Irrung anzunehmen, dass der A15 Kern viel Energie verbraucht. Im Betrieb ist der A15 ein extrem Energie sparendes Design.

Also für ARM-Verhältnisse ist der A15 sehr wohl ein sehr energiehungriges Design. Und gegenüber dem A7 eben nicht mehr so wirklich energieeffizient. Der Zuwachs an Leistung ist deutlich kleiner als der Mehrverbrauch, sodass die Effizienz beim Umschalten von A7 auf A15 zwangsläufig einen Sprung nach unten macht. Dazu gibt es entsprechende Folien:

http://www.abload.de/img/arm-cortex-a7-biglittuyyvx.jpg (http://www.abload.de/image.php?img=arm-cortex-a7-biglittuyyvx.jpg)

Avalox
2013-04-04, 12:45:56
Also für ARM-Verhältnisse ist der A15 sehr wohl ein sehr energiehungriges Design. Und gegenüber dem A7 eben nicht mehr so wirklich energieeffizient. Der Zuwachs an Leistung ist deutlich kleiner als der Mehrverbrauch, sodass die Effizienz beim Umschalten von A7 auf A15 zwangsläufig einen Sprung nach unten macht. Dazu gibt es entsprechende Folien:

http://www.abload.de/img/arm-cortex-a7-biglittuyyvx.jpg (http://www.abload.de/image.php?img=arm-cortex-a7-biglittuyyvx.jpg)


Der A7 ist ja ein kleines In-order Design, natürlich spielt das in einer anderen Liga.
Was meinst du, wo der Tegra Sparkern dort im Vergleich liegen würde? Oder die alten A9 Kerne? Oder die selfmade Designs der einzelnen Hersteller. Diese kommen allesamt nicht in die Nähe des A7 Kerns.

Die Grafik suggeriert dort einen falschen Eindruck. Unzweifelhaft verbraucht der A15 Kern mehr Strom, hat dafür aber auch die deutlich höhere Rechenleistung. Würde man den A7 Kern in Taktregionen heben, in welcher dieser mit der Rechenleistung des A15 Kern konkurieren könnte, würde er dieser allerdings mehr Strom verbrauchen als der A15.

Die Grafik ist ideell. Auch der A15 Kern ist im Kern seiner selbst eine hochgradig energieeffiziente Lösung. Die Leistungspunkte der Kennlinien weichen in der Praxis ja gehörig ab. So sind ja schon die A7/A15 Taktraten zwischen den einzelnen big.LITTLE Implementierungen der Hersteller abweichend.

Rein faktisch wird man eher einen Thread länger auf dem A15 Kern laufen lassen, als scharf zurück zu schalten. Schlicht weil es in der Akkuleistung keinen Effekt hat. Was ein Effekt auf den Akku zwangsläufig hat, wäre wenn ein A15 Kern ständig mit irgend einer Schwachlast 24/7 sich rumplagt.

Die Aussage, dass big.LITTLE für den Benutzer die Erfahrung bringt, dass 60% Energie gespart wird, bei 90% der Performance Benutzererfahrung eines ausschliesslichen A15 Kerner ist gesetzt. Meint natürlich nur den Zeitraum bis Heterogenes Multiprocessing einzieht. Dann sieht es für den Anwender ja noch besser aus.

robbitop
2013-04-04, 13:09:25
Der typische Handy/Tablet Benutzer erzeugt ja auch immer nur kurze Load Peaks. Alle paar sek/Minuten wird mal eine neue Seite geladen. Das soll natürlich super schnell gehen. Genau dafür ist big.LITTLE prädestiniert.
Wenn jetzt aber ein Spiel für 4 intensive Threads ausgelegt wäre, wäre der Akku extrem schnell leer. Ich vermute, dass 4x A15 auf full load + GPU auf full load die TDP Grenze locker knacken und ständig gethrottelt wird.
Dafür kann man Peak-weise kurz mal erheblich Leistung abnehmen. Aber eben nicht long therm.

AnarchX
2013-04-04, 13:58:49
Kann beim Exynos 5 Octa wirklich ein einzelner A15 aktiviert werden?
Die bisherigen Darstellungen zeigen jeweils nur einen kompletten aktiven Cluster, also 4xA7 oder 4xA15.

Avalox
2013-04-04, 14:07:29
Kann beim Exynos 5 Octa wirklich ein einzelner A15 aktiviert werden?
Die bisherigen Darstellungen zeigen jeweils nur einen kompletten aktiven Cluster, also 4xA7 oder 4xA15.

Ja. Es können selbst alle Kerne gleichzeitig betrieben werden, wenn es die Software unterstützt.

Die Cluster Darstellung ist nur eine Softwareverwaltungsvariante. Wie bindet man solch einen Processor in das System ein, wenn man zwar 100% befehlskompatible, aber doch spezialisierte Kerne hat? Das ist innovativ und Neuland. Da treiben die smarten Geräte die IT Welt weiter.


In der Historie der Systemeinbindung von big.LITTLE wurde tatsächlich anfangs mit zwei Clustern gearbeitet, die entweder nur die A7 Kerne, oder nur die A15 Kerne verwendeten.

Das hat sich aber inzwischen weiter entwickelt. Inzwischen ist in Android der Task Migration Ansatz umgesetzt worden.

Dort bilden ein A7 und ein A15 immer ein logisches Gespann, in welchen der Thread beliebig wechseln kann und das beliebig zwischen allen Kombinationen.

Dieses Jahr soll aber noch heterogenes Multiprocessing in Android Einzug halten, dann könnten sogar alle Kerne völlig parallel laufen und das System kann diese effizient verwalten.

Es kann also sein, dass du solch eine Cluster Darstellung mal gesehen hast, das ist aber nicht mehr Stand der Dinge und war ausschließlich durch das System also der Software so vorgegeben.



Wenn jetzt aber ein Spiel für 4 intensive Threads ausgelegt wäre, wäre der Akku extrem schnell leer. Ich vermute, dass 4x A15 auf full load + GPU auf full load die TDP Grenze locker knacken und ständig gethrottelt wird.


Der A15 ist ein sparsamer Kern. Der Tribut an das Smartphone ist die niedrige Taktrate von 1,6GHz im Fall des Exynos. Es wird eher das Energie Sparwunder bei der gebotenen Rechenleistung sein, im Vergleich zu den Marktbegleitern.

Renesas big.LITTLE SoC wird übrigens für Smartphones mit 2GHz A15 Kernen kommen (ausgesprochen für Smartphones, nicht Pads). Dort dann aber als Vierkern SoC mit zwei A7 und zwei A15 Kernen.

robbitop
2013-04-04, 14:27:53
Naja der Exynos 5 im Nexus 10 hat sehr sehr schnell gethrottelt laut Anand, als der mal richtig Last gesehen hat. Wenn der A15 unter Volldampf steht, dann hat er auch Energiehunger.

Avalox
2013-04-04, 14:34:51
Naja der Exynos 5 im Nexus 10 hat sehr sehr schnell gethrottelt laut Anand, als der mal richtig Last gesehen hat. Wenn der A15 unter Volldampf steht, dann hat er auch Energiehunger.

Was Anand so schreibt.

Erstmal hat der Exynos 5 im Nexus 10 größere Strukturgrößen als der Exynos 5 Octa, dann ist der Exynos 5 im Nexus 10 auch noch höher getaktet und letztendlich hat der Exynos 5 im Nexus 10 auch noch weit und breit die schnellsten CPU Kerne aller vergleichbaren Geräte. Da sollte man doch mal die Rechenleistung im Bezug zum Energieumsatz setzen. Volldampf auf dem Nexus 10 bedeutet was ganz anderes als "Volldampf" auf einem iPad 4.

Ich traue Anand dort nicht mal zu zwischen GPU und CPU im SoC zu unterscheiden in der Betrachtung. Neuen GPU Kern hat der Exynos 5 Octa ja auch.

robbitop
2013-04-04, 14:47:18
Was Anand so schreibt.

Erstmal hat der Exynos 5 im Nexus 10 größere Strukturgrößen als der Exynos 5 Octa, dann ist der Exynos 5 im Nexus 10 auch noch höher getaktet und letztendlich hat der Exynos 5 im Nexus 10 auch noch weit und breit die schnellsten CPU Kerne aller vergleichbaren Geräte. Da sollte man doch mal die Rechenleistung im Bezug zum Energieumsatz setzen. Volldampf auf dem Nexus 10 bedeutet was ganz anderes als "Volldampf" auf einem iPad 4.

Ich traue Anand dort nicht mal zu zwischen GPU und CPU im SoC zu unterscheiden in der Betrachtung. Neuen GPU Kern hat der Exynos 5 Octa ja auch.
Anandtech sind im SoC Bereich absolut nicht zu unterschätzen. Eine der wenigen Redaktionen, die sich damit wirklich auseinandersetzen. Auch die Stromverbräuche haben sie ja recht aufwändig gemessen.

Natürlich ist die Exynos CPU schneller als die CPUs in anderen Geräten. Aber will man sie ausfahren, wird gethrottelt. Nun sind es in 28 nm 4x A15 und ein SGX 543 MP3. Da wird auf Volldampf bei 4x Kernen es nicht anders aussehen.

Avalox
2013-04-04, 14:55:31
Anandtech sind im SoC Bereich absolut nicht zu unterschätzen. Eine der wenigen Redaktionen, die sich damit wirklich auseinandersetzen. Auch die Stromverbräuche haben sie ja recht aufwändig gemessen.

Natürlich ist die Exynos CPU schneller als die CPUs in anderen Geräten. Aber will man sie ausfahren, wird gethrottelt. Nun sind es in 28 nm 4x A15 und ein SGX 543 MP3. Da wird auf Volldampf bei 4x Kernen es nicht anders aussehen.


Anandtech vertut sich erschreckend häufig.

Ausfahren ist aber kein Praxis relevantes Szenario. Es ist nur ein theoretisches Konstrukt. Dieses am Desktop, wie auch am Smartphone. Selbst Desktop CPUs throtteln beim Ausfahren in der Referenz Umgebung.

robbitop
2013-04-04, 15:06:52
Anand hat exzellente Leute da und sehr sehr gute Quellen. Wenn er sich vertut, dann gibt er das auch zu und ändert seine Artikel. Sorry - aber da gibt es bedeutend!!! schlechteres.

Abwarten, wie sich der neue Exynos so gibt. Ich denke, dass es dort auch Messungen geben wird.

In meinen Augen ist ein klares Konzept bei SoCs zu erkennen. Da steckt einfach mehr Leistung drin, als thermisch langfristig genutzt werden kann. Da aber das RL Verhalten der Nutzer eher kurzfristige Peaks abruft, kann man die Leistung meistens auch nutzen und erhält ein smoothes Gefühl dabei. Wenige ms darauf, werden die meisten Transistoren eh wieder schlafen gelegt.

Avalox
2013-04-04, 15:16:33
Anand hat exzellente Leute da und sehr sehr gute Quellen. Wenn er sich vertut, dann gibt er das auch zu und ändert seine Artikel. Sorry - aber da gibt es bedeutend!!! schlechteres.

Ich finde in Sachen SoC Anandtech ausgesprochen ärgerlich. Es gibt dort bedeutend besseres und die Punkte die mir spontan aufgefallen sind wurden noch nie geändert.
Aktuell. Selbst die offensichtlichen Ungereimtheiten des aktuellen 3DMarkt knallen völlig unreflektiert durch.

robbitop
2013-04-04, 15:18:00
Man muss auch schauen, welche Autoren am Werk sind. Anand und Brian Klug sind im Mobile Bereich IMO recht gut. Wenn sie Dinge nicht geändert haben, sind sie vieleicht nicht darauf hingewiesen worden. Ailuros hat Anand schon mehr als 1x korrigiert und es wurde auf der Hauptseite geändert.

Avalox
2013-04-04, 15:52:26
Man muss auch schauen, welche Autoren am Werk sind. Anand und Brian Klug sind im Mobile Bereich IMO recht gut. Wenn sie Dinge nicht geändert haben, sind sie vieleicht nicht darauf hingewiesen worden. Ailuros hat Anand schon mehr als 1x korrigiert und es wurde auf der Hauptseite geändert.

Ailuros hat ja auch Ahnung, ich habe aber keine Ahnung und wenn selbst mir schon was auffällt, dann finde ich das schon sehr bedenklich. Ich werde mal auf die Autoren achten.

Ailuros
2013-04-04, 16:54:34
Anand hat exzellente Leute da und sehr sehr gute Quellen. Wenn er sich vertut, dann gibt er das auch zu und ändert seine Artikel. Sorry - aber da gibt es bedeutend!!! schlechteres.

Kommt drauf an wer am tippen ist. Ist es Anand selber bzw. Brian fuer SFF Zeug errrr uhmmm :rolleyes: wie sagt man hoeflicherweise lieber nichts? :eek:

Man muss auch schauen, welche Autoren am Werk sind. Anand und Brian Klug sind im Mobile Bereich IMO recht gut. Wenn sie Dinge nicht geändert haben, sind sie vieleicht nicht darauf hingewiesen worden. Ailuros hat Anand schon mehr als 1x korrigiert und es wurde auf der Hauptseite geändert.


Uebler Verraeter Du; na wenn's schon sein muss es dauerte etliche Artikel bis es bei beiden Kerlen endlich sass dass MADD = MUL + ADD = 2 verdammte floating point operations = 2 FLOPs. Wenn sie es einmal einsehen und es selber korrigieren denkt man wohl dass es im naechsten Artikel nicht vorkommen wird oder? Eben doch...:freak:

Anand ist nebenbei ein sehr netter Kerl und er hoert auch gerne zu wenn er angesprochen wird. Apropos Thema ich muss ihn mal dazu animieren QCMM anzusprechen und ein paar mehr Details fuer die Adreno3xx GPUs herauszukitzeln.

Ailuros
2013-04-04, 17:34:08
Wie waere es mit einem Vergleich von heutigen mobilen Geraeten mit high end GPUs der Vergangenheit?

http://www.anandtech.com/show/6877/the-great-equalizer-part-3

Also der 320 darf sich vor dem AMD E-350 nicht verstecken.

Undertaker
2013-04-04, 17:40:25
Hmm, wenn man jetzt mal überlegt mit welcher der dort getesteten GPUs die PS3-Grafik am ehesten verwandt ist... ;) Aber OK, dazu hat ja auch Anand schon etwas geschrieben.

Ailuros
2013-04-04, 18:03:15
Hmm, wenn man jetzt mal überlegt mit welcher der dort getesteten GPUs die PS3-Grafik am ehesten verwandt ist... ;) Aber OK, dazu hat ja auch Anand schon etwas geschrieben.

Das daemliche ist dass er er keine grosse aeltere Radeon fuer die Tests benutzt hat. Sonst:

http://www.anandtech.com/show/6877/the-great-equalizer-part-3/3

The iPad 4 is able to deliver similar performance to the GeForce 7900 GS, and 7800 GT, which by extension means it should be able to outperform a 6800 Ultra in this test. The vanilla GeForce 6600 remains faster than NVIDIA's Tegra 3, which is a bit disappointing for that part. The good news is Tegra 4 should be somewhere around high-end NV4x/upper-mid-range G7x performance in this sort of workload. Again we're seeing Intel's HD 4000 do remarkably well here. I do have to caution anyone looking to extrapolate game performance from these charts. At best we know how well these GPUs stack up in these benchmarks, until we get true cross-platform games we can't really be sure of anything.

dildo4u
2013-04-06, 17:59:05
Krait vs Krait 300 Benches

http://anandtech.com/show/6747/htc-one-review/11

Nakai
2013-04-06, 21:18:52
Krait vs Krait 300 Benches

http://anandtech.com/show/6747/htc-one-review/11

Ein Smiley:

:eek:

Bei Qualcomm könnte man sogar schon erwarten, dass diese Verbesserungen kaum mehr Stromverbrauch schlucken. Auch einige Verbesserungen lassen auf einen größeren und besseren Cache schließen.

fondness
2013-04-07, 09:12:31
Qualcomm ist definitiv das neue Intel des mobil-Segments. Wer soll denen bitte gefährlich werden? Auch die GPU-Cores von Qualcomm dürften mit Abstand das schnellste sein was man aktuell so bekommt wenn man sich die 3Dmark-Scores ansieht.

Nightspider
2013-04-08, 03:53:51
Naja auf der Seite danach relativieren sich die hohen Prozentzahlen wieder.
Ein Quad-A15 dürfte den S600 hier und da immer noch platt machen.

Mal sehen wie groß der Sprung zum S800 wird. :ugly:

Avalox
2013-04-08, 09:44:32
Naja auf der Seite danach relativieren sich die hohen Prozentzahlen wieder.
Ein Quad-A15 dürfte den S600 hier und da immer noch platt machen.

Mal sehen wie groß der Sprung zum S800 wird. :ugly:


Ja der A15 ist deutlich flinker.
Ich weiß gar nicht was Anandtecht dort getestete hat.
Ergebnisse des Einstiegs S600 sind schon lange in Form des HTC One und LG Optimus Pro in den Datenbanken für jeden zu finden. Kann man sich doch zusammen klicken (http://browser.primatelabs.com/geekbench2/compare/1823799/1841650). Edit. War der falsche Vergleich (Dualcore A15/Quadcore Krait 300) - hier der richtige http://browser.primatelabs.com/geekbench2/compare/1840998/1841650

Speziell zu den neuen Krait Kernen und den A15 hier im Tegra 4 gibt es ja noch den Microprocessor report
http://de.slideshare.net/caulfield2600/tegra-4-outperforms-snapdragon-17176163

eligos
2013-04-08, 10:53:53
Ich weiß gar nicht was diese Äpfel - Birnen Vergleiche sollen, wenn nicht mal der Formfaktor identisch ist... so könnte man ja auch einen übertakteten i7 (Desktop? egal) heranziehen oder am Besten noch den Nachfolger von Haswell (verfügbar? nein, spielt aber auch keine Rolle, denn verfügbar muss der SOC ja auch nicht sein, eine Projektion reicht)!

Zitat: "All of Nvidia's testing, however, used a PC style development platform configured with DDR3-1866 memory" aus dem Microprocessor report.

Am Ende werden sowieso alle neuen SOCs an der TDP und dem drumherum hängen.

Ailuros
2013-04-08, 11:12:32
Ach wen zum Henker interessiert denn Tegra4 heute denn ueberhaupt noch? Es sah ohnehin nicht besonders gut aus am Angang und dann kam NV und legte noch den letzten Grabstein drueber mit der Logan/Kayla Geschichte.

Sonst ist es tatsaechlich so dass sich Qualcomm's S800 kein bisschen von Tegra4 verstecken muss wenn es zu perf/mW kommt, dieses sogar auf smartphone vs. tablet Nivaeu und ja bis jetzt hat Qualcomm das eingehalten was sie bisher behauptet haben.


Speziell zu den neuen Krait Kernen und den A15 hier im Tegra 4 gibt es ja noch den Microprocessor report
http://de.slideshare.net/caulfield2600/tegra-4-outperforms-snapdragon-17176163

Ich weiss ehrlich nicht wo zum Henker NV die marketing Kerle fuer Tegra gefunden hat; bloeder geht es wirklich nicht. Sagen wir mal ganz einfach dass die Linley Gruppe dazu "animiert" wurde den report zu schreiben und am Ende stellt der report T4 eigentlich in ein schlechteres Licht als NV selber gern haben sollte. Wie daemlich sind die heutzutage gerade bei NV dass sie nicht einsehen koennen, dass so etwas eher peinlich als schmeichelnd ist?

Avalox
2013-04-08, 13:28:31
Ich weiß gar nicht was diese Äpfel - Birnen Vergleiche sollen, wenn nicht mal der Formfaktor identisch ist...


Was heißt hier Äpfel mit Birnen?
Den S600 wird es in Pads geben und den A15 gibt es in Smartphones. Da ist nichts mit Äpfel und Birnen. Was ist überhaupt der Unterschied zwischen einem Smartphone und einem Pad und bei welchen Formfaktor wird aus einem Smartphone ein Pad?




Ich weiss ehrlich nicht wo zum Henker NV die marketing Kerle fuer Tegra gefunden hat; bloeder geht es wirklich nicht. Sagen wir mal ganz einfach dass die Linley Gruppe dazu "animiert" wurde den report zu schreiben und am Ende stellt der report T4 eigentlich in ein schlechteres Licht als NV selber gern haben sollte. Wie daemlich sind die heutzutage gerade bei NV dass sie nicht einsehen koennen, dass so etwas eher peinlich als schmeichelnd ist?

Na ja, treten halt aggressiv in den Markt. Aber das passt schon zu nVidia.
Im Kern wird es sich ja nur um dieses Bild drehen.

http://www.abload.de/img/t4s800s4djchr.png

eligos
2013-04-08, 14:02:03
Äpfel Birnen Vergleich: Wir stellen einen A15 hoch geprügelt auf 1,9Ghz (den es nicht zu kaufen gibt und vom Takt und TDP auf Tablets abzieht) und vergleichen es mit einem Smartphone (den es schon seit einem halben Jahr zu kaufen gibt mit anfänglich offensichtlichen Problemen den Takt zu halten) der wegen der TDP deutlich niedriger getaktet ist -> das ist ein Äpfel Birnen Vergleich

Wie wäre es mit einem Tegra 4 Smartphone mit niedrigerer Frequenz und einen Krait auf Tablet TDP? Würde die Tabelle genauso gut für Tegra aussehen? Ich glaube kaum.

Die A15 Phones wird es wahrscheinlich nicht so schnell mit 1,9Ghz geben und die Kraits werden nicht bei bestimmter Frequenz kleben bleiben (sind doch eher auf Frequenz ausgelegt?). Das was interessant ist bleibt perf/watt und am besten noch bei echten Geräten, da kann es ganz anders aussehen. Am Ende hat man deutliche Unterschiede bei verschiedenen Geräten mit gleichem SOCs.

Undertaker
2013-04-08, 14:10:24
Wo gibt es einen Snapdragon 800 seit einem halben Jahr zu kaufen? Der S800 wird nicht nur höher takten als die ersten Krait-Modelle, sondern auch eine überarbeitete Architektur mit höherer Pro-MHz-Leistung haben.

Mit welcher Taktrate S800 und T4 letztlich ist Smartphones antreten, muss man einfach mal abwarten. Das auf dem Exynos 5250 fußende Vorurteil, dass der A15 so ohne weiteres gar nicht für Telefone geeignet wäre, hat sich ja schon mit dem Galaxy S4 in Luft aufgelöst... Dort takten die 4 A15-Kerne mit 1,6 GHz. Das bei etwas höherer TDP oder Fertigungsverbesserungen mittelfristig auch 1,9 GHz realisierbar sein könnten und jemand so einen Chip in ein >5" Phablet pflanzt, klingt nicht unrealistisch.

robbitop
2013-04-08, 14:18:51
Sind im S800 nicht die gleichen CPU Kerne wie im S600?

YfOrU
2013-04-08, 14:19:43
Er meint die Baseline (100%). Der APQ8064 aus dem Diagramm ist kein S600 sondern ein älter S4 Pro (keine Krait 300 Kerne). S800 hat eine höhere IPC als S600 -> Krait 400.

eligos
2013-04-08, 14:19:57
Ich habe auch nicht vom 800 gesprochen sondern von dem Nexus Krait, das was auf einem echten Smartphone gebencht wurde. Nicht Tegra 4 Entwicklungsplattform oder prognostizierte S800 "Benches".

Am Ende siehts vielleicht noch besser für Tegra (und Exynos) aus, wer weiß, aber dazu muss es erstmal was handfestes geben, aber irgendwelche Tabellen als zementiert zu verkaufen ohne die Rahmenbedingungen zu kennen ist sehr abenteuerlich.

Avalox
2013-04-08, 14:21:21
Äpfel Birnen Vergleich: Wir stellen einen A15 hoch geprügelt auf 1,9Ghz (den es nicht zu kaufen gibt und vom Takt und TDP auf Tablets abzieht) und vergleichen es mit einem Smartphone (den es schon seit einem halben Jahr zu kaufen gibt mit anfänglich offensichtlichen Problemen den Takt zu halten) der wegen der TDP deutlich niedriger getaktet ist -> das ist ein Äpfel Birnen Vergleich



Das oben ist ein A15 mit 1,7GHz als Dualcore. Im Phone stecken 4 A15 Kerne mit 1,6GHz im Acht Kerner.

eligos
2013-04-08, 14:32:56
? Davon war auch nicht die Rede.

YfOrU
2013-04-08, 14:36:34
Das oben ist ein A15 mit 1,7GHz als Dualcore. Im Phone stecken 4 A15 Kerne mit 1,6GHz im Acht Kerner.

Der simple Vergleich über maximale Taktfrequenzen spiegelt die reale Leistung bei vollkommen unterschiedlichen TDP Klassifizierungen alles andere als akkurat wieder. Es gibt aber leider bis heute keine vernünftigen Benchmarks zum S4 mit A15. Die paar die es gibt sehen in Relation zum Aufwand (4*A7 + 4*A15 sowie separate Baseband) in Relation zu einem S600 nicht übermäßig berauschend aus.

Avalox
2013-04-08, 14:40:40
Der simple Vergleich über maximale Taktfrequenzen spiegelt die reale Leistung bei vollkommen unterschiedlichen TDP Klassifizierungen alles andere als akkurat wieder.

Die TDP wird durch das Gerät bestimmt. Deshalb kannst du getrost davon ausgehen, dass diese schon ähnlich sein werden.
Ich bin überzeugt davon, dass der neue Samsung SoC energetisch und auch in der Performance besser abschneidet, als sein Snapdragon Gegenstück. Aber wir werden sehen.

Inzwischen sind auch die big.LITTLE SoCs anderer Anbieter in Sichtweite. Dort kann man ja auch durchaus mal draufsehen.

YfOrU
2013-04-08, 14:49:39
Die TDP wird durch das Gerät bestimmt. Deshalb kannst du getrost davon ausgehen, dass diese schon ähnlich sein werden.

War bezogen auf das Nexus 10 mit zwei A15 gegenüber vier A15 im S4.

Die TDP der gesamten Plattform ist im Nexus 10 Richtung Faktor zwei und das ist bei halber Anzahl der Kerne ein massiver Unterschied. Die Plattform im S4 muss um Welten effizienter sein und zusätzlich kommt oben drauf noch eine Baseband.

Undertaker
2013-04-08, 14:53:05
Warum das Nexus 10 bzw. der Exynos 5250 so energiehungrig ist, ist ein ganz eigenes Thema. Der 32nm Prozess ist sicherlich nicht auf dem Niveau des aktuellen 28nm, aber ob das allein die Ursache ist?

Avalox
2013-04-08, 14:58:04
War bezogen auf das Nexus 10 mit zwei A15 gegenüber vier A15 im S4.

Die TDP der gesamten Plattform ist im Nexus 10 Richtung Faktor zwei und das ist bei halber Anzahl der Kerne ein sehr deutlicher Unterschied.

Die Kerne haben eine andere Strukturgröße und es ist kein big.LITTLE SoC. Zudem hat er andere GPU und das Nexus 10 hat zudem das hochauflösendste Display aller Pads. Da gibt es schon zahlreiche Unterschiede. Der A15 ist ein Strom sparender Kern.

Undertaker
2013-04-08, 15:04:35
BigLittle ist für den Maximalverbrauch allerdings vollkommen egal. Das der Exynos 5410 hier offensichtlich so viel sparsamer ist als der 5250, der für seine 2 A15-Kerne bis zu 4W benötigt(!) - ohne GPU wohlgemerkt -, ist schon erstaunlich.

YfOrU
2013-04-08, 15:06:39
Die Kerne haben eine andere Strukturgröße und es ist kein big.LITTLE SoC.

big.Little interessiert kein Stück wenn wir über Performance bei maximaler Frequenz reden.
Das der 32nm A15 von Samsung was die Effizienz betrifft miserabel ist steht fest. Worauf ich aber ursprünglich hinaus wollte ist das die Plattform im S4 mit einer deutlich geringeren TDP auskommen muss:

Die lässt sich nicht nur über die theoretischen maximalen Frequenzen und Spannungen beeinflussen sondern auch über Verteilung und Limitierung. Hier sind Endgeräte (->reale Performance) häufig ein recht großes Stück von den theoretischen Werten eines SoCs unter Laborbedingungen mit gleichen Frequenzen entfernt. Das Nexus 10 hat aufgrund des Formfaktors und des sehr viel größeren Akkus als Plattform grundsätzlich mehr Spielraum um das Maximum an Performance herauszuholen.

Avalox
2013-04-08, 15:41:43
big.Little interessiert kein Stück wenn wir über Performance bei maximaler Frequenz reden.


Noch nicht.


Das der 32nm A15 von Samsung was die Effizienz betrifft miserabel ist steht fest. Worauf ich aber ursprünglich hinaus wollte ist das die Plattform im S4 mit einer deutlich geringeren TDP auskommen muss:

Da steht gar nichts fest. Das Nexus 10 liefert eine Rechenleistung, die davor kein Pad gesehen hat.

Wo kommt das mit den 4W überhaupt her? Hat das etwa Anandtech festgestellt?

YfOrU
2013-04-08, 15:51:38
Da steht gar nichts fest. Das Nexus 10 liefert eine Rechenleistung, die davor kein Pad gesehen hat.

Das ist eine Tatsache. Aufgewendete zu erbrachter Leistung fällt zu weit aus dem Rahmen.
Wir sind hier nicht bei Desktop 125W+ für maximale Performance ohne Rücksicht auf die Effizienz.


Wo kommt das mit den 4W überhaupt her? Hat das etwa Anandtech festgestellt?

Ja und die sind vom fachlichen Standpunkt korrekt ausgeführt worden.
Relevant für A15/Samsung 32nm sind hier nur folgende Messungen:

Task Energy - CPU Only
(Total Energy Used During Task in Joules)

Hierbei spielt es keine Rolle ob eine CPU schneller oder langsamer ist. Es wird nur der Aufwand für die gleiche Arbeit da gestellt -> Effizienz.
http://www.anandtech.com/show/6536/arm-vs-x86-the-real-showdown/8

Die ideale theoretische Skalierung wäre übrigens halbe Zeit und in diesem Zeitraum der doppelte Aufwand ->1. Bei Samsungs Dual A15/32nm steht in Relation eine 2 und das ist in jedem Fall zu viel.

Avalox
2013-04-08, 16:21:06
Das ist eine Tatsache. Aufgewendete zu erbrachter Leistung fällt zu weit aus dem Rahmen.



Ist gibt keine erbrachte Leistung. Was soll das sein? Das ist Quatsch.

Es gibt Anwendungsfälle, Lösungen, Implementierungen und Ergebnisse und die sind unterschiedlich.



Ja und die sind vom fachlichen Standpunkt korrekt ausgeführt worden.
Relevant für A15/Samsung 32nm sind hier nur folgende Messungen:

Hierbei spielt es keine Rolle ob ein SoC schneller oder langsamer ist. Es wird nur Aufwand für die gleiche Arbeit da gestellt -> Effizienz.
http://www.anandtech.com/show/6536/arm-vs-x86-the-real-showdown/8


Der Test ist gelinde gesagt Scheiße. Wenn ich heute Abend Zeit habe, nehme ich ihn dir auseinander.

YfOrU
2013-04-08, 16:32:38
Ist gibt keine erbrachte Leistung. Was soll das sein? Das ist Quatsch.

Die erbrachte Leistung ist das Ergebnis einer vorher festgelegten Aufgabe (Arbeit). Dem gegenüber steht die aufgewendete Leistung (Energie).
Das ist kein Quatsch sondern gehört zu den absoluten Grundlagen. Ansonsten ist jede Diskussion über Effizienz welche ich hiermit hoffentlich ausreichend erläutert habe hinfällig.

Ailuros
2013-04-08, 17:00:22
Warum das Nexus 10 bzw. der Exynos 5250 so energiehungrig ist, ist ein ganz eigenes Thema. Der 32nm Prozess ist sicherlich nicht auf dem Niveau des aktuellen 28nm, aber ob das allein die Ursache ist?

Nur big aber kein LITTLE geehrter Kollege ;)


Der Test ist gelinde gesagt Scheiße. Wenn ich heute Abend Zeit habe, nehme ich ihn dir auseinander.

Weniger oder mehr Scheisse als der Bumsgraph von NVIDIA auf den Du auf der vorigen Seite verlinkt hast? Es ist auf jeden Fall mal ein unabhaengiger Versuch.

Mir persoenlich bringt das endlose hin und her BIS wir mehr standfeste Daten haben gar nichts. Qualcomm wird selbstverstaendlich behaupten dass Ihr Krait die beste aller Loesungen ist, NVIDIA genau das gleiche fuer ihr 4+1 Dingsbums und die semis die big.LITTLE benutzt haben natuerlich ihre Implementierung. Wirklich anstaendige Vergleiche gibt es bis jetzt tatsaechlich noch nicht fuer die letzten drei.

Wenn ich als Beobachter aber weiss dass Qualcomm bekannt ist inwiefern sie ihre Angaben einhalten koennen, habe bis jetzt auch keinen besonderen Grund sie zu bezweifeln. Ja NV hat besonders viel Unfug behauptet bei der Tegra4/4i Vorstellung aber ich bin naiv genug und behaupte dass die Unzahl an Fehlern keine absichtliche Luegen sind im gesamten Material was die Konkurrenz betrifft sondern lediglich naive Dummheit von ein paar marketing Kerlen fuer Tegra die gerade erst ihre Windeln ausgezogen haben.

Sonst generell ich sollte zwar noch etwas meine Klappe halten, aber wenn bei IP Lieferungen alle Lizenznehmer stets zu 100% zufrieden waeren waere es natuerlich fuer alle Beteiligten stets eine Eulogie und ja dieses betrifft ebenso CPU als auch GPU IP. Je mehr IP eine Firma liefert desto hoeher die statistische Chancen dass sie eine groessere Anzahl von unzufriedenen Kunden haben, umso mehr natuerlich ARM welches praktisch momentan auch das Monopol momentan im SFF mobile Markt haben.

Wenn die Mehrzahl der grossen Spieler nur ISAs lizenzieren von ARM (momentan Apple, Qualcomm und bald NVIDIA), dann ist wohl eine Perspektive dass ARM's CPU IP per se nicht flexibel genug ist fuer diese grossen Spieler und deshalb schmeissen sie auch zusaetzlich endlose Moneten raus um ihre eigenen custom CPUs zu entwickeln. Steigt jetzt noch mittelfristig einer dieser aus und entwickelt zu 100% selber kann man wohl den Finger dann etwas deutlicher in eine gewisse Richtung zeigen lassen.

Der einzige grosse semi der in dem Bereich ziemlich daemlich da steht ohne eine custom CPU ist Samsung; ich kann sie aber entschuldigen da sie dummerweise unendliche resourcen in andere Projekte geschuettet hatten und es wohl nicht daraus wurde.

Damit ich es nicht vergesse stets natuerlich IMHO: NV waere um zich Male besser aufgehoben mit big.LITTLE als mit dem 4+1 Quark.

eligos
2013-04-08, 17:14:47
@Avalox "Lösung und Implementierungen" führen nur zum Ziel, am Ende zählt das was bei raus kommt und wenn man bei einem Anwendungsfall einen Bruchteil schneller ist dafür aber doppelt soviel Energie verbrät (stark übertrieben), muss man sich schon fragen ob sich das Lohnt.

YfOrU liegt hier genau richtig und ich hoffe Anandtech macht auch den Vergleich mit den neuen Kraits, dem Exynos, dem neuen Atom und dem Tegra 4, da hier 3 unterschiedliche Ansätze und 2 ISAs aufeinander treffen. (Aber da sind sie wohl auf Intel angewiesen, da die Geräte ja von denen modifiziert wurden)
Vielleicht ist der Vergleich nicht perfekt aber sicher besser als pauschale Aussagen ohne irgendeinen Beweis.

Ailuros
2013-04-08, 17:27:34
Vielleicht ist der Vergleich nicht perfekt aber sicher besser als pauschale Aussagen ohne irgendeinen Beweis.

Es ist auf jeden Fall erstmal ein Versuch etwas Licht in diese Richtung zu werfen. Perfekt ist es natuerlich nicht, aber ich lese mir lieber so einen Artikel durch als Rotz von 0815 Seiten die mal 1 oder 2 synthetische benchmark Resultate auftischen die sie selber nicht verstehen, aber trotz allem glauben einen Vergleich geschrieben zu haben.

Undertaker
2013-04-08, 20:53:34
Nur big aber kein LITTLE geehrter Kollege ;)

Wie schon geschrieben ist BigLittle für die thermische Dimensionierung / TDP / den Maximalverbrauch vollkommen egal. De Exynos 5250 würde auch als BigLittle die gleichen 4W bei voller CPU-Last ziehen. Bei 4 Kernen ohne Throttling dann also rund 8W + GPU (= ~12W?), vollkommen unrealistisch für ein Smartphone (selbst für ein passiv gekühltes Tablet). Wieviel Wärme wird ein 5"-Smartphone wie das S4 maximal abführen können, vielleicht 3-4W wenn es hochkommt? Das der Exynos 5410 allein durch den 28nm-Prozess in solche Verbrauchsregionen rutscht, ist imo schon erstaunlich.

Oder die 1,6 GHz sind eben doch nur Augenwischerei und mehr eine Art Single-Thread-Turbo...

Ailuros
2013-04-08, 21:07:15
Wie schon geschrieben ist BigLittle für die thermische Dimensionierung / TDP / den Maximalverbrauch vollkommen egal. De Exynos 5250 würde auch als BigLittle die gleichen 4W bei voller CPU-Last ziehen. Bei 4 Kernen ohne Throttling dann also rund 8W + GPU (= ~12W?), vollkommen unrealistisch für ein Smartphone (selbst für ein passiv gekühltes Tablet). Wieviel Wärme wird ein 5"-Smartphone wie das S4 maximal abführen können, vielleicht 3-4W wenn es hochkommt? Das der Exynos 5410 allein durch den 28nm-Prozess in solche Verbrauchsregionen rutscht, ist imo schon erstaunlich.

Oder die 1,6 GHz sind eben doch nur Augenwischerei und mehr eine Art Single-Thread-Turbo...

Was ist Dir wichtiger als Endverbraucher bei einem bestimmten config, wieviel Strom es maximal theoretisch verbraucht oder wie gross die Batterie-laufzeit unter N use cases genau sein wird?

Ausser es glaubt hier tatsaechlich jemand dass der Exynos5250 mit einem big.LITTLE config ergo 2*A15 + 2*A7 nicht sparsamer insgesamt gewesen waere als das eigentliche heutige Resultat; es haette weder die die area des SoCs sehenswert beinflusst noch haette es dem Google Nexus10 irgendwie geschadet eher das Gegenteil denn das Ding wird auf Hochtouren auch ziemlich heiss.

Und hier bei der Debatte geht es eben nicht nur ueber jegliche theoretische maximalen TDPs sondern eben auch realer Effizienz. Technisch gesehen hat sowohl das asynchrone MP im Krait als auch big.LITTLE jeweils seine Vor- und Nachteile. Anhand zu kargen Daten bis jetzt kann ich mich noch nicht entscheiden welche der beiden Methoden die insgesamt bessere bzw. die effizientere ist.

Der Haken der ganzen Sache ist eben dass asynchronous Kraits bzw. big.LITTLE locker unter den richtigen Bedigungen in die sehr niedrige TDP eines smartphones passen koennen. Bei NV's 4+1 ist es meistens ein "no go" fuer smartphones und selbst wenn es so weit kommt ist die Batterielaufzeit alles andere als berauschend.

Undertaker
2013-04-08, 21:26:00
Was ist Dir wichtiger als Endverbraucher bei einem bestimmten config, wieviel Strom es maximal theoretisch verbraucht oder wie gross die Batterie-laufzeit unter N use cases genau sein wird?

Darum ging es doch gar nicht. Sondern nur um den Punkt, warum der Volllast-Verbrauch der A15-Kerne ausgehend vom Exynos 5250 hin zum 5410 anscheinend so stark gesenkt werden konnte. Das hat rein gar nichts mit BigLittle zu tun; mit dem Prozess wohl schon eher, auch wenn der Fortschritt in dieser Größenordnung schon erstaunlich ist.

Der Haken der ganzen Sache ist eben dass asynchronous Kraits bzw. big.LITTLE locker unter den richtigen Bedigungen in die sehr niedrige TDP eines smartphones passen koennen. Bei NV's 4+1 ist es meistens ein "no go" fuer smartphones und selbst wenn es so weit kommt ist die Batterielaufzeit alles andere als berauschend.

Irgendwie vermischst du mir zu sehr Maximalverbrauch und Teillast-Szenarien. Für die prinzipielle Smartphone-Eignung entscheidet in erster Linie die TDP; BigLittle oder 4+1 sind (zweifellos extrem wichtige) Maßnahmen für die Effizienz im Alltagsbetrieb.

Btw: Wenn ich mal einen Blick auf Tegra 3 und die erste Krait-Generation werfe, kann ich nicht erkennen, dass 4+1 bei Teillast so großartig im Nachteil wäre:

http://www.notebookcheck.com/Test-HTC-One-S-vs-HTC-One-X-Tegra-3-Smartphone.74165.0.html

Die Laufzeit-Relationen zwischen Leerlauf, Teillast und Volllast waren da sogar ziemlich konkurrenzfähig. Versteh mich nicht falsch: Auch ich denke, das BigLittle das höhere Einsparungspotential hat. Aber das 4+1 wirklich extrem schlechter oder für Smartphones gar "ungeeignet" wäre, ist nach bisheriger Faktenlage absolut noch nicht absehbar. Wenn bei Tegra 4 in dieser Beziehung etwas den Smartphone-Einsatz verhindert, dann die hohe TDP aufgrund der 1,9-GHz-Taktung; aber was wäre bei einer Variante mit nur 1,6 GHz wie beim Exynos 5410? Wer weiß, ob die Akkulaufzeit im Alltag vielleicht nur wenige Prozent schlechter ist? Noch fehlen uns dazu jegliche Test- oder Messwerte.

Ailuros
2013-04-08, 21:48:55
Darum ging es doch gar nicht. Sondern nur um den Punkt, warum der Volllast-Verbrauch der A15-Kerne ausgehend vom Exynos 5250 hin zum 5410 anscheinend so stark gesenkt werden konnte. Das hat rein gar nichts mit BigLittle zu tun; mit dem Prozess wohl schon eher, auch wenn der Fortschritt in dieser Größenordnung schon erstaunlich ist.

Es kann eben nicht nur der Prozess von sich selber sein; dafuer ist der Abstand IMO zwischen 32 und 28nm zu klein.

Irgendwie vermischst du mir zu sehr Maximalverbrauch und Teillast-Szenarien. Für die prinzipielle Smartphone-Eignung entscheidet in erster Linie die TDP; BigLittle oder 4+1 sind (zweifellos extrem wichtige) Maßnahmen für die Effizienz im Alltagsbetrieb.

Wenn IHVs nur ihre TDPs meistens auch bei wirklichem Maximalverbrauch messen wuerden, ueberhaupt NV :rolleyes:

Btw: Wenn ich mal einen Blick auf Tegra 3 und die erste Krait-Generation werfe, kann ich nicht erkennen, dass 4+1 bei Teillast so großartig im Nachteil wäre:

http://www.notebookcheck.com/Test-HTC-One-S-vs-HTC-One-X-Tegra-3-Smartphone.74165.0.html

Soll ich Dir den Abschnitt ueber die Temperaturen zitieren oder hast Du den Link ausfuehrlich durchgelesen bevor Du verlinkt hast?

Die Laufzeit-Relationen zwischen Leerlauf, Teillast und Volllast waren da sogar ziemlich konkurrenzfähig. Versteh mich nicht falsch: Auch ich denke, das BigLittle das höhere Einsparungspotential hat. Aber das 4+1 wirklich extrem schlechter oder für Smartphones gar "ungeeignet" wäre, ist nach bisheriger Faktenlage absolut noch nicht absehbar.

Na dann lass mich mal sehen was Faktenlage im gegebenen Fall waere: es ist "geeignet" weil es ein NVIDIA SoC und es NV auch so behauptet hat. In wievielen bekannten smartphones kam denn Tegra3 genau ausser HTC One und One+ (das letztere war auch lediglich ein refresh)? Viele? Gar keine? Der Markt wurde damit ueberschwemmt?

Du darfst mich ja gerne ueberzeugen warum obwohl Tegra2 um die 7-8 smartphone design wins landete es noch laecherlich lauwarmer mit T3 wurde oder wieso der eine Hersteller genau nach dem anderen sich nicht ueberreden liess.


Wenn bei Tegra 4 in dieser Beziehung etwas den Smartphone-Einsatz verhindert, dann die hohe TDP aufgrund der 1,9-GHz-Taktung; aber was wäre bei einer Variante mit nur 1,6 GHz wie beim Exynos 5410?

Es wird doch zumindest ein T4 basierendes smartphone geben, worauf Du dann bei Temperatur-Messungen in reviews verlinken kannst :D

Wer weiß, ob die Akkulaufzeit im Alltag vielleicht nur wenige Prozent schlechter ist? Noch fehlen uns dazu jegliche Test- oder Messwerte.

Hoffnung stirbt als letzte...

Undertaker
2013-04-08, 22:09:59
Es kann eben nicht nur der Prozess von sich selber sein; dafuer ist der Abstand IMO zwischen 32 und 28nm zu klein.

Darum ja meine Verwunderung. Und eben auch die Frage, inwiweit die 1,6 GHz des 5410 auch konstant gehalten werden.

Soll ich Dir den Abschnitt ueber die Temperaturen zitieren oder hast Du den Link ausfuehrlich durchgelesen bevor Du verlinkt hast?

Nochmal: Vermisch mal nicht Volllastverbrauch und Teillasteffizienz. Ersteren Punkt kann Tegra 3 schon Fertigungs-technisch nicht gewinnen und darum ging es auch nicht. Ich habe auf die Relationen zwischen Leerlauf, Teillast und Volllast hingewiesen und gesagt, dass Tegra 3 bei Teillast in Relation (!) nicht schlecht dasteht.
Das lässt sich logischerweise nicht 1:1 auf Tegra 4 und die neueren Kraits übertragen - aber ich kann nicht erkennen, das 4+1 so völlig unbrauchbar ist wie viele hier meinen.

Also nochmal: Wieviel Prozent schlechter soll ein hypothetischer 1,6 GHz T4 bei Teillast ggü. dem 5410 denn sein? Ich vermute Vorteile für den Exynos, doch wie groß diese genau sind, wissen weder du noch ich. ;)

robbitop
2013-04-09, 08:31:14
Man müsste ersteinmal sehen, ob bei Volllast tatsächlich alle 4x A15 Kerne auf voller Frequenz ohne Throtteling laufen und die A7 stillstehen. Nicht, dass da geschickt "gemogelt" wird. Dann sind die Aussagen nämlich zu revidieren.

Avalox
2013-04-09, 09:23:45
Man müsste ersteinmal sehen, ob bei Volllast tatsächlich alle 4x A15 Kerne auf voller Frequenz ohne Throtteling laufen und die A7 stillstehen. Nicht, dass da geschickt "gemogelt" wird. Dann sind die Aussagen nämlich zu revidieren.

Da wird nichts stillstehen. Die Taks Migrationsdemo war doch schon zu sehen. Die A7 Kerne übernehmen immer wieder Threads welche nicht die Rechenleistung benötigen.
Das wird in jedem Spiel und in jeder anderen praktischen Situation so sein.

Eine 100% Auslastung ist eine rein theoretische Situation.

Was sein wird ist, wenn ein A15 Kern erstmal einen Thread übernimmt, dieser dann auch erstmal auf dem A15 verbleibt, auch wenn er weniger Last produziert.

In der noch dieses Jahr erwarteten Umsetzung laufen dann je nach belieben eh alle 8 Kerne parallel.

robbitop
2013-04-09, 10:20:42
Ich will Messwerte und keine Vermutungen.

Ailuros
2013-04-09, 10:44:45
Darum ja meine Verwunderung. Und eben auch die Frage, inwiweit die 1,6 GHz des 5410 auch konstant gehalten werden.

Extrem selten, aendert sich aber auch nicht besonders viel diesbezueglich in einem tablet design.

Nochmal: Vermisch mal nicht Volllastverbrauch und Teillasteffizienz. Ersteren Punkt kann Tegra 3 schon Fertigungs-technisch nicht gewinnen und darum ging es auch nicht. Ich habe auf die Relationen zwischen Leerlauf, Teillast und Volllast hingewiesen und gesagt, dass Tegra 3 bei Teillast in Relation (!) nicht schlecht dasteht.

So viel sollte klar sein; jedoch sollte ein jegliches mobiles Geraet eben nicht zu heiss werden. Ob Teillast oder Voll-last T3 war und ist eine beschissene Idee fuer ein smartphone.

Das lässt sich logischerweise nicht 1:1 auf Tegra 4 und die neueren Kraits übertragen - aber ich kann nicht erkennen, das 4+1 so völlig unbrauchbar ist wie viele hier meinen.

Mir sind rein zufaellig fuer low level tasks 4*A7 cores lieber als 1*A15 ganz einfach weil man eben NICHT auf nur einen einzigen "Spar-thread" begrenzt ist. Es ist eben NVIDIA die uns via marketing schon seit einiger Zeit ueber die "Notwendigkeit" von quad cores ueberzeugen wollen, ergo ist wohl nicht >dual threading nur dann notwendig wenn es NV's marketing gerade passt.

Also nochmal: Wieviel Prozent schlechter soll ein hypothetischer 1,6 GHz T4 bei Teillast ggü. dem 5410 denn sein? Ich vermute Vorteile für den Exynos, doch wie groß diese genau sind, wissen weder du noch ich. ;)

Um so viel schlechter wie oft mehr als single-threading im Spar-modus eines 5410 benutzt wird.

Ich will Messwerte und keine Vermutungen.

Avalox versteht aber innerhalb von Grenzen (genauso wie ich auch) wie mehr oder weniger ein big.LITTLE SoC vorgeht; bei Dir hab ich das Gefuehl dass es irgendwo noch etwas hapert. In solch einem Fall sind selbst Messwerte ueberfluessig.

Verbraucht ein ff video decoder mehr fuer video decoding oder eine GPU? Mit der Antwort will ich Messwerte sehen sonst glauch ich Dir auch gar nichts und degradiere alles nur auf Vermutungen.

Undertaker
2013-04-09, 11:34:14
Um so viel schlechter wie oft mehr als single-threading im Spar-modus eines 5410 benutzt wird.

Das sagt nur leider herzlich wenig aus. Wie viel höher ist denn der Verbrauch des Gesamtsystems inkl. Display in diesem Fall? Nur mal so: Das ziemlich dunkle Display eines Galaxy S3 verbraucht bis zu 1,3 Watt (!). Bei einem hellen 5"-Monster kommt da noch deutlich mehr zusammen. Dazu kommen natürlich auch noch diverse andere Verbraucher. Sofern hier keiner auch nur annähernd beziffern kann, in welcher Größenordnung sich der mittlere Verbrauch des CPU-Teils z.B. beim Surfen bewegt, lässt sich auch nicht sagen, welche praktische Laufzeitunterschiede sich ergeben werden.

Ailuros
2013-04-09, 15:39:14
Das sagt nur leider herzlich wenig aus. Wie viel höher ist denn der Verbrauch des Gesamtsystems inkl. Display in diesem Fall? Nur mal so: Das ziemlich dunkle Display eines Galaxy S3 verbraucht bis zu 1,3 Watt (!). Bei einem hellen 5"-Monster kommt da noch deutlich mehr zusammen. Dazu kommen natürlich auch noch diverse andere Verbraucher. Sofern hier keiner auch nur annähernd beziffern kann, in welcher Größenordnung sich der mittlere Verbrauch des CPU-Teils z.B. beim Surfen bewegt, lässt sich auch nicht sagen, welche praktische Laufzeitunterschiede sich ergeben werden.

Natuerlich kommt der groesste Verbrauch vom Bildschirm selber, aber was ein Geraet verbraucht hat jetzt was genau mit jeglichem Verbrauch bzw. TDP eines jeglichen SoC zu tun? Wenn ein OEM jetzt so daemlich ist und benutzt einen stromhungrigen display mit einem SoC mit ueberdurchschnittlichem TDP fuer die Geraete-Kategorie ist daran jetzt der SoC Hersteller schuld oder wie soll ich das verstehen?

Beim Tegra3 spezifisch haben wohl alle potentielle Kunden es in smartphones integrieren wollen, sie haben alle ueberhelle und uebergroesse displays benutzen wollen und es ist bei allen daran gescheitert oder gibt es sonst noch eine kunterbunte Entschuldigung fuer den flop?

Wo immer und was immer NV an Halb-Luegen und Marketing-Mist ueber Tegra4 spezifisch behauptet hat gibt es Relationen wie FLOPs/mm2 und Leistungsvergleiche unter anderem aber nirgends und nicht fuer selbst einen halben Satz wird irgendwo perf/mW bzw. W erwaehnt aus durchaus verstaendlichen Gruenden. In der Zwischenzeit koennen wir lange um den Brei reden warum die Windgeschwindigkeit oder die Sterne nicht ideal platziert waren und sind und NV's SoCs rein "zufaellig" dadurch kostant unter jeglichen selbst pessimistischen Projektion NV's verkaufen.

Undertaker
2013-04-09, 16:22:16
Natuerlich kommt der groesste Verbrauch vom Bildschirm selber, aber was ein Geraet verbraucht hat jetzt was genau mit jeglichem Verbrauch bzw. TDP eines jeglichen SoC zu tun?

Der Verbrauch des SoCs bzw. die Positionierung zu anderen SoCs wird ja erst in Relation zum Gesamtverbrauch des Gerätes bzw. zur Größe des Akkus interessant. Wenn in einem großen 5"-Phablet mit ~1,5W Teillastverbrauch beim Surfen eine um 100mW höhere Leistungsaufnahme des SoCs habe, beeinflusst das die Akkulaufzeit um weniger als 7%. Bei einem Tablet noch viel weniger, bei einem kleineren Smartphone dagegen deutlich mehr.

Genau darum tun sich bisher alle damit schwer, eine nicht nur qualitative, sondern auch quantitative(!) Aussage zu den praktischen Vorteilen z.B. des BigLittle-Konzeptes ggü. Qualcomms asynchroner Taktung oder Nvidias 4+1 zu treffen.

robbitop
2013-04-09, 16:27:49
Avalox versteht aber innerhalb von Grenzen (genauso wie ich auch) wie mehr oder weniger ein big.LITTLE SoC vorgeht; bei Dir hab ich das Gefuehl dass es irgendwo noch etwas hapert. In solch einem Fall sind selbst Messwerte ueberfluessig.
Ich glaube kaum, dass hier überhaupt jemand deutlich mehr weiß, als das Paper von ARM zu big.LITTLE dazu hergibt. Das ist öffentlich einsehbar. ;)

Avalox hat vor Allem eine andere Sichtweise zu dem Thema (siehe unten).

Verbraucht ein ff video decoder mehr fuer video decoding oder eine GPU?
Auch das kann man isoliert messen. Prinzipbedingt sollte FF Hardware aber deutlichst(!!) effizienter sein als GP Hardware. Sonst gäbe es keine Videodecoder. Auch NV/AMD GPUs haben ff Videodecoder Schaltkreise. Nicht ohne guten Grund.

Mit der Antwort will ich Messwerte sehen sonst glauch ich Dir auch gar nichts und degradiere alles nur auf Vermutungen.
Ich verstehe zwar nicht, was das mit der Diskussion zu den Leistungsaufnahmen der CPU zu tun hat - aber man kann isoliert alles messen.

Die Frage ist eben, was will man messen.

Will man jetzt Energieeffizienz messen (sprich: gleiche Arbeit für die gemessenen SoCs in verschiedenen Szenarien mit verschiedenen Arbeitspunkten) oder will man Peak Leistungsaufnahmen bei Volllast messen (unabhängig von der Energieeffizienz).

Der Trick beim big.LITTLE ist eben, dass er 2x Arbeitskennlinien fahren kann, die in ihrem Bereich sehr energieeffizient sind. Der Taskswitch kostet zwar ein paar ms, ist aber in der Praxis weniger das Problem, solange nicht zu oft geswitcht werden muss. Das kopieren von Speicherinhalten ist schließlich auch recht energieaufwändig.

Mich interessiert (weniger praxisrelevant - dessen bin ich mir bewusst), die Peak Leistungsaufnahme pro A15 Kern und pro A7 Kern. Einfach um mal ein paar Kenngrößen zum Vergleich zu haben. Daraus kann man dann weiteres auch differenziert ableiten. Durch eine in sofern isolierte Messung kann man viel differenziertere Aussagen zu Ursachen des Gesamtergebnisses treffen.

Natürlich ist auch die Messung der Energieeffizienz zusätzlich dazu äußerst interessant.

Ailuros
2013-04-09, 16:37:06
Genau darum tun sich bisher alle damit schwer, eine nicht nur qualitative, sondern auch quantitative(!) Aussage zu den praktischen Vorteilen z.B. des BigLittle-Konzeptes ggü. Qualcomms asynchroner Taktung oder Nvidias 4+1 zu treffen.

Wobei ich bisher keinen einzigen anstaendigen Punkt bis jetzt gelesen habe, wieso 4+1 nicht im Nachteil stehen wuerde. Bei einer 1:4 Relation egal ob gegen 4*A7 oder quad Krait mit asynchroner Taktung fuer den companion core muss Du Dich wirklich verdammt anstrengen mich darueber zu ueberzeugen.

Undertaker
2013-04-09, 16:46:38
Ich habe doch jetzt schon x-mal geschrieben, dass auch ich BigLittle im Vorteil sehe. :confused: Ich mahne nur an, mit jeglichen Schlussfolgerungen vorsichtig zu sein, solange man nicht die Größenordnung des Verbrauchsunterschiedes kennt sowie demenstprechend die Auswirkungen auf die Laufzeit. Wie oben vorgerechnet, ist z.B. ein durchschnittlicher Teillast-Mehrverbrauch von 100 mW bei einem aktuellen High-End-Smartphone absolut unbedeutend.

Ailuros
2013-04-09, 16:52:54
Ich glaube kaum, dass hier überhaupt jemand deutlich mehr weiß, als das Paper von ARM zu big.LITTLE dazu hergibt. Das ist öffentlich einsehbar. ;)

Avalox hat vor Allem eine andere Sichtweise zu dem Thema (siehe unten).

Es gibt videos vom S4 wie sich die beiden 4+4 CPU cluster unter verschiendenen anspruchsvollen use cases verhalten.


Auch das kann man isoliert messen. Prinzipbedingt sollte FF Hardware aber deutlichst(!!) effizienter sein als GP Hardware. Sonst gäbe es keine Videodecoder. Auch NV/AMD GPUs haben ff Videodecoder Schaltkreise. Nicht ohne guten Grund.


Ich verstehe zwar nicht, was das mit der Diskussion zu den Leistungsaufnahmen der CPU zu tun hat - aber man kann isoliert alles messen.

Es ist zwar nur indirekt relativ aber bei einem SFF mobile SoC kann man locker zusaetzlich die area spendieren wenn es dazu kommt noch mehr Strom zu sparen. A7 cores bzw. der "LITTLE" Anteil eines solchen Gespanns sind eventuell die "Sparcores".

Die Frage ist eben, was will man messen.

Will man jetzt Energieeffizienz messen (sprich: gleiche Arbeit für die gemessenen SoCs in verschiedenen Szenarien mit verschiedenen Arbeitspunkten) oder will man Peak Leistungsaufnahmen bei Volllast messen (unabhängig von der Energieeffizienz).

Realistische anspruchsvolle use cases; die Batterie sollte dabei auf einem smartphone nicht nur 1 Stunde aushalten und man sollte sich auch nicht von der hohen Temperatur den Schenkel verbrennen wenn man es in die Hosentasche steckt. Unter stinknormalem Verbrauch sollte man eben auch nicht jeden Tag unbedingt nachladen muessen.

Der Trick beim big.LITTLE ist eben, dass er 2x Arbeitskennlinien fahren kann, die in ihrem Bereich sehr energieeffizient sind. Der Taskswitch kostet zwar ein paar ms, ist aber in der Praxis weniger das Problem, solange nicht zu oft geswitcht werden muss. Das kopieren von Speicherinhalten ist schließlich auch recht energieaufwändig.

Task switches kosten milli-seconds egal wo.

Mich interessiert (weniger praxisrelevant - dessen bin ich mir bewusst), die Peak Leistungsaufnahme pro A15 Kern und pro A7 Kern. Einfach um mal ein paar Kenngrößen zum Vergleich zu haben. Daraus kann man dann weiteres auch differenziert ableiten. Durch eine in sofern isolierte Messung kann man viel differenziertere Aussagen zu Ursachen des Gesamtergebnisses treffen.

Natürlich ist auch die Messung der Energieeffizienz zusätzlich dazu äußerst interessant.

http://www.anandtech.com/show/6787/nvidia-tegra-4-architecture-deep-dive-plus-tegra-4i-phoenix-hands-on

Samsung recently disclosed details about its Cortex A15 implementation compared to the Cortex A7, a similarly performing but more power efficient alternative to the A9. In its ISSCC paper on the topic Samsung noted that the Cortex A15 offered up to 3x the performance of the Cortex A7, at 4x the area and 6x the power consumption.

Fuer den Scheiss den NV direkt darunter behauptet hab ich vor Seiten (edit ich glaub im Tegra thread...) schon Exophase bei B3D zitiert, wieso es einfacher Bloedsinn ist.

Ich habe doch jetzt schon x-mal geschrieben, dass auch ich BigLittle im Vorteil sehe. :confused: Ich mahne nur an, mit jeglichen Schlussfolgerungen vorsichtig zu sein, solange man nicht die Größenordnung des Verbrauchsunterschiedes kennt sowie demenstprechend die Auswirkungen auf die Laufzeit. Wie oben vorgerechnet, ist z.B. ein durchschnittlicher Teillast-Mehrverbrauch von 100 mW bei einem aktuellen High-End-Smartphone absolut unbedeutend.

Siehe letzten Paragraphen in meiner Antwort zu robbitop. Der Unterschied ist eben nicht so klein oder nebenwichtig wie Du ihn ausmachen willst. Im Gegenfall waeren smartphone OEMs ziemlich daemlich T4 eben tonnenweise in smartphones zu integrieren.

Undertaker
2013-04-09, 18:03:21
Siehe letzten Paragraphen in meiner Antwort zu robbitop. Der Unterschied ist eben nicht so klein oder nebenwichtig wie Du ihn ausmachen willst. Im Gegenfall waeren smartphone OEMs ziemlich daemlich T4 eben tonnenweise in smartphones zu integrieren.

Weil das ja der einzige Faktor ist. ;) Wie hoch taktet die Smartphone-Version von T4 überhaupt? Mir sind bisher nur sehr grobe 1,2 - 1,8 GHz für den AP40 bekannt. Welche Preise verlangt Nvidia? Wie schnell und in welche Stückzahlen kann geliefert werden? Wie gut schlägt sich das i500? Mal ehrlich, anhand der Anzahl an Design-Wins noch vor Marktverfügbarkeit eine so spezielle Eigenschaft wie die Teillast-Effizienz des 4+1-Designs beziffern zu wollen, ist doch mehr als gewagt.

Ailuros
2013-04-09, 18:20:36
Weil das ja der einzige Faktor ist. ;) Wie hoch taktet die Smartphone-Version von T4 überhaupt? Mir sind bisher nur sehr grobe 1,2 - 1,8 GHz für den AP40 bekannt.

1.2 zu 1.8 ist eine ziemlich grosse Spanne :freak: HTC soll nach wie vor hoch takten nach Angaben.

Welche Preise verlangt Nvidia? Wie schnell und in welche Stückzahlen kann geliefert werden? Wie gut schlägt sich das i500? Mal ehrlich, anhand der Anzahl an Design-Wins noch vor Marktverfügbarkeit eine so spezielle Eigenschaft wie die Teillast-Effizienz des 4+1-Designs beziffern zu wollen, ist doch mehr als gewagt.

Gut dass Du mir das Leben erleichterst und ich darf wohl von jetzt ab behaupten dass Tegra4 von jeglichem Aspekt ein Griff ins Klo ist. Wenn's nur so einfach waere. Minimal-Bestellung ist nach wie vor 100k und bei der geringen Menge liegt der Preis schon ziemlich hoch (>$30) aber NV beharrt auch nicht stur auf diesen, wenn es nur mehr Interesse an den Dingern gaebe.

Samsung behauptet 6x den Stromverbrauch fuer A15 vs. A7 und schau her ARM's fruehe Behauptungen waren auch nicht so abwegig:

http://www4.pcmag.com/media/images/381325-arm-roadmap-mwc-2013.jpg?thumb=y

Ich beruehr den Ball ueberhaupt nicht, denn wenn es so weitergeht wird er sich selber ins Tor rollen aus purer Langeweile, egal wie oft Du Dich noch bemuehst die Seitenpfosten zu bewegen. :D

Wer mir einreden will dass perf/mW bzw. perf/W nicht DER absolut wichtigste Faktor in diesem Markt ist, hat entschuldige auch nicht die blasseste Ahnung was in dem Markt genau vorgeht.

Undertaker
2013-04-09, 20:05:00
Gut dass Du mir das Leben erleichterst und ich darf wohl von jetzt ab behaupten dass Tegra4 von jeglichem Aspekt ein Griff ins Klo ist. Wenn's nur so einfach waere. Minimal-Bestellung ist nach wie vor 100k und bei der geringen Menge liegt der Preis schon ziemlich hoch (>$30) aber NV beharrt auch nicht stur auf diesen, wenn es nur mehr Interesse an den Dingern gaebe.

Meintest du nicht gerade noch, es wäre nur der – sicher vorhandene, aber noch immer nicht bezifferte – Effizienz-Nachteil von 4+1 ggü. BigLittle? Na was denn nun... Wie war das mit dem Ball gerade? :biggrin:

Aber generell sollte der AP40 erst im 3. Quartal überhaupt erhältlich sein (HTC wird doch nicht etwa den T40 in ein Smartphone pflanzen?), und ob dieser Termin überhaupt gehalten wird und Nvidia auch gleich in entsprechenden Stückzahlen liefern kann ist gleich die nächste Frage. Zu hohe Preise könnten natürlich auch ein ganz entscheidender Faktor sein; nur wird Nvidia hier wie jeder Hersteller genau das ansetzen, was den letztlich höchsten Gesamtgewinn verspricht.

Samsung behauptet 6x den Stromverbrauch fuer A15 vs. A7

Aber ganz sicher nicht bei gleicher Auslastung und einer derartigen Taktrate, dass beide die gleiche Performance liefern. Und dann bleibt eben noch die Frage, was der Companion Core so abfedert, welche Differenz am Ende übrig bleibt und wieviel Prozent mehr das auf ein Gesamtsystem gerechnet sind; ich würde mal erste Messungen abwarten und dann weiterschauen. Denn:

Wer mir einreden will dass perf/mW bzw. perf/W nicht DER absolut wichtigste Faktor

...das ist sicherlich absolut korrekt, aber eben nicht der einzigste Faktor. Ebenso zählt die absolute Leistungsfähigkeit – sonst würden alle gleich nur noch den A7 verbauen und ganz auf A15 verzichten – und das Preis-Leistungsverhältnis. Für 1% mehr Effizienz zahl keiner den 3-fachen Preis (ja, das ist bewusst übertrieben). Wenn du sagst, dass T4 hier noch zu teuer ist (Welche Version genau kostet btw >30$? Was kostet ein S800 oder Exynos 5410, falls Samsung den überhaupt weiterverkauft?), wird Nvidia sich schon überlegt haben, warum man genau diesen Preis angesetzt hat. Vielleicht, weil man eben anfangs nur sehr begrenzte Stückzahlen absetzen kann? Oder was denkst du? So blöde sind die BWLer dort auch nicht, dass die Verkaufspreise nicht genauestens kalkuliert sind. ;)

Ailuros
2013-04-09, 20:31:56
Meintest du nicht gerade noch, es wäre nur der – sicher vorhandene, aber noch immer nicht bezifferte – Effizienz-Nachteil von 4+1 ggü. BigLittle? Na was denn nun... Wie war das mit dem Ball gerade? :biggrin:

I don't render in absolutes.

Aber generell sollte der AP40 erst im 3. Quartal überhaupt erhältlich sein (HTC wird doch nicht etwa den T40 in ein Smartphone pflanzen?), und ob dieser Termin überhaupt gehalten wird und Nvidia auch gleich in entsprechenden Stückzahlen liefern kann ist gleich die nächste Frage.

Was steckt denn im HTC OneX drin?

Zu hohe Preise könnten natürlich auch ein ganz entscheidender Faktor sein; nur wird Nvidia hier wie jeder Hersteller genau das ansetzen, was den letztlich höchsten Gesamtgewinn verspricht.

Anand selber und ja ich muss es sagen, als ich es damals sagte wollte es auch keiner glauben:

Wafer costs for 28nm HPL are undoubtedly higher than 40nm LPG at TSMC, not to mention any differences in yield between T3 and T4, so without a doubt Tegra 4 will cost NVIDIA more than Tegra 3. All of that being said however, NVIDIA still seems to take a conservative approach to die sizes in mobile, which gives it the flexibility to significantly undercut Qualcomm in costs to OEMs. I do believe this was a key part of NVIDIA’s success last year with Tegra 3 ending up in both the Nexus 7 and Microsoft’s Surface RT. Long term, simply selling your SoCs for less than the competition isn’t a path to market dominance, but being able to do so helps buy NVIDIA time while it gathers the remaining missing pieces of the mobile platform (integrated baseband, RF front end, WiFi, etc...). Tegra 4 isn’t the sort of drive the industry forward type of silicon we’re used to seeing from NVIDIA, but it’s sized appropriately given NVIDIA’s position in the market. From a business standpoint, NVIDIA is making the right decisions to ensure the Tegra business at least has a chance of succeeding.

Kommt morgen ein Anbieter an fuer T4 fuer anstaendiges Volumen wuerde NV auch wieder fast am BOM verkaufen.

Aber ganz sicher nicht bei gleicher Auslastung und einer derartigen Taktrate, dass beide die gleiche Performance liefern. Und dann bleibt eben noch die Frage, was der Companion Core so abfedert, welche Differenz am Ende übrig bleibt und wieviel Prozent mehr das auf ein Gesamtsystem gerechnet sind; ich würde mal erste Messungen abwarten und dann weiterschauen. Denn:

Samsung gibt auch Leistungs-Unterschiede an; was die Messungen betrifft nochmal bis es endlich sitzt: bei 4+1 alles ueberhalb single threading wird auf T4 auf A15 cores laufen beim 5410 eben nicht weil eben in der Mehrzahl der Faelle die A7 cores das Ganze bewaeltigen koennen.

..das ist sicherlich absolut korrekt, aber eben nicht der einzigste Faktor. Ebenso zählt die absolute Leistungsfähigkeit – sonst würden alle gleich nur noch den A7 verbauen und ganz auf A15 verzichten – und das Preis-Leistungsverhältnis.

Falls Du das Samsung 5410 video welches zeigt wie unter verschiedenen use cases die jeweiligen cores ein- und aussschalten noch nicht gesehen hast, schau es Dir an.

Der quad A15 cluster auf dem 5410 ist tatsaechlich der differenzierende Faktor der das S4 zum high end smartphone gegen mainstream smartphones macht (ausserhalb der GPU natuerlich).

Für 1% mehr Effizienz zahl keiner den 3-fachen Preis (ja, das ist bewusst übertrieben).

Es ist eben nicht nur 1%; denn fuer die kurze Zeit wo ein einziger A15 einschaltet muesste sich theoretisch ein A7 um etliche Male mehr anstrengen um es so weit zu bringen.

Wenn du sagst, dass T4 hier noch zu teuer ist (Welche Version genau kostet btw >30$? Was kostet ein S800 oder Exynos 5410, falls Samsung den überhaupt weiterverkauft?), wird Nvidia sich schon überlegt haben, warum man genau diesen Preis angesetzt hat.

Lass Samsung erstmal anstaedige Volumen von 5410 SoCs herstellen bevor sie daran denken koennen es zu verkaufen; sonst da Samsung traditionell an 0815 Billig-OEMs verkauft sind die Preise meistens nie zu hoch und es kommt auch um einiges spaeter als ihre flagship smartphones an. Meizu ist ein Beispiel.

S800 ist billiger weil Qualcomm in anderen Volumen herstellt.

Vielleicht, weil man eben anfangs nur sehr begrenzte Stückzahlen absetzen kann? Oder was denkst du? So blöde sind die BWLer dort auch nicht, dass die Verkaufspreise nicht genauestens kalkuliert sind. ;)

Momentan ist NV immer noch dabei ihre tape out Probleme mit T4 unter den Teppich zu kehren; Fudo hatte naemlich recht und nein er hat sich am Ende nicht mit den Quartalen verzettelt.

|MatMan|
2013-04-09, 22:29:14
bei 4+1 alles ueberhalb single threading wird auf T4 auf A15 cores laufen beim 5410 eben nicht weil eben in der Mehrzahl der Faelle die A7 cores das Ganze bewaeltigen koennen.
Naja der low power A15 companion core ersetzt durch die höhere IPC schon in etwa zwei A7. Im 5410 Video ist bei Google Maps oder Video Playback so wenig Last auf den A7, dass das auch der companion core locker bewältigen könnte. Interessanterweise sind immer 4 CPUs aktiv und nicht mal nur ein einzelner A7.

Ich hatte vor einiger Zeit schonmal gefragt: was gibt es für eine Workload, die alle A7 hoch auslastet? Theoretisch vielleicht ein perfekt parallelisiertes Spiel im GPU Limit. Dann verliert man im schlimmsten Fall durch 4+1 ein paar FPS, da man sicherlich eh mit der GPU im Power-Limit des SoC ist...

Ailuros
2013-04-10, 11:02:34
Naja der low power A15 companion core ersetzt durch die höhere IPC schon in etwa zwei A7. Im 5410 Video ist bei Google Maps oder Video Playback so wenig Last auf den A7, dass das auch der companion core locker bewältigen könnte. Interessanterweise sind immer 4 CPUs aktiv und nicht mal nur ein einzelner A7.

Jeder A15 ist nach Samsung um 3x Mal schneller als jeder A7, verbraucht aber auch 6x Mal mehr Strom. Nochmal schaut ZUERST auf den Stromvebrauch bei einem SFF mobile SoC und dann erst auf die Leistung.

Video playback ist so scheissegal fuer jegliche CPU dass es nichtmal wert ist zu erwaehnen. Ein guter ff video decoder braucht heutzutage <10mW fuer einen 1080p stream unter 28HPM.

Ich hatte vor einiger Zeit schonmal gefragt: was gibt es für eine Workload, die alle A7 hoch auslastet? Theoretisch vielleicht ein perfekt parallelisiertes Spiel im GPU Limit. Dann verliert man im schlimmsten Fall durch 4+1 ein paar FPS, da man sicherlich eh mit der GPU im Power-Limit des SoC ist...

Bei Tegras ist die GPU ohnehin schon ein ziemlicher powerhog mit den Frequenzen die die ULP GFs bis jetzt ankommen. Hohe Frequenzen bringen immer hoehere Leckstroeme. Die ULP GF im Tegra4 taktet auf 672MHz, wobei der kommende Adreno330 im S800 bei wohl 480MHz takten wird und rundum effizienter sein wird; hoehere Leistung und weniger Verbrauch.

Skycastle 3D welches ein ziemlich anspruchsvolles GPU demo ist laeuft locker auf einem quad A7 mit der breiten Mehrzahl an peak Frequenzen bei ~800MHz und nur sehr wenige Stellen wo es mal zu 1GHz schiesst.

Das meiste am browsing kannst Du auch locker mit den A7 CPUs bewaeltigen und die A15 leuchten schnell auf bei page changes z.B.

|MatMan|
2013-04-10, 12:26:08
Jeder A15 ist nach Samsung um 3x Mal schneller als jeder A7, verbraucht aber auch 6x Mal mehr Strom. Nochmal schaut ZUERST auf den Stromvebrauch bei einem SFF mobile SoC und dann erst auf die Leistung.
Bei 1200 MHz A7 gegenüber 800 MHz A15 ist sicherlich kein Faktor 3 mehr drin. Dafür ist der Stromverbrauch auch nicht mehr bei 6x. Auch sind es 4x A7 gegen 1x A15, was auch einen Einfluss auf den Gesamtstromverbrauch haben kann. Die spannende Frage ist halt, in wie weit nVidia den Stromverbrauch des A15 reduzieren konnte. Zumindest was die Leckströme angeht, sollte das positiv sein.

Video playback ist so scheissegal fuer jegliche CPU dass es nichtmal wert ist zu erwaehnen. Ein guter ff video decoder braucht heutzutage <10mW fuer einen 1080p stream unter 28HPM.
Ja genau, deshalb reicht eine einzige low power CPU auch.

Skycastle 3D welches ein ziemlich anspruchsvolles GPU demo ist laeuft locker auf einem quad A7 mit der breiten Mehrzahl an peak Frequenzen bei ~800MHz und nur sehr wenige Stellen wo es mal zu 1GHz schiesst.
Aha na das klingt nach einem interessanten Fall für einen Vergleich des Stromverbrauchs / der Effizienz.

Das meiste am browsing kannst Du auch locker mit den A7 CPUs bewaeltigen und die A15 leuchten schnell auf bei page changes z.B.
Ja und ich behaupte, dass browsing mit dem einen low power A15 genauso zu bewältigen ist, also im Durchschnitt die high performance A15 genauso häufig anspringen.

robbitop
2013-04-10, 14:24:17
Matman. Ich empfehle dir das big.LITTLE Whipepaper mal durchzulesen. Da werden Vor und Nachteile in unterschiedlichen Szenarien genau beschrieben.

Im typischen Smartphone/Tablet Einsatz ist in >90 % der Zeit die reine CPU Last sehr gering. Das Scrollen ist ja stark GPU beschleunigt. Also ein perfekter Arbeitspunkt für eine sehr kleine unkomplexe CPU. In genau diesen Zeiten ist ein A7 einfach deutlich besser als jeder Spar A15. Er hat viel weniger Leckströme. Außerdem laufen auch im Hintergrund immer mal wieder kurze kleine Abfragen, die perfekt für die kleinen A7s sind.

Mal ein Browserfenster öffnen weckt wohl auch nur 1x A15 Kern auf. Oder ein 3D Spiel weckt vieleicht 1-2 Kerne auf. Ggf. reicht auch ein A7 Kern.

Unter echter Volllast, die RL wohl seltenst bis nie auftritt, wäre der Akku schnell unten, dazu sind die A15 Kerne einfach zu hungrig.

Das Konzept ist eigentlich aufgrund des Benutzerprofils so genial. Meistens brauchst du kaum Leistung und wenn du sie kurz brauchst, bekommst du sie auch relativ heftig und aufgrund der kurzen Zeitspanne, kostet das trotzdem kaum Energie. 2 Prozessoren mit einer solchen Spreizung von Arbeitspunkten ist bei Smartphones/Tablets schon recht gut!

In einem Spiele-PC oder einem Crunchserver würde es hingegen wohl kaum was bringen. Aber die A7s sind quasi kostenlos von der Fläche.

Ailuros
2013-04-10, 15:43:26
Bei 1200 MHz A7 gegenüber 800 MHz A15 ist sicherlich kein Faktor 3 mehr drin. Dafür ist der Stromverbrauch auch nicht mehr bei 6x. Auch sind es 4x A7 gegen 1x A15, was auch einen Einfluss auf den Gesamtstromverbrauch haben kann.

Du bekommst einen Faktor 3 Leistung bzw. Faktor 6 Stromverbrauch zwischen den beiden aber NUR bei gleicher Frequenz.

Die spannende Frage ist halt, in wie weit nVidia den Stromverbrauch des A15 reduzieren konnte. Zumindest was die Leckströme angeht, sollte das positiv sein.

Hast Du irgend einen Vorschlag? Denn das was NV selber behauptet ist lediglich nutzloser Scheiss von ahnungslosen Marketing-Affen in bisherigem Material.

Ja genau, deshalb reicht eine einzige low power CPU auch.

Du wirst wohl ein tablet nicht kaufen um nur videos abzuspielen oder?

Aha na das klingt nach einem interessanten Fall für einen Vergleich des Stromverbrauchs / der Effizienz.

Es sind aber 4*A7 eingestellt; im Fall von T4 muss der SoC zwangslaeufig seine 4*A15 dafuer einsetzen.

Ja und ich behaupte, dass browsing mit dem einen low power A15 genauso zu bewältigen ist, also im Durchschnitt die high performance A15 genauso häufig anspringen.

Wie ich schon sagte Ihr muesst Euch wirklich mal ernsthaft hinsetzen und ein paar videos vom Echtzeit-Verhalten von CPUs bezueglich threads ansehen und auch relevantes Material durchlesen.

Ebenso wie ich schon sagte ist nicht wo immer es NVIDIA passt ein quad core bzw. quad threading eine Notwendigkeit und wo immer es nicht passen sollte wird alles nur single-threaded sein.

NV wollte big.LITTLE nicht lizenzieren um Lizenz-Gebuehren bzw. royalties zu sparen. Die NV Juenger behaupten dass der companion core "gut genug" sei und ich behaupte nach wie vor dass rundum 4*A7 bei big.LITTLE um einige Male besser sind.

|MatMan|
2013-04-10, 16:27:22
Matman. Ich empfehle dir das big.LITTLE Whipepaper mal durchzulesen. Da werden Vor und Nachteile in unterschiedlichen Szenarien genau beschrieben.
Ich kenne das Paper, aber es gibt da natürlich keinen Vergleich zu 4+1.

Im typischen Smartphone/Tablet Einsatz ist in >90 % der Zeit die reine CPU Last sehr gering. Das Scrollen ist ja stark GPU beschleunigt. Also ein perfekter Arbeitspunkt für eine sehr kleine unkomplexe CPU. In genau diesen Zeiten ist ein A7 einfach deutlich besser als jeder Spar A15. Er hat viel weniger Leckströme. Außerdem laufen auch im Hintergrund immer mal wieder kurze kleine Abfragen, die perfekt für die kleinen A7s sind.

Das bestreite ich ja gar nicht. Ich will auch überhaupt nicht behaupten 4+1 wäre besser als big.LITTLE. Ich schätze aber, dass 4+1 in einem Highend-Smartphone oder Tablet keinen großen Nachteil hat (wie Undertaker ja auch schon versucht hat zu erläutern). Es hängt eben von der Power-Charakteristik des low power A15 ab - und die ist unbekannt. Deshalb gibt es hoffentlich irgendwann mal Messungen dazu!

Aber die A7s sind quasi kostenlos von der Fläche.
Ein A7 ist wohl ca. 0,5 mm² @ 28nm (http://www.anandtech.com/show/4991/arms-cortex-a7-bringing-cheaper-dualcore-more-power-efficient-highend-devices). Man muss eher den quad A7 Cluster inkl. Power-Gating-Transistoren mit dem einzelnen low power A15 inkl. Power-Gating-Transistoren vergleichen. Da könnte der einzelne A15 sogar etwas kleiner sein.

Hast Du irgend einen Vorschlag? Denn das was NV selber behauptet ist lediglich nutzloser Scheiss von ahnungslosen Marketing-Affen in bisherigem Material.

Im big.LITTLE Whitepaper geht die Powerkurve des A15 immerhin in den Power-Bereich des A7 hinein, bei weniger Performance natürlich. Vielleicht konnte nVidia noch etwas Optimieren um die Leistungsaufnahme weiter zu senken.
Aber zumindest kommt man in die Region, vom absoluten Verbrauch her.


Du wirst wohl ein tablet nicht kaufen um nur videos abzuspielen oder?

Es ist ein sehr typischer use-case, neben surfen und Text schreiben. Spielen sehe ich im Bekanntenkreis als viel selteneren Anwendungsfall, aber das gehört nicht hier hin.

Es sind aber 4*A7 eingestellt; im Fall von T4 muss der SoC zwangslaeufig seine 4*A15 dafuer einsetzen.
Ja deshalb ist es ja so interessant, es ist quasi der worst case für 4+1 im Vergleich zu big.LITTLE. Das Betriebssystem spielt natürlich auch noch eine Rolle wie es die Threads verteilt.

NV wollte big.LITTLE nicht lizenzieren um Lizenz-Gebuehren bzw. royalties zu sparen. Die NV Juenger behaupten dass der companion core "gut genug" sei und ich behaupte nach wie vor dass rundum 4*A7 bei big.LITTLE um einige Male besser sind.
Naja der Akku wird deshalb nicht doppelt so lange halten (bewusst übertrieben). 50°C sollte ein Gerät natürlich auch nicht warm werden, aber das hängt auch mit dem Gerätedesign zusammen. Der Punkt ist doch nur, ob es am Ende für den Nutzer einen Unterschied macht oder ob die Alternativen zu big.LITTLE "good enough" sind. Ich will nicht behaupten, dass 4+1 gut genug ist, aber da bei der Mehrzahl der Anwendungsfälle die CPU Last wohl eh sehr gering ist, kann ich es mir vorstellen.

Da es keine T4 Geräte gibt, müssen wir eh warten. Und da alle SoC-Hersteller und selbst ARM kaum handfeste Zahlen veröffentlichen, müssen wir wohl leider wieder auf Messungen von z.B. Anandtech hoffen.

robbitop
2013-04-10, 16:45:25
Es ist sicher kein Unterschied wie Tag und Nacht. Aber der Vorteil wird schon da sein. Und wenn es am Ende nur 30 min mehr Akkulaufzeit sind. Umsonst hat ARM sich die Mühe sicher nicht gemacht.

Ailuros
2013-04-10, 18:39:47
Das bestreite ich ja gar nicht. Ich will auch überhaupt nicht behaupten 4+1 wäre besser als big.LITTLE. Ich schätze aber, dass 4+1 in einem Highend-Smartphone oder Tablet keinen großen Nachteil hat (wie Undertaker ja auch schon versucht hat zu erläutern). Es hängt eben von der Power-Charakteristik des low power A15 ab - und die ist unbekannt. Deshalb gibt es hoffentlich irgendwann mal Messungen dazu!

Was ist denn ein grosser Nachteil genau? Tegra4 ist ebenso wie alle anderen Vorgaenger dessen ein tablet SoC. Ein Exynos 5250 ist ein tablet SoC waehrend Exynos5410 ein smartphone SoC ist.

Der companion core wurde afaik diesmal nicht optimiert aber ich komm nochmal darauf zurueck.


Ein A7 ist wohl ca. 0,5 mm² @ 28nm (http://www.anandtech.com/show/4991/arms-cortex-a7-bringing-cheaper-dualcore-more-power-efficient-highend-devices). Man muss eher den quad A7 Cluster inkl. Power-Gating-Transistoren mit dem einzelnen low power A15 inkl. Power-Gating-Transistoren vergleichen. Da könnte der einzelne A15 sogar etwas kleiner sein.

Ach wie gross sind denn die power islands genau bei jeglichem Fall? Nicht dass so eine Verdrehung hier irgendwelchen Sinn macht denn kein einziger SoC Hersteller erwaehnt je surrounding logic oder power islands. Ein quad A7 ist kleiner als 1 A15. big.LITTLE kostet mehr in Lizenzgebuehren als 4+1.

Im big.LITTLE Whitepaper geht die Powerkurve des A15 immerhin in den Power-Bereich des A7 hinein, bei weniger Performance natürlich. Vielleicht konnte nVidia noch etwas Optimieren um die Leistungsaufnahme weiter zu senken.
Aber zumindest kommt man in die Region, vom absoluten Verbrauch her.

NV selber schiesst sich in ihrem T4 Material ins Knie wenn sie schon mit A9@1.6GHz vergleichen; ich erlaeuter den Quark nicht noch mal. Und nein es gab diesmal afaik keine Spezial-Implementierung fuer den companion core, lass mich aber gerne vom Gegenteil ueberreden. NV sollte zusehen wie zum Teufel sie das 4+1 unter windowsRT auf die Beine kommt, dieses ist wichtiger als alles andere hier.

Es ist ein sehr typischer use-case, neben surfen und Text schreiben. Spielen sehe ich im Bekanntenkreis als viel selteneren Anwendungsfall, aber das gehört nicht hier hin.

Wenn man einen fancy e-book reader haben will ist man mit einem heutigen iPad besser aufgehoben eben weil es die beste Text-Qualitaet momentan ist und wenn man allergisch auf fruitco ist kommt man auch locker mit einem Nexus7 oder anderem mainstream tablet davon.

Ja deshalb ist es ja so interessant, es ist quasi der worst case für 4+1 im Vergleich zu big.LITTLE. Das Betriebssystem spielt natürlich auch noch eine Rolle wie es die Threads verteilt.

Ja sicher bei einer grosser Stueckzahl fuer Tegra3 unter windowsRT geht's ueberhaupt nicht.

Naja der Akku wird deshalb nicht doppelt so lange halten (bewusst übertrieben). 50°C sollte ein Gerät natürlich auch nicht warm werden, aber das hängt auch mit dem Gerätedesign zusammen.

Schon mal ein HTC One X mit T3 in der Hand gehabt? So heiss wird es zwar selten aber die Batterie-laufzeit laesst eben nach etlichen User-reports zu wuenschen uebrig.

Der Punkt ist doch nur, ob es am Ende für den Nutzer einen Unterschied macht oder ob die Alternativen zu big.LITTLE "good enough" sind. Ich will nicht behaupten, dass 4+1 gut genug ist, aber da bei der Mehrzahl der Anwendungsfälle die CPU Last wohl eh sehr gering ist, kann ich es mir vorstellen.

Der Punkt ist am Ende dass es wieder so wenige T4 basierende smartphones geben wird, dass es im guten Ganzen am Ende sowieso wurscht sein wird.

Da es keine T4 Geräte gibt, müssen wir eh warten. Und da alle SoC-Hersteller und selbst ARM kaum handfeste Zahlen veröffentlichen, müssen wir wohl leider wieder auf Messungen von z.B. Anandtech hoffen.

Wenn sich Anand bzw. Brian ueberhaupt mit Stromverbrauchs-Messungen in dem Fall beschaeftigen.

Undertaker
2013-04-10, 19:01:59
Der companion core wurde afaik diesmal nicht optimiert

Da liegst du falsch. Und auch ansonsten, nimms mir nicht übel, habe ich den Eindruck, dass du mehr oder weniger ohne konkrete Fakten nur etwas zum "Draufhauen" suchst. ;) Nicht nur die ständige Gebetsmühle, dass BigLittle soviel besser sei, sondern auch die unbegründete Schlussfolgerung, mit der du einem vergleichbar getakteten (!) T4 gleich jegliche Eignung für Smartphones absprichst. Noch weiß keiner, wie groß die Differenz zwischen BigLittle und 4+1 bei Teillast wirklich ist. Und die Analogie mit T3, wo ich nur die (absolut konkurrenzfähigen!) Relationen einzelner Belastungsfälle verglichen habe, verstehst du wohl leider noch immer falsch. Hier ging es nie um die maximale Leistungsaufnahme (das wir hier einen A9-Quad in 40nm haben, darf man eben nicht vergessen), sondern um die Effektivität der dortigen 4+1 Implementierung.


Ja genau, deshalb reicht eine einzige low power CPU auch.

Der Meinung bin ich eben auch. Zwar nicht immer und in jedem Fall – es finden sich vmtl. durchaus ein paar Spiele, die mit einem A7-Quad mehr als mit dem einen low-power A15 anfangen können –, aber in der überwältigenden Masse der Anwendungsfälle braucht es eben nicht mehr als einen halbwegs starken Kern. Scrollen auf Webseiten, Facebook, Audio/Video (inkl. Decoderunterstützung), die riesige Masse an Casual Games, Messaging, Navigation... Dafür reicht der Companion Core völlig. Und im Standby zieht Nvidias Referenzdesign btw gerade einmal 10mW. Lassen wir robbitop mal recht haben und es sind vielleicht 30min Laufzeitdifferenz (also etwas zwischen 5-8%) in einem gemischen Teillastbetrieb (ggü. einem vergleichbaren BigLittle-SoC) – das werden die meisten Anwender kaum merken. Selbstredend nimmt man jeden Vorteil gerne mit; allerdings soll T4 in vielen alltäglichen Szenarien z.B. ein gutes Stück sparsamer sein als der S4 Pro, nur um mal einen Vergleichswert zu bringen. "Unbrauchbar" ist was anderes.

Ailuros
2013-04-10, 19:27:24
Da liegst du falsch.

http://forum.beyond3d.com/showpost.php?p=1724490&postcount=1019
http://forum.beyond3d.com/showpost.php?p=1724596&postcount=1027

Und auch ansonsten, nimms mir nicht übel, habe ich den Eindruck, dass du mehr oder weniger ohne konkrete Fakten nur etwas zum "Draufhauen" suchst. ;)

Ansonsten nimm es mir nicht uebel aber wir haben im Netz genug Papageien die faktlosen Bullshit vom NV marketing weiterblubbern.

Nicht nur die ständige Gebetsmühle, dass BigLittle soviel besser sei, sondern auch die unbegründete Schlussfolgerung, mit der du einem vergleichbar getakteten (!) T4 gleich jegliche Eignung für Smartphones absprichst.

ARM ist nur ein durchfliegender Komet und wir warteten auf NV um uns zu zeigen wie man SFF CPUs entwickelt. Dass big.LITTLE nicht die effizientere Alternative zu 4+1 ist hat aber auch keiner dokumentieren koennen. Sonst tut mir leid aber T4 ist kein smartphone SoC.

Die Schwarzmalerei Anklage fuer Tegras hab ich mir in der Zwischenzeit angewoehnt; was ich glaube oder denke ist scheissegal. Wenn etwas nicht fuer smartphones in anstaendiger Anzahl benutzt wird wird es wohl auch einen Grund geben und den werden ich wohl nicht so leicht hier lesen koennen.

Noch weiß keiner, wie groß die Differenz zwischen BigLittle und 4+1 bei Teillast wirklich ist.

Ja der Bums-companion core kann Wunder vollbringen; beweiss es mir mit einfacher Logik bzw. einfacher Mathe wieso 4 spar cores nicht besser sind als einer. Pixy dust wie immer ahoi.


Und die Analogie mit T3, wo ich nur die (absolut konkurrenzfähigen!) Relationen einzelner Belastungsfälle verglichen habe, verstehst du wohl leider noch immer falsch. Hier ging es nie um die maximale Leistungsaufnahme (das wir hier einen A9-Quad in 40nm haben, darf man eben nicht vergessen), sondern um die Effektivität der dortigen 4+1 Implementierung.

T3 hat auch rein zufaellig einen companion core, T3 ist auch rein zufaellig ein tablet SoC und wurde rein zufaellig nur in einem smartphone integriert und dabei nichtmal mit A15 cores.

Als ich beim T3 launch sagte dass NV das Ding am BOM Rand verscherpelt um Marktanteile zu erreichen war ich auch wieder der Schwarzmaler, Depp des Dorfes oder sonst was noch. Ihr solltet mal ehrlich einen Realitaets-check bekommen von was ihr teilweise redet denn ich hol mir in der Mehrzahl der Faelle gar nichts aus dem Hintern raus.

Undertaker
2013-04-10, 20:06:41
http://forum.beyond3d.com/showpost.php?p=1724490&postcount=1019
http://forum.beyond3d.com/showpost.php?p=1724596&postcount=1027

Das widerspricht exakt deinem "der companion core wurde nicht optimiert". Natürlich wurde er speziell auf den low-power Einsatzbereich synthetisiert (das wurde btw auf der Pressekonferenz am 7. Januar bestätigt), da steht in deinen Links nichts anderes. Der Verbrauchsunterschied zu den "normalen" A15 hängt natürlich von der konkreten Taktrate ab; wie |MatMan| bereits sagte, bräuchte man hier eine exakte Power-Charakteristik für wirklich tiefgehende Analysen.


ARM ist nur ein durchfliegender Komet und wir warteten auf NV um uns zu zeigen wie man SFF CPUs entwickelt. Dass big.LITTLE nicht die effizientere Alternative zu 4+1 ist hat aber auch keiner dokumentieren koennen.

Dreh mir doch mal bitte nicht immer die Worte im Mund herum. Wie oft habe ich bereits geschrieben, dass auch ich BigLittle insgesamt für sehr wahrscheinlich effizienter halte? Knackpunkt, und darum dreht sich die gesamte Diskussion, ist der quantitative Unterschied, der bislang aber bestenfalls abgeschätzt werden kann. Du bist bislang nicht ein einziges Mal darauf eingegangen, dass für die Laufzeit am Ende der prozentuale Verbrauchsunterschied des Gesamtsystems entscheidend ist. Wenn mein Smartphone im Leerlauf bei aktiviertem Display insgesamt rund 600mW benötigt – ein durchaus realistischer Wert –, ist es vollkommen egal, ob der SoC nun bei 50 oder 60mW liegt. Und wie gesagt, bei Teillast soll T4 wohl sogar sparsamer sein als z.B. ein S4 Pro. Vielleicht/vermutlich ist ein 5410 oder S800 hier noch etwas effizienter, aber nicht alles was etwas schlechter ist, ist auch gleich "Schrott". :) Zumindest diesen Punkt solltest du vielleicht doch noch einmal überdenken.

mboeller
2013-04-11, 07:34:51
Das widerspricht exakt deinem "der companion core wurde nicht optimiert".

Soweit ich Arun verstanden habe sollen die 4 normalen A15 bei 832MHz in etwa genausoviel verbrauchen wie der Companion-A15. Deshalb wohl die Anmerkung von Ailuros, das der Companion-A15 nicht richtig optimiert wurde.

Mich wundert die ganze Diskussion über den Tegra4 allerdings ein wenig. Da Nvidia selbst den Tegra4 schon zu Grabe getragen hat betreibt ihr hier IMHO mehr oder weniger Leichenfledderei ;)

600mW im Leerlauf?? 2600mAh x 3,7V / 600mW = 16 Standby ;D

robbitop
2013-04-11, 08:58:30
Es wird aber schon einen Grund geben, warum NV Tegra 4 als Tablet SoC deklariert und Tegra 4i mit A9 Kernen als Smartphone SoC. Die machen keinen 2. Smartphone SoC aus Spaß.
Interessant wird es natürlich erst ab dem Punkt, ab dem es differenzierte Messungen gibt.

Undertaker
2013-04-11, 09:36:38
600mW im Leerlauf?? 2600mAh x 3,7V / 600mW = 16 Standby ;D

Irgendwas um 20h bei aktivem Display sind mehr oder weniger Standard bei einem aktuellen Smartphone (die 600mW waren btw auch nur geschätzt). Ohne Display sind wir bei 10mW für das T4 Referenzdesign (Gesamtverbrauch).

Es wird aber schon einen Grund geben, warum NV Tegra 4 als Tablet SoC deklariert und Tegra 4i mit A9 Kernen als Smartphone SoC. Die machen keinen 2. Smartphone SoC aus Spaß.

Tegra 4 bzw. generell alle A15-SoCs haben zumindest bei Taktraten von knapp unter 2 GHz einen zu hohen Maximalverbrauch für Smartphones; wohlgemerkt taktet ja auch der 5410 die A15 nur mit maximal 1,6 GHz (und in wie weit diese gehalten werden können, ist auch noch nicht so ganz klar). Die größten Pluspunkte für T4i sind aber wohl das integrierte Modem, die kleinere Die-Size und damit die deutlich geringeren Kosten. Damit ist der T4i wohl einfach die wirtschaftlichere Lösung als ein auf ~1,6 GHz heruntergetakteter T4 für Smartphones.

Die Effizenz der neuesten A9-Kerne (R4) scheint wohl auch sehr vielversprechend zu sein. Der A15 ist zwar konkurrenzlos schnell, aber eben auch sehr hungrig.

Ailuros
2013-04-11, 11:40:59
Soweit ich Arun verstanden habe sollen die 4 normalen A15 bei 832MHz in etwa genausoviel verbrauchen wie der Companion-A15. Deshalb wohl die Anmerkung von Ailuros, das der Companion-A15 nicht richtig optimiert wurde.

Wenn bei einer Optimierung die Vor- den Nachteilen nicht ueberwiegen ist es auch keine Optimierung. Nebenbei ist Arun und bleibt auch ein guter NV fan (bzw. ein fan im guten Sinn); da er es selber schon oeffentlich zugestanden hat: arbeitet er nicht mehr bei IMG und ich erwaehne es nur aus verstaendlichen Gruenden.

Mich wundert die ganze Diskussion über den Tegra4 allerdings ein wenig. Da Nvidia selbst den Tegra4 schon zu Grabe getragen hat betreibt ihr hier IMHO mehr oder weniger Leichenfledderei ;)

Tja nach manchen hab ich nichts besseres zu tun als morgens aufzustehen und einem toten Pferd einen Tritt in den Hintern zu verpassen. Ich bestehe so hartnaeckig darauf weil die vertraulichen S800 Resultate die ich bis jetzt gesehen habe verdammt schwer zu schlagen sind und ja ueberhaupt im Bereich perf/mW. Und nein mit den Daten hat NV auch nicht rechnen koennen.

Der 5410 ist stellenweise ein klein bisschen besser in benchmarks und auch mit perf/mW gegen den S600 Bruder im GalaxyS4 aber der letzte ist auch ein uebertakteter S600.


Tegra 4 bzw. generell alle A15-SoCs haben zumindest bei Taktraten von knapp unter 2 GHz einen zu hohen Maximalverbrauch für Smartphones; wohlgemerkt taktet ja auch der 5410 die A15 nur mit maximal 1,6 GHz (und in wie weit diese gehalten werden können, ist auch noch nicht so ganz klar). Die größten Pluspunkte für T4i sind aber wohl das integrierte Modem, die kleinere Die-Size und damit die deutlich geringeren Kosten. Damit ist der T4i wohl einfach die wirtschaftlichere Lösung als ein auf ~1,6 GHz heruntergetakteter T4 für Smartphones.

Die Effizenz der neuesten A9-Kerne (R4) scheint wohl auch sehr vielversprechend zu sein. Der A15 ist zwar konkurrenzlos schnell, aber eben auch sehr hungrig.

T4i ist zweifellos ein mainstream smartphone SoC; wenn ich jetzt aber wieder sage dass er es schwer gegen die QCMM Konkurrenz haben wird bin ich wieder der Suendenbock, ergo halt ich lieber die Klappe damit ich die Sentimente mancher nicht Gott hilf zu frueh verletze.

Ailuros
2013-04-23, 07:18:29
Ich sag mal nur dass bei fruehen Krait SoCs in der firmware (ergo alle bisherigen reviews) das 'C2S independent power collapse CPU idle' NICHT im kernel eingeschaltet ist. Bleibt abzusehen was der Unterschied zwischen *klick* an und *klick* aus genau sein wird.

Nebenbei taktet der Adreno320 im Samsung GalaxyS4 tatsaechlich bei 450MHz. Ich hab eher auf 480MHz getippt, aber auf jeden Fall ist die Frequenz hoeher als default 400MHz. Es ist auch kein besonderes Wunder dass in GLB2.7 das GalaxyS4 smartphone mit dem S600 auf absolutem Gleichstand mit dem iPad4 tablet liegt ;)

GLB2.5 offscreen 1080p:

GalaxyS4/S600 = 40.3 fps
GalaxyS4/5410 = 43.0 fps
iPad4 = 54.4 fps
NV Shield = 54.5 fps

http://gfxbench.com/compare.jsp?D1=Samsung+SGH-I337M&D2=Apple+iPad+4&D3=NVidia+Shield&D4=Samsung+SHV-E300S&cols=4

-----------------------------------------------------------

http://www.fudzilla.com/home/item/31158-qualcomm-has-50%20-snapdragon-600-800-designs

>50 design wins fuer S800 bis jetzt.

-----------------------------------------------------------

http://www.fudzilla.com/home/item/31159-qualcomm-believes-in-windows-for-arm

Another number we got is that the Adreno 330 is up to four times faster than the 225, which is a huge leap forward. Let’s not forget that Snapdragon 800, which is up to 75 per cent faster than Snapdragon S4 Pro, is also coming in mid-year, second half of 2013.

Hugo78
2013-04-30, 19:47:33
S600 vs. Exynos 5 Octa, beide in ansonst identischen Samsung S4.
http://pocketnow.com/2013/04/30/galaxy-s-4-octa-vs-galaxy-s-4-quad-video

Exynos 5 bietet mehr CPU Power und bessere Akkuleistung, das S600 gewinnt im 3D Mark.

Avalox
2013-04-30, 19:59:19
Exynos 5 bietet mehr CPU Power und bessere Akkuleistung, das S600 gewinnt im 3D Mark.

Bei 1,6GHz des Exynos zu 1,9GHz des S600.

Dabei ist der Exynos 5 Octa als Taktwunder gedacht und verliert momentan durch big.LITTLE sogar noch Perfomance. Sehr spannend.

iFanatiker
2013-05-02, 13:59:46
S600 vs. Exynos 5 Octa, beide in ansonst identischen Samsung S4.
http://pocketnow.com/2013/04/30/galaxy-s-4-octa-vs-galaxy-s-4-quad-video

Exynos 5 bietet mehr CPU Power und bessere Akkuleistung, das S600 gewinnt im 3D Mark.

Lies mal das Update durch. Die S600 Variante war nicht mit den gleichen Settings unterwegs. Diese erreicht jetzt eine höhere Akku Laufzeit. :biggrin::biggrin:

dildo4u
2013-05-02, 14:03:48
Samsung scheint die Software mit dem Octacore geplant zu haben ruckelt auf dem S600.(3.25 im Video)

robbitop
2013-05-02, 14:31:50
Schon ein Armutszeugnis, wenn es trotz leistungsfähigem Quadcore auf einem Handy ruckelt.

iFanatiker
2013-05-02, 16:27:57
Samsung scheint die Software mit dem Octacore geplant zu haben ruckelt auf dem S600.(3.25 im Video)

Klar...paar % mehr CPU Leistung führen zu weniger Ruckeln und übrigens ruckelt auch die "Octacore" Variante mehrfach im Video. War schon beim S3 Exynos/QM Version so: alles was die Fronkamera nutzt im TW Framework führt immer wieder zu Lags.

Hugo78
2013-05-02, 18:00:58
Lies mal das Update durch. Die S600 Variante war nicht mit den gleichen Settings unterwegs.
Im Update wird nur der Video-Akkutest behandelt.
Die Settings des Alltags Akkutest (im Artikel verlinktes Youtube ab 5:15min) werden hier nicht wiederrufen.
Diese erreicht jetzt eine höhere Akku Laufzeit. :biggrin::biggrin:

Im Videotest, aber nicht im Alltagsgebrauch.
Der Video Decoder des S600 arbeitet in dem Fall besser.

iFanatiker
2013-05-02, 20:27:57
Im Update wird nur der Video-Akkutest behandelt.
Die Settings des Alltags Akkutest (im Artikel verlinktes Youtube ab 5:15min) werden hier nicht wiederrufen.

Deren "Alltagstest" fand in zwei getrennten Netzen staat (die internationale Version kann nicht im Spirit Netz genutzt werden) und dies in den USA (zum Teil katastrophaler Ausbau der Netze)...somit Aussagekraft = Null. Jeglicher Unterschied kann genauso Netz bedingt sein. Und wieso nur Video Decoder? Das Video wurde gestreamet...somit kann es genauso gut wieder die Radio Einheit sein.

dildo4u
2013-05-02, 20:51:02
So oder so scheint das Konzept 4+4 auch in der Praxis voll aufzugehen,Tegra 4 mit A15 wird wohl nie in Handy's eingesetzt werden.Im Note 3 wird man wohl das volle Potenzial des Octacore sehen,wird interessant ob die LTE Version ein S800 bekommt um mit zu halten.

Ailuros
2013-05-10, 14:37:25
http://www.fonearena.com/blog/68172/samsung-galaxy-s4-snapdragon-600-vs-exynos-5-octa-benchmarks.html

Exynos5410 vs. S600 OCed

mboeller
2013-06-19, 10:12:05
Nette snapdragon 800 benchmarks at engadget:

http://www.engadget.com/2013/06/18/qualcomm-snapdragon-800-mdp-benchmarks/

2.7 T-Rex HD offscreen: 27fps

2.5 Egypt HD offscreen: 69fps

:)

YfOrU
2013-06-19, 12:14:12
Anandtech, S800: Krait 400, Adreno 330:
http://www.anandtech.com/show/7082/snapdragon-800-msm8974-performance-preview-qualcomm-mobile-development-tablet

Die Performance liegt insgesamt durchaus etwas oberhalb meiner Erwartungen. Wenn die Angaben zum Energiebedarf halbwegs zutreffen hat die Konkurrenz wenig zu lachen.

Ailuros
2013-06-19, 12:23:28
Anandtech, S800: Krait 400, Adreno 330:
http://www.anandtech.com/show/7082/snapdragon-800-msm8974-performance-preview-qualcomm-mobile-development-tablet

Keine besondere Ueberraschung. GLB2.7 bei 1460 frames oder ca. 60% schneller als das iPad4.

Nightspider
2013-06-19, 12:28:15
Mit der neue Architektur liegt der S800 sogar vor beiden Samsung GS4 Modelle, also auch vor allen bisherigen A15-SoC Designs:

http://www.anandtech.com/show/7082/snapdragon-800-msm8974-performance-preview-qualcomm-mobile-development-tablet/2

Manchmal kann sich das Nexus 10 noch etwas abheben, wobei ich mich frage wie es das mit 2 Kernen schafft, da es ja nur 100Mhz mehr hat als der Exynos Octa, wenn ich mich nicht irre.

Bei der GPU zersägt der S800 so ziemlich alles:

http://images.anandtech.com/graphs/graph7082/55618.png

mboeller
2013-06-19, 13:32:04
der Vergleich mit dem 15W-Kabini auf Seite 6 bei anandtech ist ja mal :freak:

Jetzt fehlen nur noch die Verbrauchswerte für eine Einschätzung. Tegra4's GPU schaut im Vergleich aber imho ziemlich schlecht aus (bei dem was man über den Tegra4 so weiß).

Ailuros
2013-06-19, 14:00:01
http://forum.beyond3d.com/showpost.php?p=1756089&postcount=426

This graph is pretty much what you have to know: http://images.anandtech.com/doci/708...ormance400.png

By now I'm pretty sure Qualcomm is quoting per-core numbers, so about 1350mW top per core.

That's indeed quite less than the A15 in the 5410. I don't see how the ARM designs will want to compete against such a huge power advantage, the A15's are just too inefficient.

Hab ich mir alles natuerlich in der Vergangenheit vorgestellt :rolleyes: Bleibt abzusehen ob die Behauptungen auch stimmen.

Ronny145
2013-06-20, 15:13:58
Wie hoch liegt der Stromverbrauch vom gesamten SoC?

Ailuros
2013-06-20, 15:20:35
Wie hoch liegt der Stromverbrauch vom gesamten SoC?

Wie QCOM bei fudzilla angegeben haben wollen sie den "TDP" fuer smartphones (S600/S800) bei 2.5-3.0W halten und fuer tablets bis zu 5.0W erlauben. Eigentlich kein TDP mehr sondern nach Intel's Vorschlag eher SDP.

Qualcomm nimmt hier als Massstab eine maximale Geraet-temperatur von bis zu 43C; alles darueber und die Dinger werden wohl throtteln.

Bei wahrem TDP duerfte IMHO ein solcher SoC locker im =/>5W Bereich liegen insgesamt.

Ronny145
2013-06-20, 16:15:06
Ziemlich ungenau. Offizielle Angaben wären mir lieber. Wenn die SDP vergleichbar liegt das doch deutlich über Intels kommenden 2W SDP Tablet SoC.

Ailuros
2013-06-20, 19:53:15
Ziemlich ungenau. Offizielle Angaben wären mir lieber. Wenn die SDP vergleichbar liegt das doch deutlich über Intels kommenden 2W SDP Tablet SoC.

Hier der fudzilla link fuer Qualcomm: http://www.fudzilla.com/home/item/31532-qualcomm-aims-at-25-to-3w-tdp-for-phones

Was soll denn ein heutiges bzw. kommendes tablet genau anrichten um den durchschnittlichen Stromverbrauch nur auf 2W zu halten? Das UI rendern? :freak:

Nightspider
2013-06-24, 04:06:24
Kommt es hin, das Snapdragon S800 in etwa 1/3 der GPU Leistung der Wii-U hat und von der CPU Leistung sogar schneller ist?

robbitop
2013-06-24, 08:10:14
Eher deutlich schneller (GPU+CPU). Man müsste bald im Bereich der Current Gen sein.

Nightspider
2013-06-24, 08:41:36
Die GPU der Wii-U ist aber schneller als bei der Current Gen. Oder hast du gerade nur "Wii" gelesen?

robbitop
2013-06-24, 09:31:55
Oh - ja. Ich habe mich schon bei der Frage gewundert. :D
CPU des Snapdragons ist vermutlich deutlich schneller. 4x Krait @>2x GHz vs 3x Uralt PPC 750 @1,24 GHz.
Von der IPC sind beide vermutlich keine Welten entfernt.

Die WiiU GPU (Latte) hat 550 MHz und 160 320 ALUs. Sind 176 GFlops/s
Adreno 330 hat 450 MHz und 128 ALUs (320 hatte 4x SIMD16 - 330 soll eine Verdopplung der Rechenleistung hinlegen) - sind 115 GFlops/s

Andererseits hat Adreno 330 AFAIK nur 4 TMUs und die Latte hat 16.

Ist also schon ziemlich nah dran.

Ailuros
2013-06-24, 11:50:16
Oh - ja. Ich habe mich schon bei der Frage gewundert. :D
CPU des Snapdragons ist vermutlich deutlich schneller. 4x Krait @>2x GHz vs 3x Uralt PPC 750 @1,4 GHz.
Von der IPC sind beide vermutlich keine Welten entfernt.

Die WiiU GPU (Latte) hat 550 MHz und 160 ALUs. Sind 176 GFlops/s
Adreno 330 hat 450 MHz und 128 ALUs (320 hatte 4x SIMD16 - 330 soll eine Verdopplung der Rechenleistung hinlegen) - sind 115 GFlops/s

Andererseits hat Adreno 330 AFAIK nur 4 TMUs und die Latte hat 16.

Ist also schon ziemlich nah dran.

Nein; sowohl 320 als auch 330 haben beide jeweils 8 TMUs (jetzt frag mich bloss nicht wohin die Treiber die ganze Fuellrate in Echtzeit schlucken denn synthetische Fuellratentests sind zum kotzen niedrig auf den Dingern...) :P

Sonst weiss ich zwar nicht was sie mit den ALUs genau angerichtet haben aber 2 FMACs/ALU lane sind generell theoretisch billiger als 8*SIMD16.

robbitop
2013-06-24, 12:37:27
Ach ist Adreno 330 immernoch 4xSIMD16? Dann vorher nur 1 FLOP pro SP und jetzt 2 FLOPs?
AFAIK ging auch der Takt bei Adreno 330 ggü. 320 ein gutes Stück nach vorn.

Schade, dass die Entwickler nicht einmal grobe Specs veröffentlichen. Weder Rechenleistung noch Takt noch Einheitenanzahl noch Speicherbandbreite. :(

Ailuros
2013-06-24, 14:25:51
Ach ist Adreno 330 immernoch 4xSIMD16? Dann vorher nur 1 FLOP pro SP und jetzt 2 FLOPs?

Keine Ahnung wieviel SIMDs es wirklich sind; ich sagte nur dass es billiger ist 4 FLOPs pro ALU lane zu haben anstatt 2 (2 FMACs sind 4 und nicht 2 FLOPs).

AFAIK ging auch der Takt bei Adreno 330 ggü. 320 ein gutes Stück nach vorn.

320 (Nexus 4 und co.) 400MHz
320 (Galaxy S4, HTC One) 450MHz
330 450MHz

Schade, dass die Entwickler nicht einmal grobe Specs veröffentlichen. Weder Rechenleistung noch Takt noch Einheitenanzahl noch Speicherbandbreite. :(

Speicherbandbreite laesst sich nachschlagen; wenn Du nach Qualcomm's roadmap suchst steht bestimmt drauf was pro SoC unterstuetzt wird.

Fuer die oben erwaehnten Fuellraten:

http://gfxbench.com/compare.jsp?D1=Samsung+GT-I9505+Galaxy+S4&D2=Samsung+Arndale+Board&cols=2

S4 = 8 TMUs * 450MHz
MaliT604 = 4 TMUs * 533MHz :P

Nightspider
2013-06-24, 16:15:33
Oh - ja. Ich habe mich schon bei der Frage gewundert. :D
CPU des Snapdragons ist vermutlich deutlich schneller. 4x Krait @>2x GHz vs 3x Uralt PPC 750 @1,4 GHz.
Von der IPC sind beide vermutlich keine Welten entfernt.

Die WiiU GPU (Latte) hat 550 MHz und 160 ALUs. Sind 176 GFlops/s
Adreno 330 hat 450 MHz und 128 ALUs (320 hatte 4x SIMD16 - 330 soll eine Verdopplung der Rechenleistung hinlegen) - sind 115 GFlops/s

Andererseits hat Adreno 330 AFAIK nur 4 TMUs und die Latte hat 16.

Ist also schon ziemlich nah dran.

Die GPU der Wii-U ist doch etwas schneller als die von PS360 oder?
Dann würde der S800 ja auch nicht sehr weit hinter hinter diesen liegen oder gar auf deren Niveau sein.

Ronny145
2013-06-24, 16:41:51
Xbox360 GPU liegt bei 240 Gflops. Die Wii U GPU müsste deutlich drüber liegen.

robbitop
2013-06-24, 16:44:21
Die X360 hat 48 4D 5D ALUs mit 500 MHz. Also 192 240 GFlops/s.
Latte hat offenbar doch 320 SPs - bedeutet also 352 GFLops/s.
Die Latte ALUs sollten allerdings etwas effizienter arbeiten als die ALUs bei C1.
Latte sollte also ~1,5...2x so schnell sein wie C1, und ca. 3x so schnell wie Adreno 330.
In ca. 2 Jahren sollten wir also Wii U Grafikleistung in SFF haben, bei massiv mehr CPU Leistung (die scheint bei der Wii U ziemlich niedrig dimensioniert zu sein).

Ailuros
2013-06-24, 19:18:27
In ca. 2 Jahren sollten wir also Wii U Grafikleistung in SFF haben, bei massiv mehr CPU Leistung (die scheint bei der Wii U ziemlich niedrig dimensioniert zu sein).

Wenn's nur nach GFLOPs geht vielleicht sogar frueher. Schenk aber noch etwas dazu da QCOM's compiler/Treiber immer noch relativ wenig aus der hw herausholen und eine Konsole doch wohl ihren low level API Vorsprung hat.

Locuza
2013-06-24, 19:20:04
Oh - ja. Ich habe mich schon bei der Frage gewundert. :D
CPU des Snapdragons ist vermutlich deutlich schneller. 4x Krait @>2x GHz vs 3x Uralt PPC 750 @1,4 GHz.

1.24 GHz für die Wiiu-CPU.

Die X360 hat 48 4D 5D ALUs mit 500 MHz.

Sagen wir lieber Vec4+1, anstatt dem flexibleren 5D Modell beginnend ab der R6xx-Series.

robbitop
2013-06-25, 07:53:56
Sagen wir lieber Vec4+1, anstatt dem flexibleren 5D Modell beginnend ab der R6xx-Series.
Das ist mir schon klar. Ich wollte es für eine quick&dirty FLOP Rechnung nur einfach halten.

Mich würde es auch nicht wundern, wenn C1 dank Co/Dual Issue, wie seine Vorgänger, den Vec4 Teil noch etwas weiter aufteilen kann. Ansonsten würde man für viele Pixelshader mind. 1x Kanal verschwenden.

4+1 ist ja hauptsächlich für Vertexshader eingebaut worden.

Ailuros
2013-06-25, 10:41:42
Wie dem auch sei Adreno3xx GPUs sind was die Effizienz der ALUs betrifft naeher an der Wii U GPU als der XBox360 GPU.

Da Samsung wohl OpenCL mit dem Samsung Galaxy S4 starten will, bin ich erstmal neugierig wie sich Adreno320 mit diesem verhaelt.

robbitop
2013-06-25, 11:25:42
Ist bekannt, wie die ALUs der SFF GPUs funktionieren? Also ob es noch klassische "horizontale" SIMDs sind (bis R580), die jewils die Farbwerte/Vektoren eines Quads behandeln oder ob es moderne "vertikale" SIMDs sind, dessen Kanäle unabhängig befüllbar sind (ab G80).

Das machte was die Effizienz anging, ziemlich viel aus.

Ailuros
2013-06-25, 11:30:54
Deshalb bin ich u.a. auch fuer OpenCL tests gespannt in der Hoffnung dass sie mehr verraten koennten ;)

mboeller
2013-06-27, 07:34:13
das ist ja mal wenig erfreulich...für die Konkurrenz ;)

http://www.heise.de/newsticker/meldung/Snapdragon-S800-Qualcomm-fordert-Apple-Nvidia-und-Samsung-heraus-1897365.html

Coremark: 28.715 Coremark-Punkte @ 2,27GHz
zum Vergleich: Nexus 10 ; A15 ; 11.181 Coremark-Punkte @ 1,7GHz

Macht 3,16 Coremark-Punkte pro MHz und Core für den Krait 400 im Vergleich zu 3,29 Coremark-Punkten pro MHz und Core beim A15. Der Krait ist hier also nur um ca. 4% langsamer als ein A15. Der Unterschied ist damit wesentlich geringer als von mir erwartet. Ein A15 mit 2,2GHz wäre damit vergleichbar schnell wie ein Krait 400 @ 2,3GHz.

YfOrU
2013-06-27, 09:52:43
Diese Runde sieht es richtig übel aus. Von Samsung über Sony, LG, Nokia und HTC sind aktuelle Smartphones (abseits von Low-Cost) ohne Qualcomm SoC die Ausnahme.

Auf Basis des S800 wird die Position im Highend Bereich weiter gefestigt und gleichzeitig müsste inklusive S600 ein ordentlicher Marktanteil im Segment der ARM Tablets erreichbar sein.

Meiner Ansicht nach hat Qualcomm ein Niveau erreicht welches sich bezogen auf die Ausführung nahe an Intel bewegt. S600 ist bereits eine sehr gute und ausgewogene Plattform (Smartphone). S800 rundet das Portfolio nach oben weiter ab und adressiert praktisch die letzte Schwachstelle (Skalierbarkeit -> HPm). Abseits des obligatorischen Dramas zur 28nm Einführung werden die Roadmaps zuverlässig abgearbeitet und das hat in diesem Bereich (Konkurrenz) eher Seltenheitswert. Aus dem anfängliche Fiasko (28nm) hat man wohl auch entsprechende Konsequenzen gezogen denn statt 2014 direkt 20nm einzuplanen bekommt S800 noch einen Refresh (mit Adreno 420, 28nm HPm).

Ailuros
2013-06-27, 11:14:24
Keine Ahnung in welche Richtung die Prognosen deuten, aber QCOM wird wohl weiterhin mit einem ziemlich grossen Prozentual dazuwachsen.

Avalox
2013-06-27, 12:49:22
das ist ja mal wenig erfreulich...für die Konkurrenz ;)


Das sieht nicht mehr, oder weniger erfreulich aus für die Konkurrenz wie vorher auf der CPU Seite ausgehen hat.

Seit der Krait Kern erscheinen ist, hat er den selben Coremark pro Kern. Das trifft auf den Ur-Krait, wie auch auf den Krait 200, Krait 300 und auch den Krait 400 zu.

Snapdragon:
S4 Plus war bei 3,03 Coremarks pro Core und MHz.
S300 lag dieser bei 3,06 Coremarks pro Core und MHz.
S400 nun bei 3,16 Coremarks pro Core und MHz.


Es hat sich gar nichts geändert. Der Takt hat sich geändert.

Der Vorteil des Snapdragon 800 ist Shader-starke GPU und der hohe Takt der CPU.


Mich würden mal die SPECints interessieren der CPUs.

fondness
2013-06-27, 12:54:58
Das sieht nicht mehr, oder weniger erfreulich aus für die Konkurrenz wie vorher auf der CPU Seite ausgehen hat.

Seit der Krait Kern erscheinen ist, hat er den selben Coremark pro Kern. Das trifft auf den Ur-Krait, wie auch auf den Krait 200, Krait 300 und auch den Krait 400 zu.

Snapdragon:
S4 Plus war bei 3,03 Coremarks pro Core und MHz.
S300 lag dieser bei 3,06 Coremarks pro Core und MHz.
S400 nun bei 3,16 Coremarks pro Core und MHz.


Es hat sich gar nichts geändert. Der Takt hat sich geändert.

Der Vorteil des Snapdragon 800 ist Shader-starke GPU und der hohe Takt der CPU.


Mich würden mal die SPECints interessieren der CPUs.

Der Vorteil ist die unerreichte Perf/Watt, was auch der Grund ist warum jeder Qualcomm verbaut. Ein Tegra 4 verbraut 5,6,7 Watt für weniger Leistung und Features.

robbitop
2013-06-27, 12:57:43
Krait hat im Gegensatz zu A15 die Balance zwischen IPC und TDP besser hinbekommen. Die etwas schlechtere IPC bekommt man nun durch Takt überbrückt und steht am Ende offenbar immernoch etwas besser da als A15.

Adreno hat sich auch extrem gut entwickelt. Hat die 4xx Serie wieder eine neue µ-Arch?

Ailuros
2013-06-27, 13:29:36
Krait hat im Gegensatz zu A15 die Balance zwischen IPC und TDP besser hinbekommen. Die etwas schlechtere IPC bekommt man nun durch Takt überbrückt und steht am Ende offenbar immernoch etwas besser da als A15.

Adreno hat sich auch extrem gut entwickelt. Hat die 4xx Serie wieder eine neue µ-Arch?

Adreno 4xx ist nach deren roadmap DX11.1 wenn ich mich nicht irre.

Avalox
2013-06-27, 14:04:51
Der Vorteil ist die unerreichte Perf/Watt, was auch der Grund ist warum jeder Qualcomm verbaut. Ein Tegra 4 verbraut 5,6,7 Watt für weniger Leistung und Features.

Ne. Die Attraktivität der Qualcomm SoCs für Hersteller das Funkmodem und die Verfügbarkeit.
Die Perfomance spielt da nicht die erste Rolle, obwohl ich diese gar nicht abstreiten möchte.

Interessant ist doch, das Qualcomm kaum am Krait Kern dreht. Auch der Krait-400 Kern scheint allen Anschein nach nicht wirklich deutliche Verbesserungen erfahren zu haben.

So wie es aussieht ist der A15 Kern auch bei niedrigeren Takt performanter und wird das auch sicherlich heraus stellen können. Was jetzt fehlt ist schlicht ein Wettbewerber mit ordentlichen Funkmodem und auch einer Lieferbarkeit.

Ailuros
2013-06-27, 14:21:45
Ne. Die Attraktivität der Qualcomm SoCs für Hersteller das Funkmodem und die Verfügbarkeit.
Die Perfomance spielt da nicht die erste Rolle, obwohl ich diese gar nicht abstreiten möchte.

Nun stell Dir vor was passiert wenn sie ploetzlich so langsam auch u.a. mit beindruckender Leistung ankommen. Wie sahen ihre ersten Adreno2xx GPUs vor Jahren im Vergleich zur Konkurrenz aus und wie vergleichen sich heute jegliche 3xx gegen dessen Konkurrenten?

Interessant ist doch, das Qualcomm kaum am Krait Kern dreht. Auch der Krait-400 Kern scheint allen Anschein nach nicht wirklich deutliche Verbesserungen erfahren zu haben.

Ist ja auch nur ein refresh der originalen Krait Varianten; um wieviel mehr sollte man denn genau so kurzfristig erwarten?

So wie es aussieht ist der A15 Kern auch bei niedrigeren Takt performanter und wird das auch sicherlich heraus stellen können. Was jetzt fehlt ist schlicht ein Wettbewerber mit ordentlichen Funkmodem und auch einer Lieferbarkeit.

Wird im grossem Bild weniger interessieren als das eigentliche perf/mW Verhaeltnis. Wenn jemand wie Samsung bis zu 90% S600 SoCs benutzt fuer das S4, gibt es momentan welchen anderen smartphone Volumen deal mit A15 cores?

Mediatek hat zwar A15 SoCs auf ihrer roadmap, aber ich bin mir immer noch nicht sicher ob die eher fuer tablets gedacht sind.

Avalox
2013-06-27, 14:33:49
Wird im grossem Bild weniger interessieren als das eigentliche perf/mW Verhaeltnis. Wenn jemand wie Samsung bis zu 90% S600 SoCs benutzt fuer das S4, gibt es momentan welchen anderen smartphone Volumen deal mit A15 cores?



Nicht, dass es jetzt von der Zahl eine Rolle spielt. Ich kenne nur die Zahl 70% und dort mit der Aussage, dass diese ausschliesslich in der Initialen Phase verbaut werden sollten und dann Samsung die Produktion mit eigenen SoCs zunehmend beliefert.

Gibt es dagegen eine erneuerte Aussage?

YfOrU
2013-06-27, 14:58:09
Interessant ist doch, das Qualcomm kaum am Krait Kern dreht. Auch der Krait-400 Kern scheint allen Anschein nach nicht wirklich deutliche Verbesserungen erfahren zu haben.

-> Sweet-Spot für 28nm und ultra-mobile praktisch perfekt getroffen. Skalierung primär über die Fertigung (LP und HPm).


So wie es aussieht ist der A15 Kern auch bei niedrigeren Takt performanter und wird das auch sicherlich heraus stellen können. Was jetzt fehlt ist schlicht ein Wettbewerber mit ordentlichen Funkmodem und auch einer Lieferbarkeit.

Was bringt die höhere IPC wenn die Effizienz zu wünschen übrig lässt ? Falls es an die vorbeigegangen sein sollte ist das S800 Phone MDP ziemlich nahe an Shield. Viel mehr als die halbe TDP kann das MDP dabei unmöglich haben.
Überarbeitete A15 Kerne in 28nm HPm SoCs gibt es kaum vor Ende des Jahres und bis dahin ist der Zug nicht nur abgefahren sondern bei Qualcomm nahezu restlos angekommen.

Nicht, dass es jetzt von der Zahl eine Rolle spielt. Ich kenne nur die Zahl 70% und dort mit der Aussage, dass diese ausschliesslich in der Initialen Phase verbaut werden sollten und dann Samsung die Produktion mit eigenen SoCs zunehmend beliefert.
Gibt es dagegen eine erneuerte Aussage?

Das S4 Mini kommt mit S400, S4 Active mit S600, Note 3 mit S800 und das S4 LTE-A ebenfalls mit S800. Sieht für mich nicht so aus als würden A15 Exynos SoCs in absehbarer Zeit eine ernsthafte Rolle bei Samsung Mobile spielen.

Undertaker
2013-06-27, 15:27:01
Nicht, dass es jetzt von der Zahl eine Rolle spielt. Ich kenne nur die Zahl 70% und dort mit der Aussage, dass diese ausschliesslich in der Initialen Phase verbaut werden sollten und dann Samsung die Produktion mit eigenen SoCs zunehmend beliefert.

Woher hast du das mit den 70%? Der Exynos wird doch ausschließlich in der südkoreanischen Variante des S4 verbaut, die wohl keinesfalls 30% Marktanteil besitzt. Wohl nicht einmal annähernd 10%.

Die eigentlich interessante Frage ist aber, warum das so ist. Es gibt ja Gerüchte, dass der hauseigene 5410 für Samsung wohl teurer ist als der zugekaufte S600. Rein von Perf. und Perf./Watt scheint der Exynos nach den wenigen bekannten Messungen dagegen mehr als konkurrenzfähig - nur weil mancher hier den Cortex A15 als ineffizient und nicht konkurrenzfähig verschreit. Da hat sich seit dem 5250 doch einiges getan. ;)

YfOrU
2013-06-27, 15:51:56
Die eigentlich interessante Frage ist aber, warum das so ist. Es gibt ja Gerüchte, dass der hauseigene 5410 für Samsung wohl teurer ist als der zugekaufte S600. Rein von Perf. und Perf./Watt scheint der Exynos nach den wenigen bekannten Messungen dagegen mehr als konkurrenzfähig - nur weil mancher hier den Cortex A15 als ineffizient und nicht konkurrenzfähig verschreit. Da hat sich seit dem 5250 doch einiges getan. ;)

In Relation zum betriebenen Aufwand ist das Ergebnis des Exynos Octa nicht gerade überzeugend.

- Big.Little Implementierung mit 8 CPU Kernen
- PowerVR GPU statt Mali

Und am Ende steht ein SoC welcher insgesamt gerade so mit einem S600 mithalten kann. Dabei ist 5410 praktisch das A15 Vorzeigemodell denn T4 sieht wohl eher schlechter aus.

Undertaker
2013-06-27, 15:56:01
Nun, was heißt im Verhältnis zum betriebenen Aufwand? Man könnte auch sagen, der S600 kann sich trotz teuer entwickelter Custom-Cores nicht von einer stino-ARM-Lösung absetzen. Und nochmal: Laut einigen Messungen ist der 5410 wohl effizienter als der S600.

Der S800 ist neuer und sollte darum auch entsprechend überlegen sein, S600 und 5410 sind dagegen zeitgleich auf den Markt gekommen.

YfOrU
2013-06-27, 16:20:28
Nun, was heißt im Verhältnis zum betriebenen Aufwand? Man könnte auch sagen, der S600 kann sich trotz teuer entwickelter Custom-Cores nicht von einer stino-ARM-Lösung absetzen.

Wenn die ARM Lösung so toll wäre würde der Markt darin ertrinken - ist sie aber nicht. Im übrigen ist es sehr oberflächlich die Entwicklung der Architektur der Custom Cores auf einen SoC umzulegen.


Und nochmal: Laut einigen Messungen ist der 5410 wohl effizienter als der S600.
So wie hier ?
http://blog.gsmarena.com/battery-tests-for-exynos-5-octa-powered-samsung-i9500-galaxy-s4-complete-here-are-the-results/

dildo4u
2013-06-27, 16:25:50
Talk Time sieht eher danach aus das das Modem saugt als die Cores selber.

YfOrU
2013-06-27, 16:31:24
Talk Time sieht eher danach aus das das Modem saugt als die Cores selber.

Mir ging es um den Rest. Das hier in Relation etwas total schief läuft ist offensichtlich.

Video und Web sind die Paradedisziplin für den Exynos Octa denn die A15 Kerne sollten dabei die meiste Zeit deaktiviert sein. Womit man genaugenommen beim Problem ankommt das die eigentliche Effizienz der A15 Kerne bei konstanter Last nicht betrachtet wurde. Gilt so ziemlich für alle Vergleiche mit der 5410 Variante.

Undertaker
2013-06-27, 16:34:22
Wenn die ARM Lösung so toll wäre würde der Markt darin ertrinken - ist sie aber nicht. Im übrigen ist es sehr oberflächlich die Entwicklung der Architektur der Custom Cores auf einen SoC umzulegen.

So marktbeherrschend wie Qualcomm derzeit ist, bleibt nicht wirklich viel Raum für Alternativen. Welche SoCs in der Leistungsklasse haben wir denn noch? Eigentlich nur T4 (ebenfalls A15, aber bislang noch nicht erhältlich, als niedriger taktende Smartphone-Version schon gleich gar nicht), dann hört es schon auf. Woran soll man die Effizienz von Krait vs. A15 also derzeit messen, wenn nicht an den beiden SoCs des S4?


So wie hier ?
http://blog.gsmarena.com/battery-tests-for-exynos-5-octa-powered-samsung-i9500-galaxy-s4-complete-here-are-the-results/

Hmm, gab es da nicht noch einen anderen Test? Falls mir die Erinnerung hier einen Streich spielen sollte, ziehe ich das Argument natürlich zurück. Wie Dildo schon anmerkte sind die Messungen für einen CPU-Vergleich allerdings auch teilweise suboptimal, da von Videodecoder und/oder Modem beeinflusst. Ich muss aber zugeben, dass sich das nur bei wenigen Benchmarks strikt trennen lässt.

YfOrU
2013-06-27, 16:37:03
Hmm, gab es da nicht noch einen anderen Test? Falls mir die Erinnerung hier einen Streich spielen sollte, ziehe ich das Argument natürlich zurück. Wie Dildo schon anmerkte sind die Messungen für einen CPU-Vergleich allerdings auch teilweise suboptimal, da von Videodecoder und/oder Modem beeinflusst. Ich muss aber zugeben, dass sich das nur bei wenigen Benchmarks strikt trennen lässt.

Hab es oben gerade ergänzt, Problematik der Messung A7 / A15. Kenne leider auch keine Ergebnisse zum 5410 und S600 bei konstanter CPU Last. Im Endeffekt dürften die Messungen (Laufzeit) fast nur A7 betreffen.

Meine Aussage zum betriebenen Aufwand bezog sich auf diese Ergebnisse. Wenn wenigstens mehr Laufzeit bei geringer Last herauskommen würde hätte man wenigstens irgendein Argument.

So marktbeherrschend wie Qualcomm derzeit ist, bleibt nicht wirklich viel Raum für Alternativen. Welche SoCs in der Leistungsklasse haben wir denn noch? Eigentlich nur T4 (ebenfalls A15, aber bislang noch nicht erhältlich, als niedriger taktende Smartphone-Version schon gleich gar nicht), dann hört es schon auf. Woran soll man die Effizienz von Krait vs. A15 also derzeit messen, wenn nicht an den beiden SoCs des S4?


Mehr als grobe Aussagen sind momentan nicht möglich und abseits von 5410 hat es kein A15 SoC in Smartphones geschafft. Die Historie inkl. T4 spricht nicht gerade für A15.

Undertaker
2013-06-27, 17:48:41
Nun, machen wir doch mal den absoluten Leistungsvergleich: Wenn ich nicht irre, lag die CPU-Leistung des 5410 leicht über dem S600 im S4? Die TDP muss wiederum ziemlich ähnlich sein, da beide am TDP-Maximum des gegebenen Systemes arbeiten dürften. Ggf. müsste man dies noch über einen Laufzeitvergleich bei voller Auslastung nachweisen. Dementsprechend sieht die Perf/Watt des A15 für mich zunächst einmal recht konkurrenzfähig aus (irgendwo zwischen S600 und S800).

Btw: T4 ist zunächst nicht für Vergleiche geeignet, zumindest wenn wir beim S4 bleiben. Was genau T4 bei 1,6 GHz (=5410) unter Volllast (CPU) ziehen würde, kann derzeit keiner sagen. Das dürfte sich aber prinzipiell nicht drastisch vom 5410 unterscheiden (wir reden von Volllast!).

Ailuros
2013-06-27, 18:43:15
Woher hast du das mit den 70%? Der Exynos wird doch ausschließlich in der südkoreanischen Variante des S4 verbaut, die wohl keinesfalls 30% Marktanteil besitzt. Wohl nicht einmal annähernd 10%.

Die eigentlich interessante Frage ist aber, warum das so ist. Es gibt ja Gerüchte, dass der hauseigene 5410 für Samsung wohl teurer ist als der zugekaufte S600. Rein von Perf. und Perf./Watt scheint der Exynos nach den wenigen bekannten Messungen dagegen mehr als konkurrenzfähig - nur weil mancher hier den Cortex A15 als ineffizient und nicht konkurrenzfähig verschreit. Da hat sich seit dem 5250 doch einiges getan. ;)

Nein der 5410 hat mehr als nur einen hw bug; dass was vom Laufband kommt und funktioniert wird via sw zu einem quad core kastriert. Der folgende Exynos 5420 kann problemlos alle 8 cores gleichzeitig einschalten.

Als Massstab wuerde ich den 5410 nicht nehmen fuer A15 oder big. LITTLE bei einer so beschissenen Implementierung. Lies mal den 5250 thread bei B3D was Nebu alles zu dem Ding entdeckt hat. Die GPU taktet je nach benchmark hoch und runter und an den CPU Frequenzen wird auch geschummelt. In der Zwischenzeit hat sich so viel peinliche Info darueber gesammelt dass man beruhigt sagen kann, dass sie den 5410 tatsaechlich haetten stornieren sollen.

http://forum.beyond3d.com/showthread.php?t=61267&page=25

Avalox
2013-06-27, 20:15:29
Woher hast du das mit den 70%? Der Exynos wird doch ausschließlich in der südkoreanischen Variante des S4 verbaut, die wohl keinesfalls 30% Marktanteil besitzt.


70% Qualcomm bei der ersten Charge (10 Millionen Geräte) hatte Samsung schon im März verkünden lassen.

http://www.unwiredview.com/2013/03/25/70-of-first-galaxy-s4s-to-come-with-snapdragon-600-cpu-samsung-lsi-couldnt-make-enough-exynos-5-octas-in-time/?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+UnwiredView+%28Unwired+View%29




Die eigentlich interessante Frage ist aber, warum das so ist. Es gibt ja Gerüchte, dass der hauseigene 5410 für Samsung wohl teurer ist als der zugekaufte S600.

Ja. Das kann durchaus sein.

Der Kern und Angelpunkt der Qualcomm SoCs ist das eingebaute Modem. Ich kann mir durchaus vorstellen, dass ein zugekaufter Qualcomm Modemchip + Exynos 5 teurer Samsung kommt, als ein entsprechender Qualcomm SoC mit integrierten Modem, wie eben dem S600.


Das Steckenpferd von Qualcomm sind keine CPUs und auch keine GPUs, es sind die Komponenten fürs Modem.

Ailuros
2013-06-27, 20:23:22
Ich bin jetzt zu faul die links fuer die 9:1 Relation vor kurzem zu finden, aber es ist auch ein Prozentual dass sich im Hintergrund herumspricht. Sonst kostet der 5410 natuerlich mehr fuer Samsung, wenn man bedenkt wie brutal unterirdisch die yields bei der Herstellung der Dinger sind.

Nightspider
2013-07-01, 04:48:56
Also so wie es aussieht läuft der S800 im GS4 mit fast vollen 2,3 Ghz: (2265 Mhz)

http://forum.xda-developers.com/showthread.php?t=2339891

Wenn ich mich nicht irre, liegen die Werte damit genauso hoch wie bei den Wert vom Tablet mit S800, was vor 1-2 Wochen gezeigt wurde.

Ailuros
2013-07-01, 18:10:25
Also so wie es aussieht läuft der S800 im GS4 mit fast vollen 2,3 Ghz: (2265 Mhz)

http://forum.xda-developers.com/showthread.php?t=2339891

Wenn ich mich nicht irre, liegen die Werte damit genauso hoch wie bei den Wert vom Tablet mit S800, was vor 1-2 Wochen gezeigt wurde.

Nochmal perf/mW ist um einiges wichtiger: http://www.androidauthority.com/snapdragon-800-battery-benchmark-galaxy-s4-lte-a-237448/

Nightspider
2013-07-01, 18:13:12
Was für mich wichtiger ist kannst du mir überlassen. ;)

Die Taktrate die ich gepostet habe ist einfach nur eine Tatsache und keine Bewertung.
Zur perf/mW wurde im S4 Thread schon genug geschrieben, auch von mir heute.

Ailuros
2013-07-01, 18:28:28
Was für mich wichtiger ist kannst du mir überlassen. ;)

Die Taktrate die ich gepostet habe ist einfach nur eine Tatsache und keine Bewertung.
Zur perf/mW wurde im S4 Thread schon genug geschrieben, auch von mir heute.

Es war auch nicht an Dich persoenlich gerichtet sondern an die Herrschaften die es nicht glauben wollten dass S800 ein sehr gutes perf/mW ratio haben wird :P

Nightspider
2013-07-01, 18:32:26
Du hast mich zitiert und fingst dein Post mit einem belehrenden: "nochmal:..." an. ;)

Das mit dem guten perf/mW Verhalten war ja schon abzusehen, als die Slides vor Monaten veröffentlich wurden.
Ich bin eher mal gespannt ob Avalox weiter zu seinem Exynos Octa hält.^^

Ailuros
2013-07-01, 18:39:23
Exynos5410 hat zu viele hw bugs dass es je als Massstab dienen koennte; beim kommenden 5420 duerfte es aber wieder stimmen fuer Samsung. Die Frage ist dann eher ob mobile es integrieren wird oder einfach die Nase voll hat von den bisherigen Abenteuern.

robbitop
2013-07-01, 19:42:33
Ist auch sichergestellt worden, dass GPU und CPU auf allen Kernen bei allen Tests die o.g. Taktraten halten und nicht throtteln?

Blediator16
2013-07-01, 21:12:40
http://www.androidauthority.com/snapdragon-800-battery-benchmark-galaxy-s4-lte-a-237448/

Akkulaufzeiten gemessen. Koreanische Quelle.

Nightspider
2013-07-01, 21:14:15
Hatten wir heut erst ~3 Mal ^^

Dytec
2013-07-01, 22:02:32
Das sieht nicht mehr, oder weniger erfreulich aus für die Konkurrenz wie vorher auf der CPU Seite ausgehen hat.

Seit der Krait Kern erscheinen ist, hat er den selben Coremark pro Kern. Das trifft auf den Ur-Krait, wie auch auf den Krait 200, Krait 300 und auch den Krait 400 zu.

Snapdragon:
S4 Plus war bei 3,03 Coremarks pro Core und MHz.
S300 lag dieser bei 3,06 Coremarks pro Core und MHz.
S400 nun bei 3,16 Coremarks pro Core und MHz.


Es hat sich gar nichts geändert. Der Takt hat sich geändert.
[...]

Krait 300 (Qualcomm S600) ist deutlich mehr als ein höher getakteter S4 Plus (solche Sprünge wünschte ich mir gerne bei X86-Architekturen):
http://www.anandtech.com/show/6747/htc-one-review/11

Avalox
2013-07-01, 22:38:27
Snapdragon 800 Pad im Geekbench

http://browser.primatelabs.com/geekbench2/compare/2025974/2063808


Krait 300 (Qualcomm S600) ist deutlich mehr als ein höher getakteter S4 Plus (solche Sprünge wünschte ich mir gerne bei X86-Architekturen):
http://www.anandtech.com/show/6747/htc-one-review/11

Was sich dort getan ist der Speichercontroller.

S4 Plus hat überwiegend (je nach Modell) ein Singel Channel mDDR2 Speicherinterface.
Der S4 PRO dann durchgängig ein Dual Channel mDDR2 Speicherinterface.
Der S600 hat ein Dual Channel mDDR3 Speicherinterface
Der S800 hat ein 800MHz Dual Channel mDDR3 Speicherinterface.

Glaub mir, wenn sich die Speicherbandbreite bei x86 von Version zu Version verdoppelt, tut sich auch dort eine Menge.
Ich habe eine wunderbaren Artikel zur Entwicklung des S4 Pro zum S600.

Naitsabes
2013-07-01, 23:10:44
Und würdest du diesen auch mit uns teilen? ;-)

Avalox
2013-07-01, 23:14:21
Und würdest du diesen auch mit uns teilen? ;-)

Sobald ich diesen wieder gefunden habe.

Ailuros
2013-07-02, 10:29:27
Ist auch sichergestellt worden, dass GPU und CPU auf allen Kernen bei allen Tests die o.g. Taktraten halten und nicht throtteln?

Die Test an fuer sich sind nich schlecht und man kann zumindest gut sehen wie das S800 gegen das S600 S4 genau steht; dafuer sind die S800 Resultate durchaus beindruckend.

Nebenbei hat Exo@B3D auch wieder recht: eine groessere GPU heisst nicht unbedingt mehr Stromverbrauch wenn richtig integriert.

Nightspider
2013-07-02, 10:36:54
Weil eine größere GPU bei gleicher Last in der Regel immer effizienter ist?

Übrigens kommt wohl das S600 in den Nexus 7 Nachfolger - noch ein guter Deal für QualComm.

Ailuros
2013-07-02, 10:48:11
Weil eine größere GPU bei gleicher Last in der Regel immer effizienter ist?

U.a. hast Du erstmal immer vsync an; je schneller man von A zu B kommt desto weniger der Stromverbrauch wenn die Last nicht hoeher ist.

Übrigens kommt wohl das S600 in den Nexus 7 Nachfolger - noch ein guter Deal für QualComm.

Wurde schon des oefteren vor einiger Zeit hinter den Kulissen erwaehnt; etwas anderes waere eine ziemliche Ueberraschung.

Ailuros
2013-07-17, 11:47:23
http://www.fudzilla.com/home/item/31957-qualcomm-about-to-distance-itself-from-intel

"You’ll see a whole bunch of tablets based on Snapdragon 800 in the market this year,” Qualcomm Senior VP Raj Talluri told Bloomberg.

Ailuros
2013-07-25, 12:35:38
Keine Ahnung ob es stimmt, aber definitiv interessant:

http://www.359gsm.com/forum/viewtopic.php?f=127&t=13152

http://s40.radikal.ru/i089/1306/e6/db27c92f3516.jpg

Also wenn sie recht haben:

Adreno320 (S4 PRO):

4*SIMD16@400MHz

Adreno320 (S600):

6*SIMD16@400MHz

Adreno330 (S800):

8*SIMD16@450MHz = 115.2 GFLOPs (wenn man jetzt noch SFUs mitrechnet klar sind es dann schon 129 GFLOPs)

Label
2013-07-25, 14:47:57
Adreno320 (S4 PRO):

4*SIMD16@400MHz

Adreno320 (S600):

6*SIMD16@400MHz

Dann würde Anandtech aber schwer daneben liegen?

http://www.anandtech.com/show/6747/htc-one-review/13

Neosix
2013-07-25, 16:06:08
Hui interessant, ich dachte die 320 wäre im S4pro identisch zu dem S600...

(jetzt bin ich noch trauriger dass Nexus 7-2 kein S600 hat :/ )

Ailuros
2013-07-25, 18:53:08
Dann würde Anandtech aber schwer daneben liegen?

http://www.anandtech.com/show/6747/htc-one-review/13

Ausser ich hab irgend etwas ueberlesen ist sich Anand auch nicht sicher um was es sich genau handelt. Ich hab das Zeug aus einem B3D thread gezogen, wobei mich Rys zwar ueber die T6xx ALUs korrigiert hat aber zu den Adreno GPUs nichts sagte. Muss zwar nicht unbedingt etwas heissen, aber unter normalen Umstaenden hilft er mir immer wenn ich etwas falsch verstanden habe.

Mir waere eigentlich der Fall lieber wo der Adreno 330 96 ALU lanes hat bei 450MHz. Bei 128 und der dementsprechenden Leistung/GFLOP ist das Verhaeltnis ziemlich beschissen. Mal sehen was andere Architekturen zu sagen haben, denn QCOM ist leider nicht fuer die tollsten compiler bzw. Treiber fuer Adrenos bekannt.

Und hier haben die wohl ersten zuverlaessigen Resultate eines Galaxy s4 smartphones mit Adreno330:

http://gfxbench.com/compare.jsp?D1=Samsung+SHV-E330S+Galaxy+S4

QCOM sollte ein Referenz Geraet bauen mit heatsink und fan und es wild hoeher takten wenn schon ein smartphone design so viel erreicht :P

Label
2013-07-25, 19:33:03
Ausser ich hab irgend etwas ueberlesen ist sich Anand auch nicht sicher um was es sich genau handelt.
Schon klar, aber die gehen eben nur von höheren Frequenzen und/oder besserem Temp-Management aus..

so at best we may be talking about a 15% increase in frequencies - or again, just better thermal management (or a combination of the two)

Die identische Bezeichnung spricht ja auch eher für einen identischen Aufbau bei S4pro und S600..

Ailuros
2013-07-25, 19:39:32
Schon klar, aber die gehen eben nur von höheren Frequenzen und/oder besserem Temp-Management aus..

Das komische ist dass Anand sehr gute Beziehungen mit QCOM hat. Aber mit all der Geheimnistuerei generell im Markt halten sie vielleicht auch mit Absicht dicht.

Die identische Bezeichnung spricht ja auch eher für einen identischen Aufbau bei S4pro und S600..

Es ist wahr dass die Resultate besser zum Frequenz-scenario stehen; anders

Adreno320/S4 PRO = 64@400MHz
Adreno320/S600 = 64@450MHz
Adreno330/S800 = 96@450MHz

Aber ausschliessen will ich noch gar nichts.

disap.ed
2013-07-26, 11:04:59
Das heißt S4 Pro und S600 unterscheiden sich "nur" in Frequenz (CPU + GPU) und mDDR2/mDDR3-Speicher?

Avalox
2013-07-26, 11:10:15
Das heißt S4 Pro und S600 unterscheiden sich "nur" in Frequenz (CPU + GPU) und mDDR2/mDDR3-Speicher?

Das wurde doch schon bei der Präsentation des S600 so gesagt. Der S600 soll auch mit DDR2 Speicher, wie der S4 Pro umgehen können. Bleibt also das zusätzliche DDR3 Speicherinterface.
Der Fertigungsprozess bei TSMC wurde zu einem HighPerformance Prozess gewechselt und ermöglicht höhere Taktfrequenzen.

Ich muss mal den Artikel aus dem Urschleim der Produktvorstellung kramen.


Edit: Hier steht es auch. Was nicht im Artikel steht ist das DDR3 Speicherinterface, was der S4 Pro so nicht hat, aber natürlich viel ausmacht.

http://www.pocketpc.ch/c/3662-mwc-2013-exklusiv-qualcomm-snapdragon-600-entspricht-snapdragon-s4-pro.html

Label
2013-07-26, 12:05:16
Das heißt S4 Pro und S600 unterscheiden sich "nur" in Frequenz (CPU + GPU) und mDDR2/mDDR3-Speicher?

At the heart of the Snapdragon 600 platform are four Krait 300 CPU cores and an Adreno 320 GPU. The move from Krait (also known as Krait 200) to Krait 300 CPU cores comes with a handful of microarchitectural level improvements, not all of which have been disclosed publicly at this point. (http://www.anandtech.com/show/6747/htc-one-review/11)

Die "CPU" der S600 kann teilweise deutlich mehr, als die vom S4 Pro...

disap.ed
2013-07-26, 12:20:53
Das wurde doch schon bei der Präsentation des S600 so gesagt. Der S600 soll auch mit DDR2 Speicher, wie der S4 Pro umgehen können. Bleibt also das zusätzliche DDR3 Speicherinterface.
Der Fertigungsprozess bei TSMC wurde zu einem HighPerformance Prozess gewechselt und ermöglicht höhere Taktfrequenzen.

Ich muss mal den Artikel aus dem Urschleim der Produktvorstellung kramen.


Edit: Hier steht es auch. Was nicht im Artikel steht ist das DDR3 Speicherinterface, was der S4 Pro so nicht hat, aber natürlich viel ausmacht.

http://www.pocketpc.ch/c/3662-mwc-2013-exklusiv-qualcomm-snapdragon-600-entspricht-snapdragon-s4-pro.html

Link funktioniert bei mir nicht. Was mich etwas irritiert ist das hier:

http://www.androidpolice.com/2013/07/18/heres-the-sticker-from-the-new-nexus-7-video-showing-what-looks-like-4gb-of-ram/

Der 4GB-Irrtum wird ja unten in den Comments erklärt, aber die DDR3-Angabe dürfte ja stimmen. Das passt doch wieder nicht damit zusammen, dass der S4 Pro nur ein DDR2-Interface hat.

Avalox
2013-07-26, 12:41:21
Link funktioniert bei mir nicht. Was mich etwas irritiert ist das hier:



Das ganze PocketPC.ch funktioniert nicht mehr. Hat wohl den Besucheransturm, nach der Veröffentlichung hier nicht verkraftet. Die Seite wurde "ge3dcentert". :) sollte wohl bald wieder gehen.



Das muss man jetzt alles differenzierter betrachten.


Auch der DualCore SoC des neuen Motorola Moto X fällt ja etwas aus der Reihe.


Ich denke dass S600 und S4 Pro faktisch die selben CPUs haben und der Fortschritt tatsächlich nur im Speicherinterface zu finden ist (abgesehen von irgend welchen evu. Kleinkram).

Dann könnte ich mir vorstellen, dass für das Nexus 7 oder den Moto X spezielle Varianten für genau diese Hersteller kommen. Eben auch ein S4 Pro mit DDR3 Interface. Was ja Ergo nur ein 1,5GHz S600 wäre. Also ein billiger S600, der dann von Qualcomm als S4 Pro verkauft wird.

Genau das Nexus 7 mag ja die These unterstützten, dass der S600 dem S4 Pro entspricht.

YfOrU
2013-07-26, 15:45:37
Der S4 Pro (APQ8064) ist nicht auf LPDDR2 beschränkt sondern unterstützt auch DDR3. LPDDR3 -> S600. Das neue Nexus 7 hat 2GB DDR3.

Feeding the CPU cores is LPDDR2 memory interface, although standard DDR3 can also be used.
http://www.anandtech.com/show/4170/qualcomms-announces-krait-cpu-the-successor-to-scorpion

Der S4 Pro entspricht nicht dem S600. Im übrigen ist der zeitliche Abstand zwischen beiden SoCs deutlich größer als die breite Verfügbarkeit am Markt in Endgeräten suggeriert (Verzögerungen, 28nm TSMC). S600 ist ein ganz normaler Refresh und das betrifft auch die CPU Cores. Man muss hier unbedingt verstehen das der Fokus auf Effizienz steht und deshalb größere IPC Steigerungen nur auftreten wenn das ursprüngliche Design Murks war. Was die Effizienz betrifft ist der S600 dem S4 Pro deutlich überlegen und dementsprechend sehen die Taktfrequenzen trotz tendenziell geringerer TDP aus.

Avalox
2013-07-26, 17:01:10
Der S4 Pro (APQ8064) ist nicht auf LPDDR2 beschränkt sondern unterstützt auch DDR3. LPDDR3 -> S600. Das neue Nexus 7 hat 2GB DDR3.


http://www.anandtech.com/show/4170/qualcomms-announces-krait-cpu-the-successor-to-scorpion



Na ja gut. Anandtech. Damit ist man wieder am Anfang.

Ich kenne nur eine einzige Meldung von Qualcomm selbst, wo geschrieben steht, dass der S4 Pro APQ8064 auch DDR3 Speicher bedienen kann.

Allerdings kann ich spontan kein einziges Gerät erkennen, welches dann auch tatsächlich DDR3 Speicher benutzt. (ausser das Nexus 7 2013, aber das ist ja eben auch neu)
Geschweige denn, dass bei Wikipedia (https://en.wikipedia.org/wiki/Snapdragon_(system_on_chip)#Snapdragon_S4)(ja) und auch andere Quellen (http://www.notebookcheck.com/Qualcomm-Snapdragon-APQ8064A-ARM-SoC.86877.0.html) (ja, ja) von einem Dual DDR2 Speicherinterface sprechen. Sollte das nicht schon längst mal jemanden aufgefallen sein?

Es sei denn, der APQ8064 könnte DDR3 Speicher nur Single-Channel ansprechen und harmoniert deshalb mit den Bandbreiten Angaben und der zweite S4 Pro Typ, der MSM8960T hat definitiv ein DDR2 Speicher Interface und nur dieses.


Das neue Nexus 7 und auch das Moto X sind die einzigen Geräte die ich entsprechend bisher (im Netz) gesehen habe und nicht so richtig ins Schema passen wollen.


@disap.ed

PocketPC ist übrigens wieder da. http://www.pocketpc.ch/c/3662-mwc-2013-exklusiv-qualcomm-snapdragon-600-entspricht-snapdragon-s4-pro.html

YfOrU
2013-07-26, 17:35:54
Na ja gut. Anandtech. Damit ist man wieder am Anfang.

Titel gelesen ? Das ist die Wiedergabe einer Pressemitteilung.


Ich kenne nur eine einzige Meldung von Qualcomm selbst, wo geschrieben steht, dass der S4 Pro APQ8064 auch DDR3 Speicher bedienen kann.

Qualcomm Dev Boards:
http://inforcecomputing.com/product/6400series.html

Avalox
2013-07-26, 17:40:12
Qualcomm Dev Boards:
http://inforcecomputing.com/product/6400series.html

Das Ding ist Stand heute nicht zu bekommen.
Das Nexus 7 2013 hat einen S4 Pro mit DDR3. Das würde ich mal als Fakt gelten lassen.

Aber zeige mir doch mal ein Gerät welches mit S4 Pro und DDR3 Speicher seit der Pressemitteilung von vor über zwei Jahren oben das Licht der Welt erblickt hat und schon verkauft wurde. Ich glaube nicht, dass es an mangelnder Fantasie der Hersteller liegt

Welche APQ8064 Variante von S4 Pro im Nexus 7 und vielleicht im Board oben mal stecken wird, kann doch jetzt niemand sagen.

YfOrU
2013-07-26, 18:07:13
Das Ding ist Stand heute nicht zu bekommen.
Plural und offiziell auf der Qualcomm HP verlinkt.


Aber zeige mir doch mal ein Gerät welches mit S4 Pro und DDR3 Speicher seit der Pressemitteilung von vor über zwei Jahren oben das Licht der Welt erblickt hat und schon verkauft wurde. Ich glaube nicht, dass es an mangelnder Fantasie der Hersteller liegt

Das erste lieferbare Gerät mit S4 Pro ist noch kein Jahr alt und LPDDR2 war Bestandteil der damaligen Referenz und Entwicklungsplattform.

Avalox
2013-07-26, 18:35:14
Plural und offiziell auf der Qualcomm HP verlinkt.


Ja, allesamt noch nicht zu bekommen.



Das erste lieferbare Gerät mit S4 Pro ist noch kein Jahr alt und LPDDR2 war Bestandteil der damaligen Referenz und Entwicklungsplattform.

Was war denn das erste? Das Xiaomi MI2?

Na ja. Alles wenig überzeugend. Ich denke wir werden in Zukunft mal drüber was hören.


Aber das ist ja nur der erste Punkt, der zweite Punkt sind die Unterschiede zwischen S4 Pro (APQ8064) und S600 (APQ8064T)?

Denn selbst wenn der S4 Pro schon immer ein funktionsfähiges, aber aus irgend welchen nicht ersichtlichen Gründen nicht benutztes DDR3 Interface gehabt hat, dann würde das noch eher zur Aussage passen, dass diese beiden sich entsprechen.

"Wie uns ein Mitarbeiter von Qualcomm am MWC-Stand in Barcelona bestätigt hat, handelt es sich beim angeblich neuen Snapdragon 600 nur und eine Art Neuauflage des etwas älteren Snapdragon S4 Pro mit vier Kernen - Technisch gesehen sind der alte S4 Pro und der aktuelle Snapdragon 600 (APQ8064T) vollkommen identisch"
http://www.pocketpc.ch/c/3662-mwc-2013-exklusiv-qualcomm-snapdragon-600-entspricht-snapdragon-s4-pro.html

Hast du eine Quelle die das Gegenteil etwas erläutert?
Aber bitte nichts von Anandtech, oder einen Verweis darauf.

Label
2013-07-27, 08:37:20
Welche APQ8064 Variante von S4 Pro im Nexus 7 und vielleicht im Board oben mal stecken wird, kann doch jetzt niemand sagen.

...the new Nexus 7 switches to Qualcomm’s APQ8064–1AA, a version with 4 Krait 300 CPU cores (yes, Krait 300, not 200) running at up to 1.5 GHz and Adreno 320 graphics. Rather than use a PoP and LPDDR2, this specific APQ8064 variant goes to PCDDR3L–1600 MHz instead, including 4, 4Gb discrete 1.35V SK-hynix DRAM devices off to the side (more on the opposite side of the PCB) adding up to 2 GB of RAM. Qualcomm's Snapdragon S4 Pro and Snapdragon 600 branding gets confused here, although Qualcomm is calling the APQ8064 inside the Nexus 7 (2013) S4 Pro, it's more like an underclocked or lower binned Snapdragon 600.

http://www.anandtech.com/show/7176/nexus-7-2013-mini-review/4

YfOrU
2013-07-27, 11:51:40
Das klingt plausibel und dürfte auch auf die INFORCE Boards zutreffen denn deren Speicherkonfiguration ist identisch.

Kann gut sein das es den alten S4 Pro nur mit PoP LPDDR2 gab.

Ailuros
2013-08-16, 12:12:07
Glueckwunsch an Qualcomm sie haben den Amazon tablet deal geschnappt und somit ein ziemlich gutes Bein in die Tuer des tablet-Markts gestellt:

http://www.fudzilla.com/home/item/32259-new-kindle-fire-hd-sports-2560x1600-display


2560*1600 display:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Amazon+KFAPWA&testgroup=system

1920*1200 display:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=Amazon+KFTHWI&testgroup=system

Ailuros
2013-10-02, 14:15:33
http://www.fudzilla.com/home/item/32695-qualcomm-calls-apple-64-bit-support-a-%E2%80%9Cgimmick%E2%80%9D

Recht hat er schon, aber der A7 ist ob mit oder ohne 64bit nach wie vor ein beindrueckendes Stueck hw. Macht's besser Mr. Chandrasekher-ex-Intel-PR-wasauchimmer oder shut up :)

BlackBirdSR
2013-10-02, 15:12:06
Ich würde auch sagen, dass runde Reifen nutzlos sind, wenn meine noch Ecken haben. Man kann darüber streiten, ob ein aktuelles iphone jetzt heute eine 6 4 Bit ISA braucht, aber man kann mit so einem Umstieg nie früh genug anfangen ;)


http://www.fudzilla.com/home/item/32695-qualcomm-calls-apple-64-bit-support-a-%E2%80%9Cgimmick%E2%80%9D

Recht hat er schon, aber der A7 ist ob mit oder ohne 64bit nach wie vor ein beindrueckendes Stueck hw. Macht's besser Mr. Chandrasekher-ex-Intel-PR-wasauchimmer oder shut up :)

Ailuros
2013-10-02, 15:46:42
Ich würde auch sagen, dass runde Reifen nutzlos sind, wenn meine noch Ecken haben. Man kann darüber streiten, ob ein aktuelles iphone jetzt heute eine 6 4 Bit ISA braucht, aber man kann mit so einem Umstieg nie früh genug anfangen ;)

Wie gesagt technisch gesehen hat er nicht unrecht; es stoert mich auch wenn ich links und rechts von Users lese dass 64bit auf dem 5S angeblich 30% mehr Leistung bringen. Es ist die erweiterte CPU Architektur und derer surrounding logic die zur zusaetzlichen Effizienz fuehrt und nicht 64bit.

Sonst ja eckige Reifen fuer Krait ;)

BlackBirdSR
2013-10-02, 17:19:08
Es ist die erweiterte CPU Architektur und derer surrounding logic die zur zusaetzlichen Effizienz fuehrt und nicht 64bit.

Sonst ja eckige Reifen fuer Krait ;)

Da sind wir uns sowieso einig. Auch beim K8 war es nicht anders. Da war nur der "Vorteil", dass es noch keine 64bit Umgebung gab und keiner auf die Idee gekommen wäre, es liegt alles an den 64bit ;).

Das Beispiel mit eckigen Reifen war wohl schlecht gewählt. Ich wollte Qualcomm nicht die Erfindung des Rades vorenthalten

Nightspider
2013-10-02, 20:25:14
Gibt es schon Gerüchte oder eine Roadmap, wann der Nachfolger vom S800 erscheinen soll und in welcher Form?

robbitop
2013-10-02, 20:30:15
QCOM wird für nächstes Jahr sicher auch einen ARM v8 kompatiblen Krait Nachfolger in petto haben.

deekey777
2013-10-02, 21:14:08
http://news.techworld.com/personal-tech/3471543/apples-64-bit-a7-chip-a-marketing-gimmick-qualcomm-exec-says/
Apple's 64-bit A7 chip a 'marketing gimmick', Qualcomm exec says
Qualcomm is also developing a 64-bit mobile chip, but for chip design and engineering purposes

Ailuros
2013-10-03, 07:03:38
http://news.techworld.com/personal-tech/3471543/apples-64-bit-a7-chip-a-marketing-gimmick-qualcomm-exec-says/

Genau das Gleiche wie im Post 469 oben.

SentinelBorg
2013-10-04, 18:25:06
Wie gesagt technisch gesehen hat er nicht unrecht; es stoert mich auch wenn ich links und rechts von Users lese dass 64bit auf dem 5S angeblich 30% mehr Leistung bringen. Es ist die erweiterte CPU Architektur und derer surrounding logic die zur zusaetzlichen Effizienz fuehrt und nicht 64bit.

Sonst ja eckige Reifen fuer Krait ;)
Hier ein Artikel (http://www.mikeash.com/pyblog/friday-qa-2013-09-27-arm64-and-you.html) der einige Punkte bringt, die zeigen, dass wohl doch einiges am Leistungsgewinn direkt an den 64 Bit hängen. Apple nutzt scheinbar Tagged Pointers in grösserem Umfang um das ganze Speichermanagement (Reference-Counting, Deallocating usw.) bei Objective-C zu verbessern, was sowohl Performance bringt, als auch den Speicherverbrauch senkt (was natürlich von den grösseren Pointern wieder teils gefressen wird). In Dalvik könnte man ähnliche Dinge anstellen um Leistung zu gewinnen.

Ailuros
2013-10-04, 19:34:25
Hier ein Artikel (http://www.mikeash.com/pyblog/friday-qa-2013-09-27-arm64-and-you.html) der einige Punkte bringt, die zeigen, dass wohl doch einiges am Leistungsgewinn direkt an den 64 Bit hängen. Apple nutzt scheinbar Tagged Pointers in grösserem Umfang um das ganze Speichermanagement (Reference-Counting, Deallocating usw.) bei Objective-C zu verbessern, was sowohl Performance bringt, als auch den Speicherverbrauch senkt (was natürlich von den grösseren Pointern wieder teils gefressen wird). In Dalvik könnte man ähnliche Dinge anstellen um Leistung zu gewinnen.

Den Artikel hab ich schon seit einigen Tagen gelesen und es wuerde mich beindrucken wenn ich nicht auf diesen schon hier verlinkt haette. Anscheinend aber kommt der eigentliche Author fuer den erwaehnten Artikel zur folgenden Schlussfolgerung:

The "64-bit" A7 is not just a marketing gimmic, but neither is it an amazing breakthrough that enables a new class of applications. The truth, as happens often, lies in between.

The simple fact of moving to 64-bit does little. It makes for slightly faster computations in some cases, somewhat higher memory usage for most programs, and makes certain programming techniques more viable. Overall, it's not hugely significant.

The ARM architecture changed a bunch of other things in its transition to 64-bit. An increased number of registers and a revised, streamlined instruction set make for a nice performance gain over 32-bit ARM.

Apple took advantage of the transition to make some changes of their own. The biggest change is an inline retain count, which eliminates the need to perform a costly hash table lookup for retain and release operations in the common case. Since those operations are so common in most Objective-C code, this is a big win. Per-object resource cleanup flags make object deallocation quite a bit faster in certain cases. All in all, the cost of creating and destroying an object is roughly cut in half. Tagged pointers also make for a nice performance win as well as reduced memory use.

ARM64 is a welcome addition to Apple's hardware. We all knew it would happen eventually, but few expected it this soon. It's here now, and it's great.

Komischerweise stimm ich dem Author zu und hab auch nichts anderes gemeint nur mit anderen Worten. Was verpass ich gerade?

SentinelBorg
2013-10-05, 21:32:42
Den Artikel hab ich schon seit einigen Tagen gelesen und es wuerde mich beindrucken wenn ich nicht auf diesen schon hier verlinkt haette. Anscheinend aber kommt der eigentliche Author fuer den erwaehnten Artikel zur folgenden Schlussfolgerung:

Komischerweise stimm ich dem Author zu und hab auch nichts anderes gemeint nur mit anderen Worten. Was verpass ich gerade?
Also hier in dem Thread stand der Link nicht und alle deine Posts überwach ich nun nicht. :D Mir ging es nur darum, dass doch einige direkt nutzbare Performance-Gewinne für so ziemlich alle Apps wirklich direkt von den 64 Bit kommen und nicht nur von dem mehr an Registern, den neuen/zusätzlichen Befehlen und so weiter.

Wobei Tagged Pointers natürlich nicht die reine Lehre sind, aber da wohl noch für lange Zeit der effektive Adressraum weit unter 64 Bit bleiben wird, ist das doch ein nützlicher Trick.

Ailuros
2013-10-05, 21:57:45
Also hier in dem Thread stand der Link nicht und alle deine Posts überwach ich nun nicht. :D Mir ging es nur darum, dass doch einige direkt nutzbare Performance-Gewinne für so ziemlich alle Apps wirklich direkt von den 64 Bit kommen und nicht nur von dem mehr an Registern, den neuen/zusätzlichen Befehlen und so weiter.

Das ist was Du verstehen willst; ich und der Author des Artikels oben haben wohl eine andere Meinung, aber es wird wohl auch nicht das erste Mal sein wo Perspektiven angepasst werden. Und da Du eben die Debatte nicht verfolgt hast gibt es auch hier im thread einen Link eines ARM engineers der auch nicht damit uebereinstimmt obwohl es eigentlich in seinem besten Interesse waere.

Sonst muss ich mich entschuldigen es war alles im Apple thread natuerlich ab hier ging die Debatte los:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9934938&postcount=1012

Ailuros
2013-10-09, 09:20:34
http://www.fudzilla.com/home/item/32765-qualcomm-backtracks-on-apple-64-bit-bash

Uh oh....

"The comments made by Anand Chandrasekher, Qualcomm CMO, about 64-bit computing were inaccurate. The mobile hardware and software ecosystem is already moving in the direction of 64-bit; and, the evolution to 64-bit brings desktop class capabilities and user experiences to mobile, as well as enabling mobile processors and software to run new classes of computing devices," a Qualcomm spokesperson told us.

Es waere mal eine Idee dass sie die PR Herren bei Qualcomm ueber solche Themen einig werden.

BlackBirdSR
2013-10-09, 10:14:26
Da hat die PR Abteilung wohl erkannt, was sonst auch schon jeder erkannt hatte, der big Boss hat Mist erzählt.

Ich bin auch eher der Meinung des bald ehemaligen PR Menschen ;)


http://www.fudzilla.com/home/item/32765-qualcomm-backtracks-on-apple-64-bit-bash

Uh oh....



Es waere mal eine Idee dass sie die PR Herren bei Qualcomm ueber solche Themen einig werden.

Ailuros
2013-10-09, 10:18:02
Da hat die PR Abteilung wohl erkannt, was sonst auch schon jeder erkannt hatte, der big Boss hat Mist erzählt.

Ich bin auch eher der Meinung des bald ehemaligen PR Menschen ;)

Herr Chandrasekher ist ex-Intel PR ;)

BlackBirdSR
2013-10-09, 10:30:08
Herr Chandrasekher ist ex-Intel PR ;)

Nicht von dem ex natürlich ;)
Gibt es schon Details zu QMs neuen Chips? Sie müssten ja nicht unbedingt den A57 ähneln...

Ailuros
2013-10-09, 10:34:02
Nicht von dem ex natürlich ;)

Schon klar ich wollte nur betonen dass der "big boss" ex-Intel ist ;)

Gibt es schon Details zu QMs neuen Chips? Sie müssten ja nicht unbedingt den A57 ähneln...

Keine Ahnung; aber wenn ich so zu Swift vs. Krait rueberschiele faellt es mir schwer zu glauben dass es QCOM schafft Cyclone Nivaeu zu erreichen ;)

Ailuros
2013-10-10, 11:43:14
Auch MediaTek im naechsten Jahr mit 64bit CPUs:

http://www.fudzilla.com/home/item/32786-mediatek-talks-cheap-lte-64-bit-socs

Avalox
2013-10-21, 19:03:00
Der ominöse APQ8084 SoC soll im Benchmark abgelichtet worden sein. Passend mit 2,5GHz.


http://www.pocketdroid.net/qualcomm-snapdragon-apq8084-chipset-spotted-antutu-benchmarks-2-5ghz-frequency/

Ailuros
2013-10-24, 18:32:56
http://www.fudzilla.com/home/item/32927-chandrasekher-reassigned-in-wake-of-apple-comment

http://news.cnet.com/8301-13579_3-57609038-37/after-apple-64-bit-a7-criticism-qualcomm-exec-reassigned/

Anand Chandrasekher, is moving to a new role leading our exploration of certain enterprise related initiatives...

:rolleyes:

Ailuros
2013-11-01, 13:31:49
http://www.fudzilla.com/home/item/33021-qualcomm-sees-snapdragons-in-tvs-possibly-consoles

Endlich mal richtig illustriert:

However, Yuen also tried to play down the SoC performance hype. He stressed that mobile devices will never be able to match dedicated gaming consoles, as performance of mobile chips is limited.

"We're never going to build a chip that's faster than a console - in the truest sense," he said.

He went on to point out that the underlying technology will be there, allowing developers to tap the potential of ARM SoCs and deliver a good gaming experience, but these games won’t be mere replicas of console games.

This does not mean Qualcomm is not interested in big-screen gaming. Yuen believes Snapdragon smart TVs could be one of the key growth areas for Qualcomm in the future. In addition, he argued that the idea of Android consoles is coming.

“It may not fully disrupt the console business, but I don't think it's going away," he said.

Nightspider
2013-11-12, 03:47:15
Sind eigentlich schon hinter vorgehaltenen Händen Namen für die neuen SoCs gefallen?

Am interessantesten finde ich im Moment ja die Integration eines 3. Satelitennavigationssystem, dem chinesischen "Compass", und der Integration von H.265.
Zudem sollen wohl zwei WLAN Antennen unterstützt werden und Videos sollen in 1080p mit 120fps möglich sein.

Ebenfalls wird LPDDR3-933, statt LPDDR3-800 wie beim S800.

Im Netz habe ich noch das gefunden:
There are a few other improvements expected to happen in this new Snapdragon chip and probably the most important one is support for 64-bit DDR3 memory bandwidth. The whole chip however is still expected to run on a 32-bit architecture and not 64-bit one like the newest Apple A7.

Was ist mit 64Bit Memory Bandwith gemeint? Anzahl der Kontakte zum DRAM Chip? = dual Channel?
Hatte der S800 nur 32Bit = single channel?

Bei dem Snapdragon S800 war ja der Audio DSP auch neu, welcher den Standbyverbrauch drastisch reduzieren konnte bei Audiowiedergabe. Wäre nett wenn QualComm weiter solche sinnvollen Features integriert, die oft gar nicht mal Erwähnung finden.
Von dem Audio DSP habe ich jetzt auch erst im Nexus 5 Thread erfahren, der wohl erst ab Android 4.4 unterstützt wird.

Mr. Lolman
2013-11-13, 17:25:13
Gibts eigtl. irgendwo genaue technische Daten von Adreno 320 und 330? (oder überhaupt gleich Snapdragon 600 / 800 ). Interessieren würd mich hauptsächlich wie die höhere Rechenleistung zustande kommt. Die CPU vom Snapdragon 800 ist grad mal 20% flotter die GPU hingegen geschätzte >50%.

Beide sind in 28nm gefertigt und TDP-mässig hat man ja auch nicht einen dermaßen großen Spielraum, dass man mal GPU-seitig zB gleich mal 50% mehr Renderpipelines einbauen kann, oder?


EDIT - Die Seiten kenn ich schon, aber leider wird da auch nicht viel verraten:

http://www.qualcomm.com/snapdragon/processors/800-600-400-200/specs
http://www.qualcomm.com/snapdragon/processors/600
http://www.qualcomm.com/snapdragon/processors/800

Ailuros
2013-11-13, 17:48:42
320 = 64 ALU lanes * 400MHz, 8 TMUs
330 = 96 ALU lanes * 450MHz, 8 TMUs

Die Frequenzen sind sowieso nur "dekorativ" weil die Dinger in benchmarks um einiges hoeher zu takten scheinen.

Mr. Lolman
2013-11-13, 18:19:09
320 = 64 ALU lanes * 400MHz, 8 TMUs
330 = 96 ALU lanes * 450MHz, 8 TMUs

Die Frequenzen sind sowieso nur "dekorativ" weil die Dinger in benchmarks um einiges hoeher zu takten scheinen.

Hm. Alles klar. Thx. Im Sgs4 rennt der 320 btw default auf 450MHz und wird für Benchmarks auf 545MHz übertaktet. Najo, bei mir sinds jetzt default 600MHz mit 75mV uv. Selbst der höchste Step (627MHz) geht problemlos. Und dank uv hält sich auch die zusätzliche Verlustleistung ggü Deffaulttakt in Grenzen(1075mV statt 1150mV). Jedenfalls kann man also davon ausgehen dass in Realworldanwendungen ein Adreno 320 @ 600MHz einem Adreno 330 Paroli bieten kann. Gibts btw außer der Hitzeentwicklung und der Akkulaufzeit irgendeinen Grund warum man einzelne Handykomponenten NICHT Ocen sollte? (evtl. irgendwelche auftrtenden Interferenzen, die das Gerät beschädigen können?) Ich hab nämlich schon vor das S4 so 24/7 laufen zu lassen. Denn dank 1105mV@CPU (statt 1212) sollte die Gesamtverlustleistung trotz GPU OC eigentlich insgesamt geringer sein, was ja nach meinem OCVerständnis bedeutet, dass die Settings meinem Handy auch langfristig nicht schaden...

Ailuros
2013-11-13, 18:35:41
Hm. Alles klar. Thx. Im Sgs4 rennt der 320 btw default auf 450MHz und wird für Benchmarks auf 545MHz übertaktet. Najo, bei mir sinds jetzt default 600MHz mit 75mV uv. Selbst der höchste Step (627MHz) geht problemlos. Und dank uv hält sich auch die zusätzliche Verlustleistung ggü Deffaulttakt in Grenzen(1075mV statt 1150mV). Jedenfalls kann man also davon ausgehen dass in Realworldanwendungen ein Adreno 320 @ 600MHz einem Adreno 330 Paroli bieten kann. Gibts btw außer der Hitzeentwicklung und der Akkulaufzeit irgendeinen Grund warum man einzelne Handykomponenten NICHT Ocen sollte? (evtl. irgendwelche auftrtenden Interferenzen, die das Gerät beschädigen können?) Ich hab nämlich schon vor das S4 so 24/7 laufen zu lassen. Denn dank 1105mV@CPU (statt 1212) sollte die Gesamtverlustleistung trotz GPU OC eigentlich insgesamt geringer sein, was ja nach meinem OCVerständnis bedeutet, dass die Settings meinem Handy auch langfristig nicht schaden...

Ein smartphone SoC sollte insgesamt eine TDP von 2-2.5W haben; wenn Dir in solchen Faellen wie oben NUR die GPU bis zu 4W verbratet ist es erstens zwar nett als Hobby aber nicht anwendbar unter normalen Umstaenden. Interessant waere zu sehen wie der Stromverbrauch bei default Frequenzen im Vergleich zu wilden Uebertaktungen nach ein paar Stunden gaming in einem echten anspruchsvollen Spiel aussieht, zu welchen Nebeneffekten es fuehren kann und wie stark das Ding zu throtteln anfaengt, oder ob es sich doch langsam zu warm anfuehlt in der Hand...

Ein smartphone oder ein jegliches mobiles Kleingeraet ist kein PC und hier sollte hauptsaechlich perf/mW der Massstab sein als alles andere. Und ja da all diese Geraete DVFS haben koennte es durchaus sein dass irgendwo irgend etwas schief laeuft.

***edit: die eigentliche Mehrzahl der Geraete mit 320-er GPUs erreichen bei default zwischen 12 und 15+ fps in GLB2.7. Unter den 5 Seiten von solchen Geraeten die die Kishonti-Datenbank auffuehrt geht es nur bei einer Seite >16 fps (20 Geraete pro Seite).

Mr. Lolman
2013-11-14, 09:33:21
DVFS hab ich aktuell testweise deaktiviert, der Governor meines Customkernels kümmert sich brav um die Taktraten und anliegenden Spannungen. Hotplug und die Option für Thermalthrottling ist aber aktiv. Undervolting hab ich btw über die gesamte Frequencytable gesetzt, im Idle ist bloß ein Core mit 189MHz aktiv. Bei einem Touchevent gibts einen Boosttakt auf 918MHz und die restlichen Cores sind weiterhin deaktiviert (solang die Gesamtsystemauslastung halt niedrig genug ist). Rein die GPU verursacht trotz 33% OC nur ~16,5% mehr Verlustleistung gegenüber den Defaulttakt von 450MHz (100 * 600/450 * (1075/1150)²). Das CPU Undervolting auf 1110mV (5mV hab ich nach den gestrigen Tests noch draufgeben müssen, damits auch bei längeren Deadtrigger2@Ultra Sessions stabil bleibt) lässt die DP der CPU auf <84% sinken. Jetzt stellt sich bloß die Frage wie hoch der Anteil der GPU an der Gesamt-TDP des SOCs bei einem durchschnittlichen Spiel ist. Ich versteh außerdem nicht ganz, warum Qualcomm der Meinung ist, das 320MHz der optimale Idletakt für die GPU sind. Nur bei einseitigen CPU-Lastspitzen (ohne GPU-Load) wird der Takt auf 128MHz abgesenkt. Da würd sich imo auch noch ein ganzes Stückchen strom sparen lassen können.

Insgesamt bin ich aber immernoch der Meinung, dass der Stromverbrauch bei meinem Handy unter Volllast ca auf gleichem Niveau ist, wie bei einem Stock-SGS4. Unter Teilllast/Idle ist er ohnehin schon deutlich geringer, da ich div. Touchwiz Bloatware entfernt hab, so dass die Cores meistens am Pennen sind -und wenn mal grad nicht, dann laufen sie even undervolted.
Dead Trigger 2 lässt sich jedenfalls größtenteils wunderbar mit Tegra4-Grafiksettings auf nativem FullHD spielen, was für ein Handy imo voll der Wahnsinn ist. Und auch nach längeren Sessions wird das Handy imo nicht wärmer als mit defaulteinstellungen (eher ists sogar kühler, kann aber auch Einbildung sein)... - Ich glaub ich leg mir jetzt mal ein HDMI Kabel zu, damit ich die Grafik mal auf nem größeren Ausgabegerät sehen kann.

Dass die Adreno320 Performance so breit gefächert ist, find ich auch ein bisschen seltsam. Womöglich liegt das an den jew. Herstellern und deren unterschiedlich ausgeprägten Hang zum Cheaten. Jedenfalls bin ich mit den 20fps in T-Rex recht zufrieden, wobei ausgehend davon, dass die IHVs wie Samsung oder HTC bei ihren ~17fps hier angeblich NICHT cheaten, ja mit 600MHz eigentlich 22fps drinnen sein sollten. ;)

mboeller
2013-11-14, 10:03:48
wie Samsung oder HTC bei ihren ~17fps hier angeblich NICHT cheaten, ja mit 600MHz eigentlich 22fps drinnen sein sollten. ;)

Bandbreitenlimit?

Ailuros
2013-11-14, 10:26:10
DVFS hab ich aktuell testweise deaktiviert, der Governor meines Customkernels kümmert sich brav um die Taktraten und anliegenden Spannungen. Hotplug und die Option für Thermalthrottling ist aber aktiv. Undervolting hab ich btw über die gesamte Frequencytable gesetzt, im Idle ist bloß ein Core mit 189MHz aktiv. Bei einem Touchevent gibts einen Boosttakt auf 918MHz und die restlichen Cores sind weiterhin deaktiviert (solang die Gesamtsystemauslastung halt niedrig genug ist). Rein die GPU verursacht trotz 33% OC nur ~16,5% mehr Verlustleistung gegenüber den Defaulttakt von 450MHz (100 * 600/450 * (1075/1150)²). Das CPU Undervolting auf 1110mV (5mV hab ich nach den gestrigen Tests noch draufgeben müssen, damits auch bei längeren Deadtrigger2@Ultra Sessions stabil bleibt) lässt die DP der CPU auf <84% sinken. Jetzt stellt sich bloß die Frage wie hoch der Anteil der GPU an der Gesamt-TDP des SOCs bei einem durchschnittlichen Spiel ist. Ich versteh außerdem nicht ganz, warum Qualcomm der Meinung ist, das 320MHz der optimale Idletakt für die GPU sind. Nur bei einseitigen CPU-Lastspitzen (ohne GPU-Load) wird der Takt auf 128MHz abgesenkt. Da würd sich imo auch noch ein ganzes Stückchen strom sparen lassen können.

Insgesamt bin ich aber immernoch der Meinung, dass der Stromverbrauch bei meinem Handy unter Volllast ca auf gleichem Niveau ist, wie bei einem Stock-SGS4. Unter Teilllast/Idle ist er ohnehin schon deutlich geringer, da ich div. Touchwiz Bloatware entfernt hab, so dass die Cores meistens am Pennen sind -und wenn mal grad nicht, dann laufen sie even undervolted.
Dead Trigger 2 lässt sich jedenfalls größtenteils wunderbar mit Tegra4-Grafiksettings auf nativem FullHD spielen, was für ein Handy imo voll der Wahnsinn ist. Und auch nach längeren Sessions wird das Handy imo nicht wärmer als mit defaulteinstellungen (eher ists sogar kühler, kann aber auch Einbildung sein)... - Ich glaub ich leg mir jetzt mal ein HDMI Kabel zu, damit ich die Grafik mal auf nem größeren Ausgabegerät sehen kann.

Dass die Adreno320 Performance so breit gefächert ist, find ich auch ein bisschen seltsam. Womöglich liegt das an den jew. Herstellern und deren unterschiedlich ausgeprägten Hang zum Cheaten. Jedenfalls bin ich mit den 20fps in T-Rex recht zufrieden, wobei ausgehend davon, dass die IHVs wie Samsung oder HTC bei ihren ~17fps hier angeblich NICHT cheaten, ja mit 600MHz eigentlich 22fps drinnen sein sollten. ;)

Ist ja alles hoechstinteressant aber wenn egal welches S600 SoC Handy bei einem anspruchsvollen Spiel sagen wir mal unter default 5 Studen aushaelt, aber dann mit 600MHz im allerbesten Fall etwas mehr als 1 Stunde aushaelt dann sollte es klar sein dass irgendwo die Balance gebrochen wird.

Um 17 fps auf dem 320 zu erreichen reicht eine default Frequenz von 400MHz auch nicht mehr aus; es duerften schon hier zumindest 450MHz sein wenn nicht mehr.

Damit man das Ganze wirklich richtig abmessen kann muesste man das power rail der GPU erwischen und dort waehrend jeglichem 3D messen. Anand sagte dass er an einem perf/mW review arbeitet, keine Ahnung ob und wann dieser veroeffentlicht wird.

Die Loesung fuer mehr Leistung in TRex waere IMHO nicht jegliche GPU so hoch zu takten bis es nicht mehr weitergeht, sondern etwas mit um einiges weniger foliage. Dass mobile Entwickler in absehbarer Zeit irgendwann so viel alpha tests in ein mobiles Spiel packen will ich bezweifeln. Es ist wohl eher so dass Kishonti eine "Bruecke" brauchte bis ihr OGL_ES3.0 benchmark Sinn macht und zumindest das bisschen was ich von diesem gesehen habe sieht es wirklich verdammt gut aus.Damit TRex wirklich um einiges schneller wird muessten ULP GPUs um einiges hoehere "Zixel" Fuellraten haben und in dem Bereich sind alle IHVs bis jetzt extrem sparsam. Ich weiss jetzt nicht wieviel die 3-er Adrenos auf die Strasse bringen aber mehr als 32 z/stencil/clock kann ich mir nicht vorstellen.

Bandbreitenlimit?

Es ist nicht so dass Qualcomm die ganze Affaere hinter ihrem Finger versteckt; indirekt haben sie oeffentlich zugegeben dass sie N maximale Temperaturen je nach Fall zulassen. Bei irgend einer Frequenz wird dann schon die maximal angelegte Temperatur fuer X Fall erreicht und ueber 600MHz oder mehr faengt die Skalierung an kleiner zu werden und irgendwo wird schon Null erreicht.

Neben diesem limitiert in TRex zuerst der alpha test Quark wie oben erwaehnt bevor irgend etwas wie Bandbreite einschlaegt.

Nakai
2013-11-14, 13:13:27
320 = 64 ALU lanes * 400MHz, 8 TMUs
330 = 96 ALU lanes * 450MHz, 8 TMUs

Die Frequenzen sind sowieso nur "dekorativ" weil die Dinger in benchmarks um einiges hoeher zu takten scheinen.

Was sagst du dazu? Ist zwar russisch, aber man kann schon was rauslesen.
Oder völliger Bockmist?

http://www.359gsm.com/forum/viewtopic.php?f=127&t=13152

el rey
2013-11-14, 22:30:18
320 = 64 ALU lanes * 400MHz, 8 TMUs
330 = 96 ALU lanes * 450MHz, 8 TMUs

Die Frequenzen sind sowieso nur "dekorativ" weil die Dinger in benchmarks um einiges hoeher zu takten scheinen.

Waren das nicht 2 verschiedene Versionen der 320er?
Im S4 Pro mit 64 Alu lanes und im S600 mit 96 ALU lanes, aber beide mit 400 MHz.
Der 330er hat 128 ALU lanes und taktet mit 450 oder 550 MHz, scheint ja 2 Versionen vom S800 zu geben (lower binned und higher binned ( http://www.androidbeat.com/2013/09/difference-snapdragon-800-2-2ghz-2-3ghz/ )), wobei einer eben in mehreren Bereichen, darunter die GPU, höher getaktet ist.

Mr. Lolman
2013-11-15, 11:10:18
Ist ja alles hoechstinteressant aber wenn egal welches S600 SoC Handy bei einem anspruchsvollen Spiel sagen wir mal unter default 5 Studen aushaelt, aber dann mit 600MHz im allerbesten Fall etwas mehr als 1 Stunde aushaelt dann sollte es klar sein dass irgendwo die Balance gebrochen wird.

5 Stunden Gaming halten standardmäßig wohl die wenigsten Highend Handys aus. Bei den Meisten kann man froh sein, wenn überhaupt 5h Display On möglich sind.

BTW: Auch bei meinem PC acht ich auf Perf./Watt und imo ist mein Smartphone ein Klein-PC. Zumindest bringts alle Vorraussetzungen für einen Klein-PC mit. HDMI Ausgang, Full-HD Auflösung. 64GB SD-Karte. Möglichkeit für Bluetooth Maus und Tastatur. Zwar hätt ich gern , dass die CPU auch so fein zum OCen wie die GPU geht, aber man kann ja nicht alles haben. Denn blöderweise bin ich bei 2052MHz mit 1220mV schon wieder knapp über default Spannung von 1212mV bei 1890Mhz, und das ists mir definitiv nicht wert. 1998Mhz gehen mit 1180mV, 1994 mit 1140. Da bleib ich lieber bei den standardmäßigen 1890Mhz und fahr dafür mit angenehm kühlen 1110mV und spar mit ein paar mW, die ich ggf. für die GPU verbraten kann.

Nur müsst ich mal testen wie lang Gaming am Stück möglich ist - ich schätz mal so 2,5h müssten schon drinnen sein. Außerdem wie gesagt: Wie soll denn die Gesamtbalance nicht mehr passen, wenn die Gesamtverlustleistung ca auf Stock-Niveau ist. (je stärker die CPUs ausgelastet sind, desto geringer ist sie bei mir, vgl. zu stock. Theoretisch 0% CPU Last und 100% GPU Last würden bei mir schlimmstenfalls 16,5% mehr DP erzeugen).