PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ARM - Qualcomm Snapdragon-SoCs


Seiten : 1 2 [3] 4 5 6 7 8 9 10 11

Ailuros
2013-11-15, 15:56:45
Was sagst du dazu? Ist zwar russisch, aber man kann schon was rauslesen.
Oder völliger Bockmist?

http://www.359gsm.com/forum/viewtopic.php?f=127&t=13152


Ich hab wie schon woanders erwaehnt mit dem Kerl schon bei B3D geplaudert und er schnallt wirklich nichts wenn es zu mobilen GPUs kommt. Nach 3 Seiten konnte der Depp immer noch nicht den Unterschied zwischen vector und skalaren ALUs verstehen ergo vergiss es.

5 Stunden Gaming halten standardmäßig wohl die wenigsten Highend Handys aus. Bei den Meisten kann man froh sein, wenn überhaupt 5h Display On möglich sind.

Bekommst Du auf einem iPhone bzw. iPad schon hin. Und es muessen auch nicht unbedingt 5 Stunden sein. Wenn die "normale" Batterielaufzeit N ist und Du hast mit der Uebertakterei nur noch N/5 ist es genau das Gleiche.

BTW: Auch bei meinem PC acht ich auf Perf./Watt und imo ist mein Smartphone ein Klein-PC. Zumindest bringts alle Vorraussetzungen für einen Klein-PC mit. HDMI Ausgang, Full-HD Auflösung. 64GB SD-Karte. Möglichkeit für Bluetooth Maus und Tastatur. Zwar hätt ich gern , dass die CPU auch so fein zum OCen wie die GPU geht, aber man kann ja nicht alles haben. Denn blöderweise bin ich bei 2052MHz mit 1220mV schon wieder knapp über default Spannung von 1212mV bei 1890Mhz, und das ists mir definitiv nicht wert. 1998Mhz gehen mit 1180mV, 1994 mit 1140. Da bleib ich lieber bei den standardmäßigen 1890Mhz und fahr dafür mit angenehm kühlen 1110mV und spar mit ein paar mW, die ich ggf. für die GPU verbraten kann.

Nur müsst ich mal testen wie lang Gaming am Stück möglich ist - ich schätz mal so 2,5h müssten schon drinnen sein. Außerdem wie gesagt: Wie soll denn die Gesamtbalance nicht mehr passen, wenn die Gesamtverlustleistung ca auf Stock-Niveau ist. (je stärker die CPUs ausgelastet sind, desto geringer ist sie bei mir, vgl. zu stock. Theoretisch 0% CPU Last und 100% GPU Last würden bei mir schlimmstenfalls 16,5% mehr DP erzeugen).

Siehe oben; es gab frueher sogar tests dafuer bei Kishonti. Da sie aber zu lange dauerten und sie keiner rennen wollte haben sie sie abgeschafft. Ja ein Tegra3 HTC One+ smartphone konnte nur knapp ueber eine Stunde in benchmark loops aushalten, aber diese sind auch ziemlich grosse Aussnahmen.

Ich spiele zwar extrem selten Spiele auf dem smartphone, aber wenn bei ca. 50-60% Helligkeit (je nach Fall) ein smartphone bei relativ schwerem Gebrauch nicht einen vollen Tag aushaelt, wird es schnell in der Schublade begraben.

Das letzte Mal war Real Racing 3 wobei ich mir eher vorgestellt haette dass es nie und nimmer auf meinem sehr bescheidenen MT6589 laufen wird, aber ich hatte schon so 2-3 Stunden mit dem rumgefummelt und musste immer noch nicht zur Steckdose rennen.

Waren das nicht 2 verschiedene Versionen der 320er?
Im S4 Pro mit 64 Alu lanes und im S600 mit 96 ALU lanes, aber beide mit 400 MHz.
Der 330er hat 128 ALU lanes und taktet mit 450 oder 550 MHz, scheint ja 2 Versionen vom S800 zu geben (lower binned und higher binned ( http://www.androidbeat.com/2013/09/difference-snapdragon-800-2-2ghz-2-3ghz/ )), wobei einer eben in mehreren Bereichen, darunter die GPU, höher getaktet ist.

Der Link erwaehnt nur hoehere Frequenzen welche auch vollkommen stimmen. Es ist wohl eher:

S4 Pro A320 = 64*400MHz
S600 A320 = 64*450MHz

In dem Fall triff die Beschreibung "binning" auch vollkommen zu, da der IHV spezifische "bins" eines chips aussucht wo hoehre Frequenz-Toleranzen moeglich sind. Es ist eben kein "binning" wenn ein GPU block mehr Einheiten hat weil man dafuer auch den ganzen SoC neu auslegen muss.

Sonst ueber S800 klingt mir das Zeug im Link auch nach Duenschiss denn:

MSM8974 = 28LP TSMC
MSM8974AB = 28HPM TSMC

....ergo NICHTS mit binning auch hier sondern nur um einiges niedrigere voltage im zweiten Fall.

Mr. Lolman
2013-11-15, 16:48:36
Bekommst Du auf einem iPhone bzw. iPad schon hin. Und es muessen auch nicht unbedingt 5 Stunden sein. Wenn die "normale" Batterielaufzeit N ist und Du hast mit der Uebertakterei nur noch N/5 ist es genau das Gleiche.


Schon klar. Aber wie kommst du auf die Idee des N/5? Im schlimmsten Fall (0% CPU- und 100% GPU-Last) hat mein Handy 16% mehr Verlustleistung. Im besten Fall (100% CPU- und 0% GPU-Last) 16% weniger. Die GPU rennt mit dem standardmäßigen ondemand Governor und hat meistens die typischen (mMn unverständlich hohen) 320MHz Takt.

EDIT: Real Racing 3 rennt offenbar nichtmal mit der nativen Auflösung. Aber Dead Trigger 2 in nativem Full-HD mit Tegra 4 Grafik kommt schon derb fett... :massa:
EDIT2: Ich spiel am Tag im Schnitt so 45min am Smartphone - die Zeit die ich in der Ubahn hock - und da solls halt möglichst geil rennen. Andererseits brauch ich keine 2 Cores die gleich automatisch dann aktiv sind, sobald ich irgendwas antouch => CPU Governor angepasst. Der 4. Core wird überhaupt erst zugeschaltet, wenn die Last >88% geht. D.h. im Normalfall (bissi I-Net surfen, telefonieren, SMSen) sollte durch die niedrigeren Frequenzen auch der Stromverbrauch zT deutlich niedriger ggü stock ausfallen...

Ailuros
2013-11-15, 16:54:10
Schon klar. Aber wie kommst du auf die Idee des N/5? Im schlimmsten Fall (0% CPU- und 100% GPU-Last) hat mein Handy 16% mehr Verlustleistung. Im Besten Fall (100% CPU- und 0% GPU-Last) 16% weniger. Die GPU rennt mit dem standardmäßigen ondemand Governor und hat meistens die typischen (mMn unverständlich hohen) 320MHz Takt.


Schematisches Beispiel, kann aber durchaus vorkommen. Es wird wohl auch keinen Fall einer 3D Anwendung geben wo die CPU wirklich ueberhaupt nicht belastet wird (0% CPU) oder?

Dass der 320 jetzt auf 320MHz unter 2D laeuft klingt natuerlich verdammt komisch. Kann es sein dass irgend etwas falsch ausliesst in dem Fall?

Mr. Lolman
2013-11-15, 17:06:44
Dass der 320 jetzt auf 320MHz unter 2D laeuft klingt natuerlich verdammt komisch. Kann es sein dass irgend etwas falsch ausliesst in dem Fall?

So weit ich mitbekommen hab, hat das Qualcomm mit Google schon beim Snapdragon4 Pro ausgemacht gehabt. Es gibt auch eigene Custom-Kernels, die die GPU im State5 statt State1 initialisieren, damit sie mit 128MHz läuft. 320MHz ist offenbar aber default (war schon mit Stockrom und Kernel so). Ein Auslesefehler ist natürlich nicht auszuschliessen - ich nutz dafür den Android Tuner - aber in Wahrheit liest der auch nur die Datei sys/kernel/debug/clk/gfx3d_clk aus - und dass die das im Framework schon seit Ewigkeiten als Bug herumschleppen, glaub ich auch nicht ganz...

Schematisches Beispiel, kann aber durchaus vorkommen. Es wird wohl auch keinen Fall einer 3D Anwendung geben wo die CPU wirklich ueberhaupt nicht belastet wird (0% CPU) oder?

Eben. Meistens ist auch die CPU-Last ordentlich hoch (evtl halt nicht alle Cores). Dementsprechend geh ich beim Gamen von 5 bis max 10% mehr Verlustleistung vs. StockSettings aus. Und das ist mMn vertretbar, da es aufgrund der in dem Beispiel nicht 100% ausgelasteten CPU-Cores immernoch unter der max.TDP (100% Last @ alle Cores + GPU) sein sollte.

Ailuros
2013-11-18, 19:53:29
Weiss der Geier was sie genau angestellt haben; das Nexus4 hatte ziemlich ernsthafte throttling Probleme und Geruechte sprachen von einem Problem mit dem Governor. Ob stimmte oder nicht keine Ahnung, aber QCOM ist fuer ihre compiler/Treiber Qualitaet bis jetzt alle andere als beruehmt.

Apropos battery-life mit 3d benchmarks:

http://www.anandtech.com/show/7519/apple-ipad-mini-with-retina-display-reviewed/5

http://images.anandtech.com/graphs/graph7519/60134.png

lumines
2013-11-18, 20:37:25
Der 4. Core wird überhaupt erst zugeschaltet, wenn die Last >88% geht. D.h. im Normalfall (bissi I-Net surfen, telefonieren, SMSen) sollte durch die niedrigeren Frequenzen auch der Stromverbrauch zT deutlich niedriger ggü stock ausfallen...[/i]

Nicht unbedingt. Alle Anwendungen, die starkes Multithreading betreiben, lassen sich mit einem „funktionierenden“ Quad schneller abarbeiten als mit einem Dual Core und daher können sich die Kerne auch schneller schlafen legen. In so einem Fall spart ein Quad Core Akkuleistung.

Avalox
2013-11-18, 22:00:05
Weiss der Geier was sie genau angestellt haben;...

Apropos battery-life mit 3d benchmarks:



Weshalb benutzt Anand die alte Programmversion des Benchmarks?
Vielleicht weil der Battery Test inzwischen wieder aus dem GLBench entfernt wurde? Jetzt müsste man nur noch wissen, weshalb der Hersteller des Benchmarks diesen wieder entfernt hat.

Wie werden denn die anderen Battery Laufzeiten gemessen? Welcher Webbrowser, wie wird denn automatisiert und was ist die Schlussfolgerung des Tests zur Praxis?

YfOrU
2013-11-19, 12:05:54
Weshalb benutzt Anand die alte Programmversion des Benchmarks?

Battery Performance ist eine mit 2.5.1 nachgelieferte Funktion für 2.5.0.


Vielleicht weil der Battery Test inzwischen wieder aus dem GLBench entfernt wurde? Jetzt müsste man nur noch wissen, weshalb der Hersteller des Benchmarks diesen wieder entfernt hat.

Vergleich mal das Veröffentlichungsdatum von 2.5.1 und 2.7. Das sind zwei unterschiedliche Entwicklungszweige.


Wie werden denn die anderen Battery Laufzeiten gemessen? Welcher Webbrowser, wie wird denn automatisiert und was ist die Schlussfolgerung des Tests zur Praxis?

Siehe:
http://www.anandtech.com/show/6330/the-iphone-5-review/13

Going into the iPhone 5 review I knew we needed to change the suite. After testing a number of options (and using about 16.5GB of cellular data in the process) we ended up on an evolution of the battery life test we deployed last year for our new tablet suite. The premise is the same: we regularly load web pages at a fixed interval until the battery dies (all displays are calibrated to 200 nits as always). The differences between this test and our previous one boil down to the amount of network activity and CPU load.

On the network side, we've done a lot more to prevent aggressive browser caching of our web pages. Some caching is important otherwise you end up with a baseband test, but it's clear what we had previously wasn't working. Brian made sure that despite the increased network load, the baseband still had the opportunity to enter its idle state during the course of the benchmark.

We also increased CPU workload along two vectors: we decreased pause time between web page loads and we shifted to full desktop web pages, some of which are very js heavy. The end result is a CPU usage profile that mimics constant, heavy usage beyond just web browsing. Everything you do on your smartphone ends up causing CPU usage peaks - opening applications, navigating around the OS and of course using apps themselves. Our 5th generation web browsing battery life test should map well to more types of smartphone usage, not just idle content consumption of data from web pages.

Avalox
2013-11-19, 13:09:22
Battery Performance ist eine mit 2.5.1 nachgelieferte Funktion für 2.5.0.

Vergleich mal das Veröffentlichungsdatum von 2.5.1 und 2.7. Das sind zwei unterschiedliche Entwicklungszweige.



2.5.1 vom 19. September 2012

2.7.2 vom 17. Juli 2013


Was soll ich da sehen?

Dass es keinen 2.5.1 Benchmark mehr im Angebot gibt sehe ich, die 2.5 Tests sind nämlich alle in Version 2.7 Integriert. Na, ja der Battery Test ist entfernt worden.


Wie kommst du eigentlich auf die Idee? Die scheint mir falsch.


Ok. Wir wollen mal den 2.5.1 Ergebnisse nachvollziehen. Wo gibt es den offiziell noch?



The premise is the same: we regularly load web pages at a fixed interval until the battery dies (all displays are calibrated to 200 nits as always). The differences between this test and our previous one boil down to the amount of network activity and CPU load.


Ah, ha.

Welcher Browser wird denn unter Android verwendet? Der Standardbrowser? Ist dieser vielleicht unterschiedlich?


Es ist eh kein Web Browsing Test, sondern einen "bestimmte Seite Laden Test".
Stellt sich der Test bei anderen Webseiten mit anderen Renderelemeten vielleicht anders dar? Welches Standard-Programm steuert dort eigentlich den Browser?

Stellt sich vielleicht Web Browsing eh ganz anders dar, weil Zoomen und verschieben vielleicht weit mehr Relevanz haben, als blind alle paar Klicks eine Seite neu zu laden?


Die Tests von Anand sind ganz, ganz schwach.

YfOrU
2013-11-19, 13:42:31
2.5.1 vom 19. September 2012

2.7.2 vom 17. Juli 2013

Was soll ich da sehen?

September 19, 2012 -> 2.5.1
October 18, 2012 -> 2.7.0


Dass es keinen 2.5.1 Benchmark mehr im Angebot gibt sehe ich, die 2.5 Tests sind nämlich alle in Version 2.7 Integriert. Na, ja der Battery Test ist entfernt worden.

2.5.1 ist ein Update der 2.5.0 Benchmark Suit.
2.7 ist eine neue Benchmark Suit welche die 2.5 Szenen inkludiert.

Aus deiner Sichtweise heraus würde ich eine entsprechende Funktion für 2.7.x übrigens nicht fordern. Wäre für die Masse an Highend-Android Devices inzwischen sehr blamabel (Boost für Benchmark killt Laufzeit ;)).


Welcher Browser wird denn unter Android verwendet? Der Standardbrowser? Ist dieser vielleicht unterschiedlich?

Dafür ist der Hersteller des Gerätes verantwortlich. Kommt nun mal auch so zum Kunden. Wer über die Maße negativ aus der Reihe fällt bekommt die entsprechende Quittung. Betrifft genauso die Implementierung jeglicher Energiesparfunktionen.


Die Tests von Anand sind ganz, ganz schwach.

Ganz im Gegenteil denn es geht um die Erzeugung typischer Szenarien auf ultra-mobilen Geräten. Also ein Wechsel aus Last und Leerlauf inkl. aktiver Datenverbindung. Ein derart selbst konzipierter Benchmark ist weit aussagekräftiger als 0815 Battery Eater Tools denn diese sind statisch. Optimierungen durch Hersteller sind also immer zu erwarten.

Avalox
2013-11-19, 13:59:10
September 19, 2012 -> 2.5.1
October 18, 2012 -> 2.7.0

2.5.1 ist ein Update der 2.5.0 Benchmark Suit.
2.7 ist eine neue Benchmark Suit welche die 2.5 Szenen inkludiert.


Das will ich ja gar nicht bezweifeln.

Es gibt aber keinen 2.5 Zweig, es gibt überhaupt keinen 2.5.x Benchmark mehr.

Der Nachfolger ist der 2.7, welcher in 2.7.2 aktuell ist und im Entwicklungsprozess irgendwann mal einen kurzeitig, aber sehr schnell wieder entfernten Battery-Test hatte.

Nun poppelt Anand in der Histrorie des Benchmarks eine Uralt Version aus, die älter ist als die getesteten Geräte und verkauft dessen Ergebnisse.


Die erste entscheidende Frage ist, weshalb hat der Hersteller des Benchmarks den Battery Test wieder so schnell entfernt?

Hat er nicht richtig funktioniert? Hat er den Qualitätsansprüchen nicht genügt? War eine Vergleichbarkeit nicht gegeben? Oder war der ganze Test Quatsch und das ist den Hersteller schnell wieder aufgefallen?

Jedenfalls war der Test schneller wieder weg, als er da war.

Wenn man sich das Szenario auch nur mal einen Moment überlegt, was dort getestet wird, dann kann solch ein Test auch nur Quatsch sein.


Die zweite entscheidende Frage ist, weshalb popelt Anand solch eine Obskurität hervor? Kann er es nicht besser? Sind ihn die Klicks wichtiger als Ordentlichkeit? oder sind es gar böse Absichten?


Dafür ist der Hersteller des Gerätes verantwortlich. Kommt nun mal auch so zum Kunden.



Bei einem PC bzw. Notebook würde niemand auf die Idee kommen, mittels eines beliebigen gerade mal da Browsers die Akkulaufzeit des Gerätes zu testen und dann auch noch Web-Browsing Zeit oben drüber zu schreiben.


Nur weil beim iPhone/iPAd der Webbrowser faktisch auf den Safari beschränkt ist, ist die Welt nun mal im Wettbewerb bunter.

Hersteller liefern eigene Browser, Android Standard Browser, Chrome oder neuerdings auch Firefox als Standard Browser.
Dabei ist die Installation des Browsers für den Benutzer weit einfacher, als am o.g. Notebook, weshalb man wohl getrost davon ausgehen kann, dass es keinen Benutzer überfordern sollte.


Bevor man solch ein Blahfasel auf sein Webseite schreibt, sollte man doch wenigstens einmal den Aspekt testen und wenn schon nicht dieses, dann den Test als solches wenigstens titulieren was er ist.


Ganz im Gegenteil denn es geht um die Erzeugung typischer Szenarien. Also ein Wechsel aus Peak Last und Leerlauf.

Wenn es darum ging, dann hat er den Test verfehlt. Weil das Situation Verschieben und Zoomen überhaupt nicht berücksichtigt wird und vor allen werden unterschiedliche Webseiten in unterschiedlichen Techniken überhaupt nicht berücksichtigt.

Der Test lädt nach einen völlig willkürlichen Zeitraum eine Seite neu. Mehr nicht. Das ist nicht Web Browsing.

Zumal dieses auch noch über eine scheinbar selbst erstellte Software erfolgt, welche sich zwangsläufig zwischen den Plattformen unterscheidet. Welchen Einfluss hat denn diese Software?

YfOrU
2013-11-19, 14:20:42
Die erste entscheidende Frage ist, weshalb hat der Hersteller des Benchmarks den Battery Test wieder so schnell entfernt?

Hat er nicht richtig funktioniert? Hat er den Qualitätsansprüchen nicht genügt? War eine Vergleichbarkeit nicht gegeben? Oder war der ganze Test Quatsch und das ist den Hersteller schnell wieder aufgefallen?

Wenn man sich das Szenario auch nur mal einen Moment überlegt, was dort getestet wird, dann kann solch ein Test auch nur Quatsch sein.

Das Ergebnis ist genaugenommen Mist wenn die Gerätehersteller auf max FPS über ein Profil für die Benchmark Suit (Frequenzen, TDP) optimieren. Deshalb ist es eben gut das Anand 2.5.1 mittestet. Somit gibt es hier indirekt die Retourkutsche.


Bei einem PC bzw. Notebook würde niemand auf die Idee kommen, mittels eines beliebigen Browsers die Akkulaufzeit des Gerätes zu testen und dann auch noch Web-Browsing Zeit oben drüber zu schreiben.

Siehe NBC (Surfen über WLAN). Der zum OS zugehörige Browser.


Wenn es darum ging, dann hat er den Test verfehlt. Weil das Situation Verschieben und Zoomen überhaupt nicht berücksichtigt wird und vor allen werden unterschiedliche Webseiten in unterschiedlichen Techniken überhaupt nicht berücksichtigt.

Wie kommst du darauf das hier nur eine fiktive Website immer wieder geladen wird ? Eine lange Schleife aus Snapshots realer Websites ist überhaupt kein Problem. Verschieben bzw. Zoom ist kein besonders anspruchsvoller Workload. Leicht höhere Frequenz und fertig.


Zumal dieses auch noch über eine scheinbar selbst erstellte Software erfolgt, welche sich zwangsläufig zwischen den Plattformen unterscheidet. Welchen Einfluss hat denn diese Software?

Es benötigt überhaupt keine Software. Geht serverseitig per Script inkl. Log.

Avalox
2013-11-19, 14:44:27
Das Ergebnis ist genaugenommen Mist wenn die Gerätehersteller auf max FPS über ein Profil für die Benchmark Suit (Frequenzen, TDP) optimieren.

Was haben die Profile der Hersteller jetzt mit dem Battery Test zu tun, um den es geht?

Und nur, weil das eine System OpenSource ist und man deshalb nachsehen kann, heisst es noch lange nicht, dass es andere Systeme nicht machen, nur weil man nicht hinein sehen darf/kann. Nur mal nebenbei.


Deshalb ist es eben gut das Anand 2.5.1 mittestet. Somit gibt es hier indirekt die Retourkutsche.


Nein das ist schlicht ein unsupportetes Testszenario. Zudem wird es ebenso schlicht fehlerhaft sein, denn der Hersteller wird nicht ohne Grund den Test wieder entfernt haben.


Der zum OS zugehörige Browser.

Hallo? Es gibt keinen OS zugehörigen Browser. Habe ich doch geschrieben.
Das was dem am nächsten kommt ist der Standard Android Browser, aber dieser ist bei den getesteten Geräten überhaupt nicht mitgeliefert. Also bleibt der Browser den der Geräte Hersteller bundelt, unabhängig vom OS und durchaus völlig unterschiedlich und vor allen völlig irrelevant, da durch den Benutzer einfachst zu ändern.

Völlig abwegig eine generelle Aussage abzuleiten.

Es benötigt überhaupt keine Software. Geht serverseitig per Script.

Wie, auch noch eine Anand eigene Seite? Wird denn der Testseiten Inhalt so lange im Inhalt geändert, bis das Ergebnis gefällt?

YfOrU
2013-11-19, 15:27:42
Was haben die Profile der Hersteller jetzt mit dem Battery Test zu tun, um den es geht?

Sehr viel denn hier wird auf Performance und nicht auf Laufzeit optimiert.


Und nur, weil das eine System OpenSource ist und man deshalb nachsehen kann, heisst es noch lange nicht, dass es andere Systeme nicht machen, nur weil man nicht hinein sehen darf. Nur mal so nebenbei.

Wie gesagt, Performance zu Laufzeit spricht eine deutliche Sprache wer über die Maße aggressiv optimiert und/oder eine eher ineffiziente GPU hat.
Wer die GPU Frequenz auf Maximum statisch fixiert sitzt bei einer auf 30FPS limitierten Schleife auf dem falschen Stuhl.


Nein das ist schlicht ein unsupportetes Testszenario. Zudem wird es ebenso schlicht fehlerhaft sein, denn der Hersteller wird nicht ohne Grund den Test wieder entfernt haben.

Ist eine von dir aufgestellte Behauptung welche bezogen auf 2.5.1 durch kein stichhaltiges Argument belegt wird. Wäre dem so würde dieser Test kaum weiterhin breitflächig eingesetzt werden.


Wie, auch noch eine Anand eigene Seite? Wird denn der Textseiten Inhalt so lange geändert, bis das Ergebnis gefällt?

Alle böse, alles Verschwörung. Warum machen das andere genauso und kommen auf ähnliche Ergebnisse ? Seiten per Script frequentiert zu laden ist die mit Abstand eleganteste Lösung.

MSABK
2013-11-19, 15:30:05
Alle böse, alles Verschwörung.

Sobald ein weltoffenes Android nicht vorne ist sowieso.:D

Avalox
2013-11-19, 15:42:52
Sehr viel denn hier wird auf Performance und nicht auf Laufzeit optimiert.


Wir haben uns über einen Battery Test eines veralteten Benchmarks unterhalten. Wieso willst du jetzt auf ein Hardware Profil Thema eines Herstellers wechseln? Zumal du gar nicht ausschliessen kannst, dass Hersteller B es nicht gleich tut. Könnem wir auch gerne drüber diskutieren.


Wie gesagt, Performance zu Laufzeit spricht eine deutliche Sprache wer über die Maße aggressiv optimiert bzw. eine eher ineffiziente GPU hat.

Und das machst du jetzt wie fest? An einem vom Hersteller nach ein paar Tagen zurück gezogenen Benchmark?

Ist eine von dir aufgestellte Behauptung welche bezogen auf 2.5.1 durch kein stichhaltiges Argument belegt wird.

Der Test ist vom Hersteller nach nur einem Monat zurück gezogen worden und das vor über einem Jahr. Genau das habe ich so gesagt.


Wäre dem so würde dieser Test kaum weiterhin breitflächig eingesetzt werden.

Den GLBench Battery Test? Wer den einsetzt hat garantiert nichts Gutes im Sinn.


Alle böse, alles Verschwörung. Warum machen das andere genauso und kommen auf ähnliche Ergebnisse ?

Wenn es alle machen, machen es alle falsch. So einfach. Es machen aber beileibe nicht alle.

Vielleicht mal an der Zeit die Fehler der Anand Tests genauer zu beschreiben.

Ailuros
2013-11-19, 17:46:34
Wir haben uns über einen Battery Test eines veralteten Benchmarks unterhalten. Wieso willst du jetzt auf ein Hardware Profil Thema eines Herstellers wechseln? Zumal du gar nicht ausschliessen kannst, dass Hersteller B es nicht gleich tut. Könnem wir auch gerne drüber diskutieren.

Von "Unterhaltung" sehe ich auf der letzten Seite von Dir relativ wenig; metaphorisch wiederrum ziemlich viel, hat aber mit dem Thema auch hier nichts zu tun.

Und das machst du jetzt wie fest? An einem vom Hersteller nach ein paar Tagen zurück gezogenen Benchmark?

Was genau pass Dir denn an dem Graph denn nicht? Hast Du irgendwelche halbwegs logische Anhaltspunkte die das Gegenteil beweisen?

Der Test ist vom Hersteller nach nur einem Monat zurück gezogen worden und das vor über einem Jahr. Genau das habe ich so gesagt.

Das macht die Benutzung vom benchmark seitens Anand weder illegal noch sind die Resultate nutzlos.

Den GLBench Battery Test? Wer den einsetzt hat garantiert nichts Gutes im Sinn.

Im Gegensatz zu Dir sicher nicht. Ich bin verdammt allergisch gegen sterile Kritik.


Wenn es alle machen, machen es alle falsch. So einfach. Es machen aber beileibe nicht alle.

Vielleicht mal an der Zeit die Fehler der Anand Tests genauer zu beschreiben.

Anand wird ueber das Thema ausfuehrlicher werden und ja es kann Dich schon jetzt brutal "stoeren" gerade eben weil einige Beteiligten in diesem Markt die Tendenz haben froehlich zu cheaten. In dem Fall und gerade da im ULP Markt perf/mW am wichtigsten ist, ist es gerade der Punkt auf den man sich momentan konzentrieren sollte.

Avalox
2013-11-19, 19:20:03
Was genau pass Dir denn an dem Graph denn nicht? Hast Du irgendwelche halbwegs logische Anhaltspunkte die das Gegenteil beweisen?


Ich habe logische Anhaltspunkte die das Gegenteil der Tauglichkeit beweisen und das reicht.
Das Hauptproblem an diesem Test ist, dass er ohne Hintergrund völlig ohne Aussagekraft ist.

Ist der Test vom Hersteller überhaupt konzipiert Systeme zu vergleichen, oder ist es Ziel des Testes Varianten eines Systems zu testen?

Denn der Test subsummiert mindestens zwei konträre Aspekte unter einem Dach. Rechenleistung und Energieverbrauch.

Eigentlich kann man nur den unterschiedlichen Energieverbrauch, bei gleicher Rechenleistung testen, oder man testet die maximal mögliche Rechenleistung bei fixen Energieverbrauch. Wenn beides zusammen vermuschelt wird, bringt es überhaupt nichts.
So undokumentiert, wie dieser Test war, sieht es aber ganz danach aus, dass der unterschiedliche Energieverbrauch und abweichende Rechenleistung gleichzeitig getestet wird.

Es wird also allen Anschein, maximale FPS (also Produktvariabel) gegen den Energiekonsum (ebenfalls Produktvariable) verglichen und das ist ein völlig unbrauchbarer Ansatz. Eine sehr langsame aber energiesparende GPU hätte einen Vorteil, obwohl die schnellere GPU vielleicht bei reduzierter Framerate vielleicht sogar den besseren Energieverbrauch hat.

Solch ein Test müsste also A) entweder die FPS begrenzen und einen Fehler ausgeben, wenn eine Testvariante nicht in der Lage ist die Framerate zu halten.
und/oder B) bei einen definierten Energieverbrauch, die maximale Rechenleistung messen.

Ganz zu schweigen vom Throttling durch die SoC Wärmentwicklung und des Geräte Wärmemanagements. Denn zur Zeit würde das Gerät einen Vorteil haben, welches am schnellsten warm wird und damit am meisten ab-regelt, weil dadurch Strom gespart wird und die gesamt Laufzeit verlängert wird.

Alles das wird nicht beachtet und deshalb hat der Test überhaupt keinen Praxisbezug, da A) die Frameraten von Spielen eh begrenzt sind und B) das System erstmal Stundenlang im Betrieb durchhalten musst.

Und ausserdem ist es extrem unglaubwürdig, dass ein Gerät welches 10 Stunden überwiegend im kurzzeitig unterbrochenen Idle Mode läuft (Webbrowser Test), 7 Stunden in einem ressourcenhungrigen Grafikbenchmark durchhalten soll, bei welchen die CPU/GPU unter Dauer-Volllast läuft.


Spätestens dort sollte man mal genauer hinsehen.

Nicht vergessen, der Hersteller hat den Test zurück gezogen. Man bekommt diesen Test auf keinen vom Hersteller vergesehenen Weg mehr und damit ist es tatsächlich unseriös diesen zu verwenden, weil damit natürlich die Nachvollziehbarkeit solch eines Testes nicht gegeben ist. Die getesteten Geräte sind nahezu alle nicht vom Hersteller des Tests überhaupt freigegeben, die Bedingungen des Tests unsupportet.

Das ist ein Problem, auch selbst, wenn durch irgend einen Zufall oder Konstellation das Ergebnis des Grafen recht genau sein sollte, denn es ist ein generelles Problem des Tests, welcher radikal als Fehler in Zukunft immer aufschlagen kann.

Und zum Schluss. Anand produziert reihenweise fragwürdige Tests, aber das Thema hatten wir vor Monden schon mal.

YfOrU
2013-11-19, 19:28:20
30 fps Limit und welche GPU im Mittel darunter liegt ist nun wirklich nicht schwer festzustellen.

N0Thing
2013-11-20, 01:58:29
Sobald ein weltoffenes Android nicht vorne ist sowieso.:D

Man muß nur warten bis ein Windows-Gerät noch hinter einem Android-Gerät landet, dann wird der Benchmark schon wieder was taugen. :rolleyes:

Ailuros
2013-11-20, 09:49:31
Ich habe logische Anhaltspunkte die das Gegenteil der Tauglichkeit beweisen und das reicht.

Das mag vielleicht fuer Dich persoenlich und Deiner ausgekaspelten Welt reichen aber Webseiten wie Anand forschen zumindest anstaendig in Echtzeit nach.

Das Hauptproblem an diesem Test ist, dass er ohne Hintergrund völlig ohne Aussagekraft ist.

Ja aber sicher nur weil die Resultate zufaellig NICHT in deine Vorstellung passen. Wie viele aehnliche Echtzeit tests hast Du genau vorgenommen die so etwas bestaetigen oder verneinen koennten?

Ist der Test vom Hersteller überhaupt konzipiert Systeme zu vergleichen, oder ist es Ziel des Testes Varianten eines Systems zu testen?

Denn der Test subsummiert mindestens zwei konträre Aspekte unter einem Dach. Rechenleistung und Energieverbrauch.

Eigentlich kann man nur den unterschiedlichen Energieverbrauch, bei gleicher Rechenleistung testen, oder man testet die maximal mögliche Rechenleistung bei fixen Energieverbrauch. Wenn beides zusammen vermuschelt wird, bringt es überhaupt nichts.
So undokumentiert, wie dieser Test war, sieht es aber ganz danach aus, dass der unterschiedliche Energieverbrauch und abweichende Rechenleistung gleichzeitig getestet wird.

Warum wendest Du Dich nicht mal ausnahmsweise selber an Anandtech und fragst die Authoren was sie genau angestellt haben?

Es wird also allen Anschein, maximale FPS (also Produktvariabel) gegen den Energiekonsum (ebenfalls Produktvariable) verglichen und das ist ein völlig unbrauchbarer Ansatz. Eine sehr langsame aber energiesparende GPU hätte einen Vorteil, obwohl die schnellere GPU vielleicht bei reduzierter Framerate vielleicht sogar den besseren Energieverbrauch hat.

Solch ein Test müsste also A) entweder die FPS begrenzen und einen Fehler ausgeben, wenn eine Testvariante nicht in der Lage ist die Framerate zu halten.
und/oder B) bei einen definierten Energieverbrauch, die maximale Rechenleistung messen.

Ganz zu schweigen vom Throttling durch die SoC Wärmentwicklung und des Geräte Wärmemanagements. Denn zur Zeit würde das Gerät einen Vorteil haben, welches am schnellsten warm wird und damit am meisten ab-regelt, weil dadurch Strom gespart wird und die gesamt Laufzeit verlängert wird.

Alles das wird nicht beachtet und deshalb hat der Test überhaupt keinen Praxisbezug, da A) die Frameraten von Spielen eh begrenzt sind und B) das System erstmal Stundenlang im Betrieb durchhalten musst.

Und ausserdem ist es extrem unglaubwürdig, dass ein Gerät welches 10 Stunden überwiegend im kurzzeitig unterbrochenen Idle Mode läuft (Webbrowser Test), 7 Stunden in einem ressourcenhungrigen Grafikbenchmark durchhalten soll, bei welchen die CPU/GPU unter Dauer-Volllast läuft.


Spätestens dort sollte man mal genauer hinsehen.

Nicht vergessen, der Hersteller hat den Test zurück gezogen. Man bekommt diesen Test auf keinen vom Hersteller vergesehenen Weg mehr und damit ist es tatsächlich unseriös diesen zu verwenden, weil damit natürlich die Nachvollziehbarkeit solch eines Testes nicht gegeben ist. Die getesteten Geräte sind nahezu alle nicht vom Hersteller des Tests überhaupt freigegeben, die Bedingungen des Tests unsupportet.

Das ist ein Problem, auch selbst, wenn durch irgend einen Zufall oder Konstellation das Ergebnis des Grafen recht genau sein sollte, denn es ist ein generelles Problem des Tests, welcher radikal als Fehler in Zukunft immer aufschlagen kann.

Und zum Schluss. Anand produziert reihenweise fragwürdige Tests, aber das Thema hatten wir vor Monden schon mal.

Einen Haufen sinnloses Geblubber der sich konstant um den Brei dreht wie man es von Dir im mobilen Forum schon seit einiger Zeit gewohnt ist. Wenn etwas wirklich fragwuerdig insgesamt als Identitaet ist bist es Du.

Avalox
2013-11-20, 11:49:44
Das mag vielleicht fuer Dich persoenlich und Deiner ausgekaspelten Welt reichen aber Webseiten wie Anand forschen zumindest anstaendig in Echtzeit nach.


Du brauchst nicht Echtzeit zu betonen, denn Schlamperei rechtfertigt auch Zeitdruck nicht.

Ja aber sicher nur weil die Resultate zufaellig NICHT in deine Vorstellung passen. Wie viele aehnliche Echtzeit tests hast Du genau vorgenommen die so etwas bestaetigen oder verneinen koennten?

Ich weiß ja nicht, was du dir so den Tag vorstellst.
Vorstellung hat aber nun mal gar nichts in solch einen Test zu suchen, dieser muss nachvollziehbar sein und wir reden hier immer noch über den Test an sich und nicht über die Resultate.

Warum wendest Du Dich nicht mal ausnahmsweise selber an Anandtech und fragst die Authoren was sie genau angestellt haben?


Nein, ich werde mich auch diesmal nicht an Anandtech wenden. Ist doch wohl nicht zuviel verlangt, solch einen Test etwas zu beschreiben, erst Recht dann wenn die Testsoftware eine Eigenentwicklung ist, bzw. eine völlig veraltete Software verwendet wird.

Die zwei Punkte sind völlig ohne Diskussion und deshalb brauchst du nicht Qualcomm, oder Anandtech verteidigen, oder was immer du oben glaubst, was ich denke.

Ailuros
2013-11-20, 15:42:33
Du brauchst nicht Echtzeit zu betonen, denn Schlamperei rechtfertigt auch Zeitdruck nicht.

Es gibt hinter den Kulissen deutliche Indizien dass Qualcomm in benchmarks radikal die GPU Frequenzen hochtreibt und es hat QCOM auch nie verleugnet. Da dieses zweifellos die Batterie-Laufzeit beinflusst werden sich solche tests in Zukunft anhaeufen und dann koennen QCOM und Samsung froehlich weiterbescheissen und Du es auch gerne segnen.

Ich weiß ja nicht, was du dir so den Tag vorstellst.
Vorstellung hat aber nun mal gar nichts in solch einen Test zu suchen, dieser muss nachvollziehbar sein und wir reden hier immer noch über den Test an sich und nicht über die Resultate.

Es gibt fast keinen User mehr im mobilen Forum der sich NICHT Deine persoenliche agenda fuer den ULP Markt deutlich eingepraegt hat. Es ist schon im Bereich des peinlichen aber ich hab auch keine Hoffnung dass Du es irgendwo einsehen wirst und mal ausnahmsweise Deine Polemik etwas drosselst.

Nein, ich werde mich auch diesmal nicht an Anandtech wenden. Ist doch wohl nicht zuviel verlangt, solch einen Test etwas zu beschreiben, erst Recht dann wenn die Testsoftware eine Eigenentwicklung ist, bzw. eine völlig veraltete Software verwendet wird.

Ich wuesste auch keinen besonderen Grund warum jemand wie Anand Dir antworten wuerde, aber es geht hier lediglich darum dass Du mich ueber Erlaeuterungen fragst fuer etwas ueber dass ich keine Details haben kann.

Die zwei Punkte sind völlig ohne Diskussion und deshalb brauchst du nicht Qualcomm, oder Anandtech verteidigen, oder was immer du oben glaubst, was ich denke.

Ich hatte hier eine sehr gute Debatte mit Lolman und Du bist mir hier wie der Elephant ins Glashaus getrampelt und hast mal wieder Deinen Bloedsinn herumgeschmissen. Der graph war lediglich eine Indizie zu dem was wir diskuttiert haben und gegen das hast Du natuerlich nichts zu sagen bzw. Dich aufs eingetliche Thema zu konzentrieren sondern kommst mir mal wieder mit den angeblichen "sachlichen" Bumsargumenten umd mit Deinem Scheiss mit dem Kopf durch die Wand zu knallen. Tschuldigung aber nein.

Wenn jemand mit der Erfahrung von Lolman eine Adreno320 GPU vom eigentlichen default 400MHz sogar auf 600MHz treiben kann ohne besondere Probleme dann wird es den Stromverbrauch und Batterielaufzeit analog beinflussen.

So und da ich den thread auf Trab und OT haben will zurueck zum eigentlichen Thema denn QCOM hat gerade ihre naechste SoC Generation angekuendigt:

http://www.prnewswire.com/news-releases/qualcomm-technologies-announces-next-generation-qualcomm-snapdragon-805-ultra-hd-processor-232643031.html

http://www.prnewswire.com/news-releases/qualcomm-technologies-announces-fourth-generation-3glte-multimode-modem-and-rf-transceiver-chip-232642981.html

Snapdragon 805:

* Krait 450 bis zu 2.5GHz
* DX11.x Adreno420 um 40% mehr GPU Leistung im Vergleich zum 330.
* Bis zu 25.6 GB Bandbreite.

Avalox
2013-11-20, 16:45:28
Es gibt hinter den Kulissen deutliche Indizien dass Qualcomm in benchmarks radikal die GPU Frequenzen hochtreibt und es hat QCOM auch nie verleugnet. Da dieses zweifellos die Batterie-Laufzeit beinflusst werden sich solche tests in Zukunft anhaeufen und dann koennen QCOM und Samsung froehlich weiterbescheissen und Du es auch gerne segnen.


Ich habe es gelesen.

Ich Frage mich nur was du erwartest? Auf dem PC sind, nennen wir es mal Anwendungs-individuelle-Optimierungen der Grafiktreiber absolut normal.

Auf dem PC haben wir eine ähnliche Situation wie beim Fahrrad Sport. Alle sind gedopt und in diesem alle hat man wieder die Vergleichbarkeit, so blöd das auch scheinen mag, aber wer besser dopt ist wie immer im Vorteil und weil alle gleich maximal Doping betreiben ist es wieder vergleichbar.

Die Batterielaufzeit beeinflusst im Bezug auf was? Das was du messen kannst ist höchstens eine Batterielaufzeit in einem Benchmark. Wer braucht aber in der Praxis einen Benchmark, der wenig Energie verbraucht?
Und man muss allerdings immer davon ausgehen, dass diese Messung wieder selbst korrumpiert ist. Du willst mit einem Benchmark den du als vom System korrumpiert ansiehst, das System überführen. Das geht nicht, weil dir niemand garantiert, dass derjenige den es nicht betrifft nicht einfach nur geschickter sein System korrumpiert.

Auf dem PC ist man ja nicht zuletzt deshalb dazu übergegangen direkt im Spiel zu messen. Frameratenveräufe im Spiel zu messen hat den Vorteil, dass dieser Wert tatsächlich einen praktischen Nutzen für den Betrachter hat. Der Benutzer sieht direkt mit welcher Performance und Qualität, er wie Lange dieses Spiel spielen kann. Das ist sinnvoll.

Anstatt irgend welche ominösen nicht mehr supporteten und Jahre veraltete Benchmaks zu nutzen, sollte man doch lieber sehr gezielt Basis Benchmarks nutzen, um zu schauen ob solch ein Kandidat über seiner theoretisch möglichen Bandbreite liegt.

Aber das was fehlt ist Transparenz, aber genau diese will Qualcomm nicht und steht deshalb schon seit Urzeiten massiv in der Kritik und dazu war nicht mal ein Benchmark nötig.

Wenn Anand mal wieder schwach testet, werde ich es auch ansprechen.

Ailuros
2013-11-20, 17:25:30
Ich habe es gelesen.

Ich Frage mich nur was du erwartest? Auf dem PC sind, nennen wir es mal Anwendungs-individuelle-Optimierungen der Grafiktreiber absolut normal.

Sind sie es eben nicht. Denn wenn egal welcher IHV einen TDP von bis zu N Watt angiebt dann wird dieser erstmal nicht ueberschritten und zweitens hast Du auf einer desktop GPU nicht X maximale Temperaturen fuer Spiele und X*2 maximale Temperaturen fuer benchmarks.

Es gibt momentan smartphone SoCs - bei denen man unter normalen Umstaenden einen gesamten maximalen SoC Verbrauch von 2-2.5W (TDP) erwartet und fuer tablets dann bis zu 5W. Wenn mir jetzt ein Hersteller in einem smartphone alleine die GPU aber nur in benchmarks auf 4W Verbrauch treibt ist es inwiefern vergleichbar zu dem was ich heute von einer jeglichen PC GPU bekomme?

Das eigentliche "Pech" ist eigentlich mehr dass der ULP SoC Markt noch keine wahren TDPs etabliert hat. Stattdessen haben wir zwielichtige "Phaenomaene" wie Intel's SDP welches seit neuestem auch AMD leider zu benutzen scheint.


Auf dem PC haben wir eine ähnliche Situation wie beim Fahrrad Sport. Alle sind gedopt und in diesem alle hat man wieder die Vergleichbarkeit, so blöd das auch scheinen mag, aber wer besser dopt ist wie immer im Vorteil und weil alle gleich maximal Doping betreiben ist es wieder vergleichbar.

Nicht dass ich wuesste und ich kann mich nichtmal in den 90'er Jahren an einen aehnlichen so absurden Fall erinnern.

Die Batterielaufzeit beeinflusst im Bezug auf was? Das was du messen kannst ist höchstens eine Batterielaufzeit in einem Benchmark. Wer braucht aber in der Praxis einen Benchmark, der wenig Energie verbraucht?
Und man muss allerdings immer davon ausgehen, dass diese Messung wieder selbst korrumpiert ist. Du willst mit einem Benchmark den du als vom System korrumpiert ansiehst, das System überführen. Das geht nicht, weil dir niemand garantiert, dass derjenige den es nicht betrifft nicht einfach nur geschickter sein System korrumpiert.

Dann nimm Dir einfach zwei beliebige Geraete aus dem Graph und vergleich sie in einem anspruchsvollen Spiel bei gleichen settings/Aufloesung etc. und wir werden dann schon sehen ob alles wirklich auf dem gleichen Nivaeu liegt.


Anstatt irgend welche ominösen nicht mehr supporteten und Jahre veraltete Benchmaks zu nutzen, sollte man doch lieber sehr gezielt Basis Benchmarks nutzen, um zu schauen ob solch ein Kandidat über seiner theoretisch möglichen Bandbreite liegt.

Hoer mir mit dem Mist auf. GLB2.5 ist dank seiner hohen Geometrie-Rate immer noch um ein gutes Stueck anspruchsvoller als heutige mobile Spiele, Kishonti hat die battery tests zurueckgezogen weil man sie erstens fast keiner laufen liess weil sie eine Ewigkeit dauerten und zweitens weil die Helligkeit auf allen Geraeten nicht gleich ist. Anand hat aber die Helligkeit auf allen benutzten Geraeten auf 200 nits genau verifiziert.

Aber das was fehlt ist Transparenz, aber genau diese will Qualcomm nicht und steht deshalb schon seit Urzeiten massiv in der Kritik und dazu war nicht mal ein Benchmark nötig.

Und wenn Anand mal wieder schwach testet, werde ich es auch ansprechen.

Es aendert nichts daran dass ich den Graph nur dazu benutzt habe als zusaetzliche Indizie zu dem was ich anfangs behauptet habe. Ein iPad-egal was wird Dir bei 3D gaming laenger durchhalten als ein (2013) Nexus7, zum Teil spielt auch die Batteriegroesse hier mit aber die kann der Leser auch jederzeit nachschlagen.

Ein S800 SoC smartphone im Gegensatz mag zwar heute auf der GPU benchmark Spitze hocken aber man muss auch verdammt viel Glueck haben wenn so ein Ding ueber 2 Stunden anhaelt fuer 3D gaming; im Gegensatz liegt auf einem iPhone5S noch etwas mehr Laufzeit drin trotz kleinerer Batterie. Der Graph sagt mir und vielen anderen hier gar nichts dass wir nicht schon wussten. Genau soooooo realitaetsfern sind eben die eigentlichen Resultate im Graph und natuerlich die angebliche "Inkompetenz" oder globale Verschwoerung wo Anand beteiligt sein soll oder sonst noch welche alberne Maerchen.

Die eigentliche Wahrheit ist dass Anand dank seiner guten Beziehungen zu all diesen Firmen es stets versucht so diplomatisch wie moeglich mit allen zu sein; waere es nicht der Fall wuerde er Qualcomm und Samsung noch fettere "Ohrfeigen" verpassen mit seinem Material: http://www.anandtech.com/show/7384/state-of-cheating-in-android-benchmarks

Ailuros
2013-11-21, 08:03:36
https://pbs.twimg.com/media/BZhd0g_CYAI_vzb.png:large

http://forum.beyond3d.com/showpost.php?p=1808388&postcount=528

Nett wie marketing alles so schoen als "first" verdreht, aber wir haben uns daran gewoehnt. Ich stimme aber Arun@B3D zu: der 805 riecht verdammt nach einem tablet orientiertem SoC und ueberhaupt etwas welches eher windows anspricht.

Nightspider
2013-11-21, 12:48:57
Wieso, wegen DualChannel-RAM-Anbindung?

Ich finde den Namen 805 etwas komisch, suggeriert dieser doch einen minimalen Sprung zum 800.

In 3 Monaten (Februar) dürfte dann das Galaxy S5 mit Snapdragon 805, 3GB RAM und (3D) V-NAND Speicher angekündigt werden.
Dieses soll ein Display mit 2560*1440 (sicher Pentile) haben und könnte die GPU Leistung gut gebrauchen.

Schade das nicht auch gleich ein h.265 Video Encoder eingebaut wurde, damit könnte man die effektive Bitrate nochmals stark erhöhen ohne den Speicherbedarf zu erhöhen und noch eine noch bessere Videoqualität.

Gaestle
2013-11-21, 13:07:04
der 805 riecht verdammt nach einem tablet orientiertem SoC und ueberhaupt etwas welches eher windows anspricht.

Wie kommst du auf Windows?

YfOrU
2013-11-21, 13:33:47
Adreno 420 steht schon ziemlich lange mit DirectX11 auf den Roadmaps.

Hugo78
2013-11-21, 13:33:56
Ich finde den Namen 805 etwas komisch, suggeriert dieser doch einen minimalen Sprung zum 800.

800 steht für die Leistungsklasse, wenn jetzt jedes Update mit +5 daherkommt, bleibt es wenigstens übersichtlich auf lange Sicht.

Avalox
2013-11-21, 15:34:44
@Ailuros

Dürfte dich interessieren, ist das erste mal, d.m.W. Gamebench für einen Artikel verwendet wird.

Da man ja das ganze am PC schon durch hat, ist als nächstes natürlich die Renderqualität zu vergleichen, da auch an dieser Schraube gedreht werden kann.

http://www.engadget.com/2013/11/21/gamebench-android-benchmark-tool-samsung-vs-htc

http://hss-prod.hss.aol.com/hss/storage/adam/758de7af2ca24cea013f6580607f65eb/GameBench-charts-lead.jpg

Nightspider
2013-11-22, 02:31:31
Weiß jemand wie groß der Chip des S800 ist und ob der 805 in 20nm auf den Markt kommt?

Edit:

Okay laut B3D-Forum wohl 20nm. Alles andere wäre auch überraschend gewesen imo.

Label
2013-11-22, 04:50:08
Edit:

Okay laut B3D-Forum wohl 20nm. Alles andere wäre auch überraschend gewesen imo.

A previous version of this article stated that the Snapdragon 805 was built on TSMC's 20nm process. The chip is actually built on the 28nm HPm process, the same used by the Snapdragon 800.

Alles andere wäre überraschend gewesen...:P

Ailuros
2013-11-22, 08:24:52
Alles andere wäre überraschend gewesen...:P

LOL touche; 28HPM war schon seit einer Ewigkeit eine sichere Karte fuer den SoC im Hintergrund.

Wie kommst du auf Windows?

Fuer was brauchst Du DX11 genau unter Android? Erstens will QCOM sich mehr Marktanteil fuer tablets einraeumen (wobei sie mit dem ersten Schub verdammt gut eingestiegen sind) und zweitens werden windows tablets in Popularitaet zunehmen.

Im Gegenfall haette QCOM beim Adreno420 auf DX9L3/OGL_ES3.0 bleiben koennen und anstatt "nur" 40% Leistung im Vergleich zum Adreno330 um einiges mehr; DX11 verbratet eine Unmenge an zusaetzlichen Transistoren im Vergleich zu DX9L3.

@Ailuros

Dürfte dich interessieren, ist das erste mal, d.m.W. Gamebench für einen Artikel verwendet wird.

Da man ja das ganze am PC schon durch hat, ist als nächstes natürlich die Renderqualität zu vergleichen, da auch an dieser Schraube gedreht werden kann.

http://www.engadget.com/2013/11/21/gamebench-android-benchmark-tool-samsung-vs-htc

http://hss-prod.hss.aol.com/hss/storage/adam/758de7af2ca24cea013f6580607f65eb/GameBench-charts-lead.jpg

***edit: beide laufen auf dem S600 und ich hab es beim ersten durchlesen verpasst. Und nein die GFXbench scores zwischen dem S600/S4 und HTC One sind nicht indentisch; das HTC One kommt mit etwas niedrigeren scores an.

Wenn noch Render-qualitaet irgendwo verglichen wird, wird es fuer Adrenos noch mehr weh tun.

Gaestle
2013-11-22, 10:06:18
Wird ein SoC für Android untauglich, weil er (auch?) das DX11-Label hat?

Ailuros
2013-11-22, 10:56:56
Wird ein SoC für Android untauglich, weil er (auch?) das DX11-Label hat?

Nein. Aber es klingt eher nach einem tablet applications processor als ein smartphone SoC.

Ailuros
2013-11-27, 18:31:55
http://jonpeddie.com/back-pages/comments/qualcomm-moves-to-4k-with-snapdragon-805/

Sony is almost due for a new handheld release, the Vita arrived with Imagination Technologies GPU design in February 2012, so 2014 would be a good refresh associated with the PS4. Nintendo is really ready for a new handheld gaming machine, and Microsoft has been looking for an entry point into handhelds for years. The Snaprdragon 805 could be their ticket to Androidville and a competitive positioning against Apple iPhones with snap-on controllers from Logitech and Moga, and Nvidia’s Shield.

Nightspider
2013-11-27, 18:39:43
Wie jetzt? Der Schreiber erwartet einen PS Vita Nachfolger und meint Nintendo wäre schon bereit für einen 3DS Nachfolger? Wie kommt der auf die Schnappsidee? Oder habe ich da etwas falsch übersetzt?

Der 3DS wird mindestens noch 2 Jahre bei Nintendo Geld generieren und steuert gerade erst auf den Höhepunkt seiner Existenz hin. Selbst der alte Nintendo DS liegt noch in allen Regalen und DS Spiele verkaufen sich auch noch.

Oder meint der, es wäre jetzt eine gute Gelegenheit für Microsoft vom Timing her?

Abgesehen würde Nintendo, wenn sie 2015 einen neuen Handheld rausbringen, höchstens Tegra3 Performance verbauen. ;D
Der Snapdragon 805 wäre ja schon so schnell wie die Wii-U. :tongue:

Edit:

Habe den Artikel jetzt vollständig gelesen.
Also kommt der 805 doch in 20nm? Der Autor schreibt 2H/2014 aber wenn die ersten Test-Samples schon jetzt an die Entwicklerteams verschickt werden, werden wir sicherlich schon im März erste Produkte zu sehen bekommen, wenigstens in einer Präsentation. Spätestens im Mai dürften mehere Produkte damit auf dem Markt sein, würde ich schätzen.

Ailuros
2013-11-27, 18:58:29
Wie jetzt? Der Schreiber erwartet einen PS Vita Nachfolger und meint Nintendo wäre schon bereit für einen 3DS Nachfolger? Wie kommt der auf die Schnappsidee? Oder habe ich da etwas falsch übersetzt?

Jon Peddie ist so lange unterwegs dass er womoeglich irgendwo etwas gehoert hat, es aber nicht deutlich erwaehnen kann.

Der 3DS wird mindestens noch 2 Jahre bei Nintendo Geld generieren und steuert gerade erst auf den Höhepunkt seiner Existenz hin. Selbst der alte Nintendo DS liegt noch in allen Regalen und DS Spiele verkaufen sich auch noch.

Oder meint der, es wäre jetzt eine gute Gelegenheit für Microsoft vom Timing her?

Abgesehen würde Nintendo, wenn sie 2015 einen neuen Handheld rausbringen, höchstens Tegra3 Performance verbauen. ;D
Der Snapdragon 805 wäre ja schon so schnell wie die Wii-U. :tongue:

Sowohl Nintendo als auch Sony sind seit langem im "research" status was sie genau fuer handhelds anrichten koennten. Es heisst nichts dass es zu irgendwelchem Verkaufserfolg fuehren wird nur dass im gegebenen "thread context" jetzt das DX11 der Adreno420 GPU mehr Sinn macht. QCOM will lediglich bessere Chancen fuer alle moegliche Maerkte haben.

Edit:

Habe den Artikel jetzt vollständig gelesen.
Also kommt der 805 doch in 20nm? Der Autor schreibt 2H/2014 aber wenn die ersten Test-Samples schon jetzt an die Entwicklerteams verschickt werden, werden wir sicherlich schon im März erste Produkte zu sehen bekommen, wenigstens in einer Präsentation. Spätestens im Mai dürften mehere Produkte damit auf dem Markt sein, würde ich schätzen.

Nicht dass ich wuesste. Ich zitiere mal aus QCOM's eigener roadmap:


APQ8084
28HPm
BGA 21x21mm
NSP 15X15mm

Adreno420 war uebrigens laut der roadmap fuer 500MHz projeziert; da aber auch die CPU um etwas hoeher am Ende ankommen wird, koennten es auch etwas mehr fuer die GPU sein.

Nightspider
2013-11-27, 19:44:58
Achso, du meinst das beide Hersteller sich vielleicht schon mehr oder weniger grob nach Nachfolger-Technologien umschauen, für Produkte, die vielleicht erst in 2-3 Jahren auf den Markt kommen?

Sonys Vita ist ja noch nicht lange auf den Markt, das würde ich fast bezweifeln. Und wenn Nintendo den Kurs beibehält, wäre der 805 selbst in 20nm noch zu groß/teuer/leistungsfähig (ja, für Nintendo scheint manche Technik auch zu leistungsfähig zu sein :ugly:).
Ich glaube wird könnten schon froh sein wenn Nintendo so einen Chip in ~16nm (20nm+FF) in einen 3DS Nachfolger verbauen würde, von der Leistung und Ausstattung her.
Wenn ich mir aber den 3DS anschaue müsste man eher hoffen wenigstens eine Snapdragon S800 @500Mhz zu bekommen.^^

Nintendo 3ds: ARM11 Dual-Core 266Mhz
Da war schon zum Release Smartphones ~5-10 mal schneller.

Ailuros
2013-11-28, 08:06:59
Ich weiss ehrlich nicht was Sony und Nintendo vorhaben. Mir wurde nur schon vor dem 3DS release gesagt dass beide schon damals nach Nachfolgern forschten, eben weil ihnen bewusst war dass der smartphone/tablet Markt zu feist ist.

Ob es wirklich Sinn macht ist eine andere Geschichte. Es koennte auch von Nintendo selber ausgehen; so in etwa wenn die zu irgend etwas aufruesten dass dann Sony auch mit einer Antwort darauf folgt. Natuerlich wird Nintendo wohl wieder zu etwas mit einem sehr niedrigen BOM und bescheideneren specs greifen aber ich wuerde nicht erwarten dass das Resultat NICHT ueber der Vita Leistung liegen wuerde. In dem Fall koennte die Vita sehr schnell ziemlich alt aussehen und Nintendo haette dann eine DX9/10 Kiste die um einiges schneller ist als das Vita; in solch einem Fall macht es dann vielleicht Sinn fuer Sony an eine noch schnellere DX11 Option zu denken.

Natuerlich ist der handheld Markt eine sehr fragliche Investition, aber so lange er noch lebt wird es fuer Sony nicht so leicht sein diesen schlagartig Nintendo vollkommen zu schenken. Wobei eigentlich hier zugegeben nicht die hw das eigentliche Problem ist, sondern die Tatsache dass $50 Spiele der eigentliche Kopfschmerz sind. Gelegenheits-spielchen hin und her bei der heutigen Vielfalt dieser wird es zunehmend schwerer jemand ein volles AAA $50 Spiel zu verkaufen und es ist die sw und nicht die hw die die eigentlichen Konsolen verkauft (wie bekannt).

Sonst wie gesagt raeumt sich QCOM lediglich so viele wie moeglich Chancen ein mit dem S805 design so viele wie moeglich Maerkte anzusprechen. Gerechterweise muss ich auch erwaehnen dass QCOM in der Vergangenheit stark kritisiert wurde dass ein DX11 GPU design fehlt und dieser zu spaet kommen koennte; komischerweise werden sie eigentlich die ersten sein mit einer ULP DX11 GPU wenn sie den 805 schon in H1 2014 auf Regalen haben werden. Und hier haben IMG, ARM, NVIDIA u.a. mal wieder geschlampt. Ankuendigungen werden schon noch kommen nur dauert es eben bis bei GPU IP ein Partner integriert und ich persoenlich weigere mich auch fuer NV das "Shield2" als irgend einen "design win" zu zaehlen, ausser natuerlich das letzte wird schlagartig zum bombastischen Verkaufschlager ueber Nacht.

disap.ed
2013-11-28, 10:38:29
Ich weiß natürlich auch nicht was Nintendo vor hat, gehe aber fast fix davon aus dass es noch ein 28hpm Chip wird zum geschätzten Release in 2015.
Alles weitere kann ich überhaupt nicht einschätzen, von AMD über Qualcomm bis hin zu Lösungen von Nischenbuden (siehe 3DS) ist alles möglich.
Mein Wunsch (?) wäre dass sowohl der 3DS als auch der WiiU-Nachfolger auf der ARMv8-Architektur und GCN(2)-Grafik mit Mantle als API basieren, mit unterschiedlicher Rohleistung natürlich.

robbitop
2013-11-28, 10:59:45
Wenn ich Sonys CEO wäre, würde ich aus dem Handheld Business aussteigen. Sony verbrennt nur Geld. Gründe wurden ja bereits genannt (Smartphones, Tablets). Einzig Nintendo scheint in dem Markt noch Geld zu machen (ging aber dank SFF Geräten auch massiv zurück).
IMO eine Mischung aus Image (Gameboy), Preis und dem Verhältnis Spielspass zu Produktionskosten der Spiele. Die DS Spiele versuchen nicht, konsolig, AAA-artig oder gar cinematisch zu sein. Sie passen perfekt zum Hamdheld. Auf Sonys Handheld hatte ich schon immer das Gefühl, dass man mit aller Macht die Playstation Erfahrung in den Handheld zu pressen versucht. Und das klappte halt kaum.

Nightspider
2013-12-09, 16:49:46
Neuer Mittelklasse SoC Snapdragon S410 mit 64Bit Architektur

http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/29000-qualcomm-snapdragon-410-vorgestellt.html

Was für CPU Kerne sollen das sein? Die bisherigen Krait Topmodelle waren doch nur 32 Bit?

AnarchX
2013-12-09, 17:01:05
Wahrscheinlich ARM Cortex A53.

Ravenhearth
2013-12-09, 18:03:06
Dann wird es wohl auch S610 und S810 geben, wenn Qualcomm das Namensschema konsequent fortsetzt. Für diese SoCs bräuchten sie eine neue, ARMv8-kompatible Architektur. Ist schon etwas über so einen Krait-Nachfolger bekannt?

Ailuros
2013-12-09, 20:47:06
Wahrscheinlich ARM Cortex A53.

Bingo.

Ailuros
2013-12-10, 08:46:06
http://www.anandtech.com/show/7573/qualcomm-announces-snapdragon-410-based-on-64bit-arm-cortex-a53-and-adreno-306-gpu

Mal sehen wie der ARM Cortex A9 r4p1 in CoreMark aussehen wird.

Sonst:

ARM included a number of power efficiency improvements and is targeting 130mW single-core power consumption at 28nm HPM (running SPECint 2000). I'd expect slightly higher power consumption at 28nm LP but we're still talking about an extremely low power design.

Ewwww.....

Nightspider
2013-12-10, 09:24:49
Ich würde schätzen das der 410 damit in etwa so viel CPU Power hat wie ein Samsung Galaxy S3 (4*A9 @ 1,5Ghz), bei deutlich geringerem Verbrauch.

Wenn QualComm aber jetzt schon ein A53 Design vorstellt, wäre es schon fast seltsam, wenn der 805 nur mit 32Bit CPU Kernen und damit mit den gleichen Kernen wie im 800 daherkommt.
Bisher gibt es ja nur die grobe Planung von 1.H14 für den 805.

AnarchX
2013-12-10, 09:42:01
Bingo.
Interessant ist aber die Angabe zum Windows Phone Support in der Pressemitteilung: http://www.qualcomm.com/media/releases/2013/12/09/qualcomm-technologies-introduces-snapdragon-410-chipset-integrated-4g-lte
... bisher wurden ja nur Qualcomm-Kerne unterstützt.

Avalox
2013-12-10, 10:06:54
Interessant ist aber die Angabe zum Windows Phone Support in der Pressemitteilung: http://www.qualcomm.com/media/releases/2013/12/09/qualcomm-technologies-introduces-snapdragon-410-chipset-integrated-4g-lte
... bisher wurden ja nur Qualcomm-Kerne unterstützt.


ARMv8 ist abwärtskompatibel, der neue CPU Kern wird schlicht kompatibel zum heutigen Krait sein.

Windows Phone sollte ja erstmal momentan die Kompatibilität zu den neueren Cortex A7 CPU Kernen von Qualcomm bekommen. Meines Wissens steht auch dieser Schritt noch aus, sodass die Kompatibilität momentan nur zu den Krait Kernen besteht. Mittelfristig soll ja Windows Phone durch ein entsprechend befähigtes Windows RT (mit geänderten Namen) abgelöst werden, dieses steht ja schon heute auf breiteren Füssen.

lumines
2013-12-10, 10:19:10
Ich würde schätzen das der 410 damit in etwa so viel CPU Power hat wie ein Samsung Galaxy S3 (4*A9 @ 1,5Ghz), bei deutlich geringerem Verbrauch.

Erstmal ist das S3 mit 1,4 GHz getaktet und zweitens liegt schon der S400 quasi auf Augenhöhe mit dem Exynos aus dem S3. Der 410 sollte schon ein bisschen darüber liegen.

eligos
2013-12-10, 10:26:58
Wer sagt denn dass Cortex A7 von WP überhaupt unterstüzt werden soll? Ist ja nicht so dass es eine grundlegende Vorraussetzung ist um den S410 oder was auch immer zu unterstützen...

Und was die Zusammenführung angeht ist auch überhaupt nicht klar wie es genau gemacht wird, entweder WP wird auf Tablets erweitert oder RT auf SP runterskaliert.

Avalox
2013-12-10, 11:10:29
Wer sagt denn dass Cortex A7 von WP überhaupt unterstüzt werden soll? Ist ja nicht so dass es eine grundlegende Vorraussetzung ist um den S410 oder was auch immer zu unterstützen...

Und was die Zusammenführung angeht ist auch überhaupt nicht klar wie es genau gemacht wird, entweder WP wird auf Tablets erweitert oder RT auf SP runterskaliert.


MS sagte, dass der Cortex A7 in Windows Phone unterstützt werden soll.
Was ja auch Sinn macht, da Qualcomm im Budget Bereich den Krait Kern durch den A7 Kern in neueren SoCs ablöst.
Da MS im Spitzensegment weiter verliert und im Budget Bereich zugewinnt, ist die Maßnahme für die Zukunft auch sehr sinnvoll. Für MS ist es also wichtig, gerade im Budget Bereich nicht den Anschluss zu verpassen.

Zur "Zusammenführung" hat MS offiziell bisher nichts gesagt, aber Eldar Murtazin hat mehrmals was gesagt und der war in der der Vergangenheit schon gut informiert.
Es würde auch Sinn machen, da Windows RT der leistungsfähigere Unterbau ist und auf der avisierten Seite heute nicht punkten kann.

eligos
2013-12-10, 11:26:48
Wo hat MS so etwas gesagt? Sieht eher so aus dass die erstmal bei den Kraits + S800 bleiben und dann direkt die neueren SoCs nehmen. Lumia 1320 hat ja z.B. einen 1.5 Ghz DC Krait.

Gerüchte sollte man dann auch als Gerüchte und nicht als Tatsachen hinstellen! Was genau gemacht wird wissen die vielleicht selber noch nicht, der Eldas Murtazin (der Hater schlechthin) weiß es natürlich immer besser. Was nicht heißt dass er nicht Recht behält.

Avalox
2013-12-10, 12:27:58
Wo hat MS so etwas gesagt? Sieht eher so aus dass die erstmal bei den Kraits + S800 bleiben und dann direkt die neueren SoCs nehmen. Lumia 1320 hat ja z.B. einen 1.5 Ghz DC Krait.



Ich muss es mal raussuchen, ist ja schon länger her.,

Aber Geräte wie das Lumia 1320 verkauft MS kaum, das ist nicht der wichtigste Markt. Es ist sicherlich kein Top-Level Gerät, aber auch nicht im Kernbereich von Windows Phone.

Windows Phone wird zu 75% im absoluten Budget Bereich verkauft, also im billigsten vom billigen, das Lumia 520 und ähnliches und genau dort wird es wichtiger werden den Cortex A7 in den neuen Qualcomm SoCs zu supporten.
Aber bisher ist es wie gesagt, auch noch nicht der Fall.

Der oben genannte neue SoC erscheint ja frühstens im Q3 des nächsten Jahres. Das ist noch einige Zeit hin.

mboeller
2013-12-10, 12:58:50
Ich muss es mal raussuchen, ist ja schon länger her.,

Aber Geräte wie das Lumia 1320 verkauft MS kaum, das ist nicht der wichtigste Markt. Es ist sicherlich kein Top-Level Gerät, aber auch nicht im Kernbereich von Windows Phone.

Windows Phone wird zu 75% im absoluten Budget Bereich verkauft, also im billigsten vom billigen, das Lumia 520 und ähnliches und genau dort wird es wichtiger werden den Cortex A7 in den neuen Qualcomm SoCs zu supporten.
Aber bisher ist es wie gesagt, auch noch nicht der Fall.

Der oben genannte neue SoC erscheint ja frühstens im Q3 des nächsten Jahres. Das ist noch einige Zeit hin.

meinst du diese Meldung:
http://www.gsmarena.com/qualcomm_outs_quadcore_snapdragon_400_with_lte-news-6155.php

diese oder ähnlich sprechen von einem Qualcomm snapdragon 400 mit 4 Kernen und ARM A7

eligos
2013-12-10, 13:16:18
Die Aussage von Qualcomm bedeutet ja nur dass es theretisch möglich ist oder verstehe ich das falsch? Ob MS das auch so freigibt steht auf einem anderen Blatt.

Unter Snapdragon 400 laufen ja auch die DC Kraits, kann sein dass es einfach durcheinander geworfen wird und Snapdragon 400 = QC A7 gesetzt wird (wie schon oft passiert, was aber kein Wunder ist bei dem technologischem Mischmasch).

Avalox
2013-12-10, 13:21:14
Die Aussage von Qualcomm bedeutet ja nur dass es theretisch möglich ist oder verstehe ich das falsch? Ob MS das auch so freigibt steht auf einem anderen Blatt.


Ne, es ist nicht eine Sache der Freigabe, es ist eine Sache der Systemanpassung. Windows Phone muss selbst angepasst werden.

Es gibt aber eine Aussage von Microsoft, oder Nokia selbst zum Thema Qualcomm Cortex A7.


Zudem weiß man ja noch gar nicht, welchen CPU Kern Qualcomm im 64Bit SoC oben verwendet. Vielleicht ist es ja ein Cortex A53, zur Ausrichtung des SoCs würde es passen.

Ailuros
2013-12-10, 13:30:52
Ich würde schätzen das der 410 damit in etwa so viel CPU Power hat wie ein Samsung Galaxy S3 (4*A9 @ 1,5Ghz), bei deutlich geringerem Verbrauch.

Wenn QualComm aber jetzt schon ein A53 Design vorstellt, wäre es schon fast seltsam, wenn der 805 nur mit 32Bit CPU Kernen und damit mit den gleichen Kernen wie im 800 daherkommt.
Bisher gibt es ja nur die grobe Planung von 1.H14 für den 805.

Es koennte viele Gruende geben warum QCOM es so eilig hat mit den A53 Kernen, u.a. womoeglich auch damit ihnen MediaTek nicht zu schnell den Wind aus den Marketing-Segeln nimmt mit dem 64bit Mist.

Sonst auf rein technologischer Basis:

ARM A7@1.2GHz = 182mW/core (Samsung 28nm)
ARM A53@1.2GHz = 130mW/core (TSMC 28HPm)

Leider konnte ich keine A7 Daten unter HPm finden :(

Ailuros
2013-12-10, 20:20:55
http://www.anandtech.com/show/7574/ask-the-experts-arms-cortex-a53-lead-architect-peter-greenhalgh

Interessanter sind die Fragen in den User Kommentaren als der write up selber :P

Ailuros
2013-12-19, 17:05:16
http://www.xbitlabs.com/news/mobile/display/20131217235138_Apple_s_64_Bit_A7_Chip_Caught_Qualcomm_Unexpected_Insider.html

The 64-bit Apple chip hit us in the gut. Not just us, but everyone, really. We were slack-jawed, and stunned, and unprepared. It’s not that big a performance difference right now, since most current software will not benefit. But in Spinal Tap terms it is like, 32 more, and now everyone wants it.

Uhhhmmm ouch

Hugo78
2013-12-19, 21:14:54
Ehmm der 64bit Fahrplan von ARM doch schon lange klar und keiner hat damit gerechnet das Apple ihren Arsch voll Kohle nimmt um den Kids schneller ein "64 Bit Handy" zuzeigen?

Ja klar...

Ailuros
2013-12-20, 08:46:25
Ehmm der 64bit Fahrplan von ARM doch schon lange klar und keiner hat damit gerechnet das Apple ihren Arsch voll Kohle nimmt um den Kids schneller ein "64 Bit Handy" zuzeigen?

Ja klar...

Kein Zweifel, jedoch wissen wir alle dass IP Ankuendigung mit Produkt-Integrierung einen ziemlich grossen zeitlichen Unterschied hat im Normalfall 1.5-2 Jahre. Wir haben natuerlich schon etabliert dass 64bit auf sw Basis noch nichts sehenswertes bringt, es ist aber dann schon so dass es ploetzlich jeder haben will. Noch kommt dazu dass Apple's iOS mit 64bit Entwicklung mal doch wieder ca. 1 Jahr im Vorsprung liegt und ja sie koennen so oder so ihren Kunden ueber ihren technologischen Vorsprung erzaehlen.

Haette der Marketing-Heini von QCOM nicht seine unsinnige Aussage ueber 64bit gemacht, wuerden wir solche Debatten auch nicht fuehren. Aber wenn ein Markting-Affe sich sein Maul zu stark mit BS zustopft bin ich schnell an der Leine mit dem Finger zu zeigen. Wie immer "put up or shut up".

OT aber immer noch QCOM relevant: haettest Du mich vor 2 Jahren gefragt wer als erster eine DX11 ULP GPU in kaufbaren Geraeten haben wird und welcher als letzter haette ich fuer's erste IMG gewettet und fuer's zweite Qualcomm. Tragische Ironie heute sieht es danach aus als ob QCOM der erste sein wird (wenn es nicht ein enges Rennen mit NV's GK20A wird).

Eben weil die Zeitspannen zu gross sind kann man kinderleicht mehr als oefters auf die Nase fallen mit Prophezeiungen. Fuer GPUs hatte QCOM das Glueck sich Eric Demers zu schnappen; das Ganze ist zwar keine "one man show" aber den Laden hat er schon etwas aufraeumen koennen in der Zwischenzeit.

Sonst wenn ich heute ein waschreines tablet kaufen wuerde wuerde ich schwer an etwas anderes denken als ein iPad Air; nicht wegen 64bit aber weil das Ding tatsaechlich ein technologisches Vorbild auf mehreren Fronten darstellt. Da ich aber doch lieber ein keyboard haben will und mich nicht sooo stark in Nutzbarkeit begrenzen will wie mit Apple's i-Scheiss wird es auch nie so weit kommen.

Einen Tritt in den Hintern hat Apple ihrer gesamten Konkurrenz schon verpasst, u.a. auch NVIDIA mit dem Duke Nuke....errr Denver Zeug mit der ultra super duper secret sauce. Wenn wir das Ding endlich mal sehen bin ich neugierig wie "revolutionaer" das Ding im Vergleich zu Cyclone's Nachfolger genau sein wird. Wenn QCOM's Angestellte ein ziemlich grosses Risiko eingehen anonym sich so in der Presse auszudruecken sieht es mit Sicherheit die Firma nicht gerne und es ist am Ende auch kein Zufall mehr.

Hugo78
2013-12-20, 12:19:17
es ist aber dann schon so dass es ploetzlich jeder haben will.

Ist das aktuell wirklich so? Gut ok, Samsung hatte ja gleich die Hosen voll,
aber ich mein allein der Fingerabdrucksensor des 5s muss doch nach diesem "Jahr der NSA" auch auf den letzten Vollpfosten abschreckend wirken.

Ailuros
2013-12-20, 15:05:17
Ist das aktuell wirklich so? Gut ok, Samsung hatte ja gleich die Hosen voll,
aber ich mein allein der Fingerabdrucksensor des 5s muss doch nach diesem "Jahr der NSA" auch auf den letzten Vollpfosten abschreckend wirken.

Qcom hat schon low end A53/64bit CPUs bald in Geraeten, Mediatek schwitzt auch ihren Wandel zu machen, Samsung kann es nicht frueh genug haben (obwohl auch der eigene Exynos 64bit noch etwas auf sich warten laesst) und NV wie gesagt fiebert an dem Denver Ding rum etc etc.

Ich dreh es Dir mal anders rum: angenommen die gesamte Konkurrenz winkt ab zu 64bit und behauptet einfach dass man es noch nicht braucht. Ueberlaesst man iOS mehr als ein Jahr Vorsprung mit 64bit will ich mir persoenlich NICHT vorstellen was es beim zweiten bzw. dritten Jahr Unterschied dann bedeuten koennte fuer Android.

Undertaker
2013-12-20, 15:24:24
Ich dreh es Dir mal anders rum: angenommen die gesamte Konkurrenz winkt ab zu 64bit und behauptet einfach dass man es noch nicht braucht. Ueberlaesst man iOS mehr als ein Jahr Vorsprung mit 64bit will ich mir persoenlich NICHT vorstellen was es beim zweiten bzw. dritten Jahr Unterschied dann bedeuten koennte fuer Android.

Ganz ehrlich, ich glaube die Bedeutung der SoC-Leistungsdifferenzen wird mehr als überschätzt. 95 % der iPhone- oder Android-Kunden werden von dem Thema keine Ahnung haben, von den restlichen 5 % werden die wenigsten ihre Kaufentscheidung in erst Linie davon abhängig machen. Das gilt umso mehr in einer Zeit, wo Smartphones in der Preisklasse eines iPhone eh genug Power für alle üblichen Aufgaben haben. Oder verkauft Apple etwa keine Smartphones mehr, weil die Konkurrenz mittlerweile die 2- bis 3-fache RAM-Menge des 5S bietet? Oder größere und hochauflösendere Displays? Genausowenig ist 64 Bit jetzt das Killerargument. So what, dann werben Qualcomm & Co. halt erst einmal weiter mit Taktraten über 2 GHz und 4 Kernen oder mehr, das macht sich im Marketing ebenso gut...

Ailuros
2013-12-20, 15:45:02
Ganz ehrlich, ich glaube die Bedeutung der SoC-Leistungsdifferenzen wird mehr als überschätzt. 95 % der iPhone- oder Android-Kunden werden von dem Thema keine Ahnung haben, von den restlichen 5 % werden die wenigsten ihre Kaufentscheidung in erst Linie davon abhängig machen. Das gilt umso mehr in einer Zeit, wo Smartphones in der Preisklasse eines iPhone eh genug Power für alle üblichen Aufgaben haben. Oder verkauft Apple etwa keine Smartphones mehr, weil die Konkurrenz mittlerweile die 2- bis 3-fache RAM-Menge des 5S bietet? Oder größere und hochauflösendere Displays? Genausowenig ist 64 Bit jetzt das Killerargument. So what, dann werben Qualcomm & Co. halt erst einmal weiter mit Taktraten über 2 GHz und 4 Kernen oder mehr, das macht sich im Marketing ebenso gut...

Lies den Paragraph den Du zitiert hast nochmal durch denn er bezieht sich SEHR deutlich auf die Zukunft. Man sollte eben NICHT iOS einen zu grossen Entwicklungsvorsprung ueberlassen wenn es zu 64bit kommt. Schlaeft man jetzt ein, dann wird sich Apple zunehmend mit der Zeit reale Vorteile in ihre sw Platform reinschleifen und nein Google wird dann eben nicht den Zauberstab haben alles ueber Nacht zu meistern.

Windows ist ja so oder so schon seit langem mit 64bit erhaeltlich, ergo wenn man hier etwas verpennt liegt Android sehr schnell in einem Engpass zwischen iOS und windows. iOS wird in absehbarer Zukunft etwas dazuwachsen und Microsoft stampft RT irgendwann ein fuer nichts anderes als windows selber.

Undertaker
2013-12-20, 15:56:31
Man sollte eben NICHT iOS einen zu grossen Entwicklungsvorsprung ueberlassen wenn es zu 64bit kommt. Schlaeft man jetzt ein, dann wird sich Apple zunehmend mit der Zeit reale Vorteile in ihre sw Platform reinschleifen und nein Google wird dann eben nicht den Zauberstab haben alles ueber Nacht zu meistern.

Mal ganz konkret, welche Vorteile sind das? 10, 20, vielleicht auch mal 30 Prozent mehr Leistung mit entsprechender 64-Bit-Software? Das ist sicherlich kein Faktor, der sich nennenswert auf die Verkaufszahlen von iOS oder Android auswirkt, zumal wie bereits bemerkt derzeit ohnehin die "Killer-Apps" fehlen, die ein heutiges High-End-Smartphone ernsthaft an seine Grenzen bringen würden. Auch mit einem 32 Bit Windows würde heute nahezu jeder Endkunde problemlos leben können, wäre da nicht die Problematik der Speicheraddressierung >4 GB.

Versteh mich nicht falsch: Natürlich wird 64 Bit auch bei Android eher früher als später kommen, ein wirkliches Problem durch den Rückstand auf Apple kann ich aber nicht erkennen. a) Die zu erwartende Mehrleistung ist nicht weltbewegend. b) Der softwareseitige Wechsel wird sich eh noch Jahre ziehen (siehe Windows), die 32-Bit-Performance bleibt erst einmal entscheidend. c) Bzgl. Marketing kann man mit genügend anderen Vorzügen werben. d) Der SoC ist nur ein Faktor für die Verkaufszahlen eines Smartphones (oder Tablets), und im Massenmarkt – insbesondere bei ausreichender Grundleistung, die im High-End-Bereich gegeben ist – bei weitem nicht der wichtigste.

Ailuros
2013-12-20, 16:11:06
Mal ganz konkret, welche Vorteile sind das? 10, 20, vielleicht auch mal 30 Prozent mehr Leistung mit entsprechende 64-Bit-Software?

Es wird auch im ULP Markt passieren dass IHVs fuer nur ein paar Prozent Vorsprung jemand umbringen wuerden ;)

Im gegebenen Fall ist uebrigens der hw Vorteil der 64bit hw schon da. Wie stark willst Du Dir die A57+A53 Kombination um die Ohren werfen bist Du Cyclone's perf/mW genau erreichst?

Das ist sicherlich kein Faktor, der sich nennenswert auf die Verkaufszahlen von iOS oder Android auswirkt, zumal wie bereits bemerkt derzeit ohnehin die "Killer-Apps" fehlen, die ein heutiges High-End-Smartphone ernsthaft an seine Grenzen bringen würden. Auch mit einem 32 Bit Windows würden heute nahezu jeder Endkunde problemlos leben können, wäre da nicht die Problematik der Speicheraddressierung >4 GB.

Nochmal iOS wird erwachsener werden; Apple blubbert nicht aus Zufall von "desktop Leistung". Und wenn's schon sein muss welche "Killer-Applikation" setzt denn auf einem 5W tablet bzw. smartphone mit Qualcomm S805 und seiner DX11 GPU genau irgend etwas DX11 voraus? Das Ding und alles von der Adreno4xx Generation kann froh sein wenn sie OGL_ES3.0 (= ~DX10) spielbare Leistung erreichen.

Ihr unterschaetzt tatsaechlich wie LANGE ein IHV wie Apple an ihren diversen Applikationen herumfunkelt bis alles so laeuft wie sie es haben wollen. Ein IMG GPU Treiber erscheint oefters in Android fast sogar 1 oder sogar 2 Jahre bevor es Apple beruehrt, nur merkt man es nicht weil Apple stets brutal schnellere GPUs benutzt von PowerVR und auch um einiges frueher als andere.

Versteh mich nicht falsch: Natürlich wird 64 Bit auch bei Android eher früher als später kommen, ein wirkliches Problem durch den Rückstand auf Apple kann ich aber nicht erkennen. a) Die zu erwartende Mehrleistung ist nicht weltbewegend. b) Der softwareseitige Wechsel wird sich eh noch Jahre ziehen (siehe Windows). c) Bzgl. Marketing kann man mit genügend anderen Vorzügen werben.

Ich kann mir als zukuenftiger User eher vorstellen dass ich auf einem tablet mehr als 4GB Speicher brauchen koennte als Tessellation auf der GPU.

Jetzt mal am Rand wieviel Leistungszuwachs wuerdest fuer den Qualcomm S805 gegenueber dem S800ab im realen Durchschnitt genau erwarten? Sobald die Prozess-technologie auch hier zu limitieren anfaengt muessen sich auch die IHVs hier etwas einfallen lassen.

Undertaker
2013-12-20, 16:28:05
Im gegebenen Fall ist uebrigens der hw Vorteil der 64bit hw schon da. Wie stark willst Du Dir die A57+A53 Kombination um die Ohren werfen bist Du Cyclone's perf/mW genau erreichst?

Ist denn Cyclone wegen 64 Bit die Perf/Watt-Granate? Oder ist das nicht vielmehr nur der Zuckerguss auf dem Kuchen? ;)

Ich kann mir als zukuenftiger User eher vorstellen dass ich auf einem tablet mehr als 4GB Speicher brauchen koennte als Tessellation auf der GPU.

Ja, da geb ich dir Recht, das Speicherproblem ist letztlich einer der Haupttreiber dahinter. Lustigerweise genau bei Apple mit den derzeit sehr mageren 1 GB nicht... ;)

Jetzt mal am Rand wieviel Leistungszuwachs wuerdest fuer den Qualcomm S805 gegenueber dem S800ab im realen Durchschnitt genau erwarten? Sobald die Prozess-technologie auch hier zu limitieren anfaengt muessen sich auch die IHVs hier etwas einfallen lassen.

Und auch das würde ich so unterschreiben. Ich will auch keineswegs den Schritt auf 64 Bit als überflüssig oder falsch herausstellen, sondern nur betonen, dass wir hier von zwei mehr oder weniger abgekapselten Welten reden: In aktuellen iOS-Geräten sitzen nur Apple SoCs, dass heißt egal wie gut Qualcomm & Co. auch sind, hier können sie keinen Chip verkaufen. Gleichzeitig sind Apples SoCs nicht für Android verfügbar. Soll heißen: Direkte Konkurrenten sind all die genannten Unternehmen nicht, jeglicher Konkurrenzkampf findet nur über die Endgeräte statt. Und da ist, gerade bei der Entscheidung des Käufers zwischen Android und iOS, der SoC nur ein Merkmal von vielen. Oder warum kann Apple ein iPhone 5C für den doppelten Preis eines Nexus 5 anbieten? Sicher nicht, weil der A6 ggü. dem S800 so leistungsstark ist...

Ailuros
2013-12-22, 09:35:54
Ist denn Cyclone wegen 64 Bit die Perf/Watt-Granate? Oder ist das nicht vielmehr nur der Zuckerguss auf dem Kuchen? ;)

Ich hab sehr wohl des oefteren erwaehnt dass 64bit heute auf sw Basis wenig bis gar nichts bringt, die Architektur aber selber schon hoehere Effizienz mit sich fuehrt.

Ja, da geb ich dir Recht, das Speicherproblem ist letztlich einer der Haupttreiber dahinter. Lustigerweise genau bei Apple mit den derzeit sehr mageren 1 GB nicht... ;)

64bit ist im iOS auch momentan nur dekorativ auf sw Basis; aber irgendwo muss man anfangen und die Umstellung von 32 auf 64bit mit der Unzahl an Applikationen wird auch nicht ueber Nacht passieren koennen. Je frueher am Ball ist und je mehr zeitlichen Vorsprung man hat desto besser. Und eben HIER liegt das eigentliche Problem der gesamten Konkurrenz: dass sie 64bit nicht so frueh erwartet haben.

Und auch das würde ich so unterschreiben. Ich will auch keineswegs den Schritt auf 64 Bit als überflüssig oder falsch herausstellen, sondern nur betonen, dass wir hier von zwei mehr oder weniger abgekapselten Welten reden: In aktuellen iOS-Geräten sitzen nur Apple SoCs, dass heißt egal wie gut Qualcomm & Co. auch sind, hier können sie keinen Chip verkaufen. Gleichzeitig sind Apples SoCs nicht für Android verfügbar. Soll heißen: Direkte Konkurrenten sind all die genannten Unternehmen nicht, jeglicher Konkurrenzkampf findet nur über die Endgeräte statt. Und da ist, gerade bei der Entscheidung des Käufers zwischen Android und iOS, der SoC nur ein Merkmal von vielen. Oder warum kann Apple ein iPhone 5C für den doppelten Preis eines Nexus 5 anbieten? Sicher nicht, weil der A6 ggü. dem S800 so leistungsstark ist...

Ich sage auch schon seit einer Ewigkeit dass Apple nur mit sich selber konkurriert. So viel haben wir schon seit langem etabliert.

Sonst fuer die letzte Frage ich sehe bei geizhals lediglich einen Preis-Unterschied von ~60+ Euro wenn es um Geraete alleine geht. In solch einem Dilemma wuerde ich mich eher fuers 5C entscheiden, eben weil schneller nicht unbedingt stromsparender oder stabiler heisst.

Man koennte Apple lange kritisieren wenn der Tag lang ist ueber ihre Wuchermargen u.a., es ist aber dann auch so dass sie tatsaechlich eine Unmenge an resourcen auf hw und sw Entwicklung schuetten; und wenn es dann zum Endgeraet kommt ist dann eben nicht nur irgendwelches Bums-marketing dass jegliches i-gear sooooo leicht von sich aus verkauft.

Label
2014-01-01, 10:55:07
etwas pre-CES-Werbung:

http://www.engadget.com/2013/12/31/qualcomm-snapdragon-805/

Bin auf die Show während der CES gespannt.
Die Show letztes Jahr blieb bei mir in bester Erinnerung... (http://www.theverge.com/2013/1/8/3850056/qualcomms-insane-ces-2013-keynote-pictures-tweets) :biggrin:

Ailuros
2014-01-01, 22:46:57
Die CES wird wohl so manche angenehme Ueberraschungen von mehreren Seiten haben.

Nightspider
2014-01-02, 00:46:23
In dem Artikel ist immer noch die Rede von Late 2014 für den 805.
Ich hoffe das diese Aussage weiterhin auf einigen alten Spekulationen beruht und der 805 schon im 1.H im Regal liegen wird.

Weiterhin interessant bleibt, ob durch das bessere Interface auch mehr CPU Speed herausgekitzelt werden kann bzw. die Allgemeinen Werte verbessert werden.

Wie die neu veröffentlichten Bibiliotheken zeigen, kann aus den Krait CPU Kernen ja noch zur Zeit auch noch einiges an Leistung herausgeholt werden.
Damit dürfte sich der Abstand zu Apples hoher IPC Leistung verringern.

Bisher habe ich noch keine Benchmarks zu den neuen Bibiliotheken gesehen aber es wäre schon genial, wenn sich vielleicht 20% herausholen ließen.

Ailuros
2014-01-02, 01:09:18
Es gibt von allen SoC Herstellern von Zeit zu Zeit neue compiler bzw. Treiber die die Leistung um einiges erhoehen; QCOM hat hier keine Exklusivitaet.

Im gegebenen Fall fuer QCOM wird sich erstmal zeigen muessen ob etwas daran liegt und ob es offizielle sw updates dafuer geben wird, denn es hat nicht wirklich jeder Lust mit seinem smartphone herumzuexperimentieren, noch heisst um N% hoehere Leistung automatisch gleicher Stromverbrauch bzw. gleiche Stabilitaet.

Nightspider
2014-01-02, 01:54:05
Das ist vollkommen richtig.
Dennoch gehe ich davon aus, das bei Android-Hardware mehr Potential verschwendet wird als bei Apple, wo die Hard-und Software aus einem Haus kommen und die Software direkt für die eigene Hardware optimiert wird und zudem würde ich sagen, das es bei Android länger dauert, bis ein Teil des Potentials genutzt wird, während es bei Apple schneller Updates gibt bzw. diese sogar schon beim Release der neuen Hardware integriert sind.
So glaube ich, das die Leistung einiger Android-Smartphones besser wäre und die neuen CPU Cores der letzten zwei Apple SoCs nicht so große Sprünge gemacht hätte, wenn der Unterschied zwischen Android und iOS in Hinsicht auf Softwareanpassung zur Leistungsoptimierung bzw. die Abstände zwischen diesen nicht so groß wären.

Ailuros
2014-01-02, 10:31:50
Das ist vollkommen richtig.
Dennoch gehe ich davon aus, das bei Android-Hardware mehr Potential verschwendet wird als bei Apple, wo die Hard-und Software aus einem Haus kommen und die Software direkt für die eigene Hardware optimiert wird und zudem würde ich sagen, das es bei Android länger dauert, bis ein Teil des Potentials genutzt wird, während es bei Apple schneller Updates gibt bzw. diese sogar schon beim Release der neuen Hardware integriert sind.

Es ist eine riesige Debatte denn iOS haelt sich auch mit Absicht von vielem entfernt und bleibt um einiges "ausgekapselter" als OS als Android. Dennoch ist es schon ein riesiger Vorteil wenn man nur fuer eine Platform sw entwickeln muss bzw. man sogar die hw so entwickeln kann dass sie auch am besten zum OS passt. Ich frage mich ja schon seit einer Ewigkeit ob Apple zumindest fuer die CPUs irgend eine Art von low level API benutzt.


So glaube ich, das die Leistung einiger Android-Smartphones besser wäre und die neuen CPU Cores der letzten zwei Apple SoCs nicht so große Sprünge gemacht hätte, wenn der Unterschied zwischen Android und iOS in Hinsicht auf Softwareanpassung zur Leistungsoptimierung bzw. die Abstände zwischen diesen nicht so groß wären.

Das Gegenwort zum obrigen ist dass Apple verdammt heikel mit ihren Treibern ist und sie eine Ewigkeit brauchen intern neue Treiber zu benutzen eben weil sie zu lange brauchen etwas zu verifizieren. Ich bin zwar kein i-Geraet Inhaber, aber fuer mich ist Stabilitaet auch die groesste Prioritaet und danach erst kommt Leistung.

Denn auf QCOM SoCs ist es so oder so ein Kinderspiel nach einem einfachem root mit voltages bzw. Frequenzen herumzuspielen und so oder so um einiges bessere Leistung zu erreichen. Umsonst kommt so etwas aber auch nicht. Sonst ist QCOM ja auch nicht besonders "beruehmt" fuer ihre GPU Treiber Qualitaet; da gibt es auf jeden Fall noch sehr grossen Luftraum fuer Verbesserungen. Grundsaetzlich stinken hauptsaechlich ihre compiler wobei das komische daran ist dass sie codeplay dafuer bezahlen welche aber auch ziemlich ausgezeichnete Profis im Feld sind.

Weiss der Geier was bei denen alles verwuschtelt ist denn sie raffen sich ja auch konstant und imposant auf in allen Bereichen. Von Leistungsmaessig mittelklassigen SoCs ging es relativ schnell zu high end SoCs und von langweiligen GPU featuresets ging es blitschnell zu DX11 im 420 unter vielen anderen. Und all das schoene auch noch ohne eine einzige sehenswerte Verzoegerung.

Am Ende des Tages wenn ich persoenlich heute ein S800 Geraet haben wuerde waere es mir scheissegal ob es jetzt 21 oder 27 frames in GLB2.7 liefert z.B. Das Ding ist schnell genug und ich als User hab wirklich besseres zu tun als mir den Tag zu verschwenden ein oder zwei Penis-verlaengerungen auf einem smartphone zu erreichen. Alles IMHO natuerlich ;)

hey
2014-01-02, 12:59:24
Und was die Stabilität angeht ist das mit IOS7 auf den 94 bit Geräten leider auch nicht mehr das Wahre, wie ich feststellen musste. Bis zum Air wusste ich zb auch nicht, dass bei IOS7 dass springboard abstürzen kann und man dann einen sog. fast reboot (5 sek apple logo auf weissem grund) haben kann. Das hatte ich mit dem 2er und 3er NIE und jetzt schon ein paar mal.

Nightspider
2014-01-02, 15:11:56
Das stimmt schon, ob im GPU Bereich durch neue Software paar Prozent mehr herausspringen ist fast egal aber die neuen Bibliotheken sollen ja wohl die CPU Leistung erhöhen und laut einigen Aussagen Android merkbar beschleunigen, was wirklich nett wäre.

Und ich scheint wirklich nicht sonderlich stabil zu sein in letzter zeit.

Ailuros
2014-01-02, 19:34:13
Und was die Stabilität angeht ist das mit IOS7 auf den 94 bit Geräten leider auch nicht mehr das Wahre, wie ich feststellen musste. Bis zum Air wusste ich zb auch nicht, dass bei IOS7 dass springboard abstürzen kann und man dann einen sog. fast reboot (5 sek apple logo auf weissem grund) haben kann. Das hatte ich mit dem 2er und 3er NIE und jetzt schon ein paar mal.

Bei 94bit kein Wunder. Spass beiseite ich bin neugierig wie "problemfrei" der Wandel auf 64bit bei unserm Android sein wird...

hey
2014-01-02, 19:53:50
Stimmt auch wieder und wenn ich daran denke wie zB Windows 95 damals beim Mischbetrieb von 16 und 32 bit Applikationen funktioniert hat. Andererseits ist es arg ungewohnt von Apple, dass sie etwas loslassen, was nicht funktioniert. Da wirkt der Coup mit dem 64 bit A7 schon ein wenig wie eine Nacht und Nebelaktion.

Benedikt
2014-01-02, 19:57:47
Und was die Stabilität angeht ist das mit IOS7 auf den 94 bit Geräten leider auch nicht mehr das Wahre, wie ich feststellen musste. Bis zum Air wusste ich zb auch nicht, dass bei IOS7 dass springboard abstürzen kann und man dann einen sog. fast reboot (5 sek apple logo auf weissem grund) haben kann. Das hatte ich mit dem 2er und 3er NIE und jetzt schon ein paar mal.
Selbiges Problem habe ich auf meinem iPhone 5C auch desöfteren. Und guess what? Das Teil hat einen 32bit-A6...

hey
2014-01-02, 20:19:07
Hört sich gut an. :ugly: Das bedeutet nämlich, dass es möglich ist zu fixen, da es ja beim 5er auch funktioniert hat ohne abstürze.

Ailuros
2014-01-03, 07:39:18
Selbiges Problem habe ich auf meinem iPhone 5C auch desöfteren. Und guess what? Das Teil hat einen 32bit-A6...

Mit oder ohne iOS7?

Nightspider
2014-01-06, 15:21:40
Snapdragon 802 und 805 auf der CES:

http://www.computerbase.de/news/2014-01/snapdragon-802-und-805-auf-der-ces-2014/

Ailuros
2014-01-08, 09:50:53
http://www.fudzilla.com/home/item/33592-snapdragon-410-is-first-64-bit-from-qualcomm

ARM A53 cores, 28HPm, H2 2014

http://www.fudzilla.com/home/item/33593-adreno-420-in-action

Still Adreno 420 looks and fells fast and healthy and a support for OpenGL ES 3.1 might make a difference. Nvidia has OpenGL 4.4 support making it advantageous over the competition. The chap we talked to at Qualcomm has shared that they believe that Open GL ES is more power efficient and that they can stay in the thermal envelope that is required for phones.

Label
2014-01-08, 16:23:39
http://www.fudzilla.com/home/item/33592-snapdragon-410-is-first-64-bit-from-qualcomm

ARM A53 cores, 28HPm, H2 2014

http://www.fudzilla.com/home/item/33593-adreno-420-in-action

Da schreibt Fud wohl über die Zukunft? OpenGL ES 3.1? (http://www.khronos.org/registry/gles/#specs)

Ailuros
2014-01-08, 16:37:27
Da schreibt Fud wohl über die Zukunft? OpenGL ES 3.1? (http://www.khronos.org/registry/gles/#specs)

Selbst die naechste ES API Version duerfte sich immer noch im DX10 Bereich bewegen. Ob es jetzt wirklich eine 3.1 Version geben wird keine Ahnung aber alles nach dem Punkt ist meistens nur ein update fuer minimale Unterschiede.

------------------------------------------------------------------------------
Uebrigens: http://www.imgtec.com/News/Release/index.asp?NewsID=825

fondness
2014-01-15, 10:49:05
Qualcomm to have 20nm chips later this year
http://www.fudzilla.com/home/item/33656-qualcomm-to-have-20nm-chips-later-this-year

Ailuros
2014-01-15, 16:33:48
Qualcomm to have 20nm chips later this year
http://www.fudzilla.com/home/item/33656-qualcomm-to-have-20nm-chips-later-this-year

H2 14' wenn 20SoC Kapazitaeten um einiges besser werden.

Ailuros
2014-01-18, 17:40:37
Snapdragon 802 und 805 auf der CES:

http://www.computerbase.de/news/2014-01/snapdragon-802-und-805-auf-der-ces-2014/

Anand's CES relevanter writeup dafuer:

http://www.anandtech.com/show/7693/qualcomm-demos-snapdragon-805-802-at-ces-2014

Nightspider
2014-01-18, 18:32:22
Naja etwas Neues stand da jetzt auch nicht drin oder?

Bin mal auf die CPU Cores gespannt.

Ailuros
2014-01-18, 18:49:25
Naja etwas Neues stand da jetzt auch nicht drin oder?

Bin mal auf die CPU Cores gespannt.

Nicht wirklich; nur anderes Bilder-Material.

Nightspider
2014-01-26, 05:03:15
Wie ich es schon erwartet habe wird QualComm dieses Jahr nach dem Snapdragon 805 noch ein schnelleres Modell nachlagen.

Der angebliche Snapdragon 810 soll in 20nm und damit sicherlich im 3. oder 4. Quartal erscheinen.

Angeblich soll Qualcomm für die nächsten Monate mit dem Snapdragon 810 ein neues SoC planen. Es heißt, der Chip verfüge über acht Kerne, bis zu 2,5 GHz Takt, 4 MByte L2-Cache und 64-bit-Unterstützung. Als potentielle GPU handelt man die Adreno 430 mit 500 MHz Takt und Kompatibilität zu OpenGL ES 3.0, DirectX 11.1 und OpenCL 1.2. Auch die Kombination mit bis zu 4 GByte LPDDR3-RAM mit 1600 MHz steht im Raum. Die Gerüchteküche geht von einer Fertigung im 20-Nanometer-Verfahren aus.
Sollten die Angaben stimmen, könnte es sich beim Snapdragon 810 um Qualcomms neuen Kontrahenten für Nvidia Tegra K1 handeln. Natürlich sind diese Informationen aber mit Vorsicht zu genießen. Zumal Qualcomm selbst sich eines Kommentares enthält.

Adreno 430 soll wohl wieder ~40% schneller als Adreno 420 sein womit man locker bei der doppelten GPU Power des S800 wäre.

http://www.hartware.de/news_59785.html
http://www.tomshardware.de/snapdragon-810-64-bit-adreno430,news-250222.html
http://wccftech.com/rumor-qualcomm-working-64-bit-core-snapdragon-810-rival-tegra-k1/

Damit würde QualComm wie im letzten Jahr (S600 & S800) mit, geschätzt, einem halben Jahr Abstand zwei Top-Modelle auf den Markt bringen.

Habe mich eh schon gewundert warum das Top-Modell 805 heißen soll nachdem im Mainstream-Markt ein 410 erscheint.

Wenn Intels Cherry Trail SoC tatsächlich knapp etwas mehr als 4 mal so viel GPU Power hätte wie die aktuellen Bay Trail Modelle hätten wir Ende des Jahres mindestens drei extrem Potente SoCs mit dem Snapdragon 810 und dem Tegra K1 für Non-iOS Devices.

Fehlen eigentlich nur sinnvolle Anwendungsgebiete. Ich gehe mal stark davon aus das wir in wenigen Jahre komplett dreidimensionale Navisysteme haben, wo komplätte Städte in 3D dargestellt werden können.
Gut möglich das wir bald kaum noch 2D Karten nutzen werden, weil Leistung ohne Ende vorhanden ist. Gerade in Verbindung mit der bald zentimetergenauen Satellitenortung dürfte das eine ganz andere Erfahrung werden als mit bisherigen Navigationssystemen.

Vielleicht wird dann bald Android auch mit 120fps+120hz dargestellt.

disap.ed
2014-01-26, 14:17:10
AMDs Mullins APU kommt auch noch in H2. Und auch deren ominöses ARMv8 SoC soll noch dieses Jahr kommen.

Ailuros
2014-01-26, 16:17:38
8 Kerne? ROFL ;D

Ailuros
2014-02-20, 19:01:42
http://www.fudzilla.com/home/item/33988-qualcomm-faces-anti-trust-charges-in-china

deekey777
2014-02-24, 12:14:43
Qualcomms Snapdragon: Acht Kerne und 64 Bit fürs Handy (http://www.heise.de/newsticker/meldung/Qualcomms-Snapdragon-Acht-Kerne-und-64-Bit-fuers-Handy-2122275.html)

Qualcomm hat noch immer keinen 64-Bit-Nachfolger für den selbst entwickelten ARMv7-Kern Krait 400, der immerhin derzeit die Benchmark-Listen bei den Top-Geräten anführt. Folglich gibt es nun zwar ARMv8-Chips in den Baureihen Snapdragon 400 und 600, nicht aber beim Snapdragon 800. Es scheint fast, als ist Qualcomm bereit, auf Effizienz und Performance zu verzichten, nur um im 64-Bit-Rennen nicht ins Hintertreffen zu geraten. Dank des integrierten LTE-Modems könnte diese Rechnung aufgehen.

Wie war das, 64 bit sind nicht nötig?

Blediator16
2014-02-24, 12:50:10
Man kann sich natürlich die nächsten 3 Jahrzehnte an dieser Aussage aufgeilen und das "tote Pferd schlagen".

deekey777
2014-02-24, 13:34:30
Man kann sich natürlich die nächsten 3 Jahrzehnte an dieser Aussage aufgeilen und das "tote Pferd schlagen".
Habe ich irgendwie deine Gefühle verletzt?

Ailuros
2014-02-24, 13:39:54
Man kann sich natürlich die nächsten 3 Jahrzehnte an dieser Aussage aufgeilen und das "tote Pferd schlagen".

Ich zumindest werde persoenlich dafuer sorgen dass den 64bit und octacore Scheiss genug unter die Nase gerieben bekommt und Du darfst dem toten Gaul in der Zwischenzeit Blumen bringen.

deekey777
2014-02-24, 13:51:33
Das blöde ist, dass es keinen guten Eindruck nach außen macht, weil es eben kein Krait ist, selbst wenn es nicht das erste Mal ist, dass "Standardware" von ARM eingesetzt wird.

Krait ist einfach der Hammer, der Name sitzt tief in den Köpfen.

Ailuros
2014-02-24, 14:08:27
Snapdragon 610 & 615 quad & octa-core 64bit ARM CPUs @Anandtech:

http://www.anandtech.com/show/7784/snapdragon-610-615-qualcomm-continues-down-its-64bit-warpath-with-48core-cortex-a53-designs

robbitop
2014-02-24, 14:12:10
Ich bin mal gespannt, wann Qualcomm 64 Bit Customcores kommen. Von Samsung sollte ja auch noch ein 64 Bit Customcore kommen, oder?

deekey777
2014-02-24, 14:19:03
... Von Samsung sollte ja auch noch ein 64 Bit Customcore kommen, oder?
Das ist nicht so richtig klar. Es gab eine Aussage, dass ein Produkt mit 64-bit kommen wird, nicht aber explizit ein Eskimo 6. Ein Tablet mit 64 bit ist heute mit einem Atom unproblematisch.

Ailuros
2014-02-24, 14:22:19
Ich bin mal gespannt, wann Qualcomm 64 Bit Customcores kommen. Von Samsung sollte ja auch noch ein 64 Bit Customcore kommen, oder?

Irgendwann kommen alle mit 64bit CPUs an, die Frage ist nur wann? Ich hab zwar keine Ahnung was im Exynos6 stecken soll aber selbst wenn es ein A57+A53 big.LITTLE config waere hat man in eigenen SoCs 64bit und in den S8xx von QCOM 32bit CPUs? Wo soll der Zweck beim ersten dann genau sein?

deekey777
2014-02-24, 14:53:08
Irgendwann kommen alle mit 64bit CPUs an, die Frage ist nur wann? Ich hab zwar keine Ahnung was im Exynos6 stecken soll aber selbst wenn es ein A57+A53 big.LITTLE config waere hat man in eigenen SoCs 64bit und in den S8xx von QCOM 32bit CPUs? Wo soll der Zweck beim ersten dann genau sein?
Es muss nicht Qualcomm sein, es kann auch Intel werden (ja, jetzt darfst du mich hauen). Für S5 ist der Zug abgefahren.

Ailuros
2014-02-24, 15:09:47
Es muss nicht Qualcomm sein, es kann auch Intel werden (ja, jetzt darfst du mich hauen). Für S5 ist der Zug abgefahren.

Intel ist schon heute in Samsung's Geraeten aber nicht fuer smartphones. Sonst gibt es nichts zum hauen; Samsung hat eine Abteilung voll von Spinnern die LSI heisst :P

Nightspider
2014-02-24, 17:06:00
Jetzt kommt auch noch eine Snapdragon 801. :ugly:

An Produktvielfalt mangelt es bei QualComm jedenfalls nicht.
Wahrscheinlich werden alle Topmodelle, die auf dem MWC vorgestellt werden den 801 bekommen.
Vielleicht auch welche in Kombination mit dem schnellen iNAND von SanDisk.

Ailuros
2014-02-24, 17:58:30
Jetzt kommt auch noch eine Snapdragon 801. :ugly:

An Produktvielfalt mangelt es bei QualComm jedenfalls nicht.
Wahrscheinlich werden alle Topmodelle, die auf dem MWC vorgestellt werden den 801 bekommen.
Vielleicht auch welche in Kombination mit dem schnellen iNAND von SanDisk.

http://arstechnica.com/gadgets/2014/02/meet-qualcomms-snapdragon-801-a-slightly-faster-snapdragon-800/

Klingt mir hauptsaechlich nach einem ein bisschen schneller getakteten S800; "Vielfalt" wuerde ich es nicht nennen.

Avalox
2014-03-08, 11:11:12
Ganz gute Übersicht.

http://www.androidauthority.com/snapdragon-801-vs-800-353448/

Ravenhearth
2014-04-07, 13:44:03
Qualcomm hat den Snapdragon 810 und 808 angekündigt. (http://www.qualcomm.com/media/releases/2014/04/07/qualcomm-announces-ultimate-connected-computing-next-generation-snapdragon)

Der 810 kommt anscheinend mit 4 A57 sowie 4 A53-Kernen (big.LITTLE ?!) und Adreno 430 in 20nm samt LPDDR4. Der 808 bietet 2 A57 und 4 A53, Adreno 418 und LPDDR3 in 20nm. Erste Geräte sollte man frühestens im ersten Halbjahr 2015 erwarten.

Das überrascht mich nun doch. Was ist der Grund, dass Qualcomm auf A57+A53 setzt? Kommt man mit einem Krait-Nachfolger nicht aus dem Quark?

Nightspider
2014-04-07, 14:01:36
Der 805 hat doch Dualchannel LPDDR3 oder?
Bekommt der 810 dank LPDDR4 dann nur SingleChannel oder wird man in die Vollen gehen und sogar DualChannel LPDDR4 anbieten?
Damit müsste man doch schon bei knapp 50GB/s liegen. Denn wenn ich mich nicht irre waren DualChannel LPDDR3 schon 25GB/s.

Vier A57 Kerne mit 2,5Ghz dürften gut abgehen. Ich gehe mal davon aus das man damit Cyclone schlagen wird. Die Frage ist nur wie stark und wie hoch die Taktraten vom Apple A8 unter 20nm ausfallen werden.

YfOrU
2014-04-07, 14:15:12
Gegen einen 20nm A8 wird das eher nichts werden. Weder Time to Market noch Performance. A57 hat zwar gegenüber A15 eine höhere IPC aber selbst wenn Apple Cyclone 1 zu 1 in 20nm bringt dürfte die Differenz noch deutlich zu groß sein um es über die Taktfrequenz kompensieren zu können.

btw. der S810 hat laut AT 2*32-bit LPDDR4-1600.

AffenJack
2014-04-07, 16:41:30
Das überrascht mich nun doch. Was ist der Grund, dass Qualcomm auf A57+A53 setzt? Kommt man mit einem Krait-Nachfolger nicht aus dem Quark?

Wie du schon sagst, man kommt nicht ausn Quark. Das könnte für QC ganz schön bitter werden, wenn man als letzter mitn Custom Core ankommt. Scheint als wäre QC von 64Bit richtig überrumpelt worden. Kommt aber natürlich drauf an, wie gut A57 ist. Wenn die Custom Cores nicht viel besser werden ists noch ok. Ansonsten könnte man aber ganz schön Probleme bekommen und vor allem Intel nen guten Einstieg in den Markt ermöglichen.

Ailuros
2014-04-07, 17:18:25
Vier A57 Kerne mit 2,5Ghz dürften gut abgehen. Ich gehe mal davon aus das man damit Cyclone schlagen wird. Die Frage ist nur wie stark und wie hoch die Taktraten vom Apple A8 unter 20nm ausfallen werden.

Es sind 4*A57 + 4*A53; die A7 CPU wird man schon damit schlagen koennen bleibt die Frage wie es mit der A8 CPU aussehen wird.

fondness
2014-04-07, 19:37:28
Eine absolute Notlösung weil der eigenen 64-bit Core noch nicht fertig ist. Eigentlich blamabel für ein Unternehmen wie Qualcomm. Zwar bringt 64-bit im mobile-Segment noch genau gar nichts, aber man scheint die marketingtechnische Wirkung völlig unterschätzt zu haben.

Nightspider
2014-04-07, 19:41:22
Das kannst du doch gar nicht wissen.

QualComm hätte genauso gut von Anfang an A57 SoCs planen können, weil sie schon früher wussten das größere Anpassungen zu viel Zeit benötigen.

Solange du nicht gerade in einem der großen IT Unternehmen steckst und das objektiv bewerten kannst würde ich nie so eine Behauptung aufstellen, die völlig aus der Luft gegriffen ist.

Nakai
2014-04-07, 19:50:01
Wie sieht es eigentlich mit der Energieeffizienz des A57 und A53 aus?

Nightspider
2014-04-07, 21:06:52
http://www.hardwareluxx.de/images/stories/newsbilder/pbellmer/2014/snapdragon_810.png

Die A57 sind ja immer noch winzig. Ob die wirklich eine Chance gegen Cyclone haben? Nach dem Bild bin ich skeptisch.

fondness
2014-04-07, 21:07:04
Das kannst du doch gar nicht wissen.

QualComm hätte genauso gut von Anfang an A57 SoCs planen können, weil sie schon früher wussten das größere Anpassungen zu viel Zeit benötigen.

Solange du nicht gerade in einem der großen IT Unternehmen steckst und das objektiv bewerten kannst würde ich nie so eine Behauptung aufstellen, die völlig aus der Luft gegriffen ist.

Qualcomm unterhält nicht zum Spaß eine große Chip-Design-Abteilung wovon ein Großteil auf das CPU-Design spezialisiert ist. Wenn sie zu viel Zeit benötigen spricht das nicht gerade für ihre Planung.

fondness
2014-04-07, 21:10:27
Wie sieht es eigentlich mit der Energieeffizienz des A57 und A53 aus?

AMD gibt für den 8 Core A57 25 Watt bei >=2Ghz an.

Nightspider
2014-04-07, 21:11:20
Was spricht dagegen das dieses große Team einen stark veränderten A57 im 2.H 2015 herausbringt und dabei trotzdem effizient und schnell arbeitet?

Nur weil Apple so schnell die IPC steigern konnte wertet das die Konkurrenz nicht automatisch ab.
Denn Apple hat einfach das größte Team mit den besten Mitarbeitern.

QualComm wird sich bestimmt nicht geschlagen geben und nach den großen Gewinnen der letzten 2 Jahre wird QualComm weiter massiv in R&D investieren.

€:

Du weißt doch gar nicht was im Hintergrund abläuft und welche Designs verworfen werden und wo Prioritäten neu verteilt werden. Das spielt Vieles eine Rolle und nur weil Krait sogar vor A15 kam muss das bei A57 nicht genauso sein.
Vielleicht waren die Schwachstellen im A15 Design damals auch viel leichter zu finden als beim A57.
Vielleicht bastelt QC auch an einem komplett eigenen Design, welches sich massiv von den ARM Kernen absetzt. Das kannst du gar nicht wissen. Sowas weiß keiner. Deswegen finde ich solche Sprüche vonwegen "Notlösung" immer etwas bizarr.

fondness
2014-04-07, 21:16:00
Was spricht dagegen das dieses große Team einen stark veränderten A57 im 2.H 2015 herausbringt und dabei trotzdem effizient und schnell arbeitet?

Nur weil Apple so schnell die IPC steigern konnte wertet das die Konkurrenz nicht automatisch ab.
Denn Apple hat einfach das größte Team mit den besten Mitarbeitern.

QualComm wird sich bestimmt nicht geschlagen geben und nach den großen Gewinnen der letzten 2 Jahre wird QualComm weiter massiv in R&D investieren.

Darum gings mir ja gar nicht, ich finde es nur seltsam das Qualcomm mit dieser Mann-Power und dieses Ressourcen auf eine fertigen ARM-Core setzt. Das haben sie im High-End schon ewig nicht mehr gemacht und spricht eben IMO klar dafür, dass hier wohl etwas nicht nach Plan gelaufen ist.

Nightspider
2014-04-07, 23:01:33
Die Konkurrenz setzt seit je her auf fertige ARM Cores.
Und schlecht waren diese keinesfalls. Tegra und Exynos waren zu spät, zu teuer, zu selten und boten bisher einfach nicht das Gesamtpaket, welches QC bieten konnte.
Nicht umsonst setzt Samsung auch A15 Kerne in den schnellsten Geräten mit Wlan ein. Günstig und sehr performant was die CPU-Leistung angeht.

Soo schlimm wirds also nicht sein. Zumal die Teile wohl mit mindestens 2,5 Ghz takten werden und sicherlich mindestens 30% mehr IPC bieten werden als A15.

Ailuros
2014-04-08, 07:12:35
Wie sieht es eigentlich mit der Energieeffizienz des A57 und A53 aus?

Ich schaetze mehr oder weniger A15/A7 Verbrauch mit 20-30% mehr Leistung.

Qualcomm unterhält nicht zum Spaß eine große Chip-Design-Abteilung wovon ein Großteil auf das CPU-Design spezialisiert ist. Wenn sie zu viel Zeit benötigen spricht das nicht gerade für ihre Planung.

Bei privater Besprechung mit ARM engineers wussten nichtmal die dass Apple schon so frueh mit einer 64bit CPU ankommt. Alle ausser Apple offensichtlich hatten 64bit CPUs fuer 2015 geplant, daran liegt nichts merkwuerdiges. Als QCOM insiders in der Presse zugaben dass ihnen Apple die Hosen runtergezogen hatte war es ja auch angeblich irgend ein marketing stunt um Apple's Zeug noch besser zu vermarkten.

Nach dem was ich hoere wird QCOM nicht all zu lange auf die Ankuendigung ihrer eigenen 64bit Architektur warten lassen; die ARM A57/53 SoCs sind nur schnelle Zwischenstecker so wie es aussieht.

http://forum.beyond3d.com/showpost.php?p=1839652&postcount=10

Ankuendigung wohl noch innerhalb des Jahres.

AMD gibt für den 8 Core A57 25 Watt bei >=2Ghz an.

Und das soll fuer was genau helfen? Erstens sind die cores fuer Leistung und nicht area optimiert und zweitens fragte er ueber ein A57/53 config.

Ailuros
2014-04-15, 19:41:01
http://forum.beyond3d.com/showpost.php?p=1841228&postcount=557

Stromverbrauch auf S800 pro CPU core; zum Konstrast gibt es 5422 A15/A7 Messungen im Samsung thread.

Avalox
2014-05-12, 15:56:15
So wie es aussieht wird Pantech in der zweiten Jahreshälfte ein 6 Zoll Smartphone mit Snapdragon 810 bestücken. Snapdragon 810 ist ein 64 Bit big.LITTLE SoC mit Cortex A57 und Cortex A53 CPU Kernen.

http://www.go2android.de/snapdragon-810-pantech-vega-note-2-wird-das-erste-sein/

Label
2014-05-22, 06:12:05
anandtech: qualcomm-snapdragon-805-performance-preview (http://www.anandtech.com/show/8035/qualcomm-snapdragon-805-performance-preview)

Nightspider
2014-05-22, 06:37:45
Ist bekannt wie groß der S800 ist und wie groß der S805 wird?

AffenJack
2014-05-22, 08:18:13
Wenn ich mir die Resultate ansehe, habe ich das Gefühl das könnte der erste Misserfolg in Sachen SoCs bei Qualcomm in den letzten Jahren werden. Einzig ne Top Energieeffizienz um in vielen Telefonen reinzukommen kann ihn retten.

In Tablets wird er zu langsam im Vergleich zu K1 sein, wenns um Performancetablets geht. In Telefonen werden viele ihn überspringen, da er kein intergriertes LTE-Modem hat.

Wichtig auch nochmals die Aussage, dass 810 erst nächstes Jahr kommen soll. Da glaube ich nicht ans Pantech tablet mit dem.

deekey777
2014-05-22, 08:35:54
Der 805 ist ein Lückenfüller, bis die neuen 808 und 810 fertig sind. Ob die Hersteller bis dahin bei 800/801 bleiben oder den neuen schnelleren 805 einsetzen, entscheiden die Hersteller.

LTE scheint 805 sehr wohl zu bieten: http://en.wikipedia.org/wiki/Snapdragon_%28system_on_chip%29#Snapdragon_805

AffenJack
2014-05-22, 09:06:53
Der 805 ist ein Lückenfüller, bis die neuen 808 und 810 fertig sind. Ob die Hersteller bis dahin bei 800/801 bleiben oder den neuen schnelleren 805 einsetzen, entscheiden die Hersteller.

LTE scheint 805 sehr wohl zu bieten: http://en.wikipedia.org/wiki/Snapdragon_%28system_on_chip%29#Snapdragon_805

Auch Lückenfüller müssen sich verkaufen.
Glaubst du alles was Wikipedia sagt? Anand hat das Preview Sample bekommen und gesagt, kein LTE. Wikipedia liefert nichtmal ne Quelle. Die Benennung ist auch meist anders, wenn LTE dabei ist. Eigentlich müsste das dann nen MSM Chip sein meine ich.

@Nightspider
Da ihr oben ja CPU-Entwicklung bei QC diskutiert habt. QC hat mittlerweile ein Entwicklungsbudget, was in Regionen vorstößt die sonst nur Intel erreicht. Da bin ich mit Fondness einer Meinung, dass sie hätten mehr liefern müssen.

Thunder99
2014-05-22, 09:17:15
Dann ist der S805 ein reiner Tablet SoC was nur WiFi bietet wenn sie nicht noch ein MSM Chip hinterher schieben.

Mich würde auch der Stromverbrauch der CPU interessieren. Hier wurde nur die GPU angepriesen

deekey777
2014-05-22, 09:46:18
Auch Lückenfüller müssen sich verkaufen.
Glaubst du alles was Wikipedia sagt? Anand hat das Preview Sample bekommen und gesagt, kein LTE. Wikipedia liefert nichtmal ne Quelle. Die Benennung ist auch meist anders, wenn LTE dabei ist. Eigentlich müsste das dann nen MSM Chip sein meine ich.


Wo siehst du, dass 805 über kein integriertes Modem verfügt? Anandtech hat ein Gerät mit einem APQ8084 (ohne WAN) erhalten, WAN haben nur APQ8284 (HSPA+) und APQ8984 (LTE)

http://www.qualcomm.com/snapdragon/processors/805
Snapdragon 805 processors specs

CPU

28 HPm quad core Krait 450 CPU at up to 2.7 GHz per core

LP-DDR3 memory for high performance and low latency
GPU

Adreno 420 GPU, with up to 40% graphics and compute performance improvement over its predecessor, enables support for advanced console quality gaming and smooth UIs on Ultra HD displays, as well as decreased power consumption for UI and games, allowing more hours of gaming without recharging

Support for advanced graphic and compute APIs, including OpenGL ES 3.0, DirectX, OpenCL, Renderscript Compute and FlexRender™1
Power Management

Energy efficient High Performance for Mobile (HPm) technology

aSMP dynamic CPU power control for sustained peak performance

New Quick Charge 2.0 integrated for up to 75% faster battery charging2

Uses WPR3401A receiver solution capable of providing up to 5 watts to power a device
DSP

Hexagon, QDSP6V5A, 600MHz

Hexagon DSP enables ultra-low power operation for a variety of applications like music playback, enhanced audio and advanced editing applications
Modem

Gobi™ True 4G LTE World Mode, supporting LTE FDD, LTE TDD, WCDMA, CDMA1x, EV-DO, TD-SCDMA and GSM3

Allows LTE Category 6 data rates of up to 300 Mbps download

First to support 40MHz LTE Advanced CA on both LTE TDD and LTE FDD duplexing modes
USB

USB 3.0/2.03

New USB 3.0 for ultra-fast transfers
Bluetooth

BT4.0 + Integrated digital core
WiFi

802.11ac3 Wi-Fi for peak Wi-Fi performance + Integrated digital core3
GPS

IZat GNSS location technology combines multiple location services into a single high performance navigation system for auto and pedestrian applications
Video

Enables a truly end-to-end Ultra HD (4K) solution, making movie theater-quality resolution available to smartphone and tablet users

4K playback with H.264 (AVC) and H.265 (HEVC)

4K capture with H.264 (AVC)
Camera

Up to 55 Megapixel, stereoscopic 3D

The world's first mobile 1GPixel/s (Giga-pixel per second) ISP (image signal processor) packs a large increase in ISP and CPP (camera postprocessor) speed and throughput, designed to enable users to take sharper, higher resolution photos with advanced post-processing features for low light conditions

Dual Image Signal Processors for Snapdragon Camera support simultaneous camera/video, ultrafast 640 Megapixel/second capture speeds and computational camera
Display

Ultra HD on-device display concurrent with Ultra HD output to HDTV

1080p and 4K external displays
Process Technology

28nm HPm

dildo4u
2014-05-22, 09:50:13
Jup 805 mit LTE kommt später(Q3,)daher kommt LG G3 auch noch mit 801.

Unicous
2014-05-22, 11:46:38
Was gibt es denn beim 805 zu meckern. Deutlich bessere Grafikleistung, die teilweise von Qualcomms schlechten Treibern zurückgehalten wird, erkennbar an dem weiterhin hohen Overhead (und daraus resultierend niedrigen fps) beim GFXBench 3.0 Overhead Test. Da wird der Treiber ja mit API Calls bombardiert und Qualcomm Chips gefällt das gar nicht. Apple und zu einem geringeren Teil auch Nvidia haben damit weniger Probleme.

Als Lückenbüßer eine feine Sache. Wahrscheinlich niedrigere Leistungsaufnahme bei "normaler" Nutzung und deutlich höhere Grafikleistung im Vergleich zum Vorgänger (Regressionen oder Gleichstand würde ich mal auf den Treiber oder Hardware-Konfigurationen schieben).

Ailuros
2014-05-22, 12:45:47
Was gibt es denn beim 805 zu meckern.

Zum meckern per se nichts; aber mir waere es lieber wenn der Adreno420 sagen wir mal um 80% effizienter waere als der Adreno330 und stattdessen kein DX11 in hw unterstuetzen. Klar will QCOM aus ihren eigenen Gruenden Microsoft's Schokoladenseite ablecken, aber wieso man jetzt mir nichts dir nichts DX11 braucht ist mir bis jetzt noch nicht klar.

Deutlich bessere Grafikleistung, die teilweise von Qualcomms schlechten Treibern zurückgehalten wird, erkennbar an dem weiterhin hohen Overhead (und daraus resultierend niedrigen fps) beim GFXBench 3.0 Overhead Test. Da wird der Treiber ja mit API Calls bombardiert und Qualcomm Chips gefällt das gar nicht. Apple und zu einem geringeren Teil auch Nvidia haben damit weniger Probleme.

Moment; hast Du den driver overhead test schon selber laufen lassen? Es rendert ziemlich einfaches Zeug nur mit einen Haufen state changes die aber Echtzeit Anwendungen auch reflektieren soll. Etwas ueberirdisches oder unrealistisches legt der test nicht an. Nur dass es niemand falsch versteht.

Der "hoppla-Effekt" bei A7 koennte durchaus an spezifischen hw Optimierungen am Apple Cyclone liegen.

AffenJack
2014-05-22, 13:33:03
Wo siehst du, dass 805 über kein integriertes Modem verfügt? Anandtech hat ein Gerät mit einem APQ8084 (ohne WAN) erhalten, WAN haben nur APQ8284 (HSPA+) und APQ8984 (LTE)

http://www.qualcomm.com/snapdragon/processors/805


Ich ging auch vom Bild vorne aus, dass beim S805 nen externes Modem gezeigt hat und wie gesagt vom Namen. APQ8984 passt nämlich immernoch nicht, muss wie gesagt wenn MSM8984 sein. Aber QC Seite nehm ich gerne als Quelle an und akzeptiere es.

Ailuros
2014-05-22, 18:05:32
Meine Lorbeeren blah blah blah:

http://forum.beyond3d.com/showpost.php?p=1847662&postcount=2348

I believe QCOM claimed Adreno330 +40% for which I assume that its valid for the same clocks between the two? In any case the highest clocked 330 right now achieves ~12 fps in Manhattan offscreen + those 40% = 17 fps. Careful though if a vendor would integrate a K1 into a high end smartphone I wouldn't expect there any 28-30 fps performance in that bench either.

Anand hat 17.7 fps erreicht: http://www.anandtech.com/show/8035/qualcomm-snapdragon-805-performance-preview/3

Ok dann Lorbeeren -0.7 :P

Sonst Kinderkram zur Seite: Manhattan ist so ALU limitiert dass es nicht besonders schwer ist Resultate einzuschaetzen. Demzufolge hat Adreno420 im S805 eine GPU die um ca. 210 GFLOPs FP32 verfuegt. Auf Papier duerfte die GPU um ungefaehr 15% langsamer sein als GK20A im MiPad minus stets die ultra-miserablen GPU Treiber von Qualcomm.

Undertaker
2014-05-22, 18:09:34
Ähm, die 40 % hat Qualcomm zur Vorstellung im November 2013 schon genannt:

http://www.qualcomm.com/media/releases/2013/11/20/qualcomm-technologies-announces-next-generation-qualcomm-snapdragon-805

Was genau ist da jetzt also die Leistung, 12 * 1,4 gerechnet zu haben? :D

Ailuros
2014-05-22, 18:14:45
Ähm, die 40 % hat Qualcomm zur Vorstellung im November 2013 schon genannt:

http://www.qualcomm.com/media/releases/2013/11/20/qualcomm-technologies-announces-next-generation-qualcomm-snapdragon-805

Was genau ist da jetzt also die Leistung, 12 * 1,4 gerechnet zu haben? :D

Ich sag doch Kinderkram (ich darf mich wohl selber verarschen oder?) :P

Sonst hast Du wohl auch den edit nicht ganz erwischt. 330 hat 8*SIMD16@580MHz (peak momentan) und jetzt muss man halt nur noch auf ~210 GFLOPs hochrechnen um die moegliche Einheiten-Anzahl einzuschaetzen. TMUs duerften immer noch 8 sein.

***edit: tipp es sind wohl soviel FLOPs/clock wie auch auf einer anderen vielbesprochenen GPU :P

******edit2: wobei die Fuellraten und alpha blending Werte so brutal hoch sind weil der 805 auch eine verrueckt hohe SoC Bandbreite hat im Vergleich zu anderen SoCs. Aber driver overhead offscreen 26 fps ROTFLMAO :D

fondness
2014-05-23, 16:27:03
Qualcomm Snapdragon 805 Performance Preview
http://www.anandtech.com/show/8035/qualcomm-snapdragon-805-performance-preview

Ist das Ding tatsächlich voll DX11 FL11_2 konform?

Coda
2014-05-23, 16:43:06
Sonst würden sie es wohl kaum hinschreiben.

Ailuros
2014-05-23, 17:39:33
Qualcomm Snapdragon 805 Performance Preview
http://www.anandtech.com/show/8035/qualcomm-snapdragon-805-performance-preview

Ist das Ding tatsächlich voll DX11 FL11_2 konform?

Wie Coda schon sagte sonst wuerden sie es nicht angeben und schon gar nicht klipp und klar feature_level 11.2.

Das hier hingegen http://www.arm.com/products/multimedia/mali-high-end-graphics/mali-t760.php kannste eher vergessen egal was sie angeben. DX10.1 im allerbesten Fall wenn ueberhaupt.

fondness
2014-05-23, 18:28:38
Hätte mir nicht gedacht das wir sowas so schnell in einem Smartphone sehen. NV hat es bis heute nicht geschafft FL 11_2 am Desktop zu bringen.

Thunder99
2014-05-23, 20:34:28
Wo ein Wille besteht... ;)

Undertaker
2014-05-23, 20:47:21
Genau das ist der Knackpunkt. :wink: Wir haben schon lange genug über den Sinn von DX11 überhaupt im mobile-Segment diskutiert; Feature Level 11.2 schadet nicht, ist aber wertloser als jedes Promille mehr Effizienz bzw. Performance. Diesbzgl. sieht es zwar solide, aber nicht unbedingt rekordverdächtig aus. 17 fps in Manhattan reißen in Tablets jetzt keinen vom Hocker. Daran ändern auch ein paar Prozent Treiberverbesserungen nix mehr...

fondness
2014-05-23, 20:57:30
Wir haben schon lange genug über den Sinn von DX11 überhaupt im mobile-Segment diskutiert; Feature Level 11.2 schadet nicht, ist aber wertloser als jedes Promille mehr Effizienz bzw. Performance.


Darüber kann man auch weiter diskutieren ;)
Es ist schon ein gewaltiger Unterschied ob ich nur OpenGL ES 2.0 oder DX11 FL11.2 unterstütze.


Diesbzgl. sieht es zwar solide, aber nicht unbedingt rekordverdächtig aus. 17 fps in Manhattan reißen in Tablets jetzt keinen vom Hocker. Daran ändern auch ein paar Prozent Treiberverbesserungen nix mehr...

fps sind wertlos als Vergleich, ansonsten könnte man auch mit Desktop-Chips vergleichen.
Der SoC ist auch und vor allem für Smartphones und wird wohl mal wieder mit sehr guter Perf/Watt punkten.

Undertaker
2014-05-23, 21:05:27
Darüber kann man auch weiter diskutieren ;)
Es ist schon ein gewaltiges Unterschied ob ich nur OpenGL ES 2.0 oder DX11 FL11.2 unterstütze.

Häh? Die Rede war vom zweifelhaften Mehrwert von DX11.2. Mehr Effizienz, Ausmaß beliebig und z.B. nur 11.0 wären in jedem Fall vorteilhafter.


Der SoC ist auch und vor allem für Smartphones und wird wohl mal wieder mit sehr guter Perf/Watt punkten.

Die Benchmarks sind von der Tablet-Plattform. Und das Qualcomm da auch Zahlen liefert, die explizit nur für die Tablet-Modelle gelten, kennen wir ja vom Snapdragon 800 (http://www.anandtech.com/show/7082/snapdragon-800-msm8974-performance-preview-qualcomm-mobile-development-tablet/4). Und im Tablet sind die nun durchgesickerten GPU-Performancewerte für eine Tabletplattform H2/2014 sind nun einmal nicht berauschend.

fondness
2014-05-23, 21:09:08
Häh? Die Rede war vom zweifelhaften Mehrwert von DX11.2. Mehr Effizienz, Ausmaß beliebig und z.B. nur 11.0 wären in jedem Fall vorteilhafter.

Okay das hörte sich so an als wären die zusätzlichen Features generell nutzlos.


Die Benchmarks sind von der Tablet-Plattform. Und das Qualcomm da auch Zahlen liefert, die explizit nur für die Tablet-Modelle gelten, kennen wir ja vom Snapdragon 800 (http://www.anandtech.com/show/7082/snapdragon-800-msm8974-performance-preview-qualcomm-mobile-development-tablet/4). Und im Tablet sind die nun durchgesickerten GPU-Performancewerte für eine Tabletplattform H2/2014 sind nun einmal nicht berauschend.

Wie schon gesagt, ohne einen Vergleich der Leistungsaufnahme sind solche Aussagen wertlos. Nicht berauschend im Vergleich zu was? Einen 10W-15W K1 oder Haswell ULV? Mag sein, die spielen vermutlich aber auch in einer anderen Leistungsaufnahmeliga.

Undertaker
2014-05-23, 21:20:20
Wie schon gesagt, ohne einen Vergleich der Leistungsaufnahme sind solche Aussagen wertlos. Nicht berauschend im Vergleich zu was?

Im Vergleich zu anderen in diesem Zeitraum aktuellen SoCs. Und in einem derart Power-limitierten Formfaktor ist ein Vergleich der Performance durchaus zielführend, zumal es ja nicht nur um Differenzen von 20 oder 30 Prozent geht.

Den Status der schnellsten GPU im jeweiligen Formfaktor, den der S800 zumindest zeitweilig bzw. geteilt zweifellos innehatte, wird der S805 in Tablets zumindest nicht erringen. Das ist schon ein gewisser Rückschritt, dementsprechend kann man in dieser Hinsicht etwas enttäuscht sein. Das sollte dazu reichen. :)

Ailuros
2014-05-23, 21:36:37
Häh? Die Rede war vom zweifelhaften Mehrwert von DX11.2. Mehr Effizienz, Ausmaß beliebig und z.B. nur 11.0 wären in jedem Fall vorteilhafter.

Selbst OGL_ES3.1 reicht vollkommen aus. Ich hab wie gesagt noch keine Ahnung was QCOM mit der 4xx Familie im Hinterkopf genau vorhat; es ist rundum als alles zu schwach in Leistung.

Was willst Du genau auf einem tablet bzw. smartphone tessellieren?

Heimatsuchender
2014-06-12, 18:33:04
Mal eine Frage: In aktuellen Smartphones werkelt ja der S801. Jetzt sollen Premium-Modelle mit dem S805 kommen.

Braucht man den als Normalnutzer unbedingt? Oder ist die Leistung des S805 toll für Benchmarks aber nicht nötig in Smartphones? Wie gesagt: Ich spreche von Normalnutzern wie mich - telefonieren, surfen, WhatsApp, ab und zu ein kleines Game (wenn ich auf den Zug/Bus warte) Navi-Software.....

Die Frage ist nämlich: Kaufen? Oder warten? Aber da es immer was besseres/schnelleres geben wird, wartet man eventuell ewig.



tobife

Nightspider
2014-06-12, 18:37:57
Der 805 unterstützt paar weitere Satellitennavigationssysteme aber wie groß sich das auf die Genauigkeit/Verbindungsqualität auswirkt wird dir noch keiner sagen können.

Wenn du nicht zockst wird sich das kaum bemerkbar machen. Insgesamt wird der 805 aber schon dicke Leistung und Bandbreite bieten aber im Alltag wird der Unterschied vielleicht kaum fühlbar sein.

Größere Sprünge bringt dann der 810 nächstes Jahr mit neuer CPU-Architektur.

Ein Vorteil sind eben auch die 3GB RAM, welche bei vielen Premium-Modellen verbaut werden.

Heimatsuchender
2014-06-12, 18:43:42
Der 805 unterstützt paar weitere Satellitennavigationssysteme aber wie groß sich das auf die Genauigkeit/Verbindungsqualität auswirkt wird dir noch keiner sagen können.

Wenn du nicht zockst wird sich das kaum bemerkbar machen. Insgesamt wird der 805 aber schon dicke Leistung und Bandbreite bieten aber im Alltag wird der Unterschied vielleicht kaum fühlbar sein.

Größere Sprünge bringt dann der 810 nächstes Jahr mit neuer CPU-Architektur.

Ein Vorteil sind eben auch die 3GB RAM, welche bei vielen Premium-Modellen verbaut werden.


Ich habe das G3 vorbestellt. Da sind ja schon 3G Ram drin. Aber ich denke, dass der S801 für mich reicht. Momentan nutze ich das iPhone 5 und ein Motorola Moto G. Die reichen locker für das, was ich damit mache.



tobife

Thunder99
2014-06-13, 14:46:52
FSM 9xxx Serie?

http://www.fudzilla.com/home/item/34956-qualcomm-issues-new-socs

lumines
2014-06-13, 15:10:18
Ich habe das G3 vorbestellt. Da sind ja schon 3G Ram drin. Aber ich denke, dass der S801 für mich reicht. Momentan nutze ich das iPhone 5 und ein Motorola Moto G. Die reichen locker für das, was ich damit mache.

Ich finde schon den S600 relativ schnell und vielen reicht ja auch ein S400 wie eben im Moto G. Ein S8xx ist da CPU-seitig schon mehr als nur ein guter Puffer. Die GPU ist ja auch nicht zu unterschätzen.

Ich habe hier auch noch ein Nexus 4 mit einem S4 Pro (1,5 GHz), der allerdings (afaik) relativ oft auf 1,2 GHz drosselt. Davon merke ich im Alltagsbetrieb nicht wirklich etwas, deshalb stört es mich eigentlich auch nicht. Alles öffnet sich sowieso quasi sofort.

Sagen wir mal so: Wenn man nicht weiß, wofür man wirklich viel CPU-Leistung in einem Smartphone bräuchte (>S800), dann braucht man sie auch höchstwahrscheinlich eher selten oder gar nicht. Edge Cases gibt es natürlich immer, aber darüber sind sich die jeweiligen Leute dann meistens auch bewusst.

Ich will damit nicht die Entwicklung von leistungsstarken SoCs in Frage stellen, sondern nur feststellen, dass wir schon ein sehr angenehmes Leistungsniveau mit günstigen SoCs erreicht haben.

Thunder99
2014-06-13, 15:13:34
Schnell genug finde ich das was meine Aufgaben ohne ruckeln, verzögern und flüssig darstellen bzw wiedergeben. Gerade Internet sollte dann nur von der Bandbreite gedrosselt sein aber nicht vom Smartphone selber (Ladezeiten ect)

mboeller
2014-06-13, 16:19:46
http://www.heise.de/newsticker/meldung/Qualcomm-Chip-als-Baustein-fuer-die-private-LTE-Funkzelle-2220952.html

die deutsche Meldung auf Heise.de zu dem FSM90xx

Klingt IMHO ziemlich interessant

deekey777
2014-06-18, 08:24:08
Wohl das erste (bald erscheinende )Smartphone mit Snapdragon 805: http://www.tabtech.de/android-bzw-google-tablet-pc-news/samsung-galaxy-s5-lte-mit-51-zoll-2560-x-1440-pixel-snapdragon-805-vorgestellt

Ailuros
2014-06-18, 08:57:45
Wohl das erste (bald erscheinende )Smartphone mit Snapdragon 805: http://www.tabtech.de/android-bzw-google-tablet-pc-news/samsung-galaxy-s5-lte-mit-51-zoll-2560-x-1440-pixel-snapdragon-805-vorgestellt

Dem Meizu MX4 wird auch ein 805 zugeschrieben http://www.phonearena.com/news/New-Meizu-MX4-could-cost-about-320-may-be-launched-in-August_id55420

....obwohl ich das Gefuehl habe dass wenn der Preis stimmt es wohl eher einen bescheideneren SoC haben wird.

deekey777
2014-06-20, 12:10:21
Erste Smartphones mit Snapdragon 410?
http://www.tabtech.de/android-bzw-google-tablet-pc-news/snapdragon-410-erste-64-bit-smartphones-von-samsung-und-huawei-aufgetaucht

Nightspider
2014-06-20, 12:19:45
Ich rege mich ja auf das Motorola nicht gleich in die neue LTE Version vom Moto G ein S410 gebaut hat. -.-

deekey777
2014-06-23, 20:07:26
http://www.anandtech.com/show/8194/google-io-qualcomm-celebrates-launch-of-adreno-420-gpu-for-android-gaming

For Qualcomm the Adreno 420 in particular is an especially big deal since it is the first GPU to ship based on the Adreno 400 architecture. The Adreno 400 architecture marks a significant advancement in the feature set of Qualcomm’s GPUs, bringing Qualcomm’s latest architecture generally up to par with the existing desktop GPUs by integrating full Direct3D feature level 11_2 functionality alongside the more mobile-focused OpenGL ES 3.1 feature set. By doing so Qualcomm has reached feature parity with desktop GPUs (for the time being), even slightly exceeding NVIDIA’s GPUs by Direct3D standards due to being an FL 11_2 architecture versus NVIDIA’s FL 11_0 architecture.

Nightspider
2014-06-23, 20:27:43
Leider keine Werte zur Effizienz.
Denn für die meisten dürfte es interessant sein, ob die neuen 2560*1440 Display genauso sparsam betrieben werden können wie FHD Varianten wie zB. beim Galaxy S5 (/Prime) und dem LG G3, welches vllt auch noch eine Prime Variante bekommt.

Wäre auch nicht schlecht wenn diese schon im Galaxy Tab S verwendet werden in der LTE Variante.


Wie steht es denn um die ASTC Kompression? Wird die von der Industrie angenommen bzw. könnte diese auch in Zukunft bei Konsolen und Desktop-Games zum Einsatz kommen oder wird ASTC noch nicht von allen aktuellen Grafikkarten unterstützt?

Ailuros
2014-06-23, 20:55:12
Leider keine Werte zur Effizienz.
Denn für die meisten dürfte es interessant sein, ob die neuen 2560*1440 Display genauso sparsam betrieben werden können wie FHD Varianten wie zB. beim Galaxy S5 (/Prime) und dem LG G3, welches vllt auch noch eine Prime Variante bekommt.

Wäre auch nicht schlecht wenn diese schon im Galaxy Tab S verwendet werden in der LTE Variante.

Fuer smartphones ziemlich in Ordnung generell, scheint aber doch als ob wohl die Konkurrenz im Bereich GPU diesmal einen deutlicheren Vorsprung haben wird.

Wie steht es denn um die ASTC Kompression? Wird die von der Industrie angenommen bzw. könnte diese auch in Zukunft bei Konsolen und Desktop-Games zum Einsatz kommen oder wird ASTC noch nicht von allen aktuellen Grafikkarten unterstützt?

Wird von NV K1, Imagination Rogue XT, ARM T7xx und ab Adreno4xx unterstuetzt und ich bezweifle dass Vivante es auch nicht in ihren neuesten IP cores integriert hat. Kurz alle.

Nightspider
2014-06-23, 21:00:15
Also könnten wir ASTC auch bald in der CryEngine, Frostbite Engine vorfinden. Die Chancen dafür stehen nicht schlecht. Dann könnten die Entwickler also Texturen verwenden, welche normalerweise doppelt so groß wären. Dürfte immerhin eine sichtbare Steigerung der Qualität bringen.

Ailuros
2014-06-23, 21:07:19
Also könnten wir ASTC auch bald in der CryEngine, Frostbite Engine vorfinden. Die Chancen dafür stehen nicht schlecht. Dann könnten die Entwickler also Texturen verwenden, welche normalerweise doppelt so groß wären. Dürfte immerhin eine sichtbare Steigerung der Qualität bringen.

Ueber ASTC und dessen Vor- und Nachteile muessten wir unseren lokalen Entwickler fragen; auf Papier klingt das Ganze ausserordentlich gut.

Thunder99
2014-07-15, 12:59:51
S805 wurde hier getestet. Scheint so das die GPU doch ganz ordentlich ist. Nur der Stromverbrauch/Energieeffizient muss noch getestet werden.

Und das Modem ist extern, aber in 20nm gefertigt

http://www.golem.de/news/snapdragon-805-ausprobiert-qualcomms-32-bit-bandbreitenmonster-1407-107791-2.html

Ailuros
2014-07-15, 13:01:29
S805 wurde hier getestet. Scheint so das die GPU doch ganz ordentlich ist. Nur der Stromverbrauch/Energieeffizient muss noch getestet werden
Ach und das Modem ist extern, aber in 20nm gefertigt


http://www.golem.de/news/snapdragon-805-ausprobiert-qualcomms-32-bit-bandbreitenmonster-1407-107791-2.html

Für unsere Messungen stellte uns Qualcomm ein MDP-Tablet (Mobile Development Platform) zur Verfügung.

Nicht unbedingt die naechstbeste smartphone Integrierung.

Ailuros
2014-07-30, 16:25:53
Erste echte smartphone Resultate vom S805:

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=LG%20G3%20%28F460%29

Tschuldigung aber *gaehn* :rolleyes:

AffenJack
2014-07-30, 18:05:49
Naja, echt vielleicht, aber mit finalen Frequenzen? Das glaube ich nicht. Erstmal ein Developerteil mit niedrigeren Frequenzen, sonst ist das einfach zu langsam.

Ailuros
2014-07-30, 18:35:26
Naja, echt vielleicht, aber mit finalen Frequenzen? Das glaube ich nicht. Erstmal ein Developerteil mit niedrigeren Frequenzen, sonst ist das einfach zu langsam.

Ich bezweifle dass es NICHT finale Frequenzen sind, da es sich um das LG G3 handelt. Uebrigens hat die 420 GPU 16 TMUs oder was? Die onscreen Fuellrate kann ich mir sonst nicht erklaeren und afaik taktet momentan der 420 maximal bei 520MHz.

http://gfxbench.com/subtest_results_of_device.jsp?D=LG+G3+%28F460%29&id=554&benchmark=gfx30

8462 MTexels / 8 = 1058 MHz....errrr nein...
8462 MTexels /16 = 529 MHz...WTF?

13.0 fps ist uebrigens der peak score momentan. Medium liegt bei 11.0 fps. Jetzt kann es durchaus sein dass sie noch etwas aus den Treibern kitzeln koennen, aber wenn dann waechst auch die peak 17.7 fps Leistung der MDP Platform vom S805.

AffenJack
2014-07-30, 18:53:20
Ja der eine Füllratenwert ist brutal hoch und auch der 9 FPS Onscreen Wert passt nicht zu den anderen. Bei normaler Skalierung wären das 16 FPS Offscreen, was ja ok wäre im Vergleich zur MDP. Deswegen würde ich da erstmal noch abwarten.

Ailuros
2014-07-30, 19:02:53
Ja der eine Füllratenwert ist brutal hoch und auch der 9 FPS Onscreen Wert passt nicht zu den anderen. Bei normaler Skalierung wären das 16 FPS Offscreen, was ja ok wäre im Vergleich zur MDP. Deswegen würde ich da erstmal noch abwarten.

Fuellrate koennte tatsaechlich ein Treiberfurz sein; sonst beim momentanen Vergleich zu einem Adreno330 bei 2560*1560 nativer Aufloesung:

http://gfxbench.com/compare.jsp?benchmark=gfx30&D1=Vivo+Xplay+3S&os1=Android&api1=gl&D2=LG+G3+%28F460%29&cols=2

Ailuros
2014-08-01, 12:07:58
http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Samsung%20SM-G901

Sieht um einiges besser aus, aber auch weiss der Geier was Samsung wieder mit den Frequenzen getrieben hat dass das Resultat ueber der MDP liegt.

AffenJack
2014-08-01, 12:50:15
Taktraten der Cpu wurden abgesenkt so wies aussieht. Das hat man wohl in die GPU für mehr Takt investiert. Aber ob man die Taktraten länger halten kann ist auch die Frage.

Ailuros
2014-08-01, 13:11:51
Taktraten der Cpu wurden abgesenkt so wies aussieht. Das hat man wohl in die GPU für mehr Takt investiert. Aber ob man die Taktraten länger halten kann ist auch die Frage.

Es ist nicht das erste Mal dass Samsung absichtlich eine Frequenz ausschliesslich fuer populaere benchmarks einlegt und mobile Spiele dann in Echtzeit bei um einiges niedrigerer GPU Taktrate laufen. Es gibt sogar Leute die so etwas als vollkommen "normal" ansehen. Ich nenne es auf jeden Fall schamlose Bescheisserei und es sind eigentlich ISVs wie Kishonti daran schuld die dann auch solchen Bloedsinn zulassen. Futuremark toleriert es auf jeden Fall nicht.

Ailuros
2014-08-02, 10:16:50
Nebuchadnezzar behauptet dass die Samsung Galaxy scores echt sind und nichts komisches daran liegt; wenn ja dann laeuft es wohl mit neueren Treibern fuer S805 und das Ding sieht um einiges besser aus als anfangs erwartet.

AffenJack
2014-08-05, 21:19:47
Bei Anandtech ist mittlerweile dazu nen Artikel, aber da ist was, was mich stutzig macht.

http://images.anandtech.com/graphs/graph8314/65994.png
http://anandtech.com/show/8314/galaxy-s5-ltea-battery-life-performance

Battery-Life sieht erstmal super gut aus, neuer Chip, 18,8 FPS in GFX-Bench 3, alles top oder?
Dann kommt dieser Absatz, den ich unter Umständen falsch verstehe:

FXBench is a reasonably close approximation of intensive 3D gaming. Surprisingly, we see here that the GS5 LTE-A is ahead of the GS5. It seems that the GPU architecture of the Adreno 420 is more efficient than what we saw in the Adreno 330. Once we scale the final FPS by resolution, we see that the end of run performance is around 22 FPS, which means that performance ends up being a bit higher than the original Galaxy S5

Also für mich liest sich das so, als wenn das S5 mit S805 Long-Time Performance noch 22Fps schaffen sollte bei zum Standard S5 runterskalierter Auflösung. Das S5 mit S801 schafft da 18,6 Fps. Guckt man auf die Ausgangswerte throttelt S801 von 28 FPS auf 18,6 FPS. S805 dagegen von 40 Fps auf 22 FPs. Also ist die Batterielaufzeit nur so gut, weil man von 600mhz Basistakt im S805 bei Samsung auf ~ 350mhz runterthrottelt. Übrig bleibt 20% Performancevorteil vor S801.
Wenn wer das anders versteht, ziehe ich gerne seine Interpretation in Betracht, aber für mich klingt das zumindest so.

Heimatsuchender
2014-08-05, 22:05:53
Bei Anandtech ist mittlerweile dazu nen Artikel, aber da ist was, was mich stutzig macht.

http://images.anandtech.com/graphs/graph8314/65994.png
http://anandtech.com/show/8314/galaxy-s5-ltea-battery-life-performance

Battery-Life sieht erstmal super gut aus, neuer Chip, 18,8 FPS in GFX-Bench 3, alles top oder?
Dann kommt dieser Absatz, den ich unter Umständen falsch verstehe:



Also für mich liest sich das so, als wenn das S5 mit S805 Long-Time Performance noch 22Fps schaffen sollte bei zum Standard S5 runterskalierter Auflösung. Das S5 mit S801 schafft da 18,6 Fps. Guckt man auf die Ausgangswerte throttelt S801 von 28 FPS auf 18,6 FPS. S805 dagegen von 40 Fps auf 22 FPs. Also ist die Batterielaufzeit nur so gut, weil man von 600mhz Basistakt im S805 bei Samsung auf ~ 350mhz runterthrottelt. Übrig bleibt 20% Performancevorteil vor S801.
Wenn wer das anders versteht, ziehe ich gerne seine Interpretation in Betracht, aber für mich klingt das zumindest so.


Hm. Erwarten wir (auch ich) zu viel vom S805? Ich habe letztens koreanische Benchmarks zum G3 Prime und S5 Prime mit dem S805 gesehen (finde sie aber nicht mehr wieder). Der Vorsprung des S805 vor dem S801 war sehr gering.

Beim S5 dachte man zuerst, dass es an der gleichzeitigen Erhöhung der Auflösung liegen könnte. Beim G3 sah man dann, dass der S805 nicht all zu viel mehr bringt.


tobife

Ailuros
2014-08-05, 22:30:35
Bei Anandtech ist mittlerweile dazu nen Artikel, aber da ist was, was mich stutzig macht.

http://images.anandtech.com/graphs/graph8314/65994.png
http://anandtech.com/show/8314/galaxy-s5-ltea-battery-life-performance

Battery-Life sieht erstmal super gut aus, neuer Chip, 18,8 FPS in GFX-Bench 3, alles top oder?
Dann kommt dieser Absatz, den ich unter Umständen falsch verstehe:



Also für mich liest sich das so, als wenn das S5 mit S805 Long-Time Performance noch 22Fps schaffen sollte bei zum Standard S5 runterskalierter Auflösung. Das S5 mit S801 schafft da 18,6 Fps. Guckt man auf die Ausgangswerte throttelt S801 von 28 FPS auf 18,6 FPS. S805 dagegen von 40 Fps auf 22 FPs. Also ist die Batterielaufzeit nur so gut, weil man von 600mhz Basistakt im S805 bei Samsung auf ~ 350mhz runterthrottelt. Übrig bleibt 20% Performancevorteil vor S801.
Wenn wer das anders versteht, ziehe ich gerne seine Interpretation in Betracht, aber für mich klingt das zumindest so.

Es ist so verkorkst geschrieben dass ich auch nicht verstehe was er genau meint. Wenn ich es morgen nicht vergesse frag ich ihn privat was er damit meint. Sonst knapp 19 GPS in Manhattan sind ausgezeichnet fuer ein Smartphone design und nein Samsung bescheisst nicht.

AffenJack
2014-08-05, 23:19:54
Ausgezeichnet ist es prinzipiell, aber wenn meine Interpretation des Textes stimmt ist das wertlos. Denn dann hast du nach 30min nur knapp über S801 Leistung.
Das wäre das gleiche wie beim Mipad, das throttelt laut GFX-Bench auch so stark, dass nicht viel von der Leistung ankommt. (Will damit nicht Smartphone und Tablet vergleichen, nur als Anwender ist mir dann der Peakwert egal, wenns so stark throttelt).

Heimatsuchender
2014-08-05, 23:28:32
Hier mal was zum G3.
http://www.tabtech.de/android-bzw-google-tablet-pc-news/lg-g3-cat-6-mit-snapdragon-805-ersten-benchmarks

Wenn ich den koreanischen Kram wiederfinden würde.



tobife

Ailuros
2014-08-05, 23:47:34
Hier mal was zum G3.
http://www.tabtech.de/android-bzw-google-tablet-pc-news/lg-g3-cat-6-mit-snapdragon-805-ersten-benchmarks

Wenn ich den koreanischen Kram wiederfinden würde.



tobife

Spiegelt sich auch in gfxbench Resultaten wieder.von dem was ich höre ist eher LG als der SoC schuld an den niedrigen Resultaten.

Nightspider
2014-08-06, 00:41:27
Gibts schon Tests zur Genauigkeit der kombinierten Satellitennavigationssysteme?

Mr. Lolman
2014-08-06, 05:42:33
a) Warum ist das SGS5 LTE bei den Offscreentests so viel flotter, als bei den Onscreentests? Bei einer nativen Full-HD Auflösung dürfte es ja zwischen Off und Onscreen kaum Unterschiede geben.

b) Anhand der GFX-Bench Fillratewerte auf die möglichen Taktraten zurückzurechnen, ist ein bisschen willkürlich. Oder was hat mein i9505 für eine GPU-Taktrate bei einer Füllrate von ~3.450 MPixel/s ? ;)

c) was das Throttling betrifft, man kann 5 Watt einfach nicht dauerhaft wegkühlen, ohne dass das ~5" Gerät irgendwann sehr warm wird und/oder throttelt: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=550365
Ich hab mit dem aktuellen KT-SGS4 Kernel und Touchwiz 4.3 Rom mein Handy nun so konfiguriert, dass es nicht mehr unter (undervolteten) 1350MHz throttelt - und dabei im Schnitt nur 2 Cores aktiv sind.
Spiel ich in der Ubahn mit aktiver Datenverbindung wird die CPU dabei bis zu 68°C heiss. Das sind ~3°C mehr als Samsung im Originalrom zuließ, bevor das Throttling einsetzte. So richtig merken tut man throttling aber ohnehin erst, wenn die Taktrate unter ein GHz fällt und die GPU auch gethrottelt wird (im SGS4 auf 128MHz). Mit 2x1.35GHz CPU und min 320MHz GPU hingegen, ist mit einem Snapdragon 600 dauerhaft flüssiges Spielen aller aktuellen Highendspiele ohne Probleme möglich.

BTW: Hier ein Artikel von Arstechnica, zu dem Throttlingverhalten neuerer Smartphones: http://arstechnica.com/gadgets/2013/11/when-benchmarks-arent-enough-cpu-performance-in-the-nexus-5/

Label
2014-08-06, 06:21:44
a) Warum ist das SGS5 LTE bei den Offscreentests so viel flotter, als bei den Onscreentests? Bei einer nativen Full-HD Auflösung dürfte es ja zwischen Off und Onscreen kaum Unterschiede geben.

Finally, the display goes from 1080p to 1440p in resolution...

http://www.anandtech.com/show/8314/galaxy-s5-ltea-battery-life-performance

Ailuros
2014-08-06, 12:05:09
Ausgezeichnet ist es prinzipiell, aber wenn meine Interpretation des Textes stimmt ist das wertlos. Denn dann hast du nach 30min nur knapp über S801 Leistung.
Das wäre das gleiche wie beim Mipad, das throttelt laut GFX-Bench auch so stark, dass nicht viel von der Leistung ankommt. (Will damit nicht Smartphone und Tablet vergleichen, nur als Anwender ist mir dann der Peakwert egal, wenns so stark throttelt).

Tut mir leid aber das ist bei allen Geraeten heutzutage so.

http://forum.beyond3d.com/showpost.php?p=1863965&postcount=598

No. There's not a single device out there that is able to do this as far as I know.

Nebu ist der Author vom vorerwaehnten Anand Artikel und ein mobile sw developer. Nebenbei ist er auch derjenige der die benchmark Bescheisserei von Samsung veroeffentlicht hat u.a.

***edit: dass hier ist Nebu: http://www.anandtech.com/show/8231/a-closer-look-at-android-runtime-art-in-android-l

Avalox
2014-08-17, 14:00:02
Lebenszeichen des Snapdragon 810 entdeckt.

http://img.talkandroid.com/uploads/2014/08/snapdragon-810-antutu-benchmark-315x500.png

http://www.talkandroid.com/216477-snapdragon-810-results-surface-in-antutu-benchmark/

Ailuros
2014-08-20, 10:03:03
http://www.fudzilla.com/home/item/35545-qualcomm-soc-roadmap-revealed

We were expecting the Snapdragon 810 to ship somewhat earlier. The Snapdragon 805 is set to launch in Q4 2014, along with the Snapdragon 410, Snapdragon 610 and Snapdragon 615.

Wieso frueher? :rolleyes: Produkte waren schon seit einer Ewigkeit fuer Anfang 2015 eingeschaetzt.

Avalox
2014-08-20, 11:59:12
http://www.fudzilla.com/home/item/35545-qualcomm-soc-roadmap-revealed
Wieso frueher? :rolleyes: Produkte waren schon seit einer Ewigkeit fuer Anfang 2015 eingeschaetzt.


Das ist ein Tippfehler oder? Das soll statt Snapdragon 805, Snapdragon 810 heißen und der Effekt ist, dass zu Weihnachten schon Snapdragon 810 Geräte im Handel sind.

Das würde dann einer Meldung wert sein.

Ailuros
2014-08-20, 12:20:37
Es ist ein Tippfehler.

Nightspider
2014-08-20, 15:04:55
Eventuell schon im Oktober im Galaxy Note 4 indem Samsung einen early-adopter Deal bekommt?

Wurde nicht irgendwo das Note 4 mit Snapdragon 810 gezeigt?

mboeller
2014-08-20, 16:00:58
Eventuell schon im Oktober im Galaxy Note 4 indem Samsung einen early-adopter Deal bekommt?

Wurde nicht irgendwo das Note 4 mit Snapdragon 810 gezeigt?

Nein mit Exynos 5433

http://www.gsmarena.com/exynos_5433powered_samsung_galaxy_note_4_benchmarked-news-9406.php

Samsung macht also das Rennen um den ersten serienreifen 64bit ARM-Core, natürlich abgesehen von Apple. :)

Schließlich wird das Note4 auf der IFA in ein paar Tagen vorgestellt.

mboeller
2014-08-21, 20:49:44
und nun Qualcomm:

http://www.gsmarena.com/htc_teases_the_desire_820_destined_to_launch_at_ifa_2014-news-9418.php

HTC 820 mit Snapdragon 615 (4x A53 @ 1.8 GHz + 4x A53 @ 1.0 GHz)

...soviele 64bit SoC... naja 2 Stück ;) und alle werden auf der IFA vorgestellt

SentinelBorg
2014-08-26, 18:12:48
Nein mit Exynos 5433

http://www.gsmarena.com/exynos_5433powered_samsung_galaxy_note_4_benchmarked-news-9406.php

Samsung macht also das Rennen um den ersten serienreifen 64bit ARM-Core, natürlich abgesehen von Apple. :)

Schließlich wird das Note4 auf der IFA in ein paar Tagen vorgestellt.
Vielleicht gibt es dann wieder beide Varianten.

Sieht so aus, als wolle Samsung unbedingt ARM v8 in 20nm im Note 4 haben. Könnte mir gut vorstellen, dass sie dafür sogar recht niedrige Yields bei ihrer Fertigung in Kauf nehmen. Wenn dann gar noch der S810 auch bei ihnen vom Band läuft (wobei man sich dann fragt warum überhaupt zwei Modelle), dann zeigt es, dass Samsung wenn sie wollen mit ihrer Integration doch einiges bewegen können.

Letztendlich aber nicht überraschend. Wenn der Samsung Ober-Muckel vor einem Jahr sagt, dass sie in einem Jahr auch 64 Bit im Smartphone haben werden, dann wird das auch auf Biegen und Brechen so durchgedrückt, da er auf gar keinen Fall sein Gesicht verlieren darf. ^^

hasebaer
2014-12-05, 17:59:20
Qualcomm Snapdragon 810 mit Problemen
http://winfuture.de/news,84876.html

Einerseits sollen Hitzeprobleme eine Rolle spielen, andererseits aber auch der erwartete Rückgang der Taktfrequenz, wegen dem es nun Bedenken in Sachen Leistung gibt, heißt es.

Drogenbaron
2014-12-05, 18:13:46
Ach Winfuture.....

Taktfrequenz != Rechenleistung.

Wann lernen es manche Menschen endlich? :rolleyes:

Ailuros
2014-12-05, 18:43:24
Ach Winfuture.....

Taktfrequenz != Rechenleistung.

Wann lernen es manche Menschen endlich? :rolleyes:

http://www.businesskorea.co.kr/article/7635/unexpected-hurdle-problems-qualcomm-snapdragon-set-alarm-bells-ringing-samsung-lg

It is unclear whether or not the supply of the Snapdragon 810 will exist in the first half of next year due to technical problems such as overheating and a decline in speed.

Macht der S805 auch schon. Er throttelt verdammt random herum und wenn man die GPU durch den Kishonti Batterie Test jagt, mehr als oefters ueber -40% in Leistung je laenger es rennt und je heisser es wird. Da DVFS (dynamic voltage & frequency scaling) sehr wohl Temperatur-abhaengig ist, liegt im Grund nichts falsches daran nur ist es vielleicht etwas ungeschickt ausgedrueckt.

Ailuros
2014-12-09, 07:45:58
QCOM sagt nein: http://www.fudzilla.com/home/item/36499-qualcomm-denies-snapdragon-810-delay-reports

...ob es jetzt aber throtteln wird oder nicht steht wohl doch in den Sternen :P

AffenJack
2014-12-09, 08:18:02
Naja, offiziell gibt es ja fast nie Probleme bei den Herstellern. Es läuft immer alles nach Plan. Ich meine es hieß dieses Jahr ,dass QC im Dezember/Januar in Produktion will. Wenn man nun nen Respin bräuchte ist man immernoch im März in Produktion und Ende H1 könnte es Geräte geben, womit man den offiziellen Plan in H1 zu liefern erfüllt hätte. Hilft nur den Smartphoneherstellern wenig, wenn sie ihre Releases 2,3 Monate verschieben müssen, weil sie mit Dezemberproduktion gerechnet haben. Man muss wohl die CES abwarten, da könnten entweder mehr Infos durchsickern oder vll ist da auch wirklich nichts dran.

differenzdiskriminator
2014-12-09, 08:46:06
Throtteling nach Temperatur ist doch im Mobile völlig normal und auch ok. So reduziert man doch schlicht die Leistungsaufnahme, wenn man den SoC möglichst schnell schlafen legt.

Ailuros
2014-12-09, 09:20:42
Throtteling nach Temperatur ist doch im Mobile völlig normal und auch ok. So reduziert man doch schlicht die Leistungsaufnahme, wenn man den SoC möglichst schnell schlafen legt.

Ab welchem Punkt wird denn bei Dir das "normal" genau unnormal? Bis zu 20% ist in meinem Buch noch normal, die bis zu 50% die momentan die Adreno420/S805 Faelle zeigen wohl nicht.

http://gfxbench.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Samsung%20Galaxy%20Note%204%20%28Adreno%20420%2C%20SM-N910x%29

Hier sind es sogar 55% und nur ein Beispiel.

Nexus6:

http://www.anandtech.com/show/8687/the-nexus-6-review/2

differenzdiskriminator
2014-12-09, 09:23:22
Ist das denn nun Schuld des SoCs oder hat der OEM das ThermalDesign nicht gut hinbekommen?

Es gibt auch eine ganze Reihe MacBooks, die bei mehr als 5 Minuten Volllast anfangen zu drosseln. In jedem anderen Laptop kein Thema, wenn die Kühlung vernünftig ausgelegt ist. Damit ist doch nicht Intel schuld, sondern Apple, oder?

Ailuros
2014-12-09, 09:29:33
Ist das denn nun Schuld des SoCs oder hat der OEM das ThermalDesign nicht gut hinbekommen?

Es trifft bei fast allen Faellen auf, ergo ist das Phaenomaen wohl nicht auf nur einen Hersteller begrenzt.

Es gibt auch eine ganze Reihe MacBooks, die bei mehr als 5 Minuten Volllast anfangen zu drosseln. In jedem anderen Laptop kein Thema, wenn die Kühlung vernünftig ausgelegt ist. Damit ist doch nicht Intel schuld, sondern Apple, oder?

Die Geschichte hier ist eher einfach; IMHO QCOM hat mit dem 420 eine Leistungs-gurke entwickelt (um DX11 reinzuquetschen) und pruegelt mir nichts dir nichts konkurrenzfaehigere Leistungsraten raus, damit es zumindest etwas besser aussieht als selbst bei ihrem eigenen Adreno330 Vorgaenger.

Ich will hoffen dass die Adreno430 GPU im S810 nicht die gleichen Probleme hat, obwohl die ersten Geruechte von Ueberhitzungen nicht gerade in die Richtung deuten.

robbitop
2014-12-09, 11:17:37
Ist das denn nun Schuld des SoCs oder hat der OEM das ThermalDesign nicht gut hinbekommen?

Es gibt auch eine ganze Reihe MacBooks, die bei mehr als 5 Minuten Volllast anfangen zu drosseln. In jedem anderen Laptop kein Thema, wenn die Kühlung vernünftig ausgelegt ist. Damit ist doch nicht Intel schuld, sondern Apple, oder?
Sicher, dass du da nicht Äpfel und Birnen vergleichst? Man muss für diesen Vergleich exakt den gleichen SoC vergleichen. Intels Notebook Cores sind ja nach TDP spezifiziert. 5 W, 15 W, 28 W, 47 W etc.

Wenn du jetzt bspw ein Macbook mit einem 15 W oder 28 W SoC gegen ein x-beliebiges Notebook mit einem SoC mit höherer TDP vergleichst, macht es keinen Sinn mehr.

Gerade das ist der Sinn von TDPs und Turbo. Bei kleiner TDP wird halt schnell zurückgetaktet. Bei großer TDP nicht.

Das wird im Mobile Markt z.T. ausgenutzt, in dem man sehr leistungsstarke Designs halt auf eine kleine TDP runterregelt. Die sind für kurze Zeit hochgetaktet und takten dann runter, weil sie ihre TDP überschreiten.

Macht in Smartphones und Tablets (IMO auch in Ultrabooks) IMO aber auch Sinn. Wer spielt schon ernsthaft damit? Die Geräte sollen reaktiv und snappy sein. Dafür reicht es wenn die CPU/GPU kurz hochgetaktet wird und das Gerät die Webseite oder Anwendung oder sonstwas läd. Danach wird wieder runtergetaktet.

Wenn wirklich richtig intensiv gearbeitet/gespielt wird, bringt einem der Turbo, der den SoC über dessen TDP kurzzeitig hinauskatapultiert natürlich nichts. Das ist klar. Deshalb benötigt man dort eben auch andere Formfaktoren.

differenzdiskriminator
2014-12-09, 11:34:56
Sicher, dass du da nicht Äpfel und Birnen vergleichst? Man muss für diesen Vergleich exakt den gleichen SoC vergleichen. Intels Notebook Cores sind ja nach TDP spezifiziert. 5 W, 15 W, 28 W, 47 W etc.
Das waren noch die alten CPUs natürlich mit einer TDP X, aber es ändert ja nichts am Punkt, dass Apple das Kühlsystem nicht für Dauerlast ausgelegt hat.

Gerade das ist der Sinn von TDPs und Turbo. Bei kleiner TDP wird halt schnell zurückgetaktet. Bei großer TDP nicht.
Das meine ich ja gerade. Es obliegt doch dem OEM den passenden SoC und Takt zu wählen, passend zu seinem Usecase und seinem Thermaldesign.

Ob es Qualcomm dermaßen verkackt hat? Ich weiß es nicht ehrlich gesagt. Ich bin auf die 810er Reihe gespannt, gehe aber davon aus, dass diese auch mit "nur" 2 GHz Kreise um die jetztigen SoCs drehen wird.

robbitop
2014-12-09, 14:11:26
Es ist zwar OT aber trotzdem:

Ich glaube, dass das was du über die Macbooks beschreibst, schlichtweg nicht korrekt verglichen wurde. Falls doch würden mich Messdaten, Messmethodik und genaues Modell interessieren.
Ich kenne kein Macbook was die Taktraten, die für die jeweilige TDP zugeordnet sind, nicht einhält. Die werden nicht wegen der Kühlung reduziert, sondern wegen TDP Überschreitung.

Man kann sich nicht ernsthaft darüber aufregen, dass ein MBA mit einer 15 W TDP oder ein MBP mit einer 28 W TDP Core CPU nicht dauerhaft 3,x GHz auf allen Kernen halten kann. Das würden exakt gleiche SoCs in anderen Plattformen auch nicht tun.
Man nutzt ja extra SoCs mit so kleinen TDPs, damit Akkulaufzeit und Formfaktor passen.

Wenn man soetwas möchte, muss man zu 47 W oder höher greifen. Dann hat man aber auch einen >2 kg Klopper.

Also wenn man schon vergleicht, dann bitte vergleichbare Plattformen/Formfaktoren mit exakt gleichem SoC (gleiche TDP).

@Throtteling bei Qualcomm
IMO kann man ihnen dafür keinen Vorwurf machen. Aber dann muss bei Benchmarks, wenn man die 3D Leistung betrachtet, eben entsprechend viele Schleifen gemacht werden, um eine vergleichbare Dauer 3D Leistung zu ermitteln.

Wenn man tatsächlich auf die Idee kommt, mit seinem Tablet oder Smartphone spielen zu wollen und sich dann an den Benchmarks orientiert, gaukeln diese ja dann bessere Performance vor als tatsächlich vorhanden. Insofern muss schon soetwas wie "sustainable performance" gemessen werden.
Das sollte m.E.n. auch für Notebooks gelten.

Drogenbaron
2014-12-09, 14:27:17
Als Betroffener eines solchen MacBook "Pro" (was für eine Farce diese Bezeichnung....) hier mal ein Beispiel:

http://rene.rebe.de/2011-08-13/apple-macs-and-thermal-throttling/
https://free-info-pages.com/my2011macbookpro/high-temperatures.html

Ich hatte auch eines dieser Modelle und da gab es sehr lustige Effekte. Unter Anderem hat es geholfen das Gerät senkrecht zu stellen (so kam mehr Luft rein), aber auch nicht zu 100%.

Ist jetzt hier etwas OT, aber in meinen Augen war dieses Design klar fehlerhaft. Zumindest wenn man das "Pro" dran schreibt. Aber ich habe leider bisher kein neues MacBook gesehen, dass nicht ähnliche Symptome zeigt. Es hat offensichtlich bei Apple System.

Bin deswegen letztes Jahr auf ein fettes Clevogerät gewechselt. Hässlich, ja, fett, ja, aber wenigstens das, was ein Minimum der Funktionalität für mich darstellt (100% Rechenleistung 100% der Zeit) wird erfüllt. Schafft Apple leider nicht für nen Tausender mehr.

Von daher sehe ich den Fehler bei solchem Thermalthrotteling klar beim OEM. Außer natürlich der Chiphersteller hat was völlig anderes versprochen. Ob jetzt konkret Qualcomm oder Samsung/Motorola Schuld haben, wäre tatsächlich zu klären.

robbitop
2014-12-09, 14:32:23
Uraltkram.
Außerdem kann man von einem 1,5 kg Gerät nicht erwarten, dass es den vollen Turbotakt auf allen Kernen bei Volllast hält. Dafür braucht es nunmal eine größere Plattform. Auch nicht bei anderen Herstellern. Apfel-Birne Vergleiche zählen nicht.

Ich hab das Gefühl, dass der Sinn von Turbo im Zusammenhang mit bestimmten Plattformgrößen noch nicht überall verstanden wurde.

Drogenbaron
2014-12-09, 14:44:18
Erzähl doch nicht son Quatsch, das MacBook Pro hat in 15" immer schon >2,5kg gewogen. Da ist mein Clevo jetzt auch nicht signifikant schwerer. Auch das jetzige Modell wiegt über 2kg wenn mich nicht alles täuscht.

Und es hatte wie gesagt null mit Turbo zu tun, sondern mit Vollauslastung aller Kerne. Lies bitte die Links, bevor du soviel Unfug erzählst.

robbitop
2014-12-09, 15:01:21
Das genaue Modell stand doch bisher gar nicht zur Debatte.

Macbooks gibt es zwischen 1 kg (MBA 11") und 2 kg (rMBP 15"). Bei Dicken zwischen (0,3 mm dünnste Stelle beim MBA) 1,7 und 1,8 cm

Akkulaufzeit liegt je nach Modell zwischen 9 und 12 h. Dazu gibts bei den rMBP noch ein sehr hoch aufgelöstes Display (was auch nochmal etwas Akkulaufzeit kostet)


Zeige mir unter gleichen Rahmenbedingungen ein Notebook was weniger throttelt.

Das liegt nunmal am Formfaktor und der TDP Auswahl.

Drogenbaron
2014-12-09, 15:17:01
Ich hatte ziemlich genau geschrieben, worum es geht. Lies es nach und hör auf rumzutrollen.

Tipp für dich zum Nachdenken: Vielleicht liegt es daran, dass es so wenig Modelle mit solchen Rahmenbedingungen gibt, weil jedem ernsthaften Notebookhersteller klar ist, dass TDP und Gehäusegröße nicht miteinander vereinbar sind?

robbitop
2014-12-09, 15:57:02
Ich hatte ziemlich genau geschrieben, worum es geht. Lies es nach und hör auf rumzutrollen.
Du hast hier nur Uraltgeräte benannt. Das hat mit heutigen Gerätegenerationen nichts zu tun.

Ich verlange bei solchen Aussagen absolute Vergleichbarkeit. Gleicher Formfaktor, gleicher SoC. Ansonsten stimmt die Aussage einfach nicht. Oder aber man vergleicht Äpfel mit Birnen. Dann stimmt die Aussage zwar, aber der Vergleich ergibt wenig Sinn.

Tipp für dich zum Nachdenken: Vielleicht liegt es daran, dass es so wenig Modelle mit solchen Rahmenbedingungen gibt, weil jedem ernsthaften Notebookhersteller klar ist, dass TDP und Gehäusegröße nicht miteinander vereinbar sind?
Deswegen sind die Verkaufszahlen der Macbooks auch so schlecht. :freak:

Drogenbaron
2014-12-09, 16:01:53
Du hast hier nur Uraltgeräte benannt. Das hat mit heutigen Gerätegenerationen nichts zu tun.
Prinzip ist identisch. Zumal auch die heutige Generation drosselt.

Deswegen sind die Verkaufszahlen der Macbooks auch so schlecht. :freak:
Du isst also am liebsten Kuhscheiße wie Millionen Fliegen?

:facepalm:

Ich glaube hier ist lieber EoD. Offensichtlich verträgt da einer keine Kritik an seinem geheiligten Apple.

robbitop
2014-12-09, 16:05:55
Prinzip ist identisch. Zumal auch die heutige Generation drosselt.
Beweis? Wo drosselt ein aktuelles rMBP mehr als ein vergleichbares Gerät wie z.B. das ASUS Zenbook?

Zumal es nicht unter den Basistakt fällt. Ich habe den Eindruck dass du den Sinn von Intels Turbo im Zusammenhang mit TDP Einstufungen nicht verstanden hast.


Du isst also am liebsten Kuhscheiße wie Millionen Fliegen?

:facepalm:
:rolleyes: Soviel zum "Troll".



Ich glaube hier ist lieber EoD. Offensichtlich verträgt da einer keine Kritik an seinem geheiligten Apple.
Das hat nichts mit Apple zu tun. Du bringst bisher keine hieb und stichfesten Nachweise für deine Aussage.

Es gibt durchaus eine Nachfrage an kompakten, leichten Geräten mit hoher Akkulaufzeit. Genauso wie es auch eine Nachfrage an Geräten gibt, die sich auf reine Leistung fokussieren.

Genau dafür gibt es unterschiedliche TDP Kategorien und den Turbo bei Intel. Und daraus resultierend auch unterschiedlich große Geräte.

Wer es blöd findet, dass kleine Geräte nach einiger Zeit auf den Basistakt zurück müssen, braucht ein größeres Gerät. Das ist einfache Physik.

Drogenbaron
2014-12-09, 16:15:09
Beweis? Wo drosselt ein aktuelles rMBP mehr als ein vergleichbares Gerät wie z.B. das ASUS Zenbook?
Habe ich nirgendwo behauptet.

Genau dafür gibt es unterschiedliche TDP Kategorien und den Turbo bei Intel.
Nochmal für die Dummen unter uns:

Ich habe mich NIE auf Turbo bezogen, sondern IMMER und AUSSCHLIESSLICH NUR auf Dauervolllast auf allen Kernen.

:rolleyes: Soviel zum "Troll".
Ja, du hast dich somit selbst entlarvt.

Und damit nun tatsächlich EoD, nachdem du dich jetzt hier selbst vorgeführt hast.

Tipp: Es finden sich massig Review von Asus Zenbooks, die keinerlei bis sehr wenig Probleme mit Throttle haben. Nur so als Tipp, wenn du dein Weltbild mal von deinem AppleStore etwas wegbewegen möchtest. Offensichtlich ist es möglich, solche CPUs auch in kleinen Gehäusen vernünftig zu kühlen. Wenn man will.

Ailuros
2014-12-09, 16:20:32
Prinzip ist identisch. Zumal auch die heutige Generation drosselt.

Laptops haben ueberhaupt nichts gemeinsam mit smartphone SoCs; bis zum Punkt wo Qualcomm >ULP SoCs entwickelt, ist der Vergleich so daneben wie es gar nicht geht.



Ich glaube hier ist lieber EoD. Offensichtlich verträgt da einer keine Kritik an seinem geheiligten Apple.

Tja hier geht es um QCOM; Apple's ULP SoCs throtteln nicht im geringsten so wie die S805 SoCs, was wohl bedeutet dass eher Du keine Kritik gegen QCOM vertragen kannst.

Drogenbaron
2014-12-09, 16:24:44
Laptops haben ueberhaupt nichts gemeinsam mit smartphone SoCs; bis zum Punkt wo Qualcomm >ULP SoCs entwickelt, ist der Vergleich so daneben wie es gar nicht geht.
Nö, das Prinzip, um das es hier geht ist völlig identisch.

Das Gerät drumherum ist nicht in der Lage die vom Prozessor erzeugte Hitze abzuführen. Früher gingen diese dabei in Rauch auf, heute drosseln sie sich selbst.

Völlig identisch, egal ob 2W im Smartphone oder 200W im Laptop.

Tja hier geht es um QCOM; Apple's ULP SoCs throtteln nicht im geringsten so wie die S805 SoCs, was wohl bedeutet dass eher Du keine Kritik gegen QCOM vertragen kannst.
Ich kann jede Kritik gegen Qualcomm vertragen, da aber bisher niemand so einen SoC getestet hat, gibt es da schlicht nichts zu kritisieren.

robbitop
2014-12-09, 16:27:26
Tipp: Es finden sich massig Review von Asus Zenbooks, die keinerlei bis sehr wenig Probleme mit Throttle haben.

Aha und wo ist ein Review, in dem gezeigt wird, dass ein aktuelles Macbook throttelt? Und wo eines, dass andere Geräte das nicht tun?
Ich lasse mich auch gern auf konkrete Diskussion bezüglich der thermodynamischen Auslegung ein.

Wo sind konkrete Links und Textpassagen?

Der Rest, den du bringst, hat leider nichts an Substanz. Leute einfach nur als "Trolls" bezeichnen kann jeder Bauer.

Ailuros
2014-12-09, 16:35:13
Nö, das Prinzip, um das es hier geht ist völlig identisch.

Nein ist eben NICHT und das eben nicht warum es Dir gerade passt. Ein smartphone kann und darf nicht so leicht eine 3-4W Grenze ueberschreiten und dort sind jegliche Strom-Sparmassnahmen um zich Male radikaler als bei laptops.

Das Gerät drumherum ist nicht in der Lage die vom Prozessor erzeugte Hitze abzuführen. Früher gingen diese dabei in Rauch auf, heute drosseln sie sich selbst.

Völlig identisch, egal ob 2W im Smartphone oder 200W im Laptop.

Es ist eben nicht identisch weil es total andere Verbrauchs-Bereiche sind. Εin laptop passt eben nicht in eine Hand und ist nur ~100-150gr schwer.

Ich kann jede Kritik gegen Qualcomm vertragen, da aber bisher niemand so einen SoC getestet hat, gibt es da schlicht nichts zu kritisieren.

Es gibt genug online tests vom S805 auf dem Netz; fuer S810 hab ich es momentan als "Geruecht" betitelt aber wir sind nach wie vor im Spekulationsforum. Es gibt sehr viel zu kritisieren und es ist auch jeder erlaubt dazu, von dem Du leider keinen abhalten kannst.

So lange ein Adreno420 bewiesen in mehreren Faellen bis zu 50+% die GPU throttelt bei nur 30 Durchlaeufen im TRex und alle anderen von sehr wenig bis zu 20% throtteln, sticht der erste offensichtlich negativ ins Auge. Wie waere es mit links bzw. anstaendiger Dokumentation dass konkurrierende SoCs zum S805 das gleiche vorweisen von Deiner Seite?

Drogenbaron
2014-12-09, 17:02:07
Aha und wo ist ein Review, in dem gezeigt wird, dass ein aktuelles Macbook throttelt? Und wo eines, dass andere Geräte das nicht tun?
Bitte:
http://forums.macrumors.com/showthread.php?t=1731178

Wie du siehst mit Prime bereits nach wenigen Sekunden die ersten Einbrüche.

Hier ein entsprechender Zenbook-Test:
http://www.prad.de/new/gadgets/ultrabooks/test/2012/test-asus-zenbook-ux31e-teil3.html

Der Rest, den du bringst, hat leider nichts an Substanz. Leute einfach nur als "Trolls" bezeichnen kann jeder Bauer.
Also darf ich dich jetzt "Bauer" nennen? ;D

Nein ist eben NICHT und das eben nicht warum es Dir gerade passt. Ein smartphone kann und darf nicht so leicht eine 3-4W Grenze ueberschreiten und dort sind jegliche Strom-Sparmassnahmen um zich Male radikaler als bei laptops.
Ändert nichts am Grundprinzip.

Du darfst dein Auto nicht überladen. Unabhängig davon, ob du dafür 200kg einladen darfst oder 20 Tonnen. Beim einen sind eben 210kg zuviel, beim anderen 21 Tonnen. Prinzipiell ist es völlig identisch.

Es ist eben nicht identisch weil es total andere Verbrauchs-Bereiche sind. Εin laptop passt eben nicht in eine Hand und ist nur ~100-150gr schwer.
Trotzdem können beide einfach unpassende Prozessoren enthalten. Das Smartphone eben mit 2W, der Laptop mit 20W.

Es gibt genug online tests vom S805 auf dem Netz; fuer S810 hab ich es momentan als "Geruecht" betitelt aber wir sind nach wie vor im Spekulationsforum. Es gibt sehr viel zu kritisieren und es ist auch jeder erlaubt dazu, von dem Du leider keinen abhalten kannst.
Ich halte dich von gar nichts ab. Ich lasse mich nur auch von dir nicht abhalten, daran zu erinneren, dass Qualcomm mitnichten einsam auf weiter Flur ist, sondern es eher buisness as usual ist.

Und das nicht nur im Smartphone/Tablet.

So lange ein Adreno420 bewiesen in mehreren Faellen bis zu 50+% die GPU throttelt bei nur 30 Durchlaeufen im TRex und alle anderen von sehr wenig bis zu 20% throtteln, sticht der erste offensichtlich negativ ins Auge. Wie waere es mit links bzw. anstaendiger Dokumentation dass konkurrierende SoCs zum S805 das gleiche vorweisen von Deiner Seite?
Natürlich sticht es negativ ins Auge. Bezweifel ich nirgendwo.

Nur: Ist dies schuld des OEMs oder von Qualcomm? Ich tue mich da aktuell hier die Schuld auf Qualcomm zu schieben, weil ich mir nicht vorstellen kann, dass diese keine vernünftigen Specifications für ihre SoCs heraus geben. Was ich da bisher von Qualcomm gesehen habe, hatte Hand und Fuß.

Ailuros
2014-12-09, 17:30:34
Ändert nichts am Grundprinzip.

Manche Sachen sind einfach aus verstaendlichen Gruenden nicht vergleichbar. Sonst haetten SoC Hersteller auch ein leichteres Leben und wuerden nur einen einzigen SoC herstellen fuer zich Maerkte wo man einfach nur mit Frequenzen u.a. skaliert.

Du darfst dein Auto nicht überladen. Unabhängig davon, ob du dafür 200kg einladen darfst oder 20 Tonnen. Beim einen sind eben 210kg zuviel, beim anderen 21 Tonnen. Prinzipiell ist es völlig identisch.

Bleib sachlich beim Thema, denn ein Traktor ist nicht mit einer Pantoffel vergleichbar.

Trotzdem können beide einfach unpassende Prozessoren enthalten. Das Smartphone eben mit 2W, der Laptop mit 20W.

Smartphones enthalten speziell fuer diese entwickelte SoCs. Zeig mir mal in welchem Fall je ein notebook SoC fuer ein smartphone benutzt wurde.

Ich halte dich von gar nichts ab. Ich lasse mich nur auch von dir nicht abhalten, daran zu erinneren, dass Qualcomm mitnichten einsam auf weiter Flur ist, sondern es eher buisness as usual ist.

Es bringt Dich aber auch keinen einzigen Millimeter weiter, da Du nur mit heisser Luft ohne einen Punkt Dokumentation herumwedelst.


Natürlich sticht es negativ ins Auge. Bezweifel ich nirgendwo.

Nur: Ist dies schuld des OEMs oder von Qualcomm? Ich tue mich da aktuell hier die Schuld auf Qualcomm zu schieben, weil ich mir nicht vorstellen kann, dass diese keine vernünftigen Specifications für ihre SoCs heraus geben. Was ich da bisher von Qualcomm gesehen habe, hatte Hand und Fuß.

Wenn es einmal passiert kann man beruhigt denken dass der Geraete Hersteller verpatzt hat. Passiert es aber in mehreren Stellen koennen wohl schwer ploetzlich ALLE Hersteller verpatzt haben und es throtteln bei allen die GPU an der genau gleichen Stelle. So lange keiner das Gegenteil beweissen kann, bleibt der moeglichste Kandidat irgend ein Problem im SoC. SW kann es auch nicht so leicht sein, da das Nexus6 sich total unerwartet verhaltet selbst in den einfachsten Faellen und dieses wird nicht nur in Anandtech's reviews wiedergespiegelt sondern auch in privaten Aussagen von sw Entwicklern.

Ich hab auch von allen IHVs sehr gutes Zeug geniessen koennen, aber bei allen sind durch die Jahre Missgeschicke passiert. Wenn Du wirklich glaubst dass QCOM die tolle Ausnahme ist die alles nur perfekt machen, gerne.

nalye
2014-12-09, 17:31:48
Mal bitte wieder von der persönlichen Ebene runter, danke

mczak
2014-12-10, 02:02:23
Du hast hier nur Uraltgeräte benannt. Das hat mit heutigen Gerätegenerationen nichts zu tun.

Ich weiss nicht wie das genau heute ist aber ich habe auch so ein "Uralt"-Modell das locker throtteln kann (Sandy Bridge MBP). Ich benutze das Teil zwar meist unter Linux aber ist unter OSX auch nicht anders. Und wenn dann der Kernel rummault sowas wie "CPU0: Package temperature above threshold, cpu clock throttled (total events = 883)" dann ist das definitiv kein Zurücktakten auf Baseclock aufgrund der TDP-Limits. Mich stört zwar fast eher noch der Krach den das Teil dabei macht :-).
Wobei wenn ich den IGP statt den AMD-Grafikchip nutze tritt es kaum auf (die Hybrid-Grafik funktioniert leider unter Linux nicht so toll...).
Es ist durchaus möglich dass es auch Nicht-Macs gibt mit derselben Hardware die ähnliche Probleme haben. Da wurde aber schon sehr knapp kalkuliert und nicht wirklich mit Dauerlast gerechnet, das sieht man auch daran dass das Netzteil zwar sehr schön und klein ist, aber eben deutlich unterdimensioniert ist (bei CPU-Vollast selbst ohne dass da noch Furmark läuft reicht das Netzteil schon nicht mehr aus, was sich darin äussert dass der Akku entladen wird) was bei "normalen" Notebooks eher selten der Fall ist.
(Ist übrigens besonders lustig wenn der Akku (ganz) kaputt ist, da wird dann ein fixes Throttling auf 1 Ghz (oder waren's 800Mhz weiss nicht mehr ist schon eine Weile her dass das passiert ist) benutzt aus eben diesem Grund - und das ist nicht mal wirklich auslesbar laut cpufreq etc. ist der Takt immer noch höher...).

Bei heutigen (low-wattage) x86 CPUs ist allerdings die Differenz zwischen Turbo und Base viel grösser so dass man "echtes" Throttling eher vermeiden kann, wobei natürlich ein Broadwell Chip mit 4.5W trotzdem keine Chance hat den Baseclock zu halten unter Volllast (CPU+GPU). Ist dann aber ein TDP-Throttling und keines aufgrund ungenügender Kühlung (was es natürlich trotzdem auch noch geben könnte).

So aber nun genug OT. Dass der 805 eher problematisch sein könnte finde ich nicht so erstaunlich. Dass das Teil einen 128bit Speicherbus hat ist doch schon ein Indiz dass es knapp werden könnte in einem Smartphone.
Der 810 ist wohl ähnlich gelagert, ich habe auch schon gesagt meiner Meinung nach macht sich wohl ein 808 besser in einem Smartphone. Aber vielleicht gibt's nächstes Jahr ja 10" Smartphones da passt der 810 dann locker rein ;-). Mit 16FF sollte es dann auch kein Problem mehr sein...

Ailuros
2014-12-10, 06:11:04
So aber nun genug OT. Dass der 805 eher problematisch sein könnte finde ich nicht so erstaunlich. Dass das Teil einen 128bit Speicherbus hat ist doch schon ein Indiz dass es knapp werden könnte in einem Smartphone.
Der 810 ist wohl ähnlich gelagert, ich habe auch schon gesagt meiner Meinung nach macht sich wohl ein 808 besser in einem Smartphone. Aber vielleicht gibt's nächstes Jahr ja 10" Smartphones da passt der 810 dann locker rein ;-). Mit 16FF sollte es dann auch kein Problem mehr sein...

Neben dem Nexus6 review haben die Kerle die bei Anand schreiben bei B3D bestaetigt dass sich das Geraet total unerwartet selbst in den einfachsten Faellen verhaelt, wobei sie selber verdaechtigen dass etwas ueberhitzen koennte.

Nicht nur der Bus sondern auch der DX11 Schnickschnack der nur dumm herumliegt; ist aber QCOM selber schuld da sie sich wohl vom win hype ueberreden liessen.

robbitop
2014-12-10, 10:18:47
Bitte:
http://forums.macrumors.com/showthread.php?t=1731178

Wie du siehst mit Prime bereits nach wenigen Sekunden die ersten Einbrüche.

Hier ein entsprechender Zenbook-Test:
http://www.prad.de/new/gadgets/ultrabooks/test/2012/test-asus-zenbook-ux31e-teil3.html



1. Ja das MBP throttelt - aber unter sehr synthetischen Bedingungen - nämlich im 3D Test:

Bei Prime95 geht es laut dem Graph nur auf den Basistakt zurück (2,3 GHz). Das ist OK und kein Throtteling. (Turbo ist ja dafür da, kurzzeitig den thermischen Grenzwert zu überschreiten, um anschließend wieder abzukühlen -> race-to-sleep).

Beim 3D Test wird gethrottelt. Die Frage ist, was dieser "3D Test" genau macht. Wird sowohl 3D gerendert als auch simultan synthetisch besonders hohe Last analog zu Prime95 durchgeführt?

In normalen und realen 3D-Anwendungen (Spiele, Bild und Videobearbeitung mittels OpenCL, 3D Benchmarks) passiert das sicherlich nicht.


2. Das Zenbook hat einen völlig anderen SoC. Deutlich weniger Takt. Weiterhin steht in deinem verlinkten Test nichts zum Throttling und dort wurden keine vergleichbaren Tests wie zum Macbook "Test" - was ja auch nur ein Forenpost war - durchgeführt.

Dein Vergleich hinkt an allen Ecken und Enden.


Synthetische Tests sind außerdem realitätsfremd. Diese sind so geschrieben, dass eine extrem hohe Auslastung der ASICs erreicht wird. Also deutlich mehr Transistoren gleichzeitig schalten als unter normalen Bedingungen. Ganz einfach weil man den Code dann so trimmt, dass praktisch immer 100 %ige Hitrate im Cache ist, immer synthetisch perfekte Auslastung in den SIMDs herrscht und der Code extrem parallel und sauber und in Reihenfolge verarbeitet wird. So kann aber keine komplexe Anwendung geschrieben werden.

Mit synthetischen Tests bekommst du auf ASICs massiv höhere Leistungsaufnahmen hin als unter Realbedingungen.

Für solche synthetischen Lastfälle legt man natürlich im Ultrabooksegment kein Kühlsystem aus. Das kostet Bauraum und Gewicht. Das wäre irrational.

Wenn ein Ultrabook als unter realen Anwendungen throttelt kann man das ankreiden. Ein 3D Benchmark ist auch absolut ok.

Viele Mobile SoCs in Smartphones fangen aber auch schon in normalen Anwendungen, Spielen und normalen 3D-Benchmarks nach kurzer Zeit zu throtteln. Da es dort keinen ausgewiesenen Turbo und Basistakt gibt, ist es also kaum vergleichbar.

Ailuros
2014-12-11, 19:55:56
Komisch dass keiner hier noch nicht darauf verlinkt hat:

http://semiaccurate.com/2014/12/04/qualcomm-shows-off-mare-parallel-api-runtime/

Hat Charlie recht und QCOM's MARE ist ein quasi Konkurrent zum big.LITTLE global scheduler, dann klingt es mir eher nach Mantle---->DX12 indirektem Druck. Wie dem auch sei ein sehr interessanter Schachzug ueberhaupt wenn QCOM das Ding "freilegen" sollte.

Nightspider
2014-12-11, 20:39:25
Ob aber Alltags und Anwendersoftware davon wirklich profitiert?

Ailuros
2014-12-11, 20:45:43
Ob aber Alltags und Anwendersoftware davon wirklich profitiert?

Wird sich zeigen; auf jeden Fall wenn das Zeug etwas nutzt, hat QCOM genug Marktanteil dass sich Entwickler damit beschaeftigen.

Nightspider
2014-12-12, 15:45:42
Computerbase schreibt es wäre der A9. :|

http://www.computerbase.de/2014-12/samsung-startet-14-nm-fertigung-fuer-ersten-auftragskunden/

y33H@
2014-12-12, 16:33:25
Vll ist die yield so mies, dass Samsung schon mal vorproduziert ;-)

Ailuros
2014-12-12, 18:38:31
Computerbase schreibt es wäre der A9. :|

http://www.computerbase.de/2014-12/samsung-startet-14-nm-fertigung-fuer-ersten-auftragskunden/

Zusammenhang zum Thema? :confused:

Nightspider
2014-12-14, 23:18:35
Zusammenhang zum Thema? :confused:

Mobile-Unterforum und ich habe mich deswegen im Thread verklick0rt. :D

Nightspider
2014-12-29, 18:30:12
Ab Januar scheint es ja nun den Snapdragon 810 zu geben. Ein Galaxy Note 4 mit 810 ist zumindest für Januar in Japan angekündigt.

Gibt es schon eine Timeline oder Gerüchte was für late 2015 geplant ist bzw. ob etwas geplant ist?

So ein Note 4 mit 810 wäre schon ein heißes Gerät.

Edit: Eventuell ein Snapdragon 810 Shrink auf 16FF Ende 2015? Gab es überhaupt schon mal reine Shrinks bei QualComm? Ansonsten wird es wohl einen echten 810 Nachfolger zwischen Ende 2015 und Frühling 2016 geben.

mboeller
2014-12-29, 19:09:10
Japan? Nö...Korea!

Auch das HTC M9 soll laut jetzt aufgetauchter Benchmarks einen "810er" haben.

http://www.gsmarena.com/htc_hima_specs_show_up_on_antutu-news-10606.php

Ailuros
2014-12-30, 10:00:53
Ich hoffe QCOM hat vorgesorgt und der Umstieg von Krait aSMP zu ARM big.LITTLE ist anstaendig durchdacht worden. Entweder leidet darunter der Stromverbrauch oder teilweise die peak single thread Leistung.

Dazu noch Lollipop wo es noch etwas auf wackeligen Beinen steht? Sei froh wenn dass Geraet nicht allzu frueh erscheint, bis das meiste auf der sw Seite hauptsaechlich ausgebuegelt wurde.

Mancko
2015-01-03, 13:31:04
http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/33576-snapdragon-810-bereitet-qualcomm-sorgen.html

Ailuros
2015-01-03, 16:25:32
http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/33576-snapdragon-810-bereitet-qualcomm-sorgen.html

Ist doch hier im thread schon ueber eine Seite alt :confused:

fondness
2015-01-03, 16:26:39
Vor allem ist es mit hoher Wahrscheinlichkeit BS wenn man sich diverse Ankündigungen von 810 Geräten ansieht.

dildo4u
2015-01-03, 16:33:50
Gibt schon offizielle Ankündigungen,das verbesserte Note 4 kommt mit Exynos.

http://www.tabtech.de/android-bzw-google-tablet-pc-news/samsung-galaxy-note-4-lte-mit-exynos-5433-statt-snapdragon-810-gesichtet

Ailuros
2015-01-03, 16:35:16
Vor allem ist es mit hoher Wahrscheinlichkeit BS wenn man sich diverse Ankündigungen von 810 Geräten ansieht.

So schnell waere ich nicht damit es abzuhaken. Genau die gleichen Geruechte gab es auch fuer den 805, die Geraete erschienen normal, jeder schrie "bullshit" und die Dinger throtteln wild in der Gegend herum.

Ravenhearth
2015-01-03, 22:32:43
Der 810 wird imho auch wild rumthrotteln. Für Smartphones ist der 808 wohl passender.

Ailuros
2015-01-09, 10:04:51
http://www.fudzilla.com/news/36689-snapdragon-throttled-to-prevent-firebreathing

http://www.koreatimes.co.kr/www/news/tech/2015/01/133_171341.html

http://blogs.barrons.com/asiastocks/2015/01/07/tsmc-jp-morgan-sees-little-downside-from-qualcomms-snapdragon-delay/?mod=google_news_blog

MediaTek reibt sich schon die Haende und ja hier ein offenes Fenster fuer NVIDIA. Wenn sie jetzt nicht ihren Arsch bewegen und ein paar gute design wins landen, weiss ich wirklich auch nicht mehr weiter....

Nightspider
2015-01-09, 10:26:09
Vielleicht wird QualComm zum Sommer oder Herbst hin einen fehlerbeseitigten Snapdragon 815 nachschieben mit höheren Taktraten.

Wobei es im Herbst ja auch schon 16FF für kleine SoCs geben dürfte.

Dural
2015-01-09, 10:50:00
NV hat im Smartphone Bereich ja nichts vorzuweisen, ein SoC mit externen LTE Modem finde ich in einem Smartphone ziemlich uncool ;)

Die Hersteller werden nach wie vor auf Qualcomm zurück greifen, ihre LTE Technologie wird es richten.

Und überhaupt, NV setzt mit X1 exakt die selben ARM Kerne ein... :wink:

Ailuros
2015-01-09, 14:24:23
Es gibt auch tablets auf dieser Welt.