PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Valley View SoC / Baytrail - Silvermont-QC, 4EUs Gen7 - Atom, Pentium, Celeron - 2013


Seiten : 1 [2] 3

Ailuros
2013-07-16, 14:15:55
Verstehe ich das richtig, das AnTuTu bei den Atom den Intel-hauseigenen ICC-Compiler einsetzt während die ARM beim Benchmark den GCC nutzen?

Mit welchen Compilern wird den nun Android bzw. Android-Software compiliert? Mit dem GCC oder mit anderen Compilern?

Wird auch der ICC bei Android-Software benutzt? Wahrscheinlich ja nicht, da nur die Atom X86 können. Der AnTuTu Benchmarkwert wäre dann doch, zumindest für Intel-CPUs völlig nutzlos, da ja keine Software den ICC benutzt, oder?

Das "tolle" an dem Artikel ist ja, das es Intel nicht gereicht hat das der AnTuTu den Intel-Compiler für den Benchmark einsetzt...nein sie mussten auch noch zusätzlich "optimieren".

http://semiaccurate.com/forums/showthread.php?t=7289

Duerfte einige Deiner Fragen beantworten; mir geht es eher darum dass Antutu bis jetzt fuer die Muelltonne ist. Ich will hoffen dass die Entwickler der Applikation einiges nochmal ueberdenken.

Gandharva
2013-07-16, 18:45:04
Zusammenfassung: Mit ICC kompilierte Software läuft (je nach Code) auf x86 Hardware schneller als mit GCC kompilierte Software.

Breaking News! :freak:

mboeller
2013-07-16, 19:39:28
nette Erklärungen:

http://forums.anandtech.com/showthread.php?t=2330027

Ailuros
2013-07-16, 21:03:38
nette Erklärungen:

http://forums.anandtech.com/showthread.php?t=2330027

Pfff zwar OT aber diejenigen die "begeistert" von dem angeblichem 30k Antutu score eines 8-core Mediatek SoCs waren sollten sich ernsthaft Gedanken ueber die Anwendung machen.

Ailuros
2013-07-18, 11:08:50
http://www.realworldtech.com/forum/?threadid=134968&curpostid=134968

Ein realistischer Vorsprung gegen Intel's vorige Generation (clock for clock).

robbitop
2013-07-18, 11:18:43
Irgendwas ist da komisch. Bereits der in order Intel Kern ist kaum langsamer clock for clock als ein A15. Der neue OoO Kern soll laut Intel 50 % schneller sein. IMO hinterfragenswert.

Ronny145
2013-07-18, 11:30:47
Geekbench 2 ist doch eh für die Tonne.

Gandharva
2013-07-18, 12:58:42
hier mal die taktbereinigte Integer Leistung (FP juckt in dem Segment eh keinen) gegen ein durchschnittliches GT-I9500 (A15) Ergebnis im GB2:

http://browser.primatelabs.com/geekbench2/2068301 vs. http://browser.primatelabs.com/geekbench2/2171109

Blowfish single: 86,52%
Blowfish multi: 106,01%
Text Compress single: 120,77%
Text Compress multi: 111,14%
Text Decompress single: 89,83%
Text Decompress multi: 201,03%
Image Compress single: 39,24%
Image Compress multi: 107,04%
Image Decompress single: 70,73%
Image Decompress multi: 107,75%
LUA single: 97,14%
LUA multi: 113,89%

Wirklich schwach ist der Z3770 nur bei Image Compression single mit nichtmal 40% der Leitung eines A15. In allen Multi Benches ist er bereits schneller als der A15.

Ailuros
2013-07-18, 12:59:28
Geekbench 2 ist doch eh für die Tonne.

Viel weniger fuer die Tonne als Antutu.

Ronny145
2013-07-18, 13:06:19
Viel weniger fuer die Tonne als Antutu.


Warum?

Gandharva
2013-07-18, 13:07:10
Der Integer Part ist schon brauchbar.

/edit

Hier noch die taktbereinigte Integer Leistung gegen einen S800

http://browser.primatelabs.com/geekbench2/2068301 vs. http://browser.primatelabs.com/geekbench2/2063809

Blowfish single: 70,14%
Blowfish multi: 89,49%
Text Compress single: 100,50%
Text Compress multi: 94,35%
Text Decompress single: 103,65%
Text Decompress multi: 193,75%
Image Compress single: 28,74%
Image Compress multi: 84,71%
Image Decompress single: 78,04%
Image Decompress multi: 123,50%
LUA single: 106,71%
LUA multi: 117,65%

Auffällig auch wieder der sehr schlechte Image Compress single Wert.

Ailuros
2013-07-18, 14:03:38
Warum?

Es wird ausfuehrlich in den vorigen links erklaert. Wir brauchen generell zuverlaessigere CPU benchmarks fuer den SFF Markt, wobei Antutu die wertloseste aller ist eben weil die Resultate einfach wertlos sind.

Nach der obrigen Blamage die ich hauptsaechlich Antutu anrechne, ist jegliches "warum" wohl um einige Meilen ueberfluessig.

robbitop
2013-07-18, 14:45:17
Antutu soll für den Intel Bench mit einem optimierten Intelcompiler kompiliert worden sein IIRC.

Gandharva
2013-07-18, 15:28:49
Das hier dürfte ebenfalls ein ValleyView Sample sein: http://browser.primatelabs.com/geekbench2/compare/2063809/2164903

Ronny145
2013-07-18, 18:29:36
Es wird ausfuehrlich in den vorigen links erklaert.


Es geht um eine Intel Optimierung, die ARM hardwareseitig nicht unterstützt. Das wäre vergleichbar als wenn Programm X AVX2 verwendet und die Konkurrenz dieses nicht beherrscht. Pech für ARM.


Wir brauchen generell zuverlaessigere CPU benchmarks fuer den SFF Markt, wobei Antutu die wertloseste aller ist eben weil die Resultate einfach wertlos sind.


Und das ist Geekbench erst recht nicht. Ich kann mich noch an Jaguar Geekbench Werte vor dem launch erinnern, da wurde Jaguar auf eine Stufe mit dem Core 2 Duo oder darüber gehoben. Die Realität sah dann doch anders aus. Massig Ungereimtheiten finden sich im Netz. Ein paar Beispiele gefällig?

Geekbench is interesting: you look at the results, and the main “unflattering” results are in a few sub-benchmarks, where the IA version is set up to handle denorms precisely, and the input dataset is configured to be 100% denorms. This is not normal FP code, not a normal setup, and possibly not even a apples-to-apples comparison to how ARM is handling these numbers. So we view this as an anomaly. (The Geekbench developer agrees with us)
Saltwell trails A15 in raw IPC, but its higher frequency and threads are able to help compensate.
Saltwell trails Krait on very basic workloads like DMIPS, but on more complicated workloads Saltwell’s robust architecture will pull ahead.
http://investorshub.advfn.com/boards/read_msg.aspx?message_id=88008447


I wanted to provide some details about what's going on with the floating point workloads the Silvermont architect referenced. Two of the Geekbench 2 floating point workloads (Sharpen Image and Blur Image) have a fencepost error. This error causes the workloads to read uninitialized memory, which can contain denorms (depending on the platform). This causes a massive drop in performance, and isn't representative of real-world performance.

We only found out about this issue a couple of months ago. Given that Geekbench 3 will be out in August, and fixing the issue in Geekbench 2 would break the ability to compare Geekbench 2 scores, we made the call not to fix the issue in Geekbench 2.
http://www.realworldtech.com/forum/?threadid=133996&curpostid=134864


#geekbench V2 has denormals issues too that needs a fix , small numbers being loaded and not flushed to zero on certain architecture

Let s hope the version 3 fixes the NaN issues , the code is full of denormals , div by zero is something programs avoid now.
https://twitter.com/FPiednoel/status/357589793980432384


Jetzt kommst du und behauptest, die Werte seien realistisch. Das überrascht mich wirklich nicht.

Ailuros
2013-07-18, 19:39:05
Jetzt kommst du und behauptest, die Werte seien realistisch. Das überrascht mich wirklich nicht.

Zwischen realistisch (welches ich nirgends behauptet habe) und realisticher gibt es eine gewaltigen Unterschied. Und nein ich lass mich nicht weiter in solch ein Debatte eben um Deine Voreingenommenheit gegenueber mir nicht weiter zu "ueberraschen".

Was eben nicht ueberraschen wird ist dass Silvermont eben nicht die absolute Wundertuete sein wird die Intel durch Antutu der Welt vorgaukeln wollte. Pech fuer Intel, ARM wird weiterhin im SFF Markt kapitulieren.

Ronny145
2013-07-18, 19:49:54
Zwischen realistisch (welches ich nirgends behauptet habe) und realisticher gibt es eine gewaltigen Unterschied.


Behauptest du. Gewagte These. Auf der einen Seite verteufelst du seitenlang AnTuTu und auf der anderen verlinkst du freudigst Geekbench ohne dabei auf die bekannten Ungereimtheiten von Geekbench einzugehen. Das passt nicht zusammen. Oder Moment einmal, solange die Ergebnisse für dich besser passen, passt es schon. Wenn schon der Hersteller selber warnt, muss man stutzig werden.


Und nein ich lass mich nicht weiter in solch ein Debatte eben um Deine Voreingenommenheit gegenueber mir nicht weiter zu "ueberraschen".

Dafür bist du alleine verantwortlich. Neuestes Beispiel:


Was eben nicht ueberraschen wird ist dass Silvermont eben nicht die absolute Wundertuete sein wird die Intel durch Antutu der Welt vorgaukeln wollte. Pech fuer Intel, ARM wird weiterhin im SFF Markt kapitulieren.


Wieder eine unbewiesene Behauptung von dir. Halbgare Benchmarks von irgendwelchen niedrig taktenden ES Modellen sind ganz sicher im Sinne von Intel, natürlich doch :rolleyes: Das ist reinste Polemik. Der Leak kann von sonstwem stammen.

Ailuros
2013-07-18, 20:02:56
Behauptest du. Gewagte These. Auf der einen Seite verteufelst du seitenlang AnTuTu und auf der anderen verlinkst du freudigst Geekbench ohne dabei auf die bekannten Ungereimtheiten von Geekbench einzugehen. Das passt nicht zusammen. Oder Moment einmal, solange die Ergebnisse für dich besser passen, passt es schon. Wenn schon der Hersteller selber warnt, muss man stutzig werden.

Selbst wenn ich Zeit verschwenden wuerde das Gegenteil zu dokumentieren wuerde es bei der gegebenen Einseitigkeit sowieso zu nichts fuehren.

Dafür bist du alleine verantwortlich. Neuestes Beispiel:

Waehrend gerade Du die Mutter jeglicher Objektivitaet bist oder?

Wieder eine unbewiesene Behauptung von dir. Halbgare Benchmarks von irgendwelchen niedrig taktenden ES Modellen sind ganz sicher im Sinne von Intel, natürlich doch :rolleyes: Das ist reinste Polemik. Der Leak kann von sonstwem stammen.

Ja einige haben im Netz nichts besseres zu tun als auf 24/7 Basis Intel's SFF Loesungen versuchen in ein schlechtes Licht zu stellen. Intel braucht bis jetzt keine Hilfe dafuer und daran kann weder ich noch Du noch jemand anders etwas daran aendern nur Intel selber. In der Zwischenzeit kann von mir aus jeder Antutu als Massstab nehmen; fuer was genau wird er sowieso nicht genau wissen aber es ist ja auch nebenwichtig so lange die Resultate zu Gunsten von N sein sollten.

robbitop
2013-07-18, 20:27:01
Bisher hat Intel nie gelogen, wenn es um IPC Verbesserungsaussagen ging. Man muss sich nur die Vergleichsbenchmarks von Anandtech nehmen, in denen Atom vs. ARMs antritt und auf Atom ~50 % drauflegen. Dann sieht man, wo man circa landen wird.

Ailuros
2013-07-18, 21:33:22
Bisher hat Intel nie gelogen, wenn es um IPC Verbesserungsaussagen ging. Man muss sich nur die Vergleichsbenchmarks von Anandtech nehmen, in denen Atom vs. ARMs antritt und auf Atom ~50 % drauflegen. Dann sieht man, wo man circa landen wird.

Nicht dagegen denn um darum geht es gar nicht; mir geht es um Antutu. Waere bei dem benchmark alles so wie es eigentlich sein sollte wuerden Intel's SFF CPU nicht ploetzlich eine sehenswerte Reduktion in Resultaten bei der letzten Revision sehen. Wieso hat denn Antutu eine revision veroeffentlicht wenn alles so war wie es haette sein sollen?

mboeller
2013-07-19, 07:26:34
Es geht um eine Intel Optimierung, die ARM hardwareseitig nicht unterstützt. Das wäre vergleichbar als wenn Programm X AVX2 verwendet und die Konkurrenz dieses nicht beherrscht. Pech für ARM.


Es geht eben nicht um eine Optimierung.

Damit du es auch verstehst: ;)

Das ist so wie wenn du ein Auto mit angeschnalltem Raketenmotor bencht (ui...rasend schnell) aber im wirklichen Leben hat es eben nur einen 100PS-Motor.


Der AnTuTu benutzt bei Intel den ICC-Compiler, der wird bei Android aber nicht benutzt. Damit sind die Messwerte IMO schon mal nutzlos. Das hat Intel aber noch nicht gereicht also haben sie auch noch ein paar "Optimierungen" eingefügt damit es aussieht als ob ihre CPUs ein wenig schneller sind als sie eigentlich sind.

Gandharva
2013-07-19, 09:55:40
Es geht eben nicht um eine Optimierung.
Nätürlich geht es um eine Optimierung.

Der AnTuTu benutzt bei Intel den ICC-Compiler, der wird bei Android aber nicht benutzt.
Natürlich wird der benutzt. Derzeit zwar afaik nur von Leuten die ein NDA unterschrieben haben, aber in Zukunft wird der Compiler sicher auch in Beacon Mountain integriert werden und von vielen Devs genutzt werden.

Damit sind die Messwerte IMO schon mal nutzlos. Das hat Intel aber noch nicht gereicht also haben sie auch noch ein paar "Optimierungen" eingefügt damit es aussieht als ob ihre CPUs ein wenig schneller sind als sie eigentlich sind.
Deiner Meinung nach ist es also die Schuld der ICC Jungs das sie schlechten Code effizienter kompilieren können als GCC? Das ist ja mal ne lustige Logik.

Coda
2013-07-19, 10:55:47
Antutu soll für den Intel Bench mit einem optimierten Intelcompiler kompiliert worden sein IIRC.
Wobei man da generell vorsichtig sein muss. Wer garantiert, dass GCC für Intel genauso gut optimiert wie für ARM? Oder andersherum?

Und dann gibt es ja sogar noch verschiedene Architekturen je Befehlssatz. Schwierige Sache.

Der AnTuTu benutzt bei Intel den ICC-Compiler, der wird bei Android aber nicht benutzt.
Was heißt "nicht benutzt"? Es steht einem App-Entwickler natürlich frei Code auch mit ICC zu übersetzen. Das ist aber eher ungewöhnlich würde ich vermuten.

Intel könnte da aber auch durchaus sagen, hier, habt eine freie ICC-Lizenz für Android-Entwicklung mit voller Integration in die Dev-Tools und dann sähe die Sache schon ganz anders aus.

Ailuros
2013-07-19, 11:48:40
http://www.xbitlabs.com/news/mobile/display/20130717185043_Intel_Expects_Atom_Bay_Trail_T_Based_Tablets_to_Cost_150_or_Less. html

Nebenbei bei einem $150 MSRP fuer tablets frag selbst ich wo man vorbestellen kann. Das zumindest ist ein objektiver Kaufsgrund.

Tiamat
2013-07-19, 14:50:04
Hier ist das Phänomen genauer beschrieben.
http://www.androidauthority.com/analyst-says-intel-beating-arm-in-benchmarks-was-a-sham-243526/

So here is the long and short of the problem. Starting at AnTuTu 2.9.4, they began compiling using a unique compiler designed by Intel. This allowed Intel chips to bypass certain parts of the test to inflate their score :freak:

AffenJack
2013-07-19, 14:59:23
http://www.xbitlabs.com/news/mobile/display/20130717185043_Intel_Expects_Atom_Bay_Trail_T_Based_Tablets_to_Cost_150_or_Less. html

Nebenbei bei einem $150 MSRP fuer tablets frag selbst ich wo man vorbestellen kann. Das zumindest ist ein objektiver Kaufsgrund.

Naja, Intel verschenkt seine Atoms ja auch anscheinend, wenn man sich deren Quartalszahlen anguckt. Da kann man die Tablets dann auch billig rausbringen. 600 Millionen Verlust bei 900 Millionen Umsatz in der Sparte wo Atom drin ist sagen eigentlich alles. Kein anderer Hardwarehersteller könnte sich solche Zahlen leisten.

Ailuros
2013-07-19, 19:08:02
Naja, Intel verschenkt seine Atoms ja auch anscheinend, wenn man sich deren Quartalszahlen anguckt. Da kann man die Tablets dann auch billig rausbringen. 600 Millionen Verlust bei 900 Millionen Umsatz in der Sparte wo Atom drin ist sagen eigentlich alles. Kein anderer Hardwarehersteller könnte sich solche Zahlen leisten.

Mag sein dass es geschichtlich irgend eine Aussnahme gibt wo irgend ein IHV in einen jeglichen Markt ohne jeglichen Verlust eingestiegen ist, aber es wird extrem selten sein. Firmen wie Intel, Microsoft und NVIDIA unter anderen sind eben leider zu spaet aufgewacht wenn es zu SFF mobile kommt; auf jeden Fall werden sie frueher oder spaeter schon mit vollem Potential einsteigen. Mir tun nur diejenigen IHVs leid die den Zug immer noch verpassen und sich trotz allem eine Zukunft erhoffen; ok falsch ausgedrueckt: ...und sich trotz allem eine relevante Zukunft erhoffen.

Intel muss nach Silvermont lediglich nur noch einsehen dass eine groessere GPU in einem jeglichen SFF SoC kein Ueberfluss ist; denn dass mit den Preisen scheint sich schon zu regeln. Qualcomm will jetzt auch ploetzlich mehr auf tablet design wins setzen, mal sehen was die in der Zwischenzeit anrichten koennen. Fuer alles windows haette ich bei QCOM Treibern schon ein muerbes Gefuehl, mal sehen wie das Publikum reagiert.

Ronny145
2013-08-03, 17:27:49
Bay Trail-T will debut on September 11

http://abload.de/img/intel-bay-trailtjtkdz.png
http://chinese.vr-zone.com/77041/intel-bay-trail-t-will-announed-at-11th-september-ddr3l-rs-and-lpddr3-support-z3770-z3770d-z3740-z3740d-08032013/

mboeller
2013-08-04, 12:03:23
intel-bay-trail-t-will-announed-at-11th-september

SDP von 2 - 2.4 Watt.

Die TDP ist dann wahrscheinlich 3-4x höher, oder? Also 6 - 10 Watt TDP, oder?

Ronny145
2013-08-04, 12:13:47
TDP ist weniger als 2x zur SDP.


N2805 4.3W TDP/2.5W SDP


TDP müsste zwischen 3-4.5W liegen.

Gaestle
2013-08-04, 15:44:21
Welche TDP haben die Snapdragons?

Undertaker
2013-08-04, 17:32:38
Die in Smartphones eingesetzen Modelle dürften bei vielleicht 2,5 bis 3 Watt liegen. Bei anhaltender maximaler Auslastung throtteln aber fast alle SoCs.

Ronny145
2013-08-04, 17:56:37
Qualcomm gibt keine Werte raus. Und wenn, sind die eher mit Intels SDP vergleichbar, so wird gemunkelt.

Undertaker
2013-08-04, 18:07:18
Gerade bei Tablet- und Smartphone-SoCs sind solche Herstellerangaben eh Schall und Rauch. Interessant ist die Performance, die bei gegebenem Formfaktor dauerhaft abgeliefert werden kann. Insofern sehen Intels Zahlen erst einmal hervorragend aus, mit der Einordnung warte ich aber noch auf erste seriöse Messungen (ein paar einzelne Benchmarkdurchläufe zählen da nicht dazu).

Gaestle
2013-08-05, 08:47:19
Danke für die Antworten.

Die in Smartphones eingesetzen Modelle dürften bei vielleicht 2,5 bis 3 Watt liegen. Bei anhaltender maximaler Auslastung throtteln aber fast alle SoCs.


Wäre dass dann nicht ein Rückschritt?

Hier werden Clovertrail 1.7W TDP zugeschrieben:
http://hothardware.com/Reviews/Intel-Clovertrail-Atom-Z2760-Windows-8-Tablet-Performance-Preview/

Ich stimme Dir zu, dass man nicht die Performance aus dem Auge verlieren darf.
Ist die Performance so viel besser bei BayTrail?


Qualcomm gibt keine Werte raus. Und wenn, sind die eher mit Intels SDP vergleichbar, so wird gemunkelt.
Wenn es so wäre, wäre es doch eine gute und kostenlose Werbung. Warum nutzt man das nicht?

Undertaker
2013-08-05, 09:25:58
Wäre dass dann nicht ein Rückschritt?

Hier werden Clovertrail 1.7W TDP zugeschrieben:
http://hothardware.com/Reviews/Intel-Clovertrail-Atom-Z2760-Windows-8-Tablet-Performance-Preview/

Ich stimme Dir zu, dass man nicht die Performance aus dem Auge verlieren darf.
Ist die Performance so viel besser bei BayTrail?

Ja, die 1,7 Watt liest man ab und an mal, allerdings ist das keine offizielle Intel-Angabe und rein von den Verbrauchsmessungen der Gesamtgeräte würde ich mittlerweile von einem deutlich höheren Wert ausgehen. 3,5 Watt oder etwas mehr "echte" TDP dürften es imo sein.

Bay Trail hat auf dem Papier auf jeden Fall einige Vorteile. Deutlich mehr IPC, 4 Kerne, hoher Takt. CPU-seitig könnte das ein ziemlich unschlagbares Paket ergeben, wenn nicht allzu stark gethrottelt werden muss. Die GPU ist zwar auch ein großer Fortschritt, dürfte aber schätzungsweise nicht an eine Adreno 320 (oder gar 330) herankommen.

Gaestle
2013-08-05, 09:55:17
Danke und noch eine letzte Frage zum Verständnis:
BayTrail = Silvermont = Start von Tick-Tock bei den Atoms?

AnarchX
2013-08-05, 09:59:32
Ja, die 1,7 Watt liest man ab und an mal, allerdings ist das keine offizielle Intel-Angabe und rein von den Verbrauchsmessungen der Gesamtgeräte würde ich mittlerweile von einem deutlich höheren Wert ausgehen. 3,5 Watt oder etwas mehr "echte" TDP dürften es imo sein.

Wobei GPU und CPU einzeln wohl deutlich unter 1W liegen: http://www.anandtech.com/show/6529/busting-the-x86-power-myth-indepth-clover-trail-power-analysis

Danke und noch eine letzte Frage zum Verständnis:
BayTrail = Silvermont = Start von Tick-Tock bei den Atoms?
Ja, mit Silvermont beginnt eine deutliche aggressivere Bearbeitung des Low-Power-Marktes durch Intel.

Ailuros
2013-08-05, 10:07:52
Am Rand gibt es irgendwo TDP Angaben fuer Clovertrail+? Mich wuerde interessieren was bei Intel's Implementierung ein 544MP2@533MHz verbraucht; bei Clovertrail (ohne +) ist die 545 GPU so eine Gurke wenn es zu Leistung kommt dass es wohl auch kein Wunder ist dass sie so "sparsam" ist.

Pennywise
2013-08-05, 10:20:33
Finde ich sinnvoll sich erst mal auf die CPU zu konzentrieren. GPU ist beim Zielmarkt Tablets imho zweitrangig. Zumal selbst die lahme GPU vom Clovertrail für die 3D Spielchen aus dem Windows Market reicht. Für große Windows Spiele müsste die Leistung schon an die x360 reichen.

Ronny145
2013-08-05, 10:52:11
HP gibt Z2760 mit 1.95W TDP an.

http://seminaires.atngroupe.fr/Documents%20galerie/pdf/Prez%20HP%20ElitePad%20900.pdf



Wenn es so wäre, wäre es doch eine gute und kostenlose Werbung. Warum nutzt man das nicht?


Inwiefern Werbung? Qualcomm würde da eher nichts bewerben, die Werte dürften höher als deren von Intel liegen.


Wäre dass dann nicht ein Rückschritt?


Die Rückschritte hat jeder gemacht, daher kommen die großen Steigerungen.

Undertaker
2013-08-05, 11:28:10
Wobei GPU und CPU einzeln wohl deutlich unter 1W liegen: http://www.anandtech.com/show/6529/busting-the-x86-power-myth-indepth-clover-trail-power-analysis

Die Browser-Benchmarks sind nicht wirklich parallelisiert, die Werte also zu niedrig. Ansonsten darf man natürlich auch das Speicherinterface und den ganzen I/O-Kram nicht vergessen, zusammen sicherlich auch mindestens 1 W bei defensiver Schätzung. Bei Notebookcheck sehe ich in allen Tests des Z2760 ~4,5 - 5,5 W Verbrauchsdelta zwischen idle/load bei identischer Helligkeit, darum meine Schätzung auf gut 3,5 Watt.

Ailuros
2013-08-05, 12:05:51
Finde ich sinnvoll sich erst mal auf die CPU zu konzentrieren. GPU ist beim Zielmarkt Tablets imho zweitrangig.

Apple, Samsung und NVIDIA wuerden mit dem letzten nicht unbedingt uebereinstimmen. Hier ist dann eher die Frage wo und mit wem man genau konkurriert. Qualcomm scheint nun auch am windows tablet Markt interessiert zu sein, aber in dem Fall zwinkert bei mir das eine Auge eher fuer Treiber wenn es zu QCOM kommt wobei dann alles andere tatsaechlich zweitrangig ist. QCOM koennte in dem Fall sogar jubeln wenn sie mehr als einen wafer brauchen sollten um ihre windows tablet Nachfrage zu decken :D

Zumal selbst die lahme GPU vom Clovertrail für die 3D Spielchen aus dem Windows Market reicht. Für große Windows Spiele müsste die Leistung schon an die x360 reichen.

Wieviele und welche grossen mobilen ISVs haben so oder so etwas ernsthaftes fuer windows tablets genau entwickelt bzw. portiert? Ergo es existiert erstmal nicht ein anstaendiges Volumen damit sich Entwickler mit dem Markt erstmal beschaeftigen. Theoretisch leistet der 545 etwas mehr als ein SGX540 ergo in etwas wie real racing 3D waeren es theoretisch einstellige framerates bei low settings.

Gaestle
2013-08-05, 13:28:41
Inwiefern Werbung? Qualcomm würde da eher nichts bewerben, die Werte dürften höher als deren von Intel liegen.


Vieleicht ein Missverständenis.
Ich habe verstanden:
1) Intel BayTrail SDP 2-2.5W (Tabellengrafik).
2) TDP ca. 3-4.5W TDP für BayTrail in/trotz 22nm
3) Qualcomm TDP 2.5-3 Watt

Unter diesen Annahmen wären das eine bis zu (!) 35% geringere TDP bei Qualcomm in einem dafür sensitiven Markt. Das wäre doch IMHO dann ein super Argument, zumal sie auch leistungsmäßig gut dabei sind.

Ronny145
2013-08-05, 13:35:50
Vieleicht ein Missverständenis.
Ich habe verstanden:
1) Intel BayTrail SDP 2-2.5W (Tabellengrafik).
2) TDP ca. 3-4.5W TDP für BayTrail in/trotz 22nm
3) Qualcomm TDP 2.5-3 Watt

Unter diesen Annahmen wären das eine bis zu (!) 35% geringere TDP bei Qualcomm in einem dafür sensitiven Markt. Das wäre doch IMHO dann ein super Argument, zumal sie auch leistungsmäßig gut dabei sind.



Der Tenor ist das Qualcomm Angaben (falls es denn welche gibt) mit der SDP von Intel vergleichbar sind, u.a. ein Grund weswegen Intel SDP eingeführt hat. TDP bzw. der wahre Maximalverbrauch von Qualcomm dürfte eher bei 5W liegen, mindestens. (Tablet SoC versteht sich)

Pennywise
2013-08-05, 14:17:37
Apple, Samsung und NVIDIA wuerden mit dem letzten nicht unbedingt uebereinstimmen.

Ja die sehen die Tablets als Gaming Device, imho wird das überbewertet. Die meisten Spielchen sind ja eher Casual ohne fette 3d Grafik.
So sieht z.B. Riptide GP auf dem Acer aus. Nicht der Hammer, aber um mal zocken reicht das.

http://www.youtube.com/watch?v=cGhaDrn4-a0&feature=youtu.be

Und Silvermont wird ja noch mal deutlich schneller.

Gaestle
2013-08-05, 14:24:53
Der Tenor ist das Qualcomm Angaben (falls es denn welche gibt) mit der SDP von Intel vergleichbar sind, u.a. ein Grund weswegen Intel SDP eingeführt hat. TDP bzw. der wahre Maximalverbrauch von Qualcomm dürfte eher bei 5W liegen, mindestens. (Tablet SoC versteht sich)

Ahh. Danke für die Aufklärung.
:smile:

Ailuros
2013-08-05, 14:25:13
Ja die sehen die Tablets als Gaming Device, imho wird das überbewertet. Die meisten Spielchen sind ja eher Casual ohne fette 3d Grafik.
So sieht z.B. Riptide GP auf dem Acer aus. Nicht der Hammer, aber um mal zocken reicht das.

http://www.youtube.com/watch?v=cGhaDrn4-a0&feature=youtu.be

Und Silvermont wird ja noch mal deutlich schneller.

Na versuch mal real racing 3 in extra high quality mode (dafuer brauchst Du zumindest einen Exynos5410). Ich persoenlich kann mich nicht an die Ergonomie beim spielen auf einem tablet bzw. smartphone gewoehnen. Bin wohl zu alt und zu stark an keyboard/mouse bzw. wheel gewoehnt ;)

Gaestle
2013-08-05, 14:29:57
Kann man da nicht 'n GameController und einen TV mit dem Smart-Device koppeln und das dann ganz galant in 42" zocken?

Pennywise
2013-08-05, 14:35:27
Na versuch mal real racing 3 in extra high quality mode (dafuer brauchst Du zumindest einen Exynos5410). Ich persoenlich kann mich nicht an die Ergonomie beim spielen auf einem tablet bzw. smartphone gewoehnen. Bin wohl zu alt und zu stark an keyboard/mouse bzw. wheel gewoehnt ;)

Ja keine Frage. Casual Games auf dem Pad, super. 3D Shooter oder Rennspiele sind eigentlich Tinnef. Hab noch ein iPad und auch da zocke ich nicht.

Natürlich könnte man ein Pad per HDMI an einen TV anschliessen und dann da spielen. Aber mal ehrlich, wie gross ist da die Zielgruppe?

Die erlegende Wollmilchsau gibt es leider noch nicht. 3D Games will ich in guter Qualität, sonst macht es mir keinen Spaß. Da hat mein Quadcore HTPC mit 7870 schon zu kämpfen. Mit 5Watt TPD kommt der nicht hin :D

Ronny145
2013-08-08, 18:44:22
Neues Z3770 Stepping im Vergleich: http://browser.primatelabs.com/geekbench2/compare/2226937/2068301


Intel is ready to announce its upcoming Bay Trail-T platform, designed specifically for tablets, in December, and most of Intel's brand partners have expressed satisfaction over the new platform's performance and power consumption; however, pricing is a concern, according to sources from tablet vendors.

Intel currently prices Bay Trail-T-based processors at around US$20-30; however, vendors believe that if Intel is willing to drop the price to US$15, it would have a great chance of turning the tables on ARM-based chipmakers such as Qualcomm, MediaTek and Nvidia.

The sources pointed out that MediaTek is offering its ARM-based solutions at around US$15

http://www.digitimes.com/news/a20130807PD222.html


Also wenn MediaTek $15 verlangt hören sich $20-30 gut an.

Ailuros
2013-08-08, 20:13:02
Digitimes ist nicht gerade die zuverlaessigste Quelle; $15 ist verdammt viel fuer einen Hersteller wie Mediatek. Kommt zwar auf den SoC and und den Zielmarkt aber die Mehrzahl der Faelle sind einstellige Verkaufswerte.

Uebrigens regelt das Volumen eines jeglichen deals den Preis; bei kleinen Mengen verlangen IHVs eben den "vollen" Preis und je groesser das Volumen desto groesser der Rabbatt. Waere ja ziemlich unfair wenn der eine mit einer 50.000 Bestellung den gleichen Preis bekommt mit einer 10Mio Stueck Vorbestellung.

Ronny145
2013-08-09, 00:40:10
Digitimes ist nicht gerade die zuverlaessigste Quelle; $15 ist verdammt viel fuer einen Hersteller wie Mediatek.


Wenn das so verdammt viel ist kannst du bestimmt eine zuverlässige Quelle benennen.

Ailuros
2013-08-09, 11:23:49
Wenn das so verdammt viel ist kannst du bestimmt eine zuverlässige Quelle benennen.

Glaubst Du ich bin so daemlich und schreibe in aller Oeffentlichkeit was fuer einen Preis MT fuer einen grossen Tablet-deal angeboten hat? Wenn noch keine Unterschriften gefallen sind haelt man wenn man etwas darueber weiss gefaelligst die Klappe eben um jegliche Vertraulichkeit zu ehren.

Der MT6589 kostet momentan unter $5 und der MT6589T etwas mehr aber immer noch ein einstelliger Wert. Der 8125 applications processor der gerade in tablets erst erscheint ist auch nicht teurer als der letztere; wenn ein tablet mit diesem heute einen MSRP von $149 hat dann kann wohl der SoC schwer viel mehr als eine handvoll Dollars kosten.

AnarchX
2013-08-12, 08:50:01
Baylake?
http://www.expreview.com/27494.html

Die echten Preise für die J-Pentium/Celeron: http://www.cpu-world.com/news_2013/2013081101_Intel_to_launch_J1750_J1850_and_J2850_ULV_processors.html

Ronny145
2013-08-12, 10:58:48
Zu Baylake hat SiSoft Einträge: http://www.sisoftware.eu/rank2011d/show_system.php?q=cea598a99cac9dac95b3d4e9c4f5d3a19cac8ae3deedcba39ea781f9c4f5d3 b6d3eedef88bb687b1&l=en

Und google sagt Baylake ist Bay Trail.

y33H@
2013-08-20, 09:16:51
Angeblich kommen die 14 nm Atoms ein halbes Jahr früher.

Nightspider
2013-08-20, 09:35:21
Welches Quartal steht jetzt im Raum? Q2 ?
Wenn ich mich nicht irre wurde schon lange hinter vorgehaltener Hand davon gesprochen zu erst die kleinen Chips in 14nm herauszubringen, anstatt Broadwell.

Nvidia wird nächstes Jahr mit ihrem lahmen 28nm Tegra 5 zersägt.

Dann ist Intel 2 Fullnodes weiter und kann auf gleicher Fläche eine vier mal so große GPU verbauen und 8 CPU Kerne die deutlich schneller sind als die lahmen A15 Cores.

robbitop
2013-08-20, 09:46:44
Naja nächstes Jahr kommen auch bereits 20 nm SoCs auf den Markt. ARM bringt A57, der nochmal 30 % schneller als A15 ist. Das sollte in etwa für den neuen Intel Kern ausreichen. Mit 8 Kernen kann im SFF Bereich sowieso keine Anwendung was anfangen. Selbst 4 Kerne werden selten genutzt.

Die tauglichkeit für SFF von Intels umgebauter Dektop IGP kennt auch noch niemand. Keiner weiß wie energieeffizient das Teil auf einem SoC ist.

Am Ende bleibt Intel nächstes Jahr 1x Fullnode als Vorteil.

Es bleibt abzuwarten, wie gut der gesamte SoC von Intel ist und wie breite Unterstützung das ganze dann im Androidbereich bekommt (Software u Design Wins). Wie steht es mit dem Modem?
Denn SoCs dürfen nicht teuer sein, sonst kauft sie keiner. Das haben NV und Intel bis dato noch nicht kapiert, da sie höhere Margen gewohnt sind.
Erst wenn das alles stimmt, kann es wirklich Erfolg bedeuten.

AnarchX
2013-08-20, 09:57:31
Den SoC kann Intel aber auch im LowCost-Windows-x86-Bereich absetzen, wo hingegen NV auf die Gnade eines Win RT Deals angewiesen ist.

Dazu kommt wohl bei Airmont auch eine Gen8 GPU-Architektur und bei dem Smartphone SoC - Merrifield, könnte wohl eher eine Series 6 GPU verbaut sein. Das Treiber-Debakel unter Windows mit IMGTec war wohl nicht akzeptabel.

Ailuros
2013-08-20, 10:04:09
Naja nächstes Jahr kommen auch bereits 20 nm SoCs auf den Markt. ARM bringt A57, der nochmal 30 % schneller als A15 ist. Das sollte in etwa für den neuen Intel Kern ausreichen. Mit 8 Kernen kann im SFF Bereich sowieso keine Anwendung was anfangen. Selbst 4 Kerne werden selten genutzt.

Am Rand kommt wohl nach allen Indizien der Leistungszusatz von ARM A5X eben von 20nm was mir persoenlich auch nichts sagt; schon gar nicht wenn ich bedenke wie lange es dauern wird bis es 20LP SoC in halbwegs anstaendigen Mengen geben wird.

robbitop
2013-08-20, 10:24:04
Den SoC kann Intel aber auch im LowCost-Windows-x86-Bereich absetzen, wo hingegen NV auf die Gnade eines Win RT Deals angewiesen ist.
Intel hat bei Low Cost x86 eh schon ein quasi Monopol. Dank Pentium und Celeron. Dagegen stellt sich nur Jaguar. Bis dato mit wenig komerziellem Erfolg.
Die RT Schiene ist kommerziell ein Witz. Kauft keiner. Dort bringen die neuen Atom SoCs keine Marktveränderung sondern nur eine Weiterentwicklung.

Den Markt in den Intel mit den neuen SoCs wachsen will ist SFF. Windows 8 Mobile wird wenig verkauft. Dort gibt es kaum etwas zu holen. Sie müssen in die Android Welt.

Dazu kommt wohl bei Airmont auch eine Gen8 GPU-Architektur und bei dem Smartphone SoC - Merrifield, könnte wohl eher eine Series 6 GPU verbaut sein. Das Treiber-Debakel unter Windows mit IMGTec war wohl nicht akzeptabel.
Ja die Windowstreiber von IMG waren wohl ziemlich meh. Aber wie bereits genannt ist Android der Markt, in den sie müssen, wenn sie wachsenden Umsatz möchten. Also gegen die ARM SoCs. Dort müssen sie aber mit niedrigen Margen leben. Und dort muss ihre Desktop IGP erstmal an die SFF Lösungen herankommen in Punkto Effizienz. Dort (Android/iOS) sind die IMG Treiber recht gut. Und auch deren Energieeffizienz.
Intel hat IMG IP nie mit vollem Ernst verbaut. Immer nur die kleinen Lösungen, die nicht konkurrenzfähig sind. Da muss man eben auf die großen Lösungen setzen (also bis dato 543MP4, 554MP4 und jetzt Rogue 4 Cluster).

Am Rand kommt wohl nach allen Indizien der Leistungszusatz von ARM A5X eben von 20nm was mir persoenlich auch nichts sagt; schon gar nicht wenn ich bedenke wie lange es dauern wird bis es 20LP SoC in halbwegs anstaendigen Mengen geben wird.

Jap - der A57 braucht in SFF Umgebung 20 nm, um nicht zugeschnürt zu sein (im Microserver soll er ja von AMD bereits in 28 nm gefertigt werden). 20 nm wird irgendwann im nächsten Jahr (H2) kommen. Und wenn es erst im Herbst ist. Ich gehe ganz stark davon aus, dass Apples A8 auf 20 nm basiert. Und der wird vermutlich, wie immer, im September vorgestellt (im iPhone 6 vermutlich).

Ailuros
2013-08-20, 10:55:17
Apple konkurriert quasi mit sich selber. Mein Punkt war lediglich dass Intel moeglicherweise einen groesseren Vorteil haben koennte was die Prozess-Technologie betrifft als die ARM/Android Konkurrenz als sich viele vorstellen.

Ronny145
2013-08-20, 10:58:23
Angeblich kommen die 14 nm Atoms ein halbes Jahr früher.


Auf welche Quelle berufst du dich?

y33H@
2013-08-20, 11:33:53
Barron's (http://online.barrons.com/article/SB50001424052748704148304579008830525485044.html#articleTabs_article%3D1), die Roadmap soll auf dem IDF gezeigt werden.

According to a person close to Intel, the company is likely to announce a schedule at IDF that would significantly trim the inevitable one-year lag for boosting the Atom chip to the next level in speed. And in fact, Atoms will go into 14-nanometer production just six months after the Core chips.

Ronny145
2013-08-20, 12:29:26
Atoms will go into 14-nanometer production just six months after the Core chips.


Wenn das stimmt verringert sich da gar nichts. Die 14nm Core Derivate sind nicht vor Juli 2014 zu erwarten. Airmont ist realistisch nie vor Ende 2014 erwartet gewesen. Bei einem 6 Monate Abstand wird selbst das eine enge Sache. Möglicherweise ist hier der generelle Abstand zwischen der Soc Fertigung und CPU Fertigung gemeint. Der verringert sich natürlich stark.

robbitop
2013-08-20, 13:16:50
Dann lebt Silvermont gerade mal 6 monate? Klingt seltsam.

Ronny145
2013-08-20, 13:18:49
Von Ende 2013 bis Ende 2014 sind bei mir 12 Monate. Oder was meinst du? Für Ende 2014 ist höchstens die Tablet Version zu erwarten.

robbitop
2013-08-20, 13:28:29
Achso: ich hatte es so verstanden, dass Airmont auf Juli 2014 vorgezogen werden soll. Ist dem nicht so?

Ronny145
2013-08-20, 13:34:01
Dem ist nicht so.

AnarchX
2013-08-20, 13:46:03
Vielleicht lässt Intel 22nm auch weiter bis in 2015 laufen und bietet diese SoCs günstiger an, wie es bei den ARM-SoC ähnlich gehandhabt wird.

Nightspider
2013-08-20, 14:39:25
Wenn Airmont erst 2Q14 kommt wäre doch überhaupt nichts vorgeschobem.
Wer ging denn bisher von 2015 aus wenn Intel seit Monaten davon spricht den mobilen Markt komplett aufmischen zu wollen mir neuen Zeitplan zugungsten der Atom-Schiene?

Selbst wenn Intel SoCs teurer sind wird man diese in HighEnd Smartphones verbauen wollen weil Intel sicherlich das Gleiche im SFF Markt abziehen will wie mit AMD im Desktop Bereich.

Mit Glück für Intel werden bei den HighEnd Produkten in 1,5 Jahren nur noch Airmonts verbaut während für die billigeren Smartphones Qualcomm Chips zum Einsatz kommen.

Hat Intel nicht sogar das energieeffizientere Wlan? Wie siehts bei 3G und 4G aus?

Letztes Jahre wurde zumindest noch überall großspurig über das fast komplett digitale WLan Modul gesprochen dessen Entwicklung 10 Jahre gedauert hat.
http://www.hardwareluxx.de/index.php/news/hardware/netzwerk/23768-idf-2012-intel-zeigt-digitales-wifi-modul.html

http://images.tweaktown.com/news/2/2/22723_05_intel_rosepoint_is_close_sports_dual_core_atom_with_built_in_wi_fi.jpg
http://www.techpowerup.com/img/12-09-17/77a.jpg

Was ist eigentlich daraus geworden? Wird das digitale WiFi-Modul schon in Valley View genutzt?
Lässt sich mit dieser Technik nicht auch 3G und 4G realisieren?

Ronny145
2013-08-20, 14:46:53
Wenn Airmont erst 2Q14 kommt wäre doch überhaupt nichts vorgeschobem.
Wer ging denn bisher von 2015 aus wenn Intel seit Monaten davon spricht den mobilen Markt komplett aufmischen zu wollen mir neuen Zeitplan zugungsten der Atom-Schiene?


Von 2Q 2014 hat nie einer gesprochen. Frühestens Q4 2014, vorher kannst du vergessen. Alles andere als Tablet kommt wohl in H1 2015. Mit vorgeschoben ist der zeitliche Abstand zwischen der CPU und SoC Fertigung gemeint, der Abstand verringert sich stark. Die 22nm SoC Fertigung kommt 1,5 Jahre nach der CPU Fertigung. Ab 14nm sind 6 Monate geplant.

mocad_tom
2013-08-21, 01:19:35
Intel hat derzeit 4 Prozesse:

22nm high frequency P1270
22nm low frequency P1271
14nm high frequency P1272
14nm low frequency P1273

mMn will Intel das 14nm Line-Up rechtzeitig für Win9 im Markt haben.

Win 8 im Oktober 2012
Win 8.1 im Oktober 2013
Win 9 im Oktober 2014

Die Win-8.1-Baytrail-Tablets werden alle hochpreisigen ipads und Android-Tablets killen. Wer wird noch ein Samsung Galaxy Note 10.1-Tablet für 500€ kaufen, wenn er dafür auch schon ein Win-8.1-Tablet haben kann.

Im Herbst wird die schreibende Zunft sich selbst auf die Schultern klopfen und rumfabulieren, sie (und nur sie) hätten Microsoft dazu gedrängt ein besseres Win 8 zu erfinden :freak:
Zusätzlich hat die x86-Tablet-Hardware (Baytrail & Haswell) einen Riesenschritt gemacht. Win8 ist jetzt schon stärker im Markt vertreten, als es in den Statistiken so raus kommt.

Geräte wie das Sony Vaio Duo 11 & 13 oder das Lenovo Yoga werden nicht in den Tablet-Auflistungen geführt.

robbitop
2013-08-21, 09:40:54
Die Win-8.1-Baytrail-Tablets werden alle hochpreisigen ipads und Android-Tablets killen. Wer wird noch ein Samsung Galaxy Note 10.1-Tablet für 500€ kaufen, wenn er dafür auch schon ein Win-8.1-Tablet haben kann.

;D;D;D Guter Witz!!

Bis dato ist Windows Mobile im SFF Bereich (Tablets, Phones) von der Marktbedeutung gleich Null. Niemand will Windows auf SFF.
Windows ist seit Win 8 sowieso seitens der UI ein purer Kompromiss. Ständig der bescheuerte Wechsel zwischen Metro und Desktop. Das ist auf dem Desktop blöd (da will man kein Touch Müll) und auf dem SFF ebenso (was will ich da mit nem Desktop??).

Sobald Windows im SFF Bereich wirklich mal anfängt, Marktakzeptanz zu bekommen, können wir weiterreden. Aber bis dato: Android, iOS. Alles andere wird fast nicht gekauft.

fondness
2013-08-21, 09:50:05
;D;D;D Guter Witz!!

Bis dato ist Windows Mobile im SFF Bereich (Tablets, Phones) von der Marktbedeutung gleich Null. Niemand will Windows auf SFF.
Windows ist seit Win 8 sowieso seitens der UI ein purer Kompromiss. Ständig der bescheuerte Wechsel zwischen Metro und Desktop. Das ist auf dem Desktop blöd (da will man kein Touch Müll) und auf dem SFF ebenso (was will ich da mit nem Desktop??).

Sobald Windows im SFF Bereich wirklich mal anfängt, Marktakzeptanz zu bekommen, können wir weiterreden. Aber bis dato: Android, iOS. Alles andere wird fast nicht gekauft.

Ich finde das gar nicht so witzig. Ein vollwertiges Windows, mit einer schier endlosen Zahl an Softwareangeboten, ist diesen Android/iOS Spielzeugen doch bei weiten überlegen. Alleine schon das ich auf einem solchen Gerät Notepad++ oder Putty nutzen könnten und auch professionelle Software ausführen kann. Dazu noch mit BayTrail ein SoC der die ARM-Chips wohl alt aussehen lässt, was will man mehr? Überlegenen CPU-Cores, volle DX11.1 kompatiblität und das alles in einem Tablet mit 2Watt. Der alte Atom ist natürlich Mist, aber mit BayTrail sehe zumindest ich keinen Grund mehr mir Android/iOS anzutun.

robbitop
2013-08-21, 10:21:34
Ich finde das gar nicht so witzig. Ein vollwertiges Windows, mit einer schier endlosen Zahl an Softwareangeboten, ist diesen Android/iOS Spielzeugen doch bei weiten überlegen. Alleine schon das ich auf einem solchen Gerät Notepad++ oder Putty nutzen könnten und auch professionelle Software ausführen kann. Dazu noch mit BayTrail ein SoC der die ARM-Chips wohl alt aussehen lässt, was will man mehr? Überlegenen CPU-Cores, volle DX11.1 kompatiblität und das alles in einem Tablet mit 2Watt. Der alte Atom ist natürlich Mist, aber mit BayTrail sehe zumindest ich keinen Grund mehr mir Android/iOS anzutun.
Das mag ja sein. Nur scheint das niemanden zu interessieren. Das war ja schon das Argument für Surface Pro. Die Dinger liegen Blei in den Regalen. Offenbar wollen die Leute im SFF Faktor vor allem ein rein auf SFF optimiertes schlankes, buntes OS mit dem man surfen kann. Wirklich arbeiten kann man aufgrund des Formfaktors damit sowieso kaum.
Gerade Pads sind für die Masse der Endanwender reine potable Surf/Konsumgeräte. Im Prinzip ist die Tabletklasse eher Casual als wirklich für den produktiven Einsatz. Was nützt dir da bei dem Großteil der Käufer, dass sie alles ausführen können, was sie auf dem PC haben?
Formfaktor, Bedienbarkeit und Geschwindigkeit sind in dem Bereich einfach zu limitiert. Dafür gibt es Notebooks, Ultrabooks oder PCs. Auf dem Tablet wird herum-ge-casualt. Das muss sich bunt und schick und schnell anfühlen, Surfen, Appstore, Casual Games. Das Ding muss schön dünn und leicht sein und gut aussehen. Zumindest scheint der Markt das so zu sehen.

Botcruscher
2013-08-21, 10:22:36
mit einer schier endlosen Zahl an Softwareangeboten

;D
Für den Desktop. Da kann jeder schon lange ein 300€ Notebook kaufen. Für Metro kannste weiter am Vollbild Taschenrechner rumspielen. PS: DX11.1 ist bei der Grafikleistung natürlich voll das Argument für jeden. Mangels Software oder wahlweise Eingabegeräte kann man dann Angry Birds spielen.

Edit:
Der Masse geht die Hardware doch am Arsch vorbei. Keine 800g und Akkulaufzeit sind da die einzigen Argumente. Alles andere bieten die Marktplätze. Anklicken, Installieren, Nutzen. Da will keiner erst von der "Datsch" Oberfläche auf den Desktop zurück und Treiber updaten. W8 hat in dem Bereich fertig. Die schlechteste Lösung für beide Welten. Und ganz ehrlich... wo vermisst ein Nutzer von Andoid/iOS x86?! Der Vorteil von Intel ist keiner mehr. Intel träumt weiterhin von seinen überzogenen Margen. Der Zug ist mit der Leistungsstagnation abgefahren. Sollen sie doch bei 500€ aufwärts mit Apple konkurrieren. Umsatz gibt es derweil mit <150€ Geräten. Der Preisverfall geht fröhlich weiter.

Ailuros
2013-08-21, 10:50:22
;D
Für den Desktop. Da kann jeder schon lange ein 300€ Notebook kaufen. Für Metro kannste weiter am Vollbild Taschenrechner rumspielen. PS: DX11.1 ist bei der Grafikleistung natürlich voll das Argument für jeden. Mangels Software oder wahlweise Eingabegeräte kann man dann Angry Birds spielen.

Stimmt schon, aber es ist wiederrum auch so dass Microsoft in absehbarer Zeit windows phone und windows desktop vereinen wird.


Edit:
Der Masse geht die Hardware doch am Arsch vorbei. Keine 800g und Akkulaufzeit sind da die einzigen Argumente. Alles andere bieten die Marktplätze. Anklicken, Installieren, Nutzen. Da will keiner erst von der "Datsch" Oberfläche auf den Desktop zurück und Treiber updaten. W8 hat in dem Bereich fertig. Die schlechteste Lösung für beide Welten. Und ganz ehrlich... wo vermisst ein Nutzer von Andoid/iOS x86?! Der Vorteil von Intel ist keiner mehr. Intel träumt weiterhin von seinen überzogenen Margen. Der Zug ist mit der Leistungsstagnation abgefahren. Sollen sie doch bei 500€ aufwärts mit Apple konkurrieren. Umsatz gibt es derweil mit <150€ Geräten. Der Preisverfall geht fröhlich weiter.

Hw wird mit der Zeit effizienter und Microsoft hat nichts besonders tolles geplant langfristig was die Weiterentwicklung ihrer OSs betrifft. Einfacher wo ist DX12 genau? Die langweiligen DX11.1 bzw. DX11.2 updates koennen wohl von der Mehrzahl der kommenden SFF DX11 mobilen GPUs unterstuetzt werden.

Wenn die Batterielaufzeit, Gewicht des Geraetes und dessen Preis stimmen sollte hab ich persoenlich ueberhaupt nichts gegen windows. Eben weil ich es auf dem desktop nicht so leicht loswerde und weil ich gerne etwas leichteres als ein notebook mit mir rumschleppen wuerde.

AnarchX
2013-08-21, 11:11:34
Zukünftige "Atom"-SoCs und Architekturen - Cherry/Willow-Trail - Airmont/Goldmont
(http://www.forum-3dcenter.org/vbulletin/showthread.php?t=545126)

Ronny145
2013-08-21, 11:23:54
Das mag ja sein. Nur scheint das niemanden zu interessieren. Das war ja schon das Argument für Surface Pro. Die Dinger liegen Blei in den Regalen.


Bei dem Preis ist das auch kein Wunder. 1000€ geben die wenigsten aus. Es braucht günstige x86 Geräte für die Masse, die dennoch ausreichend CPU Leistung abliefern bei geringen Energiebedarf.

Pennywise
2013-08-21, 11:51:34
Der Masse geht die Hardware doch am Arsch vorbei. Keine 800g und Akkulaufzeit sind da die einzigen Argumente. Alles andere bieten die Marktplätze. Anklicken, Installieren, Nutzen.
Und das können die Atom Tablets jetzt schon. Erkennen die meisten nur nicht, viel auch weil die auf Marktschreier hören. Die aktuellen Atom Tablets sind den meisten Android und iOS Geräten schon in der CPU Leistung überlegen. Für Angry Birds und Co. reicht die GPU auch.

Da will keiner erst von der "Datsch" Oberfläche auf den Desktop zurück und Treiber updaten.
Muss man das? Ihr geht immer von euren Frickellösungen aus. Ich denke mal so ca. 90% aller Notebook Nutzer aktualisieren nie einen Treiber. Auf den Tablets auch unnötig.

Umsatz gibt es derweil mit <150€ Geräten. Der Preisverfall geht fröhlich weiter.
Gewinn aber mit den Geräten über 250€

=Floi=
2013-08-21, 13:41:51
erklärt mir lieber mal, warum ms unbedingt mit aller gewalt ein geansames system für alle platformen will? das ist so in bullshit und geht hoffentlich auch noch richtig nach hinten los.

robbitop
2013-08-21, 14:13:17
Weil der PC Markt schrumpft und der SFF Markt wächst. Sie wollen in beides hinein und denken, dass es toll wäre wäres zu vereinen. Ich sehe es genauso. Windows 8/RT ist sowohl auf dem PC als auch auf SSF nur kompromissbehaftet.
Ich würde die UIs wieder auftrennen. Intel muss vor allem in den Android Markt. Aber sie müssen dann eben mit den Mini-Margen der anderen SoC Anbieter konkurrieren. Ich weiß nicht, ob Intel das will. An den hauchdünnen Gewinnspannen sind in den letzten Jahren einige SoC Hersteller bereits gescheitert. TI und ST Ericson sind prominente Bsp die mir gerade einfallen.

Der neue SFF Core von Intel ist sicherlich ziemlich gut. Aber um komerziell erfolgreich zu sein, muss er eben vor dem markgerechten Hintergrund stehen (billig, kompletter SoC inkl. Modem/WLAN, gute GPU und in Android Devices -> gute native x86 Unterstützung der Apps).

Pennywise
2013-08-21, 14:13:49
erklärt mir lieber mal, warum ms unbedingt mit aller gewalt ein geansames system für alle platformen will? das ist so in bullshit und geht hoffentlich auch noch richtig nach hinten los.

Weil es Sinn macht ein Gerät für Alles zu haben. Je mehr, desto leistungsfähiger die kleinen Geräte werden. Android und iOS Tablets sind durch das OS limitiert. Hab oft mein iPad in der Hand und denk, machste mal eben ... oh warte geht ja gar nicht so mal eben.

Ein Gerät für alles, statt 3 Geräte (Desktop, Notebook, Tablet) die das Gleiche können nur anders aussehen und wo man die Daten noch irgendwie synchronisieren muss.

Zum Baytrail. Ich bin richtig gallig auf die neuen Tablets mit Baytrail. Mein W510 ist nett, hat aber leider einige Hardware Probleme (Wlan, Touchpad) die einem den Spaß manchmal verleiden. Leider verstehen die Hersteller nicht, dass gute Geräte nicht gleich doofe Zusatzsoftware die kein Mensch braucht, sind. Apple hat es verstanden, da ist alles komplett. Hardware, Treiber, Software UND Accessories wie z.B. die Hüllen. Für das Acer W510 gibt es nur eine wirklich gute und die macht das Tablet relativ dick und schwer. Hoffe da auf Asus und Samsung bei den Baytrails.

Ronny145
2013-08-28, 02:40:09
http://s1.directupload.net/images/130828/ke5luoa6.png

http://s7.directupload.net/images/130828/eq62iieg.png

http://s1.directupload.net/images/130828/nhjag5fy.png

http://s7.directupload.net/images/130828/b8qeg8a6.png

http://s14.directupload.net/images/130828/btpg347l.png

http://s7.directupload.net/images/130828/zobsytmz.png

http://s1.directupload.net/images/130828/z645nvb5.png

http://s14.directupload.net/images/130828/c8gitjic.png

Pennywise
2013-08-28, 09:17:23
Wenn die Laufzeit der Baytrail Tablets passt, wird das ein großer Wurf.

robbitop
2013-08-28, 10:39:03
We will see. Die meisten wollen kein Windows Tablet. Intel muss für kommerziellen Erfolg bei Android gut landen. Das geht nur, wenn sie einen sehr guten SoC (Modem, GPU etc) liefern und diesen auch billig liefern. SoC Preise im SFF Bereich sind sehr niedrig. Die üblichen Margen kann Intel sich abschmatzen. Ansonsten verbaut kein Samsung, kein HTC und Co ihre SoCs.

Botcruscher
2013-08-28, 11:00:09
Mal schauen. Richtung NAS finde ich die CPUs viel interessanter. Was den Leistungsbedarf angeht sind wir doch bei den Tablets auch schon in der Stagnation. Mir fällt keine Killeranwendung dafür ein und spielen tue ich auf dem Ding sicher nichts Grafik-aufwendiges.
Die Marketingfolie hat den Preis ja auch wieder sehr großzügig eingeteilt. So wie ich Intel kenne wird da zugunsten des Prozessors wieder am Display gespart.

fondness
2013-08-28, 11:04:07
High-End hat auch im SFF-Markt hohe Margen. Wenn die Folien nur ansatzweise stimmen, ist der Intel SoC jedem ARM-Chip haushoch überlegen. Wenn m an natürlich nur Produkte von der Stange anbietet wie NV oder Mediatek dann sieht es schlecht auch mit den Margen.

robbitop
2013-08-28, 11:24:52
Die Frage ist nur, wer das braucht. Alle Kernanwendungen sind bereits schnell genug. Hinzu kommt, dass ARM und Co auch nicht schlafen. ARM A57 wird 30 % schneller als A15. Apples Swift 2 Core soll ebenfalls 30 % schneller werden. 20 nm kommt nächstes Jahr auch schon.
Dann ist man da schon in Schlagweite.
Hinzu kommt die Frage, ob Intel bei dem GPU Rennen, was im Moment im SFF entbrannt ist, mitmachen will. Bisher waren deren SoC GPUs ziemlich niedrig dimensioniert. Hinzu kommt der ganze andere I/O Kram wie Modem, WLAN. Das muss alles drin sein und performen.

Ich kenne auch kein erfolgreiches "High End" Tablet, bei dem der SoC deutlich mehr kostet. Selbst in den Premium Appleprodukten sind ganz normale ARM SoCs drin, die alle nur ein paar Dollar kosten.
Ein High End Markt ist idR immer ziemlich klein. Intel muss sicher auch in den Massen Markt. Aber dann müssen sie runter von ihren Erwartungen.

Für meinen NAS Anwendungszweck wäre der neue Atom auch nichts. Ich habe noch PLEX drauf laufen - da braucht man für die Echtzeitranscodierung schon ordentlich Leistung. Insbesondere wenn mehrere gleichzeitig schauen wollen. Aber sicher ist der neue Atom für reinen NAS Betrieb oder/und Mikroserver sicherlich ein toller Kern.

Ailuros
2013-08-28, 11:30:47
Der eigentliche "Massenmarkt" ist auch relativ begrenzt fuer die Zukunft:

http://jonpeddie.com/publications/techwatch/

Duplex
2013-08-28, 12:05:56
Die neue Silvermont OoO Architektur hat noch viel Potential nach oben, in 3 Jahren gibt es schon den 10nm Prozess von Intel.

mczak
2013-08-28, 14:56:10
Wenn die Laufzeit der Baytrail Tablets passt, wird das ein großer Wurf.
Naja also nicht vergessen die Benchmarks sind natürlich wie üblich sehr selektiv. Dass da bloss SpecInt und nicht auch SpecFP Werte stehen ist schon mal das erste Indiz auch wenn ersterer hier wichtiger ist dürften die Zahlen bei SpecFP nicht so toll aussehen aufgrund des doch eher schwachen (kaum verbessert gegenüber altem Atom) SIMD-Cluster. Beim 3d-Benchmark hat man ausserdem nur gegenüber alten (oder low-end) SoCs verglichen du kannst dir leicht ausrechnen dass jeder normale Snapdragon mit Adreno 320 bereits locker schneller ist, der Snapdragon 800 mit Adreno 330 kommt dann bereits auf ein Faktor 2, und wäre wohl ein passenderer Gegner für das Topmodell... Das alles noch auf der Referenzplattform, keine Ahnung was die für TDP hat aber im besten Fall ist die am obersten Limit was man in der Praxis sehen wird, kann aber locker auch darüber sein.
Trotzdem ist das natürlich alles in allem ein grosser Fortschritt, bestätigt aber eigentlich nur was man schon weiss, insbesondere auch dass man bei der Grafik nicht ganz mithalten kann mit Topmodellen anderer Hersteller aber immerhin nicht völlig abgehängt wird und ausserdem von den Features besser als alles andere ist ausser Tegra 5 Logan und der erscheint noch eine Weile nicht.

Ailuros
2013-08-28, 15:18:52
Trotzdem ist das natürlich alles in allem ein grosser Fortschritt, bestätigt aber eigentlich nur was man schon weiss, insbesondere auch dass man bei der Grafik nicht ganz mithalten kann mit Topmodellen anderer Hersteller aber immerhin nicht völlig abgehängt wird und ausserdem von den Features besser als alles andere ist ausser Tegra 5 Logan und der erscheint noch eine Weile nicht.

Ich hab nicht die blasseste Ahnung wann QCOM ihre SoCs mit Adreno4xx projeziert hat, aber generell abgesehen von welchem SoC Hersteller was zaehlt fuers obrige ist wann A, B oder C in kaufbaren Geraeten erscheinen wird.

Ist zwar ziemlich zwielichtig aber nach Fudo soll NV Anfang ein Referenz tablet mit Logan veroeffentlichen wollen.

Noch kuerzer DX11.x wird im naechsten Jahr auch nichts mehr besonderes sein; fuer Android bzw. iOS natuerlich noch total ueberfluessig.

Pennywise
2013-08-28, 15:42:05
[QUOTE=mczak;9896040]Beim 3d-Benchmark hat man ausserdem nur gegenüber alten (oder low-end) SoCs verglichen du kannst dir leicht ausrechnen dass jeder normale Snapdragon mit Adreno 320 bereits locker schneller ist .../QUOTE]

CPU Leistung war der alte Atom Z2760 für ein Tablet (!) schon nicht so verkehrt. GPU sehe ich nach wie vor nicht kritisch bei Tablets, wer zockt schon Crysis auf nem Tablet, für die einfachen 3D Spielchen im Store reicht die neue GPU locker.

Anbindung der Festplatte per SATA und bessere WLAN Module in den Tablets sind ein weiterer Punkt. Dazu müssen die Treiber noch passen.

Ronny145
2013-09-04, 20:10:52
https://twitter.com/FPiednoel/status/375261596567625728/photo/1

CB11.5 32bit score vom Z3770.

Duplex
2013-09-04, 20:23:55
http://www.computerbase.de/news/2013-09/intel-atom-c2000-fuer-micro-server-und-kommunikation/

Avoton und Rangeley auf Basis der Silvermont-Architektur eingeführt

http://abload.de/img/avatonsinglexxlts.png

http://abload.de/thumb/3cbsrv.png (http://abload.de/image.php?img=3cbsrv.png) http://abload.de/thumb/4xdsea.png (http://abload.de/image.php?img=4xdsea.png) http://abload.de/thumb/958sle.png (http://abload.de/image.php?img=958sle.png) http://abload.de/thumb/10p3szj.png (http://abload.de/image.php?img=10p3szj.png) http://abload.de/thumb/16mosuh.png (http://abload.de/image.php?img=16mosuh.png) http://abload.de/thumb/19apsyi.png (http://abload.de/image.php?img=19apsyi.png) http://abload.de/thumb/240oslz.png (http://abload.de/image.php?img=240oslz.png) http://abload.de/thumb/250lslo.png (http://abload.de/image.php?img=250lslo.png)

8 Kerne / 8 Threads mit 2,6 Ghz Turbo, es wird bitter für AMD.

Pennywise
2013-09-04, 22:36:20
https://twitter.com/FPiednoel/status/375261596567625728/photo/1

CB11.5 32bit score vom Z3770.

Jo bei 1,47Ghz. Soll doch aber bis 2,4Ghz gehen.

Undertaker
2013-09-04, 22:43:11
Ist halt die Frage, wie der Turbo genau agiert und was der Cinebench da für eine Taktrate erkennt. Denn: 1,0 Punkte pro 1 GHz unter 32 Bit(!) würde eine IPC weit über Jaguar-Niveau bedeuten.

Ronny145
2013-09-05, 07:12:06
Jo bei 1,47Ghz. Soll doch aber bis 2,4Ghz gehen.


Up to 2,4 Ghz steht überall. Zwischen 1,47 und 2,4 Ghz kann das alles sein. Vielleicht läuft das mit 2,4 Ghz ohne GPU Last. Die x64 Version haut 10% höhere scores raus. Wenn man das draufrechnet landen wir bei einem score von 1,6. Zum Vergleich AMDs 8W Temash liefert 1 Punkt. 60% höherer score bei vermutlich einer halb so hohen TDP.

Ronny145
2013-09-06, 16:30:40
Noch mehr C2000 Folien.

http://s14.directupload.net/images/130906/br7kzesk.jpg

http://s1.directupload.net/images/130906/luwv9hnc.jpg

http://s1.directupload.net/images/130906/dagyof3t.jpg

http://s1.directupload.net/images/130906/e5ix2z7k.jpg

http://s1.directupload.net/images/130906/ebayxy3u.jpg

http://s7.directupload.net/images/130906/jhsobaeh.jpg

http://s1.directupload.net/images/130906/khivngoy.jpg

http://s1.directupload.net/images/130906/h495u6r5.jpg

http://s7.directupload.net/images/130906/3jb56l9h.jpg
http://pc.watch.impress.co.jp/docs/news/20130905_614086.html

Gipsel
2013-09-06, 18:14:32
Ist halt die Frage, wie der Turbo genau agiert und was der Cinebench da für eine Taktrate erkennt. Denn: 1,0 Punkte pro 1 GHz unter 32 Bit(!) würde eine IPC weit über Jaguar-Niveau bedeuten.Soo viel mehr wäre das nicht. Temash/Kabini erreicht ziemlich genau 1 Punkt/GHz unter 64Bit. Da reicht schon ein 10% Turbo beim Atom und der wäre überhaupt nicht schneller pro Takt. Wenn der Turbo höher geht, ist er sogar langsamer pro Takt. Also ich denke in Sachen IPC schließt intel nur zu Jaguar auf, aber zieht nicht wirklich vorbei (wenn überhaupt). Helfen wird aber, daß die höheren Takt mit geringerem Verbrauch fahren können. Hier profitiert Intel auch stark von ihrem Fertigungsvorteil (22nm FinFet vs. 28nm bei TSMC).

Ronny145
2013-09-06, 19:53:18
Helfen wird aber, daß die höheren Takt mit geringerem Verbrauch fahren können. Hier profitiert Intel auch stark von ihrem Fertigungsvorteil (22nm FinFet vs. 28nm bei TSMC).


Das liegt imo hauptächlich am Design. Der 3.9W oder 8W Jaguar SoC sieht auch im ARM 28nm Vergleich sehr ineffizient aus. Jaguar scheint nicht gut nach unten zu skalieren.

Ailuros
2013-09-06, 20:23:18
Ein neuer Intel SoC ist in der GFXbench Datenbank aufgetaucht, Frequenz leider unbekannt. Die Dreieck-raten sind erstmal imposant, aber auch GenX scheint all der alpha test Ueberschuss in GLB2.7 nicht besonders gut zu schmecken.

Gipsel
2013-09-07, 09:51:39
Das liegt imo hauptächlich am Design. Der 3.9W oder 8W Jaguar SoC sieht auch im ARM 28nm Vergleich sehr ineffizient aus. Jaguar scheint nicht gut nach unten zu skalieren.Die A15 sind ziemliche Schluckspechte, wenn die nicht ständig am Throtteln sind. Ich sehe da nicht so viel Unterschied.

Ronny145
2013-09-07, 12:19:29
Die A15 sind ziemliche Schluckspechte, wenn die nicht ständig am Throtteln sind. Ich sehe da nicht so viel Unterschied.


Das Delta im NB Test liegt bei 7 Watt und damit immer noch 4W unter AMDs A6-1450 bei 20% höherer CPU Leistung. Die Effizienz vom A15 liegt deutlich höher. Wenn du jetzt den A4-1200 ins Feld führt, ok dieser sollte sparsamer laufen. Dann reden wir aber von einer Leistungsdifferenz bis zu Faktor 2-3. 2x1.0 Ghz reißen keine Bäume aus.

Undertaker
2013-09-07, 12:51:24
Soo viel mehr wäre das nicht. Temash/Kabini erreicht ziemlich genau 1 Punkt/GHz unter 64Bit. Da reicht schon ein 10% Turbo beim Atom und der wäre überhaupt nicht schneller pro Takt. Wenn der Turbo höher geht, ist er sogar langsamer pro Takt. Also ich denke in Sachen IPC schließt intel nur zu Jaguar auf, aber zieht nicht wirklich vorbei (wenn überhaupt). Helfen wird aber, daß die höheren Takt mit geringerem Verbrauch fahren können. Hier profitiert Intel auch stark von ihrem Fertigungsvorteil (22nm FinFet vs. 28nm bei TSMC).

Deswegen ja mein Hinweis auf die Unsicherheit (bzw. Unwahrscheinlichkeit) des angezeigten Taktes. Imo wird die IPC auf jeden Fall deutlich unter Jaguar bleiben. Aber wie du schon sagst: Bei gleicher TDP kann Silvermont zum Teil wohl fast doppelt so hoch takten, da wäre selbst ein deutlicher IPC-Nachteil vernachlässigbar.

Gipsel
2013-09-07, 15:18:20
Das Delta im NB Test liegt bei 7 Watt und damit immer noch 4W unter AMDs A6-1450 bei 20% höherer CPU Leistung. Die Effizienz vom A15 liegt deutlich höher.Von welchem Test redest Du hier genau?

Also laut Notebookcheck hat ein A6-1450 im Acer Aspire V5-122P beim Cinebench R11.5 Multi (64Bit, was der A15 gar nicht kann) eine Idle-Load-Differenz von 4,6Watt. Das sind 4 Kerne bei 1,1GHz (+ Speicherinterface natürlich, ist ja nicht nur die Leistungsaufnahme der Kerne). Bei Prime95 liegt man bei einer Differenz von 6,6W. Ich gehe mal stark davon aus, daß es gar keine gut vergleichbare Zahlen für einen A15-Quad gibt. Ich kann mich aber dunkel an die A15-Duals (1,7GHz oder so) erinnern, die unter hoher Last ein paar Sekunden bei 8W liefen und sich danach bei rund 4W und knapp über 1GHz eingependelt haben oder so. Das sieht für mich jetzt nicht soo viel besser aus.

Also ich meine mich zu erinnern, daß z.B. die geplanten Mikroserver-Varianten (die nicht absolut an der TDP-Kotzgrenze laufen und sich dadurch ständig selber einbremsen) auch so ungefähr bei 4W/Kern liegen (bei um die 2 GHz). Das ist ziemlich nah an dem, was auch Jaguar bei der Taktfrequenz verbraucht (ohne GPU natürlich). Also als riesig würde ich die Unterschiede als Erstes nicht ansehen. Insbesondere, wenn die Testumgebungen und auch -software eher schwierig zu vergleichen ist oder eventuell recht begrenzte, eher synthetische Performance abfragt, ist die Einschätzung relativ schwierig. Da würde ich selbst +-30% als nicht wesentlich einstufen.

Ronny145
2013-09-07, 15:36:38
Von welchem Test redest Du hier genau?

Geekbench v2 Integer.



Da würde ich selbst +-30% als nicht wesentlich einstufen.


Bei +30% Performance und -30% Leistungsaufnahme allerdings schon. Das ergibt eine deutlich bessere perf/Watt. Darum geht es.

Gipsel
2013-09-07, 16:47:35
Geekbench v2 Integer.Na dann wäre ich an Deiner Stelle noch vorsichtig mit den Schlußfolgerungen. Geekbench 3 soll ja realitätsnäher sein, hat da jemand A6-1450 Scores gesehen (A15-Quad@1.6 liegt bei 662/1817 Single/Multi)?
Edit: Das ist das, was ich auf die Schnelle gefunden habe (http://browser.primatelabs.com/geekbench3/27902) (760/1996, also schneller als der A15-Quad), aber in der Datenbank als ungenau geflagged. Keine Ahnung, was man daraus machen soll.

Ronny145
2013-09-07, 17:11:27
Edit: Das ist das, was ich auf die Schnelle gefunden habe (http://browser.primatelabs.com/geekbench3/27902) (760/1996, also schneller als der A15-Quad), aber in der Datenbank als ungenau geflagged. Keine Ahnung, was man daraus machen soll.


Die Werte liegt unter dem Snapdragon 800, somit sollte A15 ein gutes Stück schneller sein bei geringerem Strombedarf.

ndrs
2013-09-07, 17:11:54
Geekbench v2 Integer.
Könntest du mal Links setzen? Da muss ich mir nicht immer nen Wolf googeln, wenn ich mir die genauen Zahlen mal ansehen will :)

Das ist das, was ich auf die Schnelle gefunden habe[/url] (760/1996, also schneller als der A15-Quad), aber in der Datenbank als ungenau geflagged. Keine Ahnung, was man daraus machen soll.
Hier liegt der MultiScore ne ganze Ecke höher, aber auch mit Flag. Vielleicht liegt das an dem Windows 8 OC Cheat mit der Realtime-Clock
http://browser.primatelabs.com/geekbench3/23829

Ronny145
2013-09-07, 17:18:06
Könntest du mal Links setzen? Da muss ich mir nicht immer nen Wolf googeln, wenn ich mir die genauen Zahlen mal ansehen will :)



http://www.notebookcheck.com/Test-Toshiba-eXcite-Pro-AT10LE-A-108-Tablet.98288.0.html


Zum A6-1450 gibt es genügend über die Geekbench Suche, rund 2200 im Integer machen die meisten.

Gipsel
2013-09-07, 17:41:49
Die Werte liegt unter dem Snapdragon 800, somit sollte A15 ein gutes Stück schneller seinNope, bei 1,6GHz ist er das nicht. Hier mal ein Quad-A15@2 GHz (http://browser.primatelabs.com/geekbench3/49886) zum Vergleich (edit: das hier ist der Schnellste in der Datenbank (http://browser.primatelabs.com/geekbench3/22648)). Der säuft dann aber auch entsprechend und schlägt praktisch gerade mal so den Jaguar-Quad@1,0/1,4 GHz. Und es ist immer noch Geekbench. ;)

Ronny145
2013-09-07, 19:41:22
Nope, bei 1,6GHz ist er das nicht. Hier mal ein Quad-A15@2 GHz (http://browser.primatelabs.com/geekbench3/49886) zum Vergleich (edit: das hier ist der Schnellste in der Datenbank (http://browser.primatelabs.com/geekbench3/22648)). Der säuft dann aber auch entsprechend und schlägt praktisch gerade mal so den Jaguar-Quad@1,0/1,4 GHz. Und es ist immer noch Geekbench. ;)


A6-1450 liegt Singlecore minimal unter den meisten A15 und Multithread fast immer langsamer. Somit sehe ich den A15 vorne. Wie viel säuft er denn? Wie wir wissen säuft der A6-1450 seine 8-10W und ist deswegen alles andere als Tablet tauglich.

Pentium M
2013-09-07, 21:33:51
Cortex A15 0,46 bis 0,55 mW/Mhz.

Ailuros
2013-09-07, 21:40:48
Cortex A15 0,46 bis 0,55 mW/Mhz.

Der Unterschied in Werten ist wohl Implementierungs-bedingt oder? Mit welcher Revision sind die Werte genau?

Pentium M
2013-09-07, 22:03:34
Ist eine Tabelle aus der CT 8/2013 wo das BIGlittle Prinzip behandelt wird .Verlinken geht nicht weil Bezahlbereich von Heise.online.

Undertaker
2013-09-08, 00:08:30
Wie kann man das überhaupt so pauschal formulieren? Die Verbrauchskurve wird wohl kaum linear verlaufen.

Gipsel
2013-09-08, 01:44:45
A6-1450 liegt Singlecore minimal unter den meisten A15 und Multithread fast immer langsamer. Somit sehe ich den A15 vorne.Ähm, also in den von mir und ndrs angebrachten Links sehe ich das nicht so ganz. Wie gesagt, Geekbench 3, nicht 2.
Wie viel säuft er denn? Wie wir wissen säuft der A6-1450 seine 8-10W und ist deswegen alles andere als Tablet tauglich.Nur die CPU bei den meisten Sachen wohl nur ~5-6W. Die TDP inklusive Grafik ist ja nur 8W. Und diese 5W ziehen die Quad-A15 auch locker unter Volllast. Wohl keiner von denen kann 4x2GHz in einem Tablet ohne aktive Kühlung dauerhaft halten, selbst die 1,6GHz Versionen können das schon nicht so recht. Es gibt schon einen Grund, warum die Quad-bzw Octo-A15 für Mikroserver mit einer viel höheren TDP (oder niedrigerem Takt) daherkommen. Die Verbrauchsangaben bei den Tablet- und erst recht den Smartphone-Versionen sind eher intel-Style SDPs. Bei stärkerer Belastung wird nach ein paar Sekunden Volllast typischerweise kräftig gethrottelt.

Ailuros
2013-09-08, 09:02:00
Ist eine Tabelle aus der CT 8/2013 wo das BIGlittle Prinzip behandelt wird .Verlinken geht nicht weil Bezahlbereich von Heise.online.

Schoen; gleiche Uebung nochmal unter 28HPM mit A15/R4.

Ronny145
2013-09-08, 12:23:16
Ähm, also in den von mir und ndrs angebrachten Links sehe ich das nicht so ganz. Wie gesagt, Geekbench 3, nicht 2.

Ein paar Auserwählte:

http://browser.primatelabs.com/geekbench3/50957
http://browser.primatelabs.com/geekbench3/50952
http://browser.primatelabs.com/geekbench3/49886
http://browser.primatelabs.com/geekbench3/48481
http://browser.primatelabs.com/geekbench3/48089
http://browser.primatelabs.com/geekbench3/47524
http://browser.primatelabs.com/geekbench3/47188
http://browser.primatelabs.com/geekbench3/46334
http://browser.primatelabs.com/geekbench3/43667


Die liegen alle drüber. Snapdragon 800 liegt auch drüber.

Gipsel
2013-09-08, 16:34:03
Ein paar Auserwählte:

http://browser.primatelabs.com/geekbench3/50957
http://browser.primatelabs.com/geekbench3/50952
http://browser.primatelabs.com/geekbench3/49886
http://browser.primatelabs.com/geekbench3/48481
http://browser.primatelabs.com/geekbench3/48089
http://browser.primatelabs.com/geekbench3/47524
http://browser.primatelabs.com/geekbench3/47188
http://browser.primatelabs.com/geekbench3/46334
http://browser.primatelabs.com/geekbench3/43667Alle Deine 1,6GHz Links liegen im Multicore-Score unter dem A6-1450 aus dem Link von ndrs (2545). Und lediglich ein paar der 2GHz-Versionen (genau drei, davon hat Du zwei verlinkt, aber sogar einer der von Dir verlinkten ist genau wie die große Mehrzahl langsamer) liegen knapp (maximal 5% oder so) drüber. Und um das nochmal zu wiederholen, dem Benchmark traue ich sowieso nicht so ganz. Scheint auch nicht sehr reproduzierbar zu sein, oder liegt das am Throttling/Energiesparmaßnahmen? ;)

Ronny145
2013-09-08, 16:44:13
Alle Deine 1,6GHz Links liegen im Multicore-Score unter dem A6-1450 aus dem Link von ndrs (2545).


Der Wert dürfte im 15W Modus entstanden sein. Die Mehrleistung in MT entspricht ziemlich gut der höheren Frequenz bei MT Last.

Gipsel
2013-09-08, 17:48:19
Da es die Kiste nur mit dem A4-1250 oder dem A6-1450 gibt, stellt sich die Frage, ob das vermutlich ungeänderte Kühlsystem damit klarkommen würde bzw. ob das HP Touchsmart 11 überhaupt sowas wie den Dockmodus unterstützt. Vielleicht wurde dort auch nur ein weniger aggressiver Stromsparmodus gewählt?
Die einzelnen Subtests bei Geekbench dauern ja nur ein einzelne Sekunde oder so. Da wachen nicht alle CPUs voll auf (edit: bzw. setzt das Throttling auch nicht [voll] ein, weil es durch den ständigen Wechsel zwischen Singlethread- und Multithreadlast im Sekundentakt stark darauf ankommt, wie warm es ist und wie lange eine CPU seine SDP überschreiten darf, bevor gethrottelt wird), was die Werte verfälschen kann (das ist mit ein Kritikpunkt und auch eine vermutliche Ursache für die teils riesigen Streuungen). Und ich kann mich auch dunkel daran erinnern, daß die ersten Notebooks mit dem A6-1450 (Acer Aspire V122?) ab und zu Probleme mit den Stromsparmodi hatten und in einigen Tests mit zu niedrigem Takt liefen.

Aber zumindest sieht es so aus, daß der fragliche A6-1450 zumindest seine programmierte SDP (8W? das ist ja relativ flexibel) während des Benchmarks ebenfalls kurzfristig überschreiten durfte. Der ist meist mit der gleichen Frequenz im Single- und Multitest gelaufen (wie auch die A15 mit den hohen Werten), was bei längerdauernder Last kein typisches Verhalten ist (für A15 ohne aktive Kühlung aber auch nicht).
@2GHz (http://browser.primatelabs.com/geekbench3/52055)
@1,3GHz (http://browser.primatelabs.com/geekbench3/52131)

Ronny145
2013-09-08, 21:50:54
Da es die Kiste nur mit dem A4-1250 oder dem A6-1450 gibt, stellt sich die Frage, ob das vermutlich ungeänderte Kühlsystem damit klarkommen würde bzw. ob das HP Touchsmart 11 überhaupt sowas wie den Dockmodus unterstützt.


15W sind jetzt nicht die Wahnsinns hohe TDP, als das man automatisch Kühlprobleme annehmen könnte zumal die CPU alleine wohl kaum die vollen 15W ausnutzen dürfte. Schonmal das HP Touchsmart 11 angesehen? Die Rahmenbedingungen sind weitaus kühlfreundlicher als unsere Tablet Vergleichssysteme mit ARM A15.



Die einzelnen Subtests bei Geekbench dauern ja nur ein einzelne Sekunde oder so.


Beim Acer lief das ab Sekunde 1 schon nur mit 1.0-1-1 Ghz bei Auslastung aller Kerne. Der Performance Unterschied von deinem Link zu dem von ndrs ist sehr gut mit dem höheren Takt bei 4-Kern Belastung im 15W Turbo Dock Modus erklärbar.



Und ich kann mich auch dunkel daran erinnern, daß die ersten Notebooks mit dem A6-1450 (Acer Aspire V122?) ab und zu Probleme mit den Stromsparmodi hatten und in einigen Tests mit zu niedrigem Takt liefen.


Das Acer hatte keine Probleme mit den Stromsparmodi, die CPU lief standesgemäß im 8W Modus. Die Cinebench 11.5 MT Werte stimmten mit denen von AMD überein.


Aber zumindest sieht es so aus, daß der fragliche A6-1450 zumindest seine programmierte SDP (8W? das ist ja relativ flexibel) während des Benchmarks ebenfalls kurzfristig überschreiten durfte.

Von welcher SDP sprichst du?

Gipsel
2013-09-08, 23:22:56
15W sind jetzt nicht die Wahnsinns hohe TDP, als das man automatisch Kühlprobleme annehmen könnte zumal die CPU alleine wohl kaum die vollen 15W ausnutzen dürfte.Darum geht es ja gar nicht. Aber für den Dockmodus muß die Kühllösung alles dauerhaft wegkühlen können, auch wenn die GPU noch mitläuft. Und die Alternativ-CPU A4-1250 unterstützt den schonmal nicht. Ansonsten ist es vielleicht nur eine andere Ausnutzung des Turbo-Features, was die Tablet-/Notebookhersteller offenbar innerhalb gewisser Grenzen steuern können.
Beim Acer lief das ab Sekunde 1 schon nur mit 1.0-1-1 Ghz bei Auslastung aller Kerne.Siehst Du, und das ist eben nicht nötig. Viele CPUs dürfen ihre SDP/TDP (ich benutze einfach mal intels Bezeichnung) auch für mehr als nur ein paar Zehntelsekunden überschreiten (ist das bei intels Ultrabook-CPUs nicht sogar 20 Sekunden oder gar mehr?). Immerhin hat man ja einige Sekunden Zeit, bis der Kühlkörper warm wird. Und dann ist der multithreaded-Test bei Geekbench auch schon wieder vorbei und der nächste singlethreaded Test startet, wo das wieder etwas abkühlen kann um sozusagen Schwung für die nächsten wieder nur 2 Sekunden Vollast auf allen Kernen zu holen. Geekbench ist beinahe das Optimum für so eine Technik (weil es nie länger als wenige Sekunden Vollast auf allen Kernen gibt).
Warum wärmen eigentlich einige Magazine für GPU-Tests Karten mit Turbo-Feature mehrere Minuten vor? ;)
Das Acer hatte keine Probleme mit den Stromsparmodi, die CPU lief standesgemäß im 8W Modus. Die Cinebench 11.5 MT Werte stimmten mit denen von AMD überein.Ja, und woanders hatte man Mühe, die CPU zum vollen Boosten zu überreden, auch wenn der Stromverbrauch noch deutlich unter 8W lag. Und auch der Cinebench MT Test hätte noch locker 100+MHz mehr vertragen, ohne die 8W zu überschreiten. An dem Verhalten kann man feilen, je nachdem worauf man Wert legt (und was die Kühllösung hergibt).
Von welcher SDP sprichst du?Ich habe wie gesagt einfach mal intels Bezeichnung übernommen, auch wenn der hier vielleicht nicht ganz paßt. Das ist sowieso ziemlich unscharf definiert. Aber auch da gibt es ein paar Parameter, mit denen das Boostverhalten gesteuert werden kann.

Ronny145
2013-09-08, 23:54:44
Siehst Du, und das ist eben nicht nötig.



Gibt es dazu eine Quelle? AMD sagt das Gegenteil.


Ja, und woanders hatte man Mühe, die CPU zum vollen Boosten zu überreden, auch wenn der Stromverbrauch noch deutlich unter 8W lag.

Das ist beabsichtigt von AMD. 1,4 Ghz gibt es nur im 15W Modus.


An dem Verhalten kann man feilen, je nachdem worauf man Wert legt (und was die Kühllösung hergibt).

Inwiefern kann man daran feilen? Das Verhalten ist völlig normal. Ändern lässt sich das nur, indem der OEM die CPU im Dock Modus laufen lässt. Wenn wir Dock Benchmarkwerte als Basis nehmen, können wir nicht mehr die Verbrauchwerrte z.B. von Notebookcheck nehmen, da diese ohne Dock Modus ermittelt wurden.

Gipsel
2013-09-09, 11:58:17
Gibt es dazu eine Quelle? AMD sagt das Gegenteil.Intel und viele ARM SoCs machen es anders. Es ist nicht nötig.
Das ist beabsichtigt von AMD. 1,4 Ghz gibt es nur im 15W Modus.Und OEMs könnten das vielleicht auch etwas feiner einstellen. Der Chip hat die Möglichkeit, die Frage ist nur, ob AMD die freigibt und das genutzt wird. Programmierbare TDPs gibt es nicht erst seit gestern.
Inwiefern kann man daran feilen? Das Verhalten ist völlig normal. Ändern lässt sich das nur, indem der OEM die CPU im Dock Modus laufen lässt.Es gibt sehr viele Notebooks, die nicht die Performance von Referenzdesigns erreichen, weil sie nicht so hoch oder so lange boosten. Das wird häufig auf eine unzureichende Kühllösung zurückgeführt, was sicherlich oft auch stimmt. Aber Notebookhersteller haben sehr wohl die Möglichkeit, das Boostverhalten auch z.B. über das BIOS zu beeinflussen, indem die SDP/TDP nur sehr kurz überschritten werden darf (statt z.B. 20s) oder auch schlicht eine geringere TDP als offiziell erlaubt programmiert wird.
Auf den A6-1450 übertragen, das Ding ist bei 15W für konstante 1,4GHz auf allen Kernen bei einer bestimmten Spannung und auch einer höheren GPU-Frequenz und -Spannung freigegeben als bei 8W. Aber selbst im 8W-Modus können einzelne Kerne auf 1,4GHz boosten (die laufen dann natürlich mit der gleichen Spannung wie im 15W-Modus), nur die GPU kommt nicht so hoch. Wenn man jetzt die 8W nur im Mittel einhalten will (und nicht unter allen Umständen), dann kann man bei kurzzeitigen Belastungen (wie z.B. Geekbench) auch alle 4 Kerne kurz mal auf 1,4GHz jagen. Ohne GPU-Last (und bei der sowieso niedrigeren Frequenz dieser) dürfte der Verbrauch für normale Anwendung kaum wesentlich über 10W hinausgehen. Hält diese Belastung länger als sagen wir mal 10s an (was bei Geekbench nicht der Fall ist), dann wird der Takt langsam zurückgeschraubt, bis man wieder unter die 8W fällt. Die 10s sind hier nur ein Beispiel. Das Powermanagement hält eine History über den Verbrauch in der letzten Zeit (z.B. einfach ein Integral über die letzten 20s oder so, das ist super einfach zu machen) und solange der gemittelte Stromverbrauch in dieser Zeit unter der festgelegten TDP liegt, wird weiter geboostet, was der Chip kann. Genauso machen es Intel-Ultrabook-CPUs und seit mehr als einem Jahr übrigens auch AMDs Grafikkarten (das wurde sogar bei bestehenden Karten per Treiberupdate nachgeliefert, da das Powermanagement von einer programmierbaren Einheit auf der GPU gehandhabt wird). Und die Parameter dafür können von der Firmware/BIOS oder auch von entsprechenden Tools zur Laufzeit geschrieben werden.

Undertaker
2013-09-09, 12:10:16
Aber selbst im 8W-Modus können einzelne Kerne auf 1,4GHz boosten (die laufen dann natürlich mit der gleichen Spannung wie im 15W-Modus), nur die GPU kommt nicht so hoch. Wenn man jetzt die 8W nur im Mittel einhalten will (und nicht unter allen Umständen), dann kann man bei kurzzeitigen Belastungen (wie z.B. Geekbench) auch alle 4 Kerne kurz mal auf 1,4GHz jagen. Ohne GPU-Last (und bei der sowieso niedrigeren Frequenz dieser) dürfte der Verbrauch für normale Anwendung kaum wesentlich über 10W hinausgehen. Hält diese Belastung länger als sagen wir mal 10s an (was bei Geekbench nicht der Fall ist), dann wird der Takt langsam zurückgeschraubt, bis man wieder unter die 8W fällt.

Ich wüsste nicht, dass Kabini/Temash seine TDP kurzzeitig überschreiten darf (anders als z.B. Richland). Und ich kenne auch kein Kabini-Notebook, welches ein derartiges Verhalten zeigt. Praktisch hast du bei Last auf allen 4 Kernen nur 1,0 - 1,1 GHz.

YfOrU
2013-09-09, 12:27:15
Hatten wir glaube ich noch nicht:

Z3770 (Android, Geekbench3)
http://browser.primatelabs.com/geekbench3/52725

Als Vergleich, Z2580
http://browser.primatelabs.com/geekbench3/24404

S800
http://browser.primatelabs.com/geekbench3/48238

und AMD E-300 (2*Bobcat, 1,3Ghz), sollte leicht oberhalb von 2*Jaguar bei 1Ghz liegen (A4-1200).
http://browser.primatelabs.com/geekbench3/4567

Argumentativ sehe ich vor allen mit Blick auf S800 (28nm HPm) bei AMD (Fertigung & Design) große Probleme. Im Mittel ist ein 28nm Temash im Bereich um 4W nicht viel flotter (CPU) als ein ("alter") 32nm Atom SoC. Das mit TSMC deutlich mehr möglich ist zeigt Qualcomm.

Pennywise
2013-09-09, 12:50:38
Sieht gut aus, ich bin gespannt was die Dinger können. Kommt ja Singlecore, schon bald in Regionen meines betagten P8600 Notebooks. Das reicht mir für mobile Anwendungen völlig.

YfOrU
2013-09-09, 13:23:42
Single-Core um die 1000 Punkte sehe ich in Relation zu älteren Notebook CPUs auch als recht aussagekräftige Marke. In Kombination mit einer SSD und ausreichend Arbeitsspeicher lässt sich damit normalerweise vernünftig mobil arbeiten.

Gipsel
2013-09-09, 15:20:36
Ich wüsste nicht, dass Kabini/Temash seine TDP kurzzeitig überschreiten darf (anders als z.B. Richland).Das kann Kabini/Temash prinzipiell, das muß nur genutzt werden. Insbesondere da der A6-1450 ja auch für die 15W-Stufe gebinnt ist. Das muß nicht unbedingt so binär laufen, wie mit den 8W/15W Stufen. Wenn ein Notebookhersteller z.B. im Mittel 8W will und kurzfristig z.B. bis zu 12W, könnte der Chip das einfach mit einer anderen Firmware unterstützen. Bei anderen CPUs geht das ja auch.
Und AMDs offizielle Folien erwähnen sogar, daß die Boost-Stufe anhand von "TDP credits" gewählt wird. Das heißt nichts anderes, als den Mechanismus, den ich oben beschrieben habe. Man braucht nur eine Zeitkonstante (größer als eine knappe Sekunde) dafür zu wählen und schon würde das gehen. Intel macht es so und viele ARM SOCs auch. Warum sollte AMD die Funktionalität nicht aktivieren bzw. vernünftig ausnutzen?
http://media.bestofmicro.com/Q/Q/385874/original/GCN-power-monitoring.jpg

Undertaker
2013-09-09, 15:58:39
Da ist für mich nicht erkennbar, dass es Stufen zwischen den bekannten 8 und 15 Watt gibt. Und nochmal ganz konkret: Was bringt dir diese Spekulation, wenn die Praxis nun einmal etwas ganz anderes zeigt? Der A6-1450 taktet bei Multithreading (4 Kerne) ohne Dock-Modus mit maximal 1,1 GHz, das ist der Punkt, und dabei sollte man bleiben. Oder besser noch, man zieht für IPC-Vergleiche gleich den A4-5000 ohne Turbo heran.

Warum sollte AMD die Funktionalität nicht aktivieren bzw. vernünftig ausnutzen?

Warum hat überhaupt nur ein Modell einen CPU-Turbo? Ich weiß es auch nicht. ;)

dildo4u
2013-09-09, 16:01:28
Hatten wir glaube ich noch nicht:

Z3770 (Android, Geekbench3)
http://browser.primatelabs.com/geekbench3/52725

Als Vergleich, Z2580
http://browser.primatelabs.com/geekbench3/24404

S800
http://browser.primatelabs.com/geekbench3/48667

und AMD E-300 (2*Bobcat, 1,3Ghz), sollte leicht oberhalb von 2*Jaguar bei 1Ghz liegen (A4-1200).
http://browser.primatelabs.com/geekbench3/4567

Argumentativ sehe ich vor allen mit Blick auf S800 (28nm HPm) bei AMD (Fertigung & Design) große Probleme. Im Mittel ist ein 28nm Temash im Bereich um 4W nicht viel flotter (CPU) als ein ("alter") 32nm Atom SoC. Das mit TSMC deutlich mehr möglich ist zeigt Qualcomm.


Die S800 Score scheint zu niedrig.

2600 Xperia Z Ultra
http://youtu.be/Fq5Wpb-yJkY

Gandharva
2013-09-09, 16:04:54
*del*

YfOrU
2013-09-09, 16:10:17
Ja, habs editiert und höhere Ergebnisse für den MSM8974 eingefügt. Leider hat auch Geekbench3 vergleichsweise hohe Schwankungen und eignet sich nur für sehr grobe Vergleiche.

Gipsel
2013-09-09, 16:47:01
Da ist für mich nicht erkennbar, dass es Stufen zwischen den bekannten 8 und 15 Watt gibt. Und nochmal ganz konkret: Was bringt dir diese Spekulation, wenn die Praxis nun einmal etwas ganz anderes zeigt? Der A6-1450 taktet bei Multithreading (4 Kerne) ohne Dock-Modus mit maximal 1,1 GHz, das ist der Punkt, und dabei sollte man bleiben. Oder besser noch, man zieht für IPC-Vergleiche gleich den A4-5000 ohne Turbo heran.

Warum hat überhaupt nur ein Modell einen CPU-Turbo? Ich weiß es auch nicht. ;)Wenn die CPU entsprechende Powerstates unterstützt (das ist ja beim A6-1450 unzweifelhaft der Fall), dann könnenh die auch ausgewählt werden. Der Algorithmus dazu wird von ein paar Werten gesteuert, die beim Booten auf irgendwelche Standards gesetzt werden. Aber wie gesagt kann das BIOS die Werte ändern (bzw. muß die sogar explizit setzen, damit Boost überhaupt funktioniert). Das ist sogar (im unvollständigen) BIOS und Kernel Developer Guide erwähnt und teilweise dokumentiert. Die Werte können definitiv auch geschrieben werden (in dafür vorgesehene MSRs). Es liegt also im Ermessen des Notebookherstellers, was er da konfiguriert. Da gibt es Werte mit Namen wie z.B. (es gibt extrem viel zum Power Management und Boosting):
Node TDP Accumulator Throttle Threshold
Compute Unit TDP Accumulator Throttle Threshold
Node TDP Accumulator Boost Threshold
Node TDP Margin Accumulator
Compute Unit TDP Margin Accumulator
Compute Unit TDP Limit
Node TDP Limit
Processor TDP Running Average Range
RunAvgRange: running average range. Read-write; Same-for-all. Reset: 0. BIOS: 1h. Specifies the interval over which the UNB averages power consumption estimates from the cores for boosting.
Time interval = 2^(RunAvgRange + 1) * FreeRunSampleTimer rate. A value of 0 disables the TDP running average accumulator capture function. See 2.5.9 [Application Power Management (APM)] and TdpRunAvgAccCap.Also das Ding im BIOS einfach nicht auf 0 lassen bzw. nur auf 1 setzen (was offenbar der empfohlene Wert ist) sondern da ein längeres Zeitintervall programmieren und das sollte funktionieren. Warum das in den bisher erschienenen Notebooks keiner macht, darfst Du mich nicht fragen. Es sieht erstmal nicht so schwierig aus.

Pennywise
2013-09-09, 16:48:11
Argumentativ sehe ich vor allen mit Blick auf S800 (28nm HPm) bei AMD (Fertigung & Design) große Probleme. Im Mittel ist ein 28nm Temash im Bereich um 4W nicht viel flotter (CPU) als ein ("alter") 32nm Atom SoC. Das mit TSMC deutlich mehr möglich ist zeigt Qualcomm.

Ich weiss auch nicht warum alle auf den A4-1200 hoffen, das wird schon seinen Grund haben, dass da nix kommt. Es gibt ein Quanta Tablet als Prototyp, da darf ich mal selbst zitieren. GPU schneller, CPU langsamer als der aktuelle Z2760 = Gähn

"http://www.heise.de/newsticker/meldu...a-1875612.html
Temash A4-1200 in einem Quanta Tablet auf heise. Nicht so der Bringer, CPU und RAM ist der Z2760 schon schneller (3,4 bzw. 4,7) und GPU-Desktop auch nicht so weit weg (Desktop 3,7) nur Games deutlich langsamer auf dem Intel (3,3)."

Undertaker
2013-09-09, 17:09:08
Es liegt also im Ermessen des Notebookherstellers, was er da konfiguriert.

Nochmal ganz kurz: Ich kann da immernoch nicht erkennen, welche Werte (quantitativ) der Notebookhersteller da genau konfigurieren kann und vor allem auch darf(!). Nehmen wir mal an, das AMD eben nicht damit einverstanden ist, dass der Notebookhersteller eigene Zwischenstufen zwischen 8 und 15 Watt konfiguriert. Und derartige Beschränkungen dürfte es zur Genüge geben, um das Produktportfolio vor hauseigener Kanibalisierung zu schützen.

Letztlich geht es ohnehin nur um die reale Produkte. Und da ist obige Aussage, dass "der fragliche A6-1450 zumindest seine programmierte SDP (8W? das ist ja relativ flexibel) während des Benchmarks ebenfalls kurzfristig überschreiten durfte" nicht korrekt. Und auch ob dies generell möglich wäre, ist in meinen Augen keineswegs gesichert.

Ich weiss auch nicht warum alle auf den A4-1200 hoffen, das wird schon seinen Grund haben, dass da nix kommt. Es gibt ein Quanta Tablet als Prototyp, da darf ich mal selbst zitieren. GPU schneller, CPU langsamer als der aktuelle Z2760 = Gähn

...Womit wir wieder beim Thema Turbo wären. Mit etwas mehr Single-Thread-Takt könnte der A4-1200 u.U. eine bessere Alternative zu den Einstiegsmodellen von Silvermont sein.

YfOrU
2013-09-09, 17:57:50
...Womit wir wieder beim Thema Turbo wären. Mit etwas mehr Single-Thread-Takt könnte der A4-1200 u.U. eine bessere Alternative zu den Einstiegsmodellen von Silvermont sein.

Bei den "größeren" Modellen (8W+) sollte das möglich sein. Der A4-1200 ist aber schon derart zusammengestutzt (2 Kerne, 225Mhz GPU) das ich hier nicht an viel Spielraum glaube. Mit Blick auf die aktuelle Palette (Temash/Kabini) sieht die Skalierung (Frequenz/Verlustleistung) nicht besonders ultra-mobile kompatibel aus.

Die Gründe sind mir zwar recht klar (niedrige Kosten um akzeptable Margen zu bekommen) aber ob man sich damit einen Gefallen getan hat, bin mir nicht so sicher. Der A4-1200 ist von dem was bei 28nm (passiv) möglich sein muss um zwei Jaguar Kerne entfernt.

Gipsel
2013-09-09, 19:24:38
Nochmal ganz kurz: Ich kann da immernoch nicht erkennen, welche Werte (quantitativ) der Notebookhersteller da genau konfigurieren kann und vor allem auch darf(!).Alle Werte, auf die man Schreibzugriff hat und wo nicht spezifiziert ist, wie sie zwingend gewählt werden müssen (für bestimmte Werte gibt es z.B. Regeln, innerhalb welcher Grenzen das BIOS die setzen muß), können nach Belieben gewählt werden. Und die Mittelungszeit für den Boost ist konfigurierbar, da gibt es gar nichts zu diskutieren. Was man aber z.B. nicht durch einen BIOS-Eingriff ins Powermanagement ändern kann, ist, daß ein A6-1450 nicht höher als 1,4GHz kommt. Man kann zwar sogar die einzelnen P-States abändern, aber dafür gibt es Restriktionen. Da muß sich der Notebookhersteller also in einem gewissen Rahmen bewegen bzw. wird ansonsten die Funktion seitens AMD nicht garantiert.
Im Prinzip sind bei einem A6-1450 mehrere P-States (Spannung/Frequenzkombinationen) bis zu 1,4GHz definiert, deren Funktion garantiert ist (das ganze für Northbridge/GPU auch noch). Dann gibt es von AMD noch die Spezifikation, daß mit einem bestimmten Konfiguration 8W TDP eingehalten wird und mit einem anderen 15W TDP. Aber nichts hindert einen Notebookhersteller wirklich daran, den "15W-Modus"*) zu wählen, den höchsten P-State der GPU zu deaktivieren (wie sonst im "8W-Modus" üblich), ein TDP-Limit von 8W zu programmieren (runtersetzen geht, hoch nur nicht ;)) und den Verbrauch optional über eine etwas größere Zeitspanne mitteln zu lassen, bis das hart eingehalten werden muß. Wie gesagt, im BIOS & Kernel Developer Guide geht es über grob 100 Seiten (die ich mir natürlich auch nicht durchgelesen habe) nur darum, was man da so alles am Powermanagement konfigurieren kann (und für einige Einträge fehlt die Dokumentation sogar noch). Vielleicht dauert es auch deswegen ein wenig länger, bis ein Notebookhersteller mal daran dreht.

*): Der "15W-Modus" bedeutet eigentlich nur, daß alle Kerne gleichzeitig im höchsten P-State sein dürfen, während im "8W-Modus" immer eine bestimmte Anzahl von Kernen im C6-Modus sein müssen, damit andere auf 1,4GHz kommen. Das ist das, was die beiden Modi eigentlich unterscheidet. 1,4GHz ist in beiden Fällen der höchste P-State. Die Anzahl der mindestens schlafenden Kerne für eine bestimmte Booststufe kann übrigens auch vom BIOS gesetzt werden, nur kann das BIOS die nur hochsetzen, nicht runter. Es gibt also zwei Typen von Boost-States und der "15W-Modus" ändert lediglich den Typ der 1,4GHz Stufe (und erhöht typischerweise das TDP-Limit und gibt den höchsten P-State für die GPU frei), alles über das Setzen von ein paar MSRs (Software), in die der geneigte Notebookhersteller auch was Anderes schreiben könnte.
Nehmen wir mal an, das AMD eben nicht damit einverstanden ist, dass der Notebookhersteller eigene Zwischenstufen zwischen 8 und 15 Watt konfiguriert. Und derartige Beschränkungen dürfte es zur Genüge geben, um das Produktportfolio vor hauseigener Kanibalisierung zu schützen.Welche CPUs existieren denn in AMDs Produktportfolio mit TDPs zwischen 8 und 15W? Intel bietet übrigens auch konfigurierbare TDPs zumindest bei seinen Ultrabook-CPUs (und ein paar Xeons, glaube ich). Wenn AMD das nicht will, müssen sie nur die entsprechenden MSRs auf read-only setzen. Und einige Werte haben ja auch Restriktionen (die kann man z.B. nur erhöhen bzw. erniedrigen, eine Änderung in die unerlaubte Richtung oder über eine bestimmte Genze wird ignoriert), sowas steht dann aber auch dabei.
Letztlich geht es ohnehin nur um die reale Produkte. Und da ist obige Aussage, dass "der fragliche A6-1450 zumindest seine programmierte SDP (8W? das ist ja relativ flexibel) während des Benchmarks ebenfalls kurzfristig überschreiten durfte" nicht korrekt.Das war in dem Kontext so gemeint, daß offenbar die Geekbench Multithread-Tests (die jeweils nur 2 Sekunden oder so dauern, bevor wieder nur ein Kern belastet wird) mit annähernd dem gleichen Takt liefen wie die Single-Thread-Tests. Das "mindestens" meinte also die kleinstmögliche Lösung (gemittelt wird 8W eingehalten, CPU spart während der SingleCore-Tests Reserven für 2 Sekunden Vollast an) gegenüber der Maximallösung mit 15W TDP. Oder irgendwas dazwischen.
...Womit wir wieder beim Thema Turbo wären. Mit etwas mehr Single-Thread-Takt könnte der A4-1200 u.U. eine bessere Alternative zu den Einstiegsmodellen von Silvermont sein.Der 1200er kann ja glaube ich gar keinen Boost, was ein echtes Manko ist, das stimmt. Da fehlt noch ein 1220 oder so (der 1250 hat offenbar schon wieder eine höhere TDP) bzw. vielleicht auch ein Modell mit LPDDR3-Interface, was die gewonnenen paar hundert mW in (Turbo-)Takt steckt. In dem Bereich scheint Jaguar ein wenig die Puste auszugehen bzw. schleppt er für den Bereich dann eben doch ein wenig zu viel Ballast mit sich rum (und 28nm vs. 22nm FinFets helfen auch nicht gerade).

Undertaker
2013-09-09, 20:22:38
Das war in dem Kontext so gemeint, daß offenbar die Geekbench Multithread-Tests (die jeweils nur 2 Sekunden oder so dauern, bevor wieder nur ein Kern belastet wird) mit annähernd dem gleichen Takt liefen wie die Single-Thread-Tests.

Dazu müsste der Dock-Modus aktiv sein. Im none-Dock-Betrieb springt der Takt sofort herunter, nicht erst nach zwei Sekunden. Nebenbei bemerkt: Die bei Richland oder Haswell/Ivy/Sandy vorhandene Möglichkeit zur TDP-Überschreitung greift etwa ±30 Sekunden, eine aus thermischer Sicht recht sinnvolle Größenordnung. Das von dir spekulierte (und nach meinen Beobachtungen nicht vorhandene) Pendant bei Kabini, welches nur Sekunden(bruchteile?) greifen soll, wäre da reichtlich witzlos.

Gipsel
2013-09-09, 20:32:08
Dazu müsste der Dock-Modus aktiv sein. Im none-Dock-Betrieb springt der Takt sofort herunter, nicht erst nach zwei Sekunden. Nebenbei bemerkt: Die bei Richland oder Haswell/Ivy/Sandy vorhandene Möglichkeit zur TDP-Überschreitung greift etwa ±30 Sekunden, eine aus thermischer Sicht recht sinnvolle Größenordnung. Das von dir spekulierte (und nach meinen Beobachtungen nicht vorhandene) Pendant bei Kabini, welches nur Sekunden(bruchteile?) greifen soll, wäre da reichtlich witzlos.Das Notebook mit den fraglichen Ergebnissen ist noch nicht im Handel erhältlich. Ich habe lediglich in den Raum gestellt, daß man mal die Konfiguration des Powermanagements überarbeitet haben könnte.
Und wie lange man die TDP überschreiten darf, ist konfigurierbar (auch bei den von Dir genannten CPUs, Standard sind wohl 20-30 Sekunden [die ich auch schon mal erwähnte], Maximum sind bei Intel wohl 60s, iirc). Momentan regelt Kabini halt praktisch sofort ab (siehe oben). Das muß aber nicht zwingend so sein, die Dauer kann man verlängern (wieder siehe oben). Die von mir genannten zwei Sekunden sind nur die ungefähre Länge der Volllasten bei Geekbench, da reicht also im Zweifel eine recht geringe Mittelungszeit des Verbrauchs, um höhere Benchmarkwerte zu erzielen. Jetzt klar, was ich meinte?

Ronny145
2013-09-09, 20:38:28
Intel und viele ARM SoCs machen es anders. Es ist nicht nötig.


Ob es nötig ist oder nicht ist hier gar nicht die Frage. Die Frage ist nur, lief es im Nominalmodus mit nur 1,0-1,1 Ghz in den MT Tests oder im Dock Modus und damit einhergehend einer erhöhten Leistungsaufnahme bei 1,4 Ghz. Die Diskrepanz zwischen den beiden Links deutet daraufhin.

Undertaker
2013-09-09, 20:42:58
Ich weiß schon worauf du hinaus willst, nur finde ich diese Theorie sehr weit hergeholt. Das Naheliegendste ist doch ganz einfach, dass HP schlicht den Dock-Modus aktiviert hat. ;)

Ob es nötig ist oder nicht ist hier gar nicht die Frage. Die Frage ist nur, lief es im Nominalmodus mit nur 1,0-1,1 Ghz in den MT Tests oder im Dock Modus und damit einhergehend einer erhöhten Leistungsaufnahme bei 1,4 Ghz. Die Diskrepanz zwischen den beiden Links deutet daraufhin.

Ich könnte den Geekbench 3 mal mit einem A4-5000 vermessen.

Ronny145
2013-09-09, 20:50:21
Das kannst du machen, dann wäre es klar. Man könnte sich das leicht runterrechnen.

mczak
2013-09-09, 21:26:38
Das Notebook mit den fraglichen Ergebnissen ist noch nicht im Handel erhältlich. Ich habe lediglich in den Raum gestellt, daß man mal die Konfiguration des Powermanagements überarbeitet haben könnte.
Und wie lange man die TDP überschreiten darf, ist konfigurierbar (auch bei den von Dir genannten CPUs, Standard sind wohl 20-30 Sekunden [die ich auch schon mal erwähnte], Maximum sind bei Intel wohl 60s, iirc).
Genau genommen bei den intel (haswell mobile) cpus ist der Default 1 Sekunde, empfohlen laut Datenblatt sind allerdings 28 Sekunden - keine Ahnung ob das typische BIOS da den empfohlenen Wert programmiert. Bin nicht ganz sicher was das Maximum ist, irgendwo habe ich gelesen 32 Sekunden (aus dem Datenblatt geht zwar hervor es sind 7 bits die Einheit steht da aber nicht und es sind offenbar nicht direkt Sekunden).
Ein Kurzzeit-Limit gibt's übrigens auch noch, die Zeit da ist aber fix (10ms) dafür ist der TDP-Wert konfigurierbar (also während max. 10ms kann dieser zweite Wert überschritten werden - der Wert ist dann natürlich nicht für thermische Limits gedacht sondern zur Dimensionierung der Stromversorgung).

Undertaker
2013-09-09, 22:04:31
Das kannst du machen, dann wäre es klar. Man könnte sich das leicht runterrechnen.

882 Single
2809 Multi

Ronny145
2013-09-09, 22:37:56
882 Single
2809 Multi


Multiscore liegt 10% höher, Taktunterschied von 1400 auf 1500 Mhz liegt bei 7%. Somit ist der A6-1450 score im ndrs Link erwartungsgemäß im Dock Modus entstanden. Geekbench 3 scheint aber generell ARM besser zu liegen als dessen Vorgänger. Ich bin mal gespannt, ob das in den hoffentlich bald erscheinenden Bay Trail Tests so ähnlich aussieht. Wenn Geekbench 3 davon weit abweicht, muss man leider sagen, ist es kein sinnvoller Vergleich zwischen x86 und ARM.

Gipsel
2013-09-10, 15:55:42
Multiscore liegt 10% höher, Taktunterschied von 1400 auf 1500 Mhz liegt bei 7%. Somit ist der A6-1450 score im ndrs Link erwartungsgemäß im Dock Modus entstanden.Daß der mit 1,4GHz lief, hatte ich doch auch schon geschrieben (okay, ich hatte geschrieben mit der gleichen Frequenz im Multi- und Single-Test). Das sieht man ja, wenn man sich die Einzelscores anschaut.
Geekbench 3 scheint aber generell ARM besser zu liegen als dessen Vorgänger. Ich bin mal gespannt, ob das in den hoffentlich bald erscheinenden Bay Trail Tests so ähnlich aussieht. Wenn Geekbench 3 davon weit abweicht, muss man leider sagen, ist es kein sinnvoller Vergleich zwischen x86 und ARM.Also wenn ich mir die Ergebnisse so ansehe, scheint das stellenweise ziemlich unoptimaler ("naiver") Code zu sein, der durch einen Compiler mit abgeschalteten Optimierungen gejagt wurde. Der AES-Bench nutzt aber offenbar die entsprechenden Befehle, also zumindest da hat man sich etwas mehr Mühe gegeben. Aber z.B. die SGEMM oder DGEMM-Werte sind schlicht fishy. Ich meine, falls die SIMD-Erweiterungen genutzt haben, sind die Werte zu niedrig (die wären selbst für x87er-Code nicht gerade toll). Falls die nicht genutzt werden, fällt auf, daß DGEMM nur rund die Hälfte der Flops erreicht wie SGEMM (was mit x87er-Code nicht passieren sollte). Aber nur ~1 Flop pro Takt bei SGEMM (und einen halben bei DGEMM) mit (zum Teil) zwei 128Bit-SIMD-Einheiten kann eigentlich nur schlechten Code bedeuten. Auch, daß z.B. ein Jaguar da nicht wirklich schneller als ein alter K8 ist (okay, 1,14 Flops/Takt statt 1,0 in SP und 0,64 Flops/Takt statt 0,54 Flops/Takt in DP, theoretischer Peakwert sind für Jaguar 8 Flops/Takt, für K8 4 Flops/Takt in SP und S/DGEMM sind eigentlich recht gut dafür geeignet, mehr als die Hälfte davon auch ohne sehr spezifische Optimierungen zu erreichen), spricht nicht für guten Code. Ich glaube, da muß man sich schon anstrengen, daß so langsam hinzubekommen. Bei den Atoms sieht es da relativ gesehen noch übler aus.
Nun kann man zwar sagen, eine Menge Software wird genau so erstellt (:freak:), aber ob das wirklich aussagekräftig ist, da kann man sich sicherlich streiten. Und die vermutlich von den unterschiedlichen Powermanagement-Strategien mitverursachten großen Schwankungen der Werte selbst für gleiche Geräte (weil die einzelnen Tests so kurz laufen und immer zwischen Single-Core und MultiCore-Last im Takt weniger Sekunden gewechselt wird) lassen das Vertrauen auch nicht gerade steigen.

Genau genommen bei den intel (haswell mobile) cpus ist der Default 1 Sekunde, empfohlen laut Datenblatt sind allerdings 28 Sekunden - keine Ahnung ob das typische BIOS da den empfohlenen Wert programmiert.Ich meinte ja schon, daß ein Teil der unterschiedlichen Performance von verschiedenen Notebooks mit der gleichen CPU offenbar von Unterschieden beim Powermanagement verursacht wird. Ein Teil davon mag auf unterschiedlich dimensionierte (oder schlicht unzureichende) Kühllösungen zurückzuführen sein, so daß bei hohen CPU-Temperaturen die CPU anfängt zu throtteln bzw. nicht mehr boostet, aber es kann zum Teil auch einfach daran liegen, daß unterschiedliche Hersteller im BIOS unterschiedliche Werte programmieren.
Es gab ja vor wenigen Monaten schon mal eine kurze Diskussion über die unterschiedliche Performance von Notebooks mit gleicher CPU. Da lohnt vielleicht ein etwas systematischerer Blick, um die Zusammenhänge etwas besser im Detail zu verstehen. Wie gesagt ist das Powermanagement heutzutage ja ziemlich kompliziert und kann eben auch durch Ändern verschiedener Parameter (z.B. diese erlaubte Zeit der TDP-Überschreitung, aber auch z.B. welche Powerstates unter bestimmten Bedingungen zugänglich sind oder sogar die TDP selber, die im Mittel eingehalten werden soll) vom Notebookhersteller beeinflußt werden, so er denn will.

Ronny145
2013-09-11, 18:35:49
http://www.anandtech.com/show/7314/intel-baytrail-preview-intel-atom-z3770-tested/2
http://www.legitreviews.com/intel-atom-processor-z3770-bay-trail-first-look-and-performance-testing_123335/3
http://www.pcper.com/reviews/Processors/Intel-Atom-Z3000-Series-Review-Bay-Trail-and-Silvermont-Arrive
http://uk.hardware.info/reviews/4792/intel-atom-z3770-lbay-trailr-review-strong-competition-for-arm
http://hothardware.com/Reviews/Betting-On-Bay-Trail-Intels-Atom-Overhaul-Tested/?page=1
http://www.heise.de/newsticker/meldung/IDF-Intels-Tablet-Prozessor-Baytrail-startet-1953269.html
http://techreport.com/review/25329/intel-atom-z3000-bay-trail-soc-revealed/3
http://pc.watch.impress.co.jp/docs/column/ubiq/20130912_615175.html
http://www.hardwarezone.com.sg/feature-early-performance-benchmarks-intels-latest-bay-trail-processor?utm_source=nearbyfeed&utm_medium=seo&utm_campaign=SGI
http://www.theverge.com/2013/9/11/4718650/intel-launches-bay-trail-tablet-processors-heres-what-you-need-to-know
http://vr-zone.com/articles/idf-sf-2013-x86-mobile-quandary-starring-bay-trail-haswell/56354.html

Dazu ein paar Power Angaben.


I had Intel measure SoC power at the board level while running a single threaded Cinebench 11.5 run on the Atom Z3770 and saw a range of 800mW - 1.2W.

Multithreaded performance puts Bay Trail and AMD's Kabini at similar performance levels. Once again, looking at SoC power however the Atom Z3770 pulls around 2.5W in this test.

For what its worth, Bay Trail SoC power during the multithreaded 7-Zip benchmark was between 1.9W - 2.5W.

Measuring power at the battery we found that both BT (Bay Trail) and CT (Clover Trail) systems were using approximately 2.6 watts at idle in Windows 8. That is not the SoC power draw, but the entire system including display and accessories. When we fired up a web browser and loaded up CNN’s website, BT used 2.9 watts while CT drew a bit more at 3.2 watts.

Video playback was tested both streaming and with 1080p local content and Bay Trail used about half of a watt less power consistently.

While gaming or running other tasks we continued to find that BT and CT were using very similar levels of power though performance varied pretty dramatically. Take a typical run of SunSpider where the Bay Trail platform SoC pulled about 1.4 watts (CPU + GPU) while the Clover Trail SoC was slightly lower at 1.25 watts (CPU + GPU).


Bei Computerbase werden Preise genannt. Demnach kosten Z3770/Z3770D $37 und Z3740/Z3740D $32. Dualcore Preise werden nicht genannt. Zum Vergleich der Z2760 kostet $41.

AnarchX
2013-09-11, 18:56:32
Legit Review misst im Windows Taskmanager bis zu 2,24GHz.
Insofern sind die 1,46GHz die Anandtech z.B. in ihren IPC-Vergleichen angibt, nicht korrekt und z.B. bei Cinebench ST Baytrail ein ganz Stück langsamer als Jaguar.

Undertaker
2013-09-11, 18:57:55
Hm, Anandtech hat doch unter 32 Bit gemessen – und packt die Benchmarks z.B. im Cinebench in ein Diagramm mit 64-Bit Werten? Andere Seiten genauso... Ziemlich unprofessionell. :rolleyes:

Die CPU-Performance ist schon sehr beeindruckend, die GPU zumindest besser als vielleicht von manchem erwartet. :) Merrifield könnte ein echter Kracher werden.

Legit Review misst im Windows Taskmanager bis zu 2,24GHz.
Insofern sind die 1,46GHz die Anandtech z.B. in ihren IPC-Vergleichen angibt, nicht korrekt und z.B. bei Cinebench ST Baytrail ein ganz Stück langsamer als Jaguar.

Habe den Artikel erst überflogen, wo steht denn da was von IPC? Anandtech gibt ja auch andere Modelle mit dem Basistakt in den Diagrammen an.

AnarchX
2013-09-11, 19:01:20
Habe den Artikel erst überflogen, wo steht denn da was von IPC? Anandtech gibt ja auch andere Modelle mit dem Basistakt in den Diagrammen an.
Es wird impliziert. Insgesamt ist die Basistakt-Angabe hier eher ungünstig.

Ronny145
2013-09-11, 19:02:23
Legit Review misst im Windows Taskmanager bis zu 2,24GHz.
Insofern sind die 1,46GHz die Anandtech z.B. in ihren IPC-Vergleichen angibt, nicht korrekt und z.B. bei Cinebench ST Baytrail ein ganz Stück langsamer als Jaguar.


Ja das ist klar. Der hat nur den Basistakt angegeben. In der Summe bietet Z3770 etwas mehr CPU Leistung bei einem Bruchteil an Leistungsaufnahme im Vergleich zum A4-5000. Kabini ist auch ein blödsinniger Vergleich, als ob der in Tablets eingesetzt wird. Bei pcper gibt es A4-1250 Vergleiche.

Ailuros
2013-09-11, 19:12:36
Gebt mir ein anstaendiges windows8 tablet mit Baytrail, mit einem 1080p display und ich renn schnell zur Ladenkasse :)

Pennywise
2013-09-11, 19:25:28
Die werden kommen, ich hab auch schon geguckt was mein W510 noch Wert ist :D

Duplex
2013-09-11, 19:30:32
Gebt mir ein anstaendiges windows8 tablet mit Baytrail, mit einem 1080p display und ich renn schnell zur Ladenkasse :)
Ich hol mir dann auch eins :cool:

Ailuros
2013-09-11, 19:38:01
Die werden kommen, ich hab auch schon geguckt was mein W510 noch Wert ist :D

Bin mir sicher dass Du keine Antwort darauf haben willst ;)

Ronny145
2013-09-11, 21:09:31
Hier der Test von Goto: http://pc.watch.impress.co.jp/docs/column/ubiq/20130912_615175.html

Die 3dmark Ice Storm Werte mit Faktor 4.x über CT haben irgendwie nicht gestimmt. Jetzt zeigt Intel plötzlich Faktor 6.42: https://pbs.twimg.com/media/BT5080iIUAAOlqF.jpg:large

Das zeigt sich auch in den Vorabtests.

Ailuros
2013-09-12, 00:54:09
Es gibt wohl keinen Merrifield thread oder?

http://investorshub.advfn.com/boards/read_msg.aspx?message_id=91917640

Ronny145
2013-09-12, 01:06:05
Rogue würde ich deswegen anzweifeln, weil Intel sehr lange Vorlaufzeiten hat. Bay Trail war bestimmt deutlich früher geplant ursprünglich. Sieht man auch an der Gen7 GPU oder den alten Roadmaps. Das GPU Design ist seit sehr langer Zeit finalisiert. Rogue würde mich deswegen sehr überraschen.

Ailuros
2013-09-12, 06:38:06
http://www.anandtech.com/show/7320/asus-transformer-book-t100-atom-z3740-inside

Ich muss mir das Ding naeher ansehen. Bei unter 400 Euros drueck ich ein Auge zu fuer die Aufloesung (schweren Herzes).

Noch eine Prozess-Generation und wir haben locker i3 Leistung in tablets und die naysayers werden mal wieder drauf kauen muessen.

Rogue würde ich deswegen anzweifeln, weil Intel sehr lange Vorlaufzeiten hat. Bay Trail war bestimmt deutlich früher geplant ursprünglich. Sieht man auch an der Gen7 GPU oder den alten Roadmaps. Das GPU Design ist seit sehr langer Zeit finalisiert. Rogue würde mich deswegen sehr überraschen.

Ueber IMG GPU IP bin ich mir schon seit einiger Zeit sicher; ich hab zwar keine Ahnung was sie fuer Merrifield/2014 geplant haben aber wenn sie bei der heutigen 5XT Generation stecken geblieben sind ist die einzige sinnvolle Loesung um Leistung zu steigern (ohne dass Stromverbrauch durch die Decke jagt) ein 544MP4. Im Vergleich zu diesem ist ein G6200 bei zumindest 500MHz um zich Male effizienter.

mboeller
2013-09-12, 09:14:58
alle(?) Folien:

http://www.notebookcheck.com/Intel-Neue-Atom-Plattform-Bay-Trail-offiziell-vorgestellt.101167.0.html

AnarchX
2013-09-12, 10:01:00
Pentium/Celeron ohne QuickSync: http://www.computerbase.de/news/2013-09/intel-speckt-bay-trail-fuer-desktop-und-notebook-ab/
Dabei wäre das gerade für kleine NAS mit Streaming-Fähigkeiten interessant gewesen.

mczak
2013-09-12, 14:49:18
Ueber IMG GPU IP bin ich mir schon seit einiger Zeit sicher; ich hab zwar keine Ahnung was sie fuer Merrifield/2014 geplant haben aber wenn sie bei der heutigen 5XT Generation stecken geblieben sind ist die einzige sinnvolle Loesung um Leistung zu steigern (ohne dass Stromverbrauch durch die Decke jagt) ein 544MP4.
Was würde denn gegen einen 554MP2/3/4 sprechen?

Ronny145
2013-09-12, 18:06:00
http://s7.directupload.net/images/130912/pr4ux6bi.png

Wer sich die restlichen Sessions anschauen möchte:

https://intel.activeevents.com/sf13/connect/fileDownload/session/A5BE4A596A026CF89BEFD5555F38BA04/SF13_SPCS004_100.pdf
https://intel.activeevents.com/sf13/connect/fileDownload/session/C60AC5C04526F97557133399B12DA73D/SF13_SPCS005_101.pdf

Hier noch ein paar Angaben über kommende Tablets.


Dell, ASUS, Acer, Toshiba came to stage to present their BayTrail products.

Dell Venue (Windows) tablet will launch on October 2nd in New York. The 8-inch tablet is less than 9mm thin. 400 grams. All day battery life.

ASUS T100 (Windows) will be unveiled later today. (Again!) Battery life is over 11 hours.

Acer: Iconia A1 (Android) on Baytrail-T. 7.9-inch screen. IPS screen. Battery life good enough for “3 movies.” Aspect 4:3. 5MP rear. 2MP front camera.

Toshiba Encore (Windows) tablet has 8-inch screen. 2MP front. 8MP rear cam. dual mics, stereo speakers. Office Home and Student included.



Notes From Q&A.

64-bit devices will be rolling out in 2014, ni about 6 months.
First wave of products will be Windows systems. Android will follow closely behind.

http://www.umpcportal.com/2013/09/baytrail-idf-2013-deep-dive-event-notes-and-images/

Ailuros
2013-09-12, 18:13:58
Was würde denn gegen einen 554MP2/3/4 sprechen?

Hat IMG den 554 ueberhaupt an jemand anders ausser Apple lizenziert? Es gibt afaik nichtmal einen IMG Treiber dafuer :P

Sonst ist jeder 554 knapp unter 9mm2 gross unter 32nm welches nicht besonders klein ist, aber wenn es zu Effizienz kommt hast Du zwar pro core 8 Vec4 + 1 ALUs aber damit Du wirklich die ALUs voll auslastest brauchst Du durchgehend nur Vec4 Instruktionen; bei skalarem code liegst Du gerade mal bei 25%: http://withimagination.imgtec.com/index.php/powervr/powervr-rogue-designing-an-optimal-architecture-for-graphics-and-gpu-compute

Noch dazu kommt dass man in bisherigen Architekturen im besten Fall eine SFU pro Vec4 ALU hat; in neueren SIMD ALUs hast Du relevante Einheiten pro SIMD lane und aehnliches gilt auch fuer register files unter anderem.

mczak
2013-09-12, 18:46:32
Hat IMG den 554 ueberhaupt an jemand anders ausser Apple lizenziert? Es gibt afaik nichtmal einen IMG Treiber dafuer :P

Sonst ist jeder 554 knapp unter 9mm2 gross unter 32nm welches nicht besonders klein ist, aber wenn es zu Effizienz kommt hast Du zwar pro core 8 Vec4 + 1 ALUs aber damit Du wirklich die ALUs voll auslastest brauchst Du durchgehend nur Vec4 Instruktionen; bei skalarem code liegst Du gerade mal bei 25%: http://withimagination.imgtec.com/index.php/powervr/powervr-rogue-designing-an-optimal-architecture-for-graphics-and-gpu-compute

Noch dazu kommt dass man in bisherigen Architekturen im besten Fall eine SFU pro Vec4 ALU hat; in neueren SIMD ALUs hast Du relevante Einheiten pro SIMD lane und aehnliches gilt auch fuer register files unter anderem.
Nun das gilt doch alles genau so für 544 wie 554, ich bestreite nicht dass Rogue wohl ein besser geeignetes Design wäre. Oder ist der 544 tatsächlich effizienter (pro Fläche oder pro Watt) als der 554? Hat ja wohl seine Gründe dass Apple den benutzt. Ich habe aber keine Ahnung ob den sonst noch jemand lizenziert hat oder ob der wirklich komplett apple-exklusiv ist. Wäre doch eine gute Alternative falls es zeitlich bei intel für Merrifield eben nicht für Rogue gereicht hat.

mczak
2013-09-12, 19:00:14
Bin übrigens wirklich extrem erstaunt über das 2x64bit Speicherinterface, die Leaks haben ja schon immer von dual-channel gesprochen ich bin aber davon ausgegangen dass damit (wie bei Smartphone/Tablet-SOCs üblich) 2x32bit gemeint waren (ich schätze mal bei Merrifield wird das wieder so sein). Ausser apple hat ja keiner ein 128bit SI (und apple benutzt noch lpddr2 beim A6x kann also nicht so hoch getaktet werden wie das mit lpddr3 möglich wäre).
Ich frage mich wo da eigentlich genau der Nutzen ist, die CPU dürfte jedenfalls von dual-channel ddr3-1066 gegenüber einem hypothetischen single-channel ddr3-1600 kaum profitieren und auch die GPU ist nicht wirklich potent genug dass das allzuviel bringen kann Ist dual-channel ddr3-1066 energietechnisch besser als single-channel ddr3-1600?
Was aber auch auffällt ist dass das 2x64bit Interface sehr wenig Platz braucht, scheint ziemlich genau so gross zu sein wie bei Kabini 1x64bit - klar das ist ein viel besserer Fertigungsprozess aber ich dachte das würde nicht so gut shrinken.

Ailuros
2013-09-12, 19:42:47
Nun das gilt doch alles genau so für 544 wie 554, ich bestreite nicht dass Rogue wohl ein besser geeignetes Design wäre. Oder ist der 544 tatsächlich effizienter (pro Fläche oder pro Watt) als der 554? Hat ja wohl seine Gründe dass Apple den benutzt. Ich habe aber keine Ahnung ob den sonst noch jemand lizenziert hat oder ob der wirklich komplett apple-exklusiv ist. Wäre doch eine gute Alternative falls es zeitlich bei intel für Merrifield eben nicht für Rogue gereicht hat.

554 einzige Unterschied im Vergleich zum 544 ist doppelt so viele ALUs. Der erste hat 8 der zweite 4. Da die Leistungssteigerungen nach wie vor selbst in dem Markt stark von arithmetischer Leistung abhaengen ja ist zwar 554 effizienter insgesamt pro mm2 als 544, aber dann eben Rogue um ein wirklich groesseres Stueck mehr.

Apple brauchte etwas mit hoeherer ALU Leistung bis Rogue fertig war und 554 hat dem Zweck gut gedient; koennte sogar sein dass sie es weiterbenutzen aber dann wohl fuer mainstream Geraete.

Wie dem auch sei einfache Frage: was ist Dir lieber ein 7900-triple SLi Gespann als GPU oder eine einzige 8800GTX?

Ronny145
2013-09-12, 20:25:56
Bin übrigens wirklich extrem erstaunt über das 2x64bit Speicherinterface, die Leaks haben ja schon immer von dual-channel gesprochen ich bin aber davon ausgegangen dass damit (wie bei Smartphone/Tablet-SOCs üblich) 2x32bit gemeint waren (ich schätze mal bei Merrifield wird das wieder so sein).


Dualchannel war von Anfang an klar und wurde später zig mal in neuen Slides bestätigt.

Ronny145
2013-09-13, 02:41:33
Auf der ark (http://ark.intel.com/products/family/70095/Intel-Atom-Processor-for-Smartphone-and-Tablet/mobile) Seite sind die Quadcore Modelle gelistet und Datenblätter gibt es auch. Leider keine TDP Angaben drauf, aber zumindest werden die genauen Taktfrequenzen für alle Modelle genannt.


http://s7.directupload.net/images/130913/gmqbzeiy.png

y33H@
2013-09-13, 04:19:34
SDP von 2,2 Watt.

YfOrU
2013-09-13, 10:05:03
Ausser apple hat ja keiner ein 128bit SI (und apple benutzt noch lpddr2 beim A6x kann also nicht so hoch getaktet werden wie das mit lpddr3 möglich wäre).
Ich frage mich wo da eigentlich genau der Nutzen ist, die CPU dürfte jedenfalls von dual-channel ddr3-1066 gegenüber einem hypothetischen single-channel ddr3-1600 kaum profitieren und auch die GPU ist nicht wirklich potent genug dass das allzuviel bringen kann Ist dual-channel ddr3-1066 energietechnisch besser als single-channel ddr3-1600?

Da Apple für eine Auflösung von 2048*1536 bei vergleichbarer GPU Performance ein 128bit LP SI einsetzt dürfte es auch mit Blick auf die obere Tabelle (SDP) die deutlich effizientere Variante sein. Das die Bandbreite für den gesamten SoC (GPU + CPUs) bei derart hohen Auflösungen durchaus nötig sein kann (Intel Ref: 2560*1440) zeigt die Limitierung der D Modelle (1*DDR3L-1333) auf 1920*1080. DDR3L ist regulärer DDR3 Speicher mit reduzierter Spannung (->deutlich günstiger als LPDDR3 aber dafür höhere Verlustleistung bei SI und Speicher). Billiger geht nicht denn 1,35V bei DDR3-1333 schafft heute so ziemlich jeder Chip ;)

Rein nach der Effizienz würde es die D Modelle (mit DDR3L) nicht geben aber am Ende spielt natürlich auch der Preis eine Rolle. Geringere Auflösung ->günstigeres Panel ->günstigerer Speicher. Ein Panel mit niedriger Auflösung benötigt im Regelfall weniger Energie und somit fallen die 0,2W mehr (SDP) sowieso unter den Tisch und der Akku kann trotzdem in Relation kleiner ausfallen. Im Premiumsegment mit 2560*1440er Panel spielt der Aufpreis für LPDDR3 dagegen keine nennenswerte Rolle.

AnarchX
2013-09-13, 12:04:10
Bzgl. Die-Shots hat PC Watch ein gute Gegenüberstellung von Valley View und Avoton (8C/128-Bit ECC):
http://pc.watch.impress.co.jp/img/pcw/docs/615/261/06.jpg

Nightspider
2013-09-15, 20:46:33
Was schätzt ihr wieviel Watt ein Z3770 unter Dauerlast bei 2,4 Ghz verbrauchen würde?

5 Watt?

Die Silvermont Kerne sollen doch Core 2 Duo IPC besitzen. Das hieße Intel habe den Verbrauch in 7 Jahre von ~140 Watt auf ~3% gedrückt hat. Von 65nm über 45nm,32m auf 22nm sind das 3 Full Nodes weiter, was bedeuten würde das Intel pro Prozess den Stromverbrauch um 75% gedrückt hätte, was ja kaum machbar ist. Wie kriegt Intel das hin?
Macht die Architektur so viel aus? Hat sich die Architektur in 7 Jahren SO extrem verbessert?

Immerhin würde sogar GTA5 auf einem Valley View Smartphone laufen, was schon etwas heftig ist, wenn ich daran denke das GTA4 auf meinem Core 2 Duo damals mit 18-22 fps lief und Valley View sogar doppelt so viel Kerne hat.

Ronny145
2013-09-15, 20:58:02
Core 2 Duo hat die deutlich bessere IPC. Bei Belastung aller Kerne läuft der Z3770 nicht mit 2,4 Ghz. Auf der IDF hat Intel von ~700-850mw gesprochen bei Volllast mit 2,4 Ghz auf einem Kern. Wenn man das multipliziert wäre man bei 2,8-3,4 Watt sofern es mit 2,4 Ghz laufen würde. Das sind nicht nur 3 shrinks, auch der SoC Prozess von 22nnm hilft zusätzlich. Silvermont ist komplett neu, ich würde das nicht verbessert nennen. Vielleicht können sich die Core uarch Ingenieure von Intel bei Silvermont was abschauen und ggfs ein paar Sachen übernehmen, wer weiß.

Nightspider
2013-09-15, 21:01:34
Wieviel IPC Leistung eines Core 2 hat ein Silvermont?

Das sind nicht nur 3 shrinks, auch der SoC Prozess von 22nnm hilft zusätzlich.

Was ist an der SoC Lithographie anders als bei den Ivy und Haswell?

Coda
2013-09-15, 21:02:17
Core 2 Duo hat die deutlich bessere IPC.
Besser ja, aber ob es so deutlich ist?

Duplex
2013-09-15, 21:09:01
Man kann von 80% Conroe IPC ausgehen.

Ronny145
2013-09-15, 21:11:17
Wieviel IPC Leistung eines Core 2 hat ein Silvermont?

Ich würde jetzt mal ganz grob 50% in den Raum werfen als Größenordnung. Genau kann man das noch nicht sagen, denn dazu braucht es genaue Frequenzen vom Z3770 und Core 2 im Direktvergleich wäre auch nicht schlecht.


Was ist an der SoC Lithographie anders als bei den Ivy und Haswell?

Intel hat einen CPU Prozess und einen SoC Prozess. Der SoC Prozess dürfte nochmal zusätzlich helfen für Bay Trail weil der speziell auf sehr geringe geringe Verbrauchswerte optimiert ist.

fondness
2013-09-15, 21:14:11
Diese ganzen SDP und durchschnittlichen Verbrauchsangaben sind nichts anderes als Marketing. Da wird irgend welche Software vom Hersteller ausgewählt und anhand dessen ein Durchschnittsverbrauch ermittelt. Ich finde das schade, da ist null Vergleichbar gegeben und man kann nur schätzen was wirklich verbraucht wird.

Ronny145
2013-09-15, 21:17:21
Um die 2W zu übertreffen braucht es ordentlich Last, so viel scheint der max SoC Verbrauch nicht entfernt zu liegen. Maximal 3,x Watt vermutlich. Vergleichbar sind Angaben von Herstellern untereinander sowieso nicht, es gibt schließlich keine Industrienorm.

Nightspider
2013-09-15, 21:20:37
Diese ganzen SDP und durchschnittlichen Verbrauchsangaben sind nichts anderes als Marketing. Da wird irgend welche Software vom Hersteller ausgewählt und anhand dessen ein Durchschnittsverbrauch ermittelt. Ich finde das schade, da ist null Vergleichbar gegeben und man kann nur schätzen was wirklich verbraucht wird.

Selbst wenn das Teil 8W fressen würde, was er nicht tut wären es immernoch 65% ersparnis pro neuem Shrink was heftig wäre.

Zergra
2013-09-15, 21:24:37
Selbst wenn das Teil 8W fressen würde, was er nicht tut wären es immernoch 65% ersparnis pro neuem Shrink was heftig wäre.
Naja, du solltest aber beachten das es eine Komplette neue Architektur ist, die auf den geringen Verbrauch ausgelegt ist. Die Atom Architektur war ja ziemlich veraltet.

Duplex
2013-09-15, 21:28:34
Ich denke nicht das Silvermont eine komplett neue Architektur, warum sollte man das Rad neu erfinden? Einiges kommt sicherlich vom P6 Design, die neuen Instructionen jetzt mal nicht erwähnen.
Haswell wird auch als neue Archiektur bezeichnet, der Ursprung ist aber Sandy Bridge < Nehalem < Core2 <P3. ;)

Duplex
2013-09-15, 21:31:04
@Zergra
Atom war ein "In-Order" Design, Silvermont ist "Out-of-Order".

Nightspider
2013-09-15, 22:36:21
Naja, du solltest aber beachten das es eine Komplette neue Architektur ist, die auf den geringen Verbrauch ausgelegt ist. Die Atom Architektur war ja ziemlich veraltet.

Was hat das damit zu tun?
Die Core2 Architektur basierte auf mehrere Jahrzehnte langer Erfahrung und selbst die brandneue Haswell Architektur ist höchstes doppelt so schnell pro Takt wie Conroe.

Mit einer neuen Architektur holt man nicht einfach Effizienz heraus, die mehrere Größenordnungen besser ist als das Top Design vor ein paar Jahren. Sonst würden auch Haswell oder Skylake plötzlich nur noch Bruchteile des Stromverbrauchs vorheriger Prozessoren benötigen. Selbst 30% bessere Effizienz bei Broadwell sind schon ein großer Schritt.

ndrs
2013-09-15, 23:38:21
Um die 2W zu übertreffen braucht es ordentlich Last, so viel scheint der max SoC Verbrauch nicht entfernt zu liegen. Maximal 3,x Watt vermutlich. Vergleichbar sind Angaben von Herstellern untereinander sowieso nicht, es gibt schließlich keine Industrienorm.
Naja, ob das stimmt ...
Wären es weniger als 5W hätte man BayTrail I sicher keine 20W TDP bei 4x2,4GHz spendiert?

Ronny145
2013-09-15, 23:57:21
Naja, ob das stimmt ...
Wären es weniger als 5W hätte man BayTrail I sicher keine 20W TDP bei 4x2,4GHz spendiert?


Bay Trail-I ist überhaupt nicht mit Bay Trail-T vergleichbar. Genauso wie Bay Trail-M und Bay Trail-D nicht vergleichbar ist. Es sind andere SoC mit anderen Anforderungen (Bay Trail-I).

Nightspider
2013-09-16, 00:27:13
Wo liegen denn die Unterschiede?

Ronny145
2013-09-16, 00:41:30
Die Unterschiede liegen in der Taktfrequenz, im abgespeckten I/O und bezüglich Bay Trail-I im komplett anderen Anforderungsprofil. Wenn man Quervergleiche anstellen möchte, dann wäre das maximal mit den Consumer Varianten von Bay Trail möglich. Da aber auch Bay Trail-M logischerweise einen höheren CPU Basistakt spendiert bekommt, einen höheren GPU Turbo besitzt, zusätzliche I/O wie Sata und PCIe im SoC eingebaut hat, ist auch das nur sehr bedingt möglich. Letztendlich kann auch das binning unterschiedlich ausfallen weswegen man bei einer weniger Power empfindlichen Plattform einfach etwas mehr (TDP) Sicherheitspolster einbaut. Die Tablet Variante ist nunmal ein anderer SoC.

mczak
2013-09-16, 03:18:41
Die Silvermont Kerne sollen doch Core 2 Duo IPC besitzen. Das hieße Intel habe den Verbrauch in 7 Jahre von ~140 Watt auf ~3% gedrückt hat. Von 65nm über 45nm,32m auf 22nm sind das 3 Full Nodes weiter, was bedeuten würde das Intel pro Prozess den Stromverbrauch um 75% gedrückt hätte, was ja kaum machbar ist. Wie kriegt Intel das hin?
Macht die Architektur so viel aus? Hat sich die Architektur in 7 Jahren SO extrem verbessert?

Wie kommst du denn auf 140W? Mobil-C2D (Merom) gab's schon mit 2.2Ghz bei 35W das dürfte ein sinnvollerer Wert zum Vergleichen sein (wäre dann entsprechend das Doppelte für 4 Kerne) (Mobil-C2D als Quad gab's erst mit Penryn, 2.26Ghz bei 45W).
Berücksichtigst du noch die höhere IPC des C2D kannst du auch gleich mit den ULV-Versionen vergleichen, 2xL7500 C2D Merom (2x17W, 1600Mhz) würde wohl etwa ähnlich schnell sein wie so ein 2.4Ghz Silvermont Quadcore. Das ist dann "nur" noch etwa ein Faktor 7 bessere Perf/W statt Faktor 30.

Nightspider
2013-09-16, 04:00:17
Ich habe Stromverbrauchsmessungen vom E6600 gesucht aber leider nur Angaben zum Gesamtsystemverbrauch gefunden die zwischen 180 und 200W lagen und habe davon einfach mal 50W für den Rest abgezogen. Keine Ahnung wieviel ein Mainboard damals verbraucht hat.
Allerdings ist auch die Frage ob ein Merom damals nur 17 bzw. 35W gezogen hat, wenn er unter Vollast mit Prime lief, was ich auch fast bezweifeln würde.

Und die ULV Dinger waren doch damals auch stark selektierte Chips, wenn ich mich recht erinnere.
Die Valleyview SoCs werden aber in riesigen Massen produziert werden und nicht in ultrateuren Laptops sondern in billigen Tablets und Smartphones zu verbaut.

Und ein Z3770 QuadCore ist sicherlich rund doppelt so schnell wie ein ULV L7500 mit 2*1600Mhz mit Conroe Architektur. Zumindest nach dem was ich bisher hier gelesen habe.

robbitop
2013-09-16, 09:18:33
Hm so aus meiner Erinnerung:

Jaguars IPC liegt zwischen K8 und K10. Sagen wir 1,1x K8.
Conroe liegt bei 1,3-4x K8.
Silvermonts IPC ist aufgrund des Turbos in den Benchmarks noch unklar. Sollte aber auch in etwa bei Jaguar liegen .
Conroe sollte also ca. 1,2-1,3 fache IPC von Jaguar/Silvermont haben.

Der Vergleich zwischen Core 2 und Core i ist wegen des FSBs in vielen Anwendungen verzerrt. Wenn man singlethread (oder meinetwegen auch 2 Threads) messen würde, sollten sich eher 1,7-1,8 herausstellen. (was auch schon eine ganze Menge ist.). Haswell sollte also die ~2,3...2,5 IPC von Jaguar/Silvermont haben.

Wahnsinnn, wie sich die kleinen (aber vielen) Evolutionsschrittchen aufaddiert haben.

Was ich btw bei Haswell sehr seltsam finde, ist sein Verhalten in Crysis 3. Bei so ziemlich allen öffentlichen Spielebenchmarks ist er kaum schneller als Ivy bridge. Aber in dargos Crysis 3 Benchmarks ist er deutlich schneller. Irgendwas ist an Crysis 3 ziemlich seltsam (weshalb ich es nicht für aussagekräftig für CPU Benchmarks empfinde).

dildo4u
2013-09-16, 10:05:19
Was ich btw bei Haswell sehr seltsam finde, ist sein Verhalten in Crysis 3. Bei so ziemlich allen öffentlichen Spielebenchmarks ist er kaum schneller als Ivy bridge. Aber in dargos Crysis 3 Benchmarks ist er deutlich schneller. Irgendwas ist an Crysis 3 ziemlich seltsam (weshalb ich es nicht für aussagekräftig für CPU Benchmarks empfinde).
SC2 ist auch deutlich schneller auf Haswell scheint also mehrere Ausnahmen zu geben.

http://www.abload.de/img/sc34qgsn3.png

http://www.pcgameshardware.de/Haswell-Codename-255592/Tests/Haswell-Test-Core-i7-4770K-Core-i5-4670K-Core-i5-4570-1071762/2/

mczak
2013-09-16, 12:45:17
Allerdings ist auch die Frage ob ein Merom damals nur 17 bzw. 35W gezogen hat, wenn er unter Vollast mit Prime lief, was ich auch fast bezweifeln würde.

Ich denke schon dass das hinkommt, da fehlt natürlich noch Verbrauch des Chipsets.


Und die ULV Dinger waren doch damals auch stark selektierte Chips, wenn ich mich recht erinnere.

Nicht wirklich, auch Desktopchips konnten in ähnlichen Regionen betrieben werden. Die hatten halt einen höheren Takt und arbeiteten in einem deutlich ungünstigeren Takt/Spannungsbereich (und die langsameren Versionen hatten in etwa dieselbe Spannung auch wenn die locker deutlich darunter liefen - das hat eher etwas mit Marktsegmentierung zu tun als damit dass die Mobilchips wirklich so viel besser waren).


Und ein Z3770 QuadCore ist sicherlich rund doppelt so schnell wie ein ULV L7500 mit 2*1600Mhz mit Conroe Architektur. Zumindest nach dem was ich bisher hier gelesen habe.
Klar, deshalb habe ich ja explizit 2 davon zum Vergleich herangezogen :-).

YfOrU
2013-09-16, 12:52:42
Was hat das damit zu tun?
Die Core2 Architektur basierte auf mehrere Jahrzehnte langer Erfahrung und selbst die brandneue Haswell Architektur ist höchstes doppelt so schnell pro Takt wie Conroe.

Mit einer neuen Architektur holt man nicht einfach Effizienz heraus, die mehrere Größenordnungen besser ist als das Top Design vor ein paar Jahren.

In Summe trifft das bei Silvermont gegenüber Bonnell durchaus zu. Es gab bei Bonnell nur kleinere Updates welche in keinster Weise mit der Evolution der Nehalem Architektur (bis heute) vergleichbar sind. Hinzu kommt das Bonnell mit Blick auf die im gleichen Jahr (2008) eingeführte Nehalem Architektur von Anfang an alles andere als auf der Höhe der Zeit gewesen ist.

Silvermont ist dagegen (markantes Beispiel) Intels einzige Architektur mit unabhängigen CPU Frequenzen. Im Kontext heutiger LP SoCs eben State of the Art. Im Endeffekt sind es (Bonnell zu Silvermont) auch unterschiedliche Designrichtlinien. Von primär klein und billig zu möglichst maximaler Effizienz. Der Schritt von 32 zu 22nm hilft natürlich aber viel mehr als 30% wird das im Mittel kaum sein.

PS.: Selbst ein Clovertrail SoC (wie Z2760) hat den Speichercontroller genaugenommen in der per FSB angebundenen, integrierten Northbridge. Steinzeit und sowohl für IPC, Powermanagement und Effizienz Mist. Die Vorteile der Integration der Komponenten sind hier nie richtig ausgeschöpft worden. Bei Bay Trail kommt das inkl. der deutlich potenteren und effizienteren CPU Kerne alles zusammen.

Ronny145
2013-09-16, 13:45:24
Was ich btw bei Haswell sehr seltsam finde, ist sein Verhalten in Crysis 3. Bei so ziemlich allen öffentlichen Spielebenchmarks ist er kaum schneller als Ivy bridge. Aber in dargos Crysis 3 Benchmarks ist er deutlich schneller. Irgendwas ist an Crysis 3 ziemlich seltsam (weshalb ich es nicht für aussagekräftig für CPU Benchmarks empfinde).


Das ist nicht seltsam wegen der Timing Bug Geschichte. Timing Bug bereinigt liegt Haswell deutlich vor Ivy Bridge in Crysis 3. Das seltsame ist höchstens der Timing Bug.

robbitop
2013-09-16, 15:39:34
Das ist nicht seltsam wegen der Timing Bug Geschichte. Timing Bug bereinigt liegt Haswell deutlich vor Ivy Bridge in Crysis 3. Das seltsame ist höchstens der Timing Bug.
Es spiegelt sich aber so in ~99 % der Spiele so nicht wider. Für mich also inkonkludent.

Ronny145
2013-09-16, 16:04:42
Es spiegelt sich aber so in ~99 % der Spiele so nicht wider. Für mich also inkonkludent.


Hast du verstanden was ich geschrieben habe oder worum es bei dem Timer Bug in Crysis 3 geht?

robbitop
2013-09-16, 16:22:11
Hast du verstanden was ich geschrieben habe oder worum es bei dem Timer Bug in Crysis 3 geht?
Ich habe schon verstanden. Ohne Time Bug liegt Haswell deutlich vorn. Das war ja meine Initiativaussage. Und dennoch seltsam. Haswell liegt so gut wie nie so weit vor Ivy. Nur im timerbug bereinigtem Crysis 3. Bereinigt hin oder her - es sticht halt aus der Masse heraus und damit ist es immernoch fragwürdig.

Ronny145
2013-09-16, 16:31:40
Und dennoch seltsam. Haswell liegt so gut wie nie so weit vor Ivy. Nur im timerbug bereinigtem Crysis 3. Bereinigt hin oder her - es sticht halt aus der Masse heraus und damit ist es immernoch fragwürdig.


Es ist nicht seltsam. Haswell lief mit einem noch langsameren Timer als Ivy Bridge. Vergiss das einfach. Laufen beide mit 1ms liegt Haswell deutlich vorne.

robbitop
2013-09-16, 21:11:28
Und warum spiegelt sich das in anderen Spielen nicht wider?

Ronny145
2013-09-16, 21:25:54
Was genau soll sich nicht widerspiegeln?

ndrs
2013-09-16, 21:48:27
robbi meint den großen Vorsprung von Haswell gegenüber IvyBridge, der ja nur in Starcraft und Crysis so ausgeprägt ist.

Ronny145
2013-09-16, 21:50:54
Wie groß ist er denn? Ich weiß nicht von welchen Zahlen er ausgeht.

robbitop
2013-09-17, 19:43:59
IIRC waren es bei dargo 20..25% mehr bei gleichem Takt und gleiche Kern/Threadanzahl. In Reviews sind es im Spieleschnitt eher 5...10 %.

Terrarist
2013-09-29, 16:50:00
Gibts eigentlich schon Leaks/Ankündigungen in Sachen Bay-Trail mini-itx BGA Boards?

AnarchX
2013-10-15, 10:27:09
Bay Trail im Preiskampf:

Intel is planning to release entry-level Bay Trail-based processors for the Android platform in the second quarter of 2014, according to sources from tablet players.

The sources expect the CPUs to be priced between US$15-20, about US$12 lower than the current models.[...]
http://www.digitimes.com/news/a20131014PD216.html

Ronny145
2013-10-15, 13:06:38
IIRC waren es bei dargo 20..25% mehr bei gleichem Takt und gleiche Kern/Threadanzahl. In Reviews sind es im Spieleschnitt eher 5...10 %.


Liegt oft daran, dass kaum jemand CPUs richtig testet. Im Schnitt sind das eher 10+%. Ausreißer gibt es immer. Im Gothic 2 Killersave habe ich 21% Zuwachs gemessen.


Bay Trail im Preiskampf:

http://www.digitimes.com/news/a20131014PD216.html


Mit dem connected standby 64bit support und entsprechender 64bit Auslieferung könnte das nochmal einen schönen Schub geben.

AffenJack
2013-10-16, 00:50:52
Naja, die brauchen im Moment mehr als nur nen schönen Schub, so wie Intel da weiterhin Geld verbrennt.

Bei einem Umsatz von einer Milliarde US-Dollar fährt die Sparte rund um Tablets, Smartphones & Co. nach wie vor hohe Verluste ein (-606 Mio.), in den neun Monaten dieses Jahres hat sich das Minus dort bereits auf 1,825 Milliarden US-Dollar angehäuft.
http://www.computerbase.de/news/2013-10/intels-umsatz-und-gewinn-stagnieren/

Bei den Kosten müssen die verdammt viele Deals kriegen um wenigstens in die Nähe von schwarzen Zahlen zu kommen.

Ronny145
2013-10-16, 01:19:22
Wenig verwunderlich. Das ist das Ergebnis vom wenig erfolgreichen Clovertrail. Mit Bay Trail hat das nichts zu tun, über dessen Erfolg können wir nochmal in einem halben Jahr reden.

YfOrU
2013-10-16, 09:31:27
Wenig verwunderlich. Das ist das Ergebnis vom wenig erfolgreichen Clovertrail. Mit Bay Trail hat das nichts zu tun, über dessen Erfolg können wir nochmal in einem halben Jahr reden.

Das Ergebnis würde ich primär den "Mobile Phone Platforms" (Funktechnik), in deutlich kleineren Teilen den zugehörigen SoCs (Medfield) und damit schlussendlich dem hohen Investitionsbedarf gegenüber geringen Absatz zuschreiben. Hinzu kommt noch ein rückläufiger Verkaufspreis der aktuellen Tablet SoCs (CT, +).

Infineon Wireless Solutions war zwar zum Zeitpunkt der Übernahme knapp aus den roten Zahlen raus aber der Ausblick war alles andere als rosig (- Apple ;) und großer Rückstand bei der LTE Entwicklung).
In diesem Bereich muss massiv investiert werden um sich mittelfristig auf Augenhöhe mit der eigentlichen Konkurrenz (Marktführer: Qualcomm) zu bewegen (Funkstandards, time to market) und die langfristig angestrebte Integration der Modems in SoCs ist auch nicht ohne (die Produkte laufen auch heute noch bei TSMC vom Band). Oben drauf hat man sich dieses Jahr zusätzlich noch Fujitsu Wireless (LTE RF) sowie in der Vergangenheit Spezialisten wie SysDSoft geleistet.

Schlussendlich geht es Intel nicht nur darum eine ernsthafte Rolle im Bereich der LP SoCs zu spielen sondern vor allen auch im Bereich der Funktechnik. Die Sparte soll am Ende voll in Konkurrenz zu Qualcomm stehen und der Weg dahin muss auch mit Blick auf das allgemein hohe Entwicklungstempo und die nötige Konzentration an IP sehr teuer erkauft werden. Vernünftige LP SoCs zu entwickeln ist für Intel aufgrund der vorhandenen IP und Fertigung die deutlich einfacherer Aufgabe.
Um es auf den Punkt zu bringen: Höhere Entwicklungskapazitäten (LTE, Funktechnik) dürfte es höchstens noch bei Qualcomm geben. Die XMM7160 (Cat 3 und 4) ist wie Clovertrail der erste ernstzunehmende Schritt und 2014 wird Intel über die XMM7260 was den Zeitpunkt von LTE Cat 6 betrifft bereits sehr nahe an Qualcomm liegen.
Auf der anderen Seite gibt es noch einige Herausforderungen denn die Fertigungsprozesse müssen in Zukunft den größten Teil der RF Komponenten einschließen. Beispiel:
http://arstechnica.com/information-technology/2012/09/intel-researchers-put-wifi-inside-the-processor-that-is/

Ailuros
2013-10-17, 09:01:08
Abgesehen von LTE hat QCOM quasi ueber Nacht einen sehr anstaendigen tablet SoC Marktanteil erreicht mit dem S800. Man muss nur an die Amazon, Google und Samsung desing wins denken und es reicht schon das vorige zu gerechtfertigen.

Am Rand sind die ersten offiziellen Resultate von dem Asus T100 erschienen bei Kishonti und sind zwar auf dem erwartetem Nivaeu aber mehr als anstaendig wie schon wo anders erwaehnt: http://gfxbench.com/device.jsp?benchmark=gfx27&D=Asus+T100TA+Transformer+Book&testgroup=overall

Morgen soll der Verkauf losgehen mal sehen wann ich hier am Arsch der Welt vorbestellen kann.

YfOrU
2013-10-17, 09:44:54
Abgesehen von LTE hat QCOM quasi ueber Nacht einen sehr anstaendigen tablet SoC Marktanteil erreicht mit dem S800. Man muss nur an die Amazon, Google und Samsung desing wins denken und es reicht schon das vorige zu gerechtfertigen.

Qualcomm hat diese Runde alles richtig gemacht. S800 ist ein sehr ausgewogenes Produkt und auch aufgrund von 28nm HPm problemlos von Smartphone bis Tablet skalierbar. Oben drauf gibt es das Paket optional mit integrierten Cat4 LTE. Mehr geht eigentlich nicht.


Am Rand sind die ersten offiziellen Resultate von dem Asus T100 erschienen bei Kishonti und sind zwar auf dem erwartetem Nivaeu aber mehr als anstaendig wie schon wo anders erwaehnt...

Mehr wäre auch nicht verkehrt aber es ist ein durchaus solides Ergebnis und damit kein "Deal Breaker" wie in der Vergangenheit. Gesundes Niveau endlich erreicht :)


Morgen soll der Verkauf losgehen mal sehen wann ich hier am Arsch der Welt vorbestellen kann.

Hoffentlich gibt es morgen ein paar ausführliche Reviews zu den ersten 8.1 Tabs mit Baytrail. In DE soll zum Beispiel das HP Omni 10 innerhalb der nächsten 14 Tage ausgeliefert werden ;)
Scheint leider zum Start durch die Bank keine Varianten mit 4GB Arbeitsspeicher zu geben bzw. ist mir bisher in der Richtung nichts untergekommen und 2GB... ungern.

Ailuros
2013-10-17, 11:09:44
Es wird noch ein Weilchen dauern bevor ich Intel's Strategie genau schnalle; Baytrail ist als tablet design alles andere als schlecht aber weder wirkliches high end noch gibt es irgend eine Chance fuer low end. Schlecht positioniert ist es definitiv nicht aber ich kann IHVs wie Intel oder NVIDIA wirklich nicht verstehen wieso es keiner wirklich im low end zuerst versuchen will.

Wieso? Weil andere eben schneller sein koennten: http://www.fudzilla.com/home/item/32839-mediatek-muscles-into-tablets

Ich besorg mir auf jeden Fall mal das T100 weil ich wirklich ein billiges windows mobiles Geraet brauche.

Nightspider
2013-10-17, 11:13:59
Die CPU Leistung ist HighEnd. Ob Apples Cyclone in jeder Anwendung mit Silvermont Kernen mithalten kann bezweifle ich fast.
Alleine von der Speicherbandbreite ist Valley View deutlich überlegen, wenn ich mich nicht irre.

Und wenn Intel in genau einem Jahr noch viel sparsamere 14nm SoCs rausbringt mit 100% mehr GPU Power oder mehr gibts wahrscheinlich die ersten Leichen im SFF Markt.^^

Ronny145
2013-10-17, 13:52:36
Scheint leider zum Start durch die Bank keine Varianten mit 4GB Arbeitsspeicher zu geben bzw. ist mir bisher in der Richtung nichts untergekommen und 2GB... ungern.


4GB auf 32bit wäre nicht so ideal. Ich denke erst 64bit mit connected standby support könnte OEMs zu 4GB bewegen.

Das T100A hat wohl nur einen Z3740 verbaut.

Es wird noch ein Weilchen dauern bevor ich Intel's Strategie genau schnalle; Baytrail ist als tablet design alles andere als schlecht aber weder wirkliches high end noch gibt es irgend eine Chance fuer low end. Schlecht positioniert ist es definitiv nicht aber ich kann IHVs wie Intel oder NVIDIA wirklich nicht verstehen wieso es keiner wirklich im low end zuerst versuchen will.


Ich weiß zwar nicht wo bei dir low-end anfängt, aber was klar ist, das die niedrigsten Preise Mit Windows nicht zu erzielen sind, sondern mit Android.

Ailuros
2013-10-17, 14:51:31
Ich weiß zwar nicht wo bei dir low-end anfängt, aber was klar ist, das die niedrigsten Preise Mit Windows nicht zu erzielen sind, sondern mit Android.

Natuerlich sind die niedrigsten Preise nur mit Android zu erzielen, aber da sich Mediatek die 10% tablet Marktanteil wohl hauptsaechlich mit ab $99 tablets erreicht hat braucht man wohl keine besondere Vorstellung was man mit low end meinen koennte.

YfOrU
2013-10-17, 19:08:38
4GB auf 32bit wäre nicht so ideal. Ich denke erst 64bit mit connected standby support könnte OEMs zu 4GB bewegen.


Die Befürchtung habe ich leider auch. Allerdings müssten unter 32bit durchaus um die 3,5GB effektiv nutzbarer Arbeitsspeicher möglich sein und selbst das wäre noch erheblich mehr als 2GB. Mir geht es dabei vor allen um Multitasking im Zusammenspiel mit einem externen Display. 2GB sind da einfach sehr mager.

Bin mir bis heute nicht so sicher wie der 64bit Support bei Baytrail-T zur Einführung geregelt wird. Laut Datenblatt (Intel, Z3770) ist der grundsätzlich gegeben.

Denkbare Varianten:
Intel deaktiviert bei den ersten Chargen (Hardware).
Die Hersteller deaktivieren über die Firmware. Update, aktivierbar ?
Ist aktiv aber die Geräte werden mit einem 32bit OS ausgeliefert.

Es wird noch ein Weilchen dauern bevor ich Intel's Strategie genau schnalle; Baytrail ist als tablet design alles andere als schlecht aber weder wirkliches high end noch gibt es irgend eine Chance fuer low end. Schlecht positioniert ist es definitiv nicht aber ich kann IHVs wie Intel oder NVIDIA wirklich nicht verstehen wieso es keiner wirklich im low end zuerst versuchen will.

Low-Cost Baytrail sind zumindest mal halbwegs in Sichtweite. Die Strategie dürfte dem üblichen Vorgehen entsprechen:
Die Vorgängergeneration (CT,+) übernimmt diesen Part bis zur Einführung von Low-Cost auf Basis der aktuellen Produktreihe. Typische Verschiebung von Highend zu Low-Cost bei gleicher Produktreihe: 4 - 6 Monate.
Beispiel wäre Dell deren neu vorgestellte Low-Cost Android Tablets im Gegensatz zu den Windows 8.1 Geräten auf CT basieren (~150$). Ist natürlich aufgrund der lahmen GPU nicht besonders interessant aber das Problem erledigt sich bei der nächsten Runde von selbst. Aufgrund des Fertigungsvorteils hat die Strategie AMD ordentlich zugesetzt und ich gehen davon aus das es ab Baytrail auch im LP SoC Segment ganz gut funktionieren sollte.

Pennywise
2013-10-17, 21:09:30
Die Befürchtung habe ich leider auch. Allerdings müssten unter 32bit durchaus um die 3,5GB effektiv nutzbarer Arbeitsspeicher möglich sein und selbst das wäre noch erheblich mehr als 2GB. Mir geht es dabei vor allen um Multitasking im Zusammenspiel mit einem externen Display. 2GB sind da einfach sehr mager.

Wofür braucht man denn mehr als 2GB im Tablet? Was machst Du mit so einem Ding? :D

YfOrU
2013-10-17, 21:22:30
Wofür braucht man denn mehr als 2GB im Tablet? Was machst Du mit so einem Ding? :D

Das Subnotebook nicht jeden Tag schleppen. Kabellose Maus und Tastatur gibt es genauso wie einen Dell U2412M am Arbeitsplatz. Für Remote Desktop, MS Office,Tools, Editoren und Browserfenster brauch ich nicht zwangsläufig einen IB ULV. Wirklich Power ist nur bei den Adobe Anwendungen nötig. Auf dem integrierten Bildschirm liegen meist eh nur Outlook, das Interface der TK Anlage oder Dokumente.

Neben dem Gewicht spielen auch Akkulaufzeit und Flexibilität eine Rolle. Ein gutes Type Cover wäre auf jeden Fall praktisch und dazu eine Bluetooth Maus. Das Tablet mit LTE denn UMTS im Subnotebook ist etwas auf das ich nicht mehr verzichten will. Mit Airmont passt das dann in eine große Jackentasche ;)

Nightspider
2013-10-17, 21:28:55
Wofür braucht man denn mehr als 2GB im Tablet? Was machst Du mit so einem Ding? :D

So ein Win8.1 Tablet wäre nicht eins der Tablets, was man bisher so kennt.
Damit könnte man einfach alles machen und entsprechend viele Anwendungen parallel laufen lassen. Dafür braucht man viel RAM.

Ronny145
2013-10-17, 21:33:46
Die Befürchtung habe ich leider auch. Allerdings müssten unter 32bit durchaus um die 3,5GB effektiv nutzbarer Arbeitsspeicher möglich sein und selbst das wäre noch erheblich mehr als 2GB. Mir geht es dabei vor allen um Multitasking im Zusammenspiel mit einem externen Display. 2GB sind da einfach sehr mager.


Dann wäre noch das maixmale Limit pro Applikation bei 2GB. Windows 8.1 soll immerhin weniger RAM verbrauchen. Für richtiges Multitasking reichen 2GB nicht, das ist sicherlich festzuhalten.


Bin mir bis heute nicht so sicher wie der 64bit Support bei Baytrail-T zur Einführung geregelt wird. Laut Datenblatt (Intel, Z3770) ist der grundsätzlich gegeben.

Denkbare Varianten:
Intel deaktiviert bei den ersten Chargen (Hardware).
Die Hersteller deaktivieren über die Firmware. Update, aktivierbar ?
Ist aktiv aber die Geräte werden mit einem 32bit OS ausgeliefert.



Ich weiß es nicht. Die letzte Möglichkeit könnte man leicht austesten, vielleicht nimmt sich das ein Tester vor sobald erste Endgeräte auftauchen.

YfOrU
2013-10-17, 21:45:44
Ich weiß es nicht. Die letzte Möglichkeit könnte man leicht austesten, vielleicht nimmt sich das ein Tester vor sobald erste Endgeräte auftauchen.

Mir kommt die Frage einfach weil die Aussagen nicht eindeutig sind und Intel selbst nicht explizit von 64bit spricht. Geht natürlich beim vollen Feature Umfang mit 8.1 aktuell nicht aber gerade nach dem Apple mit dem A7 die Keule geschwungen hat hätte ich schon erwartet das man nicht so kleinlaut ist. Von den Konkurrenten auf ARM Basis hat das sonst keiner zu bieten. So ein 64bit Aufkleber ist eine tolle Sache ;)

Was mir persönlich auch wichtig ist, ein System welches wirklich gute Standby Zeiten hat. Also das was es bei den MacBooks schon gefühlte Ewigkeiten gibt aber viele PC Hersteller erst mit Haswell ULT ordentlich hinbekommen haben.

YfOrU
2013-10-18, 10:04:34
http://www.anandtech.com/show/7428/asus-transformer-book-t100-review/2
Intel's silicon in the T100 is 64-bit capable but Microsoft still lacks a 64-bit version of Windows 8/8.1 with Connected Standby enabled. As a result, the T100 (just like all other Bay Trail platforms) ships with a 32-bit copy of Windows 8.1 (with Connected Standby enabled).

Ailuros
2013-10-18, 10:51:29
http://www.anandtech.com/show/7428/asus-transformer-book-t100-review/2

Dass mit den 2GB Speicher koennte vielleicht ein leichter Kopfschmerz werden fuer mich aber ich bezweifle dass mir wenn mir 64bit fehlt es etwas fundamentales aendern wuerde.

Das T100 soll uebrigens bis zu 11 Stunden aushalten wenn ich mich nicht irre und das keyboard/dock hat keine zusaetzliche Batterie afaik.

Ich weiss jetzt nicht wann ich meine Finger auf so ein Ding bekommen kann, aber wenn ich der erste hier sein sollte, kritzel ich mal schnell einen User-review hier zusammen fuer's mobile forum fuer wen es interessieren koennte.

Ich weiss aber schon jetzt dass ich dem Ding wohl nicht etwas wie photoshop als Applikation zutrauen werde bei der Speichermenge :P

Nightspider
2013-10-18, 10:57:35
Zumindest dürften die ersten Samsung BayTrail Tablets 3GB RAM haben.

Ailuros
2013-10-18, 12:53:29
Ich hab mir jetzt erst die Zeit genommen den Anand review vom T100 durchzulesen; es liegt alles mehr oder weniger innerhalb meiner Erwartungen. Nice :)

YfOrU
2013-10-18, 15:50:36
Ich hab mir jetzt erst die Zeit genommen den Anand review vom T100 durchzulesen; es liegt alles mehr oder weniger innerhalb meiner Erwartungen. Nice :)

In Summe trifft es die Umschreibung von Mobilegeeks aus dem HandsOn: Es ist die moderne Reinkarnation des EEe PC.

Das schließt auch die von Asus eingegangen Kompromisse um den Gesamtpreis unten zu halten mit ein. Von diesem Grundkonzept ausgehend wäre eine größere Variation an Produkten wünschenswert. Auflösung, Arbeitsspeicher, Diagonalen leicht über 10 Zoll hinaus, 4G und Keyboarddocks mit Akku statt Metallplatte ;) Bis um die 11,6 Zoll sehe ich mit Blick auf das Gewicht des T100 (ohne Dock) als wirklich alltagstauglich umsetzbar.

Pennywise
2013-10-18, 15:59:48
So ein Win8.1 Tablet wäre nicht eins der Tablets, was man bisher so kennt.
Damit könnte man einfach alles machen und entsprechend viele Anwendungen parallel laufen lassen. Dafür braucht man viel RAM.

Habe ein Windows 8 Tablet mit Clovertrail, eben genau aus dem Grund. Aber das was mit 2GB Speicher nicht geht, geht eh wegen der CPU auch nicht. Aber auch mit nem Baytrail nicht. Office offen, Browser offen und meinetwegen noch ein altes Photoshop geht auch mit 2GB. TK Anlagen Steuerungen oder ähnliches (bei mir z.B. ein Programm für ein LCD Display) brauchen eh nicht so viel RAM.

Da wären grosse Datenbanken, grosse Bilder etc. da sind die CPUs in den kleinen Tablets eh nicht geeignet für. Da müsste es schon ein i3 aufwärts sein.

Gerade auf meinem "grossen" Desktop PC mal nachgesehen. Da laufen gerade X Programme und Arbeitsspeicher ist mit 2GB nicht mal voll (32Bit 4GB). So viel würde ich auf meinem Tablet aber nicht gleichzeitig machen (wollen :D)

Dann wäre noch das maixmale Limit pro Applikation bei 2GB. Windows 8.1 soll immerhin weniger RAM verbrauchen. Für richtiges Multitasking reichen 2GB nicht, das ist sicherlich festzuhalten.
Das halt ich für ein Gerücht. Womit habt ihr denn 2005 gearbeitet? Alle schon 64Bit und 16GB? Da war eh bei 3GB Schluss und die meisten hatten noch nicht mal die. Die Anwendungen die damals gingen gehen heute auch noch. Office 2007, Photoshop usw. Warum sollte das auf einmal nicht mehr gehen?

Hab übrigens noch einen alten SBS Server 2003 mit Exchange laufen, der hat auch nur 2GB :D Geht auch

Ailuros
2013-10-19, 07:19:33
Pennywise,

Ich stimme zwar mit vielem oben nicht zu (ueberhaupt die ausgekaute Laier was frueher mal war...ich kaufe heute was heute verfuegbar ist und nicht gebrauchte Ware aus 2005), aber fuer den Satz:

Aber das was mit 2GB Speicher nicht geht, geht eh wegen der CPU auch nicht.

Kann ich nur voll zustimmen. Und dabei muss es nicht mal die CPU sein die eher schlapp macht; ich koennte mir auch Faelle vorstellen wo ich locker die hdd auf die Knie bringen koennte.

Sonst bin jetzt auch mal so frech und erinnere daran dass ich immer noch ueberzeugt bin dass wir mit dem naechsten process node mobile core i3 Leistung zumindest locker in zukuenftigen tablets sehen werden.

Heimatsuchender
2013-11-06, 02:37:00
Die Suchfunktion hat mich hierher geführt. Wie ist denn der N3510 von Intel einzuschätzen?

Ich habe ein Tablet gefunden,das mit diesem Prozessor kommt. Dazu 64 GB Speicher und 4 GB Ram. Im Tastaturdock ist ein zusätzlicher Akku. Eventueller Nachteil: Das Display (hat nur 13XX) und vielleicht der Prozessor.


tobife

Ailuros
2013-11-06, 13:06:09
Die Suchfunktion hat mich hierher geführt. Wie ist denn der N3510 von Intel einzuschätzen?

Ich habe ein Tablet gefunden,das mit diesem Prozessor kommt. Dazu 64 GB Speicher und 4 GB Ram. Im Tastaturdock ist ein zusätzlicher Akku. Eventueller Nachteil: Das Display (hat nur 13XX) und vielleicht der Prozessor.


tobife

Zu welchem Preis?

Heimatsuchender
2013-11-06, 21:32:50
Zu welchem Preis?


600 Euro. Windows 8 - 64 Bit. Kommt wohl ohne Vollversion von Office. Ist bei HP auf der Homepage versteckt.


tobife

Ailuros
2013-11-07, 09:18:20
600 Euro. Windows 8 - 64 Bit. Kommt wohl ohne Vollversion von Office. Ist bei HP auf der Homepage versteckt.


tobife


Die Aufloesung beim Baytrail T100 ist gleich, es hat aber nur 2GB ram. Mit 64GB rom und Office glaube ich momentan in Deutschland bei irgendwo 420 Euros (32GB bei 370+); es hat zwar keine Batterie im doch haelt aber irgendwo 8 Stunden nach Anand's Messungen beim surfen aus (Asus gibt 11 an glaub ich?) http://www.anandtech.com/show/7428/asus-transformer-book-t100-review/5

Sonst so wie ich HP kenne duerfte es sich nicht so "billig" wie der T100 Plastik-bomber anfuehlen, aber ich wuerde auch erwarten dass das erste genauso leicht ist mit oder ohne doch als das T100. Bei mir ist das letzte leider noch nicht erhaeltlich, wobei ich es schon ueber amazon.de z.B. bestellen koennte aber wenn etwas schief laufen sollte ist die Herumschickerei mit der Post zu umstaendlich.

Gibt es in Deiner Naehe nicht irgend eine Art Megamarkt wo Du vielleicht beide Geraete live sehen kannst?

AnarchX
2013-11-07, 10:11:05
Bei Non-Atom-BT wird man wohl auf einige Powermanagement-Features verzichten müssen. Ärgerlich ist auch die Deaktivierung von QuickSync.

Heimatsuchender
2013-11-07, 18:27:47
Die Aufloesung beim Baytrail T100 ist gleich, es hat aber nur 2GB ram. Mit 64GB rom und Office glaube ich momentan in Deutschland bei irgendwo 420 Euros (32GB bei 370+); es hat zwar keine Batterie im doch haelt aber irgendwo 8 Stunden nach Anand's Messungen beim surfen aus (Asus gibt 11 an glaub ich?) http://www.anandtech.com/show/7428/asus-transformer-book-t100-review/5

Sonst so wie ich HP kenne duerfte es sich nicht so "billig" wie der T100 Plastik-bomber anfuehlen, aber ich wuerde auch erwarten dass das erste genauso leicht ist mit oder ohne doch als das T100. Bei mir ist das letzte leider noch nicht erhaeltlich, wobei ich es schon ueber amazon.de z.B. bestellen koennte aber wenn etwas schief laufen sollte ist die Herumschickerei mit der Post zu umstaendlich.

Gibt es in Deiner Naehe nicht irgend eine Art Megamarkt wo Du vielleicht beide Geraete live sehen kannst?


Das HP-Teil hat sich erstmal erledigt. Ist HP-mäßig von "ab 07.11. erhältlich" auf mindestens Januar 2014 verschoben worden.


tobife

Ailuros
2013-11-07, 18:35:23
Das HP-Teil hat sich erstmal erledigt. Ist HP-mäßig von "ab 07.11. erhältlich" auf mindestens Januar 2014 verschoben worden.


tobife

Falls Du etwas in der Geraete-Kategorie in der Zwischenzeit kaufen solltest, wuerde ich gerne Deine Eindruecke im mobilen forum lesen :)

YfOrU
2013-11-08, 08:23:34
Falls Du etwas in der Geraete-Kategorie in der Zwischenzeit kaufen solltest, wuerde ich gerne Deine Eindruecke im mobilen forum lesen :)

Auch wenn ich mich damit etwas weit aus dem Fenster lehne sehe ich Designs wie das HP Envy x2, Split oder Pavilion 11-h000sg mittelfristig als die Zukunft der kompakten Notebooks (Sub, Net und kleine Ultrabooks).

Je nach Segment und Anforderung mit Atom bzw. ULT Core. In dem Kontext geht dann auch die von Microsoft mit 8.1 weiter verfolge Strategie ziemlich gut auf.

Ailuros
2013-11-28, 08:27:47
Schwer zu kategorisieren und ich wollte nicht schon wieder einen neuen thread aufmachen:

http://gfxbench.com/device.jsp?benchmark=gfx27&D=HP%20Split%2013%20x2%20%28Intel%20HD%20Graphics%204200%29

Ausser ich hab etwas verpasst ist das HP Split 13 x2 http://www.pcworld.co.nz/review/hp/split_13_x2/531480/ ein hybrides windows tablet/notebook (mit >1kg im tablet mode und nur 2.5 Stunden Batterielaufzeit wohl nicht besonders brauchbar als tablet). Wieso jetzt Intel die Baytrail scores entfernt hat (ca. 900+ frames in GLB2.7 wobei das Asus T100 auch kein Android Geraet ist) und jetzt die Split scores unter Android listet ist so eine Frage. Legitim ist es schon aber schon etwas daemlich falls sie versuchen wollten Eindruecke mit dem "top of the Android charts" zu gewinnen.

Auf jeden Fall haben wir wohl schon jetzt ungefaehr eine Einsicht wie die Cherrytrail Leistung in Zukunft aussehen koennte.

Undertaker
2013-11-28, 10:28:07
Schwierig so einen Benchmark einzuordnen, wenn sich das Split ähnlich verhält wie das Spectre x2:

http://www.notebookcheck.com/Test-HP-Spectre-13-h205eg-x2-Convertible.105231.0.html

Wenn das Ding nach einiger Zeit auf 350 MHz throttelt, liegt die theoretische Rechenleistung nur noch auf Smartphone-Niveau... Das ist dann trotz passiver Kühlung nicht mehr sonderlich berühmt. Warum HP den Chip allerdings auch unbedingt auf 60°C halten will. ;) CPU-seitig wischt das Ding natürlich mit jedem ARM oder Atom den Boden.

Ailuros
2013-11-28, 17:10:24
Schwierig so einen Benchmark einzuordnen, wenn sich das Split ähnlich verhält wie das Spectre x2:

http://www.notebookcheck.com/Test-HP-Spectre-13-h205eg-x2-Convertible.105231.0.html

Wenn das Ding nach einiger Zeit auf 350 MHz throttelt, liegt die theoretische Rechenleistung nur noch auf Smartphone-Niveau... Das ist dann trotz passiver Kühlung nicht mehr sonderlich berühmt. Warum HP den Chip allerdings auch unbedingt auf 60°C halten will. ;) CPU-seitig wischt das Ding natürlich mit jedem ARM oder Atom den Boden.

Bodenwischen ist auch auf der GPU Seite da, nutzt mir aber nichts wenn ich nur ca. 2.5 Stunden Batterielaufzeit im tablet modus habe.

Ailuros
2013-11-28, 17:33:33
http://www.fudzilla.com/home/item/33254-intel-to-throw-$1-billion-at-tablets

The only problem? Well the report comes from Digitimes and the site’s hit and miss track record has been on the “miss” side lately, so take it with a grain of salt.

LOL mein allerster Gedanke als ich "digitimes" am Anfang gelesen habe. Ausschliessen will ich es aber noch nicht als Moeglichkeit.

Undertaker
2013-11-28, 18:28:07
Bodenwischen ist auch auf der GPU Seite da, nutzt mir aber nichts wenn ich nur ca. 2.5 Stunden Batterielaufzeit im tablet modus habe.

Bodenwischen bei 350 MHz? GLB 2.7 Offscreen dürfte da bei ~25-30 fps liegen, also in etwa auf Apple A7 Niveau. Wenn HP etwas höhere Temperaturen akzeptieren würde, sollten imo allerdings auch gut 500 MHz möglich sein, also das Potential für Mehrleistung wäre schon da...

Akkulaufzeit des Tablets allein müsste beim Surfen ~5h erreichen. Klingt erstmal wenig, aber bei einem 32Wh-Akku und 13,3" eigentlich im Bereich der Erwartungen. Man muss halt sehen, dass ein typisches ARM-Tablet mit 10" deutlich weniger Leistung für das Display benötigt... Aber ja: Ganz auf den Leerlauf/Teillast-Verbrauchsniveau von ARM-Devices ist auch Haswell noch nicht.