PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Valley View SoC / Baytrail - Silvermont-QC, 4EUs Gen7 - Atom, Pentium, Celeron - 2013


Seiten : [1] 2 3

Ronny145
2012-01-22, 15:58:21
Update:
Baytrail: Oberbegriff für Plattformen für den 22nm Valleyview SoCs (Ausprägungen: Tablet, Integrated, Mobile, Desktop)
Valley View: 22nm SoC mit 4 Silvermont-Kernen und einer Gen7 (IVB) GPU mit 4 EUs
Silvermont (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9758976#post9758976): neue Einsteiger-CPU-Architektur von Intel mit Out-of-Order-Execution
Produkte:

Atom Z3000 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9799963#post9799963)für Tablets
Pentium N3000 und Celeron N2000 für Netbooks
Pentium J2000 und Celeron J1000 für (kleine,) stationäre Einsteigersysteme
Atom E3000 für embedded Systeme (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9830886#post9830886)



Silvermont im Smartphone - Merrifield (eigener SoC, evtl. IMGTec GPU):
Roadmap:http://www.cnx-software.com/wp-content/uploads/2012/05/intel_smartphone_platform_roadmap_2012_2014.jpg
Demo auf der Computex 2013:http://www.computerworld.com/s/article/9239763/Intel_shows_first_Merrifield_based_smartphone

Next-Gen-SoC und Plattformen:
2014: Cherryview SoC mit der Cherrytrail-Plattform (14nm, Kerne mit Airmont-Architektur)
2015: Willowtrail-Plattform und Broxton (SoC/Plattform?) (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9837458#post9837458)





altes Posting:
Silvermont= Valley View?

Auf der Webseite des Intel-Entwicklungszentrums Jerusalem (IDCj) taucht derweil schon der Codename Valleyview auf; ob es sich dabei um eine zweite 32-nm-Generation von Cedarview handelt oder bereits einen 22-nm-Nachfolger, ist aber ungewiss.
http://www.heise.de/ct/meldung/Intel-will-in-drei-Wochen-32-Nanometer-Atoms-vorfuehren-1211203.html

http://s1.directupload.net/images/120122/o65j4uvi.png

http://s14.directupload.net/images/120122/cbtukzny.png
http://download.advantech.com/ProductFile/PIS/Materials/20111214151925SIMB%20Roadmap%20&%20Sales%20Kit%20Q1%202012%20-%2020111202.ppt


Valley View die CPU Bezeichnung, Silvermont die Plattform Bezeichnung nehme ich an. 4xGfx zu Cedarview?

AnarchX
2012-01-22, 16:50:11
Silvermont ist die CPU-Architektur: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8737631#post8737631

@4x GFX
Ein SGX543MP4 sollte unter 22nm wohl kein Problem sein. Versprochen hatte Intel eigentlich einen Faktor 7. Aber das ist wohl wieder eine Frage der Plattform.

Ronny145
2012-01-22, 17:30:32
Silvermont ist die CPU-Architektur: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8737631#post8737631


Wie passt Valleyview und Balboa Pier rein? Da 22nm in der Roadmap steht kann nur Silvermont gemeint sein.


@4x GFX
Ein SGX543MP4 sollte unter 22nm wohl kein Problem sein. Versprochen hatte Intel eigentlich einen Faktor 7. Aber das ist wohl wieder eine Frage der Plattform.

Kein PowerVR Chip mit ziemlicher Sicherheit. Im Treiberfile vom Ivy Bridge Treiber taucht Valley View auf. Dort tauchen nur Intel eigene GPUs auf. Der 22nm Atom soll ja im Bereich 5-10W bleiben. Das ist nicht viel Spielraum für 4 Kerne und iGPU.

http://s7.directupload.net/images/120122/7yft24oh.png

AnarchX
2012-01-22, 17:34:25
Architektur: Silvermont
SoC: Valley View
Plattform: Balboa Pier

Bei Cedarview ist die Architektur Saltwell, der Chip Cedarview+NM10 und die Plattform Cedar-Trail.

@Gfx:
Dann wohl möglich ein Ivy Bridge IGP bei unter 1GHz.

Ronny145
2012-01-22, 17:36:42
Maximal 4-6 EUs bei gemäßigten Takt schätze ich falls es Gen7 ist. Theoretisch könnte es auch Gen 7.5 von Haswell sein.

AnarchX
2012-01-22, 17:40:10
Maximal 4-6 EUs bei gemäßigten Takt schätze ich falls es Gen7 ist. Theoretisch könnte es auch Gen 7.5 von Haswell sein.
Taucht denn Haswell schon im Treiber auf? Das spricht wohl eher für IVB-Gfx.
Vielleicht will man diesmal auch eine etwas längeren Vorlauf, damit der Launch in 2013 besser funktioniert, als bei Cedarview. ;D

Ronny145
2012-01-22, 17:43:02
Taucht denn Haswell schon im Treiber auf? Das spricht wohl eher für IVB-Gfx.
Vielleicht will man diesmal auch eine etwas längeren Vorlauf, damit der Launch in 2013 besser funktioniert, als bei Cedarview. ;D


Ja klar taucht der auf, schon länger. Bis Broadwell geht es mittlerweile.

AnarchX
2012-01-22, 17:45:55
Da heißt es wohl abwarten, auf mehr Informationen.
Vielleicht ist es auch eine speziellere D3D11-Architektur, die auf das LowPower-Umfeld der Atoms optimiert ist.

DavidC1
2012-01-28, 02:45:51
http://s7.directupload.net/images/120122/7yft24oh.png

That's good for Netbooks. Scrap that PowerVR crap. Ok, the hardware might be good, except Intel can't seem to get it working for drivers, at least on Windows. If its really Gen X based(which I still doubt), then all the driver port will automatically be in place, and the support is FAR better there. It's like a completely new GPU architecture for Intel means we need to go through G965 fiasco all over again. I can tell you no one wants to go through that.

Also I'm wondering where you guys got the 7x number. Did you guys extrapolate it out from the Atom projection slide?

Ronny145
2012-01-28, 12:10:33
That's good for Netbooks. Scrap that PowerVR crap. Ok, the hardware might be good, except Intel can't seem to get it working for drivers, at least on Windows.

Imagination is building the drivers for the last Atom GPU. Of course Intel GPU+driver should be much better.

Ronny145
2012-02-08, 14:38:10
Intel Is Planning To Drop PowerVR Graphics (http://www.phoronix.com/scan.php?page=news_item&px=MTA1NDU)

Eine weitere Bestätigung für eine Intel GPU im 2013 Atom.

Based upon information from different sources, it looks like Intel is planning to trim down a "Gen7" (Ivy Bridge) graphics core and lodging it on a future SoC. It would make sense that Intel would be looking to avoid its dependence on using Imagination's low-power graphics technology that's used by so many competing ARM SoC vendors.


Phoronix hat von einem Gen7 Abkömmling gehört.

Ronny145
2012-03-26, 13:09:46
http://s14.directupload.net/images/120326/ykfljfxk.jpg
http://vr-zone.com/articles/intel-s-valleyview-atom-soc-will-come-in-multiple-skus/15345.html

Shink
2012-03-26, 13:44:04
Schade, dass man noch ein Jahr warten muss auf einen Atom mit brauchbaren GPU-Treibern.
Performance ist da fast schon nebensächlich: Der Cedarview braucht schön wenig Saft und hat eine gegenüber dem Bobcat brauchbare CPU-Leistung - aber irgendwie würde ich mir so etwas nicht holen wollen bei der Treibersituation. Und da Intel schon bekannt gab, dass sie in Zukunft nicht mehr auf PowerVR setzen, erwarte ich mir auch keine Änderung der Treibersituation.

Ronny145
2012-03-26, 13:45:57
Und da Intel schon bekannt gab, dass sie in Zukunft nicht mehr auf PowerVR setzen, erwarte ich mir auch keine Änderung der Treibersituation.


Genau dann wird es doch schlagartig besser. Auf goldene PowerVR Treiber für Cedarview brauchst Du nicht warten.

Shink
2012-03-26, 13:49:28
Genau dann wird es doch schlagartig besser.
Schon klar. Aber eben erst nächstes Jahr.

Ronny145
2012-03-26, 13:54:17
Schon klar. Aber eben erst nächstes Jahr.


Ach ne, welch Neuheit für Valleyview.

davidzo
2012-03-28, 12:57:11
fällt euch was auf?

nirgends ist von power/watt verbesserungen die rede. Dabei war das doch bei allen vorrangehenden architekturen immer ein schlagendes argument.

tatsache ist, dass die powervr grafik kaum energie verbraucht, zumal intel leider auch immer relativ schwache versionen verbaut hat (SGX535?).
Intels eigene Grafikkerne verbrauchen sehr wohl einiges an Energie und auch Diespace. Die Gewinne durch 22nm auf der CPUseite werden also womöglich schon durch das benötigte Grafik TDP budget aufgefressen.

Sprich erhofft euch keine großartig verbesserte CPUleistung, Effizienzverbesserungen und 22nm werden zugunsten einer größeren GrafikTDP wohl nicht in merhleistung un Takt umgesetzt werden.

Das sieht man deutlich an der Folie, die meisten der bemerkungen sind zum neuen I/ohub der nun wohl endlich USB3.0 hat und zur tollen Kompatibilität mit der Vorgängergeneration.
Wirliche Leistungsversprechen werden nur in bezug auf die Grafik gemacht. "Leading Performance" könnte sich ebenfalls auf die GPU beziehen, möglicherweise aber auch auf den etwas höheren takt, prinzipiell reichen ja schon 1-2% Performanceplus zu Cedarview um das behaupten zu können.

Zwischen den Zeilen kann man also lesen, dass sich die Leistungsaufnahme wohl ehe rnicht verbessern wird (hat man sonst immer beworben) und auch die CPUleistung nicht merklich steigt.

ich denke eher nicht an ooo, das würde man anders transportieren im vorraus. mit dem kruden all in one CPU-FSB-Northbridge-Design von Cedarview hat man außerdem noch ein paar hausaufgaben zu bewältigen die schon einen moderaten performanceschub bringen könnten (bessere speicherlatenzen durch direkteren integrierten speichercontroller). OOO würde hier nur sinnlos die TDP erhöhen und passt nicht zum Wechsel auf der Grafikseite.

Ronny145
2012-03-28, 13:28:28
Intels eigene Grafikkerne verbrauchen sehr wohl einiges an Energie und auch Diespace. Die Gewinne durch 22nm auf der CPUseite werden also womöglich schon durch das benötigte Grafik TDP budget aufgefressen.



Wie viel verbaucht denn die IVB GPU? Die TDP vom 16 EU Desktop Modell liegt bei 8 Watt, in Valleyview schätze ich mal kommt maximal eine 6 EU Version zum Einsatz, die noch darunter liegen sollte. Klar dürfte ein PowerVR noch einiges darunter liegen, ist aber deutlich schwächer. Die Leistungsaufnahme muss sich auch gar nicht verbessern, denn die ist beim Cedar Trail nicht das Problem (abgesehen vom gefräßigen Chipsatz). Singlecore und GPU Leistung ist das Problem. Im übrigen existiert erst eine einzige Folie die man Intel direkt zuordnen kann. Ob man hier schon so viel reininterpretieren sollte, nur weil Effizienz keine Erwähnung findet? Ich glaube nicht. Der SoC sollte darüber hinaus im Gesamtpaket im Vorteil sein gegenüber der CPU+Chipsatz Kombination von Cedar Trail.

BTW: http://vr-zone.com/articles/intel-valleyview-2-clock-speeds-and-more-unveiled/15375.html

Hört sich nicht nach TDP Steigerungen an. Im Gegenteil, wäre die TDP in der Summe gesunken wenn die 10W für den SoC stimmen. Vr-zone ist mir allerdings noch zu vage um das voll ernst zu nehmen. In der Tat bislang nichts von OoO zu lesen.

Ronny145
2012-08-27, 11:09:07
http://s14.directupload.net/images/120827/bu49uj7t.png

http://s7.directupload.net/images/120827/qmb3l5zn.png

http://s7.directupload.net/images/120827/lelhhnou.png

http://s7.directupload.net/images/120827/jyhxqwju.png

http://s7.directupload.net/images/120827/fbxa6rlp.png

http://s14.directupload.net/images/120827/bnbdrugo.png

http://s14.directupload.net/images/120827/bpkspq5c.png

http://s7.directupload.net/images/120827/hbtips42.png
http://wenku.baidu.com/view/c12aeac008a1284ac9504301.html


Na toll, erst Ende 2013 für alle Valleyview Segmente. Bezüglich CPU Kernänderungen steht nichts im Detail dabei. Ich will doch mal auf deutliche IPC Steigerungen nach der langen Entwicklungszeit hoffen. Taktfrequenzen im gleichen Rahmen, wäre sonst ein Witz ohne deutliche IPC Verbesserung.

AnarchX
2012-08-27, 12:04:10
4 EUs sind auch relativ mickrig, im Vergleich zum IGP eines 40nm Bobcat.

Undertaker
2012-08-27, 13:17:03
Wenn man die HD 2500 mit 6 EUs sieht, sind auch 4 EUs für ein Ultra-Low-End Produkt nicht gerade wenig - gegenüber dem aktuellen Niveau auf jeden Fall ein gewaltiger Schritt nach vorne (vor allem auch treiberseitig). Gegen einen Kabini mit 128 GCN-Einheiten dürfte man natürlich kaum Land sehen.

dildo4u
2012-08-27, 13:22:56
Erstaunlich wie lange sich Intel Zeit lässt vorallem,da Arm jetzt erstmal bei Windows ne Rolle spielen wird.Die GPU's dort dürften Ende 2013 ziehmlich schnell sein z.b Power VR 6 oder Adreno 320 als 4 Core.Wie viel mehr braucht Cedar Trail eigentlich an Strom als ein Tegra SOC?Halbiert sich dort die Akkulaufzeit in einem Tab.

mczak
2012-08-27, 16:01:45
Also für den Zeitrahmen finde ich 4 EUs auch nicht gerade sehr viel. Die Grafik soll ja laut Folie 4x-7x schneller sein - nimmt man den Faktor 4 als Referenz würde das gegenüber heute (sgx545 mit 400Mhz wobei es auch langsamere gibt steht da nicht genau mit was verglichen wurde) etwa einem SGX543/544MP2 mit 400Mhz entsprechen (der 545 ist ja noch aus der alten nicht-XT series 5). Also ungefähr omap5-Niveau. Das wäre in diesem Jahr auf alle Fälle konkurrenzfähig aber Ende nächsten Jahres ist das wohl kaum mehr High-End.
Seltsam ausserdem der Chip hat sowohl einen intel h.264 Decoder wie auch einen von Imagination Tech???
Die CPU-Performance bleibt immer noch ein Mysterium - Silvermont soll zwar ein komplett neuer Kern sein wieviel schneller der aber wird darüber gibt's wohl nicht mal Schätzungen.

AnarchX
2012-08-27, 16:04:38
Die CPU-Performance bleibt immer noch ein Mysterium - Silvermont soll zwar ein komplett neuer Kern sein wieviel schneller der aber wird darüber gibt's wohl nicht mal Schätzungen.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8738130#post8738130

mczak
2012-08-27, 17:55:59
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8738130#post8738130
Naja also die Grafik sagt auch wieder nicht so viel aus was wurde denn da verglichen? Wohl dual-core gegen quad-core. Die Achsen sind nicht beschriftet und der danebenliegende Grafikpart scheint eigentlich keinen Sinn zu machen.
Die erwähnten 20-25% Zuwachs bei gleichem Takt sind da schon konkreter aber imho auch mit Vorsicht zu geniessen.

YfOrU
2012-08-28, 08:16:39
Erstaunlich wie lange sich Intel Zeit lässt vorallem,da Arm jetzt erstmal bei Windows ne Rolle spielen wird.Die GPU's dort dürften Ende 2013 ziehmlich schnell sein z.b Power VR 6 oder Adreno 320 als 4 Core.Wie viel mehr braucht Cedar Trail eigentlich an Strom als ein Tegra SOC?Halbiert sich dort die Akkulaufzeit in einem Tab.

Die SoCs für Tabs sind Clover Trail (32nm) und Bay Trail (22nm).

Da sich schon Medfield (1C/2T Smartphone Variante des Clover Trail mit schwächerer GPU) ganz ordentlich schlägt braucht man sich um die Akkulaufzeit eher keine Sorgen machen: http://www.anandtech.com/show/5770/lava-xolo-x900-review-the-first-intel-medfield-phone

Siehe auch: http://www.anandtech.com/show/5770/lava-xolo-x900-review-the-first-intel-medfield-phone/6
Laufzeit relativ zur Kapazität des Akkus (Normalized).

Hinzu kommt das der Energiebedarf des SoCs in einem Tab weniger kritisch ist als in einem Smartphone. Die Kapazität der Akkus ist wesentlich höher und das Display ist sowieso mit großen Abstand der Hauptverbraucher. Ein leicht höherer Bedarf des SoCs wirkt sich damit im Verhältnis nur geringfügigst aus.

Clover Trail ist praktisch die Referenzplattform für die kommenden Windows 8 x86 Tabs und hat 2C/4T sowie PowerVR SGX 544MP2. Nach bisherigen Informationen liegt die Laufzeit (und das Format der Geräte) auf Augenhöhe mit aktuellen ARM Produkten.
Beispiel: http://www.computerbase.de/news/2012-06/asus-tablet-810-ausprobiert/

Mittelfristig (also 2013, Bay Trail) könnten das mit Tastatur Dock sehr interessante Alternative zu Subnotebooks werden denn mit 22nm bekommt die Atom Architektur endlich eine Generalüberholung verpasst sowie die entsprechenden SoCs integrierte 3G/LTE Modem.

Ailuros
2012-08-28, 08:25:37
Also für den Zeitrahmen finde ich 4 EUs auch nicht gerade sehr viel. Die Grafik soll ja laut Folie 4x-7x schneller sein - nimmt man den Faktor 4 als Referenz würde das gegenüber heute (sgx545 mit 400Mhz wobei es auch langsamere gibt steht da nicht genau mit was verglichen wurde) etwa einem SGX543/544MP2 mit 400Mhz entsprechen (der 545 ist ja noch aus der alten nicht-XT series 5). Also ungefähr omap5-Niveau. Das wäre in diesem Jahr auf alle Fälle konkurrenzfähig aber Ende nächsten Jahres ist das wohl kaum mehr High-End.

SGX545 taktet entweder bei 400 oder 640MHz je nach Fall. Wo und wieso sollte ein 545 einem OMAP5 entsprechen?

SGX545@640MHz
4 Vec2 = 10.24 GFLOPs (4 FLOPs max/vector lane)
2 TMUs = 1,28 GTexels/s
16z/stencil = 10,24 GPixels/s

SGX544MP2@532MHz (TI OMAP5)
8 Vec4 = 38.3 GFLOPs (9 FLOPs max/vector lane)
4 TMUs = 2.13 GTexels/s
32z/stencil = 17,02 GPixels/s

Der Medfield Nachfolger (ich kann leider nie Intel's codenamen behalten) enthaelt einen SGX544MP2@533MHz. Series5XT cores haben uebrigens zusaetzliche hw fuer YUV/colour space acceleration und man kann an diese auch den optionalen Geometrie-core dazuschnallen der so oder so von der Mehrzahl integriert wird.

GLBenchmark2.5 ist ziemlich ALU lastig. Ein einzelner SGX544@384MHz landet dort 1284 frames, waehrend ein SGX540@384MHz bei 770 frames liegt. Anzahl der ALUs und TMUs zwischen 540 und 545 sind gleich. Ausnahme sind die doppelt so viele z/stencil units auf 545, der zusaetzliche DX10.1 Schnickschnack und staerkerer trisetup. Besonders viel schneller waere ein 545@384MHz in GLBenchmark2.5 IMHO nicht im Vergleich zu einem 540@384MHz.

Ein OMAP5430 duerfte im vorigen locker um die 3000 frames landen.

mczak
2012-08-28, 17:15:11
SGX545 taktet entweder bei 400 oder 640MHz je nach Fall. Wo und wieso sollte ein 545 einem OMAP5 entsprechen?

Ich sage ja ungefähr ein Faktor 4 zwischen SGX545@400Mhz und SGX544/543MP2@400Mhz. Zumindest flops-mässig geht das auf.
Die 640Mhz beim Medfield für SGX545 sind eher ein OC-Wert, laut Datenblatt resultieren da IIRC allein beim GPU-Teil mehr als 2W Mehrverbrauch. Das ist weder für Smartphone noch für Tablet zu gebrauchen.

Ailuros
2012-08-28, 21:29:46
Ich sage ja ungefähr ein Faktor 4 zwischen SGX545@400Mhz und SGX544/543MP2@400Mhz. Zumindest flops-mässig geht das auf.

Ach so war es gemeint; ich lass bloederweise aus dem Text dass die beiden gleich aufliegen. Nein ein Faktor 4x ist es nun auch wieder nicht, nur in manchen Eckfaellen.

Die 640Mhz beim Medfield für SGX545 sind eher ein OC-Wert, laut Datenblatt resultieren da IIRC allein beim GPU-Teil mehr als 2W Mehrverbrauch. Das ist weder für Smartphone noch für Tablet zu gebrauchen.

Sagt wer? Die power islands und anderer Schnickschnack rund um den die betragen ganze 2mm2@32nm welches nicht gerade wenig sind. SGX545 wurde fuer 640MHz ausgelegt und da das Ding sowieso nie fuer smart-phones gedacht war darf es locker etwas mehr verbrauchen. Cedar trail verbraucht nicht wenig als SoC aber fuer einen tablet/netbook SoC doch konkurrenzfaehig was den Stromverbrauch betrifft.

Intel legt IMG's GPU IP stets grosszuegig aus weil sie gerne auf hohe Frequenzen setzen. Sie jagten den SGX535 in der vorigen Generation auf 400MHz hoch waehrend sie dafuer mehr als doppelt so viel die area verplemperten als andere SoC Hersteller mit um einiges niedrigeren Frequenzen.

AnarchX
2012-08-28, 22:10:11
Die Atom E600 Serie, auf die sich die Folie bezieht ,verwendet aber wohl nur die 400MHz Version.

mczak
2012-08-29, 00:54:11
Ach so war es gemeint; ich lass bloederweise aus dem Text dass die beiden gleich aufliegen. Nein ein Faktor 4x ist es nun auch wieder nicht, nur in manchen Eckfaellen.
Naja auch wenn's nicht ganz ein Faktor 4 ist scheint es immerhin relativ nahe dran zu sein.

Sagt wer? Die power islands und anderer Schnickschnack rund um den die betragen ganze 2mm2@32nm welches nicht gerade wenig sind. SGX545 wurde fuer 640MHz ausgelegt und da das Ding sowieso nie fuer smart-phones gedacht war darf es locker etwas mehr verbrauchen. Clover trail verbraucht nicht wenig als SoC aber fuer einen tablet/netbook SoC doch konkurrenzfaehig was den Stromverbrauch betrifft.

Intel legt IMG's GPU IP stets grosszuegig aus weil sie gerne auf hohe Frequenzen setzen. Sie jagten den SGX535 in der vorigen Generation auf 400MHz hoch waehrend sie dafuer mehr als doppelt so viel die area verplemperten als andere SoC Hersteller mit um einiges niedrigeren Frequenzen.
Die Datenblätter enthalten ein paar Angaben zu sowohl den Spannungen wie auch den maximalen (und auch dauerhaften) Strom sowohl der CPU wie auch der GPU, da kann man das mehr oder weniger herauslesen.
z.B. Vergleich von N2600/2650 gegen N2800/N2850, die D2xxx Versionen taugen nicht die haben fixed Voltage für die Grafik.
Die Spannung der GPU steht zwar nicht aber variiert sehr stark von 0.75V bis 1.05V - nimmt man das zusammen mit dem publizierten Strom kann man davon ausgehen dass die 400Mhz eher näher bei 0.75V liegen und die 640Mhz näher bei 1.05V (muss nicht genau gleich sein bei jedem Chip).
Die Zahlen für den N2650 (dual-core 1.7Ghz HT, 400Mhz GPU) gegen N2800 (dual-core 1.86Ghz HT, 640Mhz GPU) sind:
N2650: TDP 3.5W, I_TDC core 2.07A I_TDC gfx 1.252A
N2800: TDP 6.5W, I_TDC core 3.26A I_TDC gfx 2.64A
Der Stromverbrauch der GPU hat sich also mehr als verdoppelt - da MUSS auch die Spannung zugenommen haben (allein durch Takt wäre das ja ansonsten nicht erklärbar).
Die Rechnung ist da relativ einfach gemacht: etwa 0.8V*1.25A = 1W für die 400Mhz Version, etwa 1V*2.64A = 2.64W. Gut das sind jetzt nicht ganz 2W Differenz wie ich behauptet habe ist halt eine Weile her dass ich das mal angeschaut habe (die Spannungen sind natürlich reine Schätzungen meinerseits da wie gesagt bloss steht zwischen 0.75V bis 1.05V bei allen Chips ich denke aber das dürfte ziemlich nahe hinkommen). Für die Energieeffizienz sind die 640Mhz jedenfalls gar nicht gut. Passt jedenfalls ziemlich gut zusammen mit den core-Werten geht man da von relativ geringem Spannungsunterschied und etwa 1V aus gibt das die restlichen 1.4W die zusammen die 3W TDP-Differenz erklären.
Z6xx Versionen mit 640Mhz GPU gibt's jedenfalls keine (manche haben gar nur 320Mhz), selbst der schnellste Chip hat ja nur 3W TDP da liegen 2.6W für die GPU allein definitiv nicht drin.

Ailuros
2012-08-29, 09:38:25
Wenn es ueberhaupt keine 640MHz Variante gibt, dann hat Intel den Stromverbrauch einfach falsch eingeschaetzt. Es gab auch relevante Geruechte dafuer im Hintergrund vor dem launch. Wie dem auch sei das Ding war fuer maximal 640MHz ausgelegt und obwohl ich weiss wie gross der eigentliche GPU block ist will ich es nicht oeffentlich erwaehnen.

Das Ding ist so oder so zu einem ziemlich grossem Flop geworden, dank fehlenden Treibern u.a. Das einzig nutzvolle ist dass die 545 die area unter Intel 32nm ein Anhaltspunkt ist dass IMG mit Rogue mit DX10.1 20x Mal so viel FLOPs reinpacken kann.

Nebenbei kommt fuer meinen Geschmack auch der kommende smart-phone SoC mit dem SGX544MP2@533MHz zu spaet an. Konkurrenzfaehig ja, aber bei weitem nichts besonderes im Vergleich zu dem was die restliche Konkurrenz anbieten wird. IMHO haette im Medfield ein einzelner SGX544@400MHz stecken sollen und fuer Cedartrail ein SGX544MP2 anstatt dem SGX545 Ding fuer welches nur Intel wohl weiss wofuer sie genau DX10.1 brauchten. 544 ist DX9L3 und ist durchaus ausreichend fuer windowsRT oder jegliche andere windows Platform. DX10.1 frisst nur unnoetig zusaetzliche Transistoren die Series5XT in um einiges hoehere Leistung umsetzt. Noch idiotischer nach dem Treiber-flop wo man so oder so nichts mit dem 10.1 Zeug anfangen kann. Typische Marketing-Entscheidungen eben.

Ronny145
2012-11-10, 23:15:57
Hier noch 2 neue Folien, diesmal mit GPU Taktfrequenz.

http://s14.directupload.net/images/121110/5amank4u.png

http://s14.directupload.net/images/121110/88t9pb43.png
http://www.infinitymnc.com/2012/windriver/open_source_summit2012/download/A3_Open_Source_Software_Platform_with_HTML5.pdf


Verspätete Antwort hierauf (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9443763#post9443763).

Ich würde das auch so wie mczak sehen. Da steht explizit beim Speicherinterface 32/64Bit Breite. Vermutlich kann man das als 1x oder 2x 32 Bit (Dual-Channel!) LP-DDR2 für den ultramobilen bzw. embedded Bereich konfigurieren oder eben einen 64Bit single Channel für den (für uns) eher interessanten Bereich mit DDR3.

In einer anderen Folie wird ganz explizit von Dualchannel DDR3L gesprochen. Nur das wie gesagt mit ECC nur Singlechannel möglich ist. Auch in der neuen Folie ist von 2ch 1333 Mhz die Rede bei den beiden schnellsten Varianten. Und die werden auf DDR3L setzen und nicht LP-DDR2.

http://s1.directupload.net/images/121110/qo6hktxc.png

Hübie
2012-11-11, 01:55:49
Öhm. Was ist denn nun neu? =)

Ronny145
2012-11-11, 02:28:31
Wie erwähnt die GPU Taktfrequenz, für die embedded Version jedenfalls. Oder die Fill Rate. Außerdem ist der Terminplan genauer angegeben und es bestätigt den letzten Leak zum Launch Ziel Q4 2013. Davon abgesehen sind die Folien komplett in englisch, so ist das vorzeigbarer.

Hübie
2012-11-11, 02:38:03
Mit sind nur die 700 MHz im Quadcore neu :|

Wo genau liegen denn die Unterschiede von DDR2LP und DDR3L bezogen auf Energiebedarf? Gibt es da Vergleichsgrößen oder kann man sich das irgendwie errechnen? Bin da etwas überfragt.

Ronny145
2012-11-11, 02:42:47
Mit sind nur die 700 MHz im Quadcore neu :|



Keine Ahnung was dir bekannt war oder nicht. Hier jedenfalls wurden noch keine GPU Taktraten gepostet. Was leider noch fehlt sind die Taktraten für Valleyview-M/-D. Müssen ja nicht zwangsläufig die gleichen sein.

Gipsel
2012-11-11, 10:10:13
Keine Ahnung was dir bekannt war oder nicht. Hier jedenfalls wurden noch keine GPU Taktraten gepostet. Was leider noch fehlt sind die Taktraten für Valleyview-M/-D. Müssen ja nicht zwangsläufig die gleichen sein.
Wenn ich das richtig sehe, gelten die Angaben nur für die "extended temperature range" Modelle. Die normalen sollten höher takten können, da sie nicht 110°C mitmachen müssen.

Hübie
2012-11-11, 11:27:57
Ich vermute mal dass Valleyview auch noch keine final specs hat. Finaler Takt ist ja ein recht spätes Stadium.

@Gipsel: Weißt du eigentlich was die "normalen" für Temp-Specs haben? ark.intel schweigt dazu. Datasheets ebenfalls :|

Gipsel
2012-11-11, 12:04:07
Weißt du eigentlich was die "normalen" für Temp-Specs haben? ark.intel schweigt dazu. Datasheets ebenfalls :|
Ich kann mich erinnern, daß in Datenblättern gelesen zu haben. Und das variiert. Das kann von unter 70°C (z.T. tief in den 60ern) für einige Desktop-Versionen bis 90-100°C für einige Mobilversionen reichen (erlaubt kleinere/leisere Kühler), das ist bei AMD übrigens genauso. Die dort erwähnten 110°C sind ja extra für spezielle Industrie- bzw. embedded Anwendungen gedacht.

Edit:
Also ich sehe Temp-Specs auf ark.intel.com, hier z.B. 67°C für den i7-3770 (http://ark.intel.com/products/65719/Intel-Core-i7-3770-Processor-8M-Cache-up-to-3_90-GHz), oder hier 100°C für den i3-2377M (http://ark.intel.com/products/54834/Intel-Core-i3-2377M-Processor-3M-Cache-1_50-GHz) (ist aber nicht direkt vergleichbar, weil 2 verschiedene Temperaturen spezifiziert sind). Die am höchsten getakteten Varianten haben typischerweise die niedrigsten erlaubten Temperaturen. Deswegen ja mein Einwand, daß die normalen Versionen vermutlich höher takten werden.

Hübie
2012-11-11, 12:13:01
Ja - ne, ich meinte explizit die Atom-Modelle. Die Ivy etc. kenn ich in- und auswendig ;D
110°C werden gerne mal erreicht wenn ich da so an unsere (Aluminium-)Presse denke. Im Sommer hat allein die Halle locker 70°C.
Fiel mir auch erst auf als du es erwähntest. Ich denke aber nicht dass die regulären Modelle stark von diesen abweichen werden da oft die Leistung ausreicht und auch TDP eingehalten werden sollte.

Ronny145
2012-11-11, 12:17:36
Wenn ich das richtig sehe, gelten die Angaben nur für die "extended temperature range" Modelle. Die normalen sollten höher takten können, da sie nicht 110°C mitmachen müssen.


Ja das sind die embedded Modelle (Valleyview-I). Die eigentlich für uns wichtigen werden mit Valleyview -M/-D gekennzeichnet. Die Abgrenzung sieht man auch in der Folie: Mainstream und IVI Extended Temp. Embedded takten oftmals niedriger, das ist schon klar.

Gipsel
2012-11-11, 12:19:16
Ja - ne, ich meinte explizit die Atom-Modelle.Bei den Tablet- bzw. Smartphonemodellen fehlt die Angabe tatsächlich (aber die kannst Du als Kunde ja auch nicht direkt kaufen, den OEMs wird Intel das schon mitteilen). Für die normalen steht es schon meist (habe jetzt nur ein paar überprüft, k.A. ob es bei allen steht) da wie z.B. beim D525 (sind 100°C) (http://ark.intel.com/products/49490/Intel-Atom-processor-D525-1M-Cache-1_80-GHz).

Hübie
2012-11-11, 15:08:20
Hm. Thermodynamik ist nicht zwangsläujfig meine Stärke daher frage ich mich wie die neuen Atom-CPUs bei kleinerer Strukturgröße mehr Temperatur vertragen :| Spannungen sind laut CPU-World etwa die gleichen (0.91V - 1.21V) bei den 32nm-Modellen.

Ailuros
2012-11-12, 07:16:52
Ich verlier stets Durchblick mit Intel's roadmaps und codenamen.

Soll jetzt der Nachfolger von Clovertrail mit GenX graphics kommen oder der uebernaechste? Denn ich hab ganz was anderes in Erinnerung.

AnarchX
2012-11-12, 09:25:04
Laut Intel ist Bay Trail der Nachfolger von Cedar Trail und Clover Trail:

http://www.pcgameshardware.de/Windows-Software-122001/News/Clover-Trail-Atom-Z2760-fuer-Windows-8-Tablets-908230/galerie/1861744/
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9539964#post9539964

Wobei natürlich "<6W" etwas viel sind gegenüber einem Z2760 Clover Trail mit ~2W TDP.

Ronny145
2012-11-12, 15:46:30
Der Clover Trail Tablet Nachfolger mit Bay Trail wäre die Type-4 Variante. Die TDP Werte beziehen sich auf Type-3. Wobei die TDP Werte recht sinnlos sind. Beim 2 core High-SKU sind <6W angegeben genauso wie beim 1 core Entry SKU. Das kann unter 6W alles mögliche sein.

Hübie
2012-11-12, 16:59:39
Geht mir auch wie dir Ailuros. Ich muss mir immer wieder Spickzettel machen um nicht immer im Thread zu graben und zu wühlen. Nervig.

Wir gehen mal davon aus dass Intel nicht so blöd ist 6W in ein Tablet zu packen ;D Bis zu 6 Watt klingt nach Taktfreiheit (mit Turbo)...

AnarchX
2012-11-12, 17:07:58
Wenn es um Win8 x86 Tablets geht, dann wäre wohl selbst die 10W Variante nicht so verkehrt. Also für "Surface Pro"-Geräte irgendwo zwischen $599 und $999.

Hübie
2012-11-12, 17:39:46
Bei dem Preis greife ich zu einem Notebook. Flexibler und besseres P/L-Verhältnis. Mit Tablets kann ich nicht arbeiten.

Ailuros
2012-11-12, 17:58:25
Der Clover Trail Tablet Nachfolger mit Bay Trail wäre die Type-4 Variante. Die TDP Werte beziehen sich auf Type-3. Wobei die TDP Werte recht sinnlos sind. Beim 2 core High-SKU sind <6W angegeben genauso wie beim 1 core Entry SKU. Das kann unter 6W alles mögliche sein.

Hier ist die Geschichte wie sie mir bewusst ist und nein sicher bin ich mir ueber gar nichts:

nach Covertrail ergo SGX545@533MHz soll der Nachfolger fuer die GPU einen SGX544MP2@533MHz haben und danach GenX Material wie Du korrekt angedeutet hast in der Vergangenheit.

Es ist nicht nur verdammt merkwuerdig dass (Treiber jetzt mal zur Seite) auf einer roadmap eine DX10.1 GPU von einer DX9L3 GPU gefolgt wird.

Wenn das obrige stimmt ist ein MP2@533MHz genauso laecherlich wenig fuer einen <10W TDP tablet design genauso wie ein 545@533MHz heute im Vergleich zur Konkurrenz. Man muss es ja nicht mir nichts dir nichts zu Apple vergleichen; im Vergleich zu Adreno320, ARM Mali T604 und bald NV Wayne sieht es verdammt schwer aus damit zu konkurrieren.

AnarchX
2012-11-12, 18:06:00
http://www.anandtech.com/show/5592/intel-atom-z2580-z2000

Der Z2580 mit dem 544MP2 ist ein Smartphone-SoC. Da stellt sich die Frage, wann Intel sich mit GenX in die Smartphones traut. Merrifield wird wohl Silvermont-Cores verwenden.

Ronny145
2012-11-12, 18:13:28
Hier ist die Geschichte wie sie mir bewusst ist und nein sicher bin ich mir ueber gar nichts:

nach Covertrail ergo SGX545@533MHz soll der Nachfolger fuer die GPU einen SGX544MP2@533MHz haben und danach GenX Material wie Du korrekt angedeutet hast in der Vergangenheit.

Es ist nicht nur verdammt merkwuerdig dass (Treiber jetzt mal zur Seite) auf einer roadmap eine DX10.1 GPU von einer DX9L3 GPU gefolgt wird.

Wenn das obrige stimmt ist ein MP2@533MHz genauso laecherlich wenig fuer einen <10W TDP tablet design genauso wie ein 545@533MHz heute im Vergleich zur Konkurrenz. Man muss es ja nicht mir nichts dir nichts zu Apple vergleichen; im Vergleich zu Adreno320, ARM Mali T604 und bald NV Wayne sieht es verdammt schwer aus damit zu konkurrieren.


Intel bringt einen Clover Trail refresh nächstes Jahrs fürs Smartphone, das ist bekannt. Bay Trail setzt komplett auf eine hauseigene Gen7 Grafik (na gut, beim Smartphone Silvermont habe ich noch nichts gesehen). Die Frage wäre jetzt höchstens, ob der Clover Trail refresh auch als Tablet Variante ein refresh erhält.

Ailuros
2012-11-12, 18:22:02
Intel bringt einen Clover Trail refresh nächstes Jahrs fürs Smartphone, das ist bekannt. Bay Trail setzt komplett auf eine hauseigene Gen7 Grafik (na gut, beim Smartphone Silvermont habe ich noch nichts gesehen). Die Frage wäre jetzt höchstens, ob der Clover Trail refresh auch als Tablet Variante ein refresh erhält.

Womoeglich schon zumindest so wie es mir vermittelt wurde. Mal absehen.


Da stellt sich die Frage, wann Intel sich mit GenX in die Smartphones traut. Merrfield wird wohl Silvermont-Cores verwenden.

Das wird wohl einige Jahre auf sich warten lassen.

Ronny145
2012-11-12, 18:22:33
Womoeglich schon zumindest so wie es mir vermittelt wurde. Mal absehen.


Wäre ziemlich kurzlebig. Mitte nächtes Jahr der refresh und Ende des Jahres der richtige Nachfolger.

Ronny145
2012-11-19, 21:12:14
Weitere Folien zur Tablet Version.

http://www.abload.de/img/leakintelatombaytrail29cu6.jpg

http://www.abload.de/img/leakintelatombaytrailoae2k.jpg

http://www.abload.de/img/leakintelatombaytrailyrf4r.jpg

http://www.abload.de/img/leakintelatombaytrailp2fh6.jpg
http://mobilegeeks.com/leaked-intel-atom-tablet-roadmap-bay-trail-t-valley-view-t-detailed/


Also offenbar kein Hyper-Threading im next gen Atom. Bestätigt wird hier auch erstmalig in einer Intel Folie die out of order Architektur.

y33H@
2012-11-19, 22:32:39
Kommt spät, sieht aber auf den ersten Blick vernünftig aus.

mboeller
2012-11-20, 07:18:27
Also offenbar kein Hyper-Threading im next gen Atom. Bestätigt wird hier auch erstmalig in einer Intel Folie die out of order Architektur.

Na toll, bis zu 3x schnellere Grafik. 3x Null ist auch Null..... :(

Shink
2012-11-20, 09:17:55
Letzte Grafik:
Bay Trail: 20 days Stand by bei 22nm, Clover Trail: 30 days bei 32nm.
Und beide sind eingeschränkt auf Windows 32 Bit?

Alles in allem haut mich das nicht von den Socken dafür, dass es erst in fast 2 Jahren kommt und man bis dahin den In-Order Atom in 32nm mit der lahmen, inkompatiblen PowerVR-Grafik anbieten kann. Ich frage mich, ob sich das überhaupt lohnt, den zu fertigen.

Die Grafiklösung ist vielleicht nicht besonders schnell, aber kompatibel und mit Open Source-Treibern (die sind schon im Linux-Kernel) ein echter Fortschritt.

Ronny145
2012-11-20, 16:25:22
Na toll, bis zu 3x schnellere Grafik. 3x Null ist auch Null..... :(


Clovertrail hat eine TDP von 2W oder so und der Nachfolger wird im ähnlichen Rahmen bleiben, eine Hochleistungs Spielemaschine würe ich an deiner Stelle nicht erwarten. Schon alleine die Media Funktionalität und Treibersicherheit für Windows ist vom Ivy Bridge Derivat tausendmal besser als der PowerVR Krempel.

AnarchX
2012-11-20, 17:23:35
Aber trotzdem wirkt das alles etwas unbalanciert im Vergleich zur der GPU-Leistung anderer SoCs, zusammen mit den 4 Silvermont Cores.
Die 700MHz Variante liegt wohl auch gerade bei 44,8GFLOPs. Bay Trail-T könnte bei weniger als der Hälfte liegen.

Der A7X (bzw. A8X) im gleichen Zeitraum könnte wohl deutlich über 100/200GFLOPs liegen und soll durch skalare ALUs eine höhere FLOPs-Leistung bieten.

Henroldus
2012-11-23, 13:34:22
es gibt offenbar Bemühungen zur Entwicklungsbeschleunigung bei Intel:
Intel reportedly speeds up development of low-power processors (http://www.digitimes.com/news/a20121122PD218.html)

"Intel is gearing up for a big comeback around mid-2013, accelerating the development of its next-generation, low-power mobile processor, according to sources in the PC industry...."

Ronny145
2012-12-04, 21:24:27
Der Valleyview Nachfolger nennt sich CherryView.

http://s14.directupload.net/images/121204/tqiz3myg.png
http://www.linkedin.com/in/sstudulski
http://pc.watch.impress.co.jp/docs/column/ubiq/20121130_576105.html

Ronny145
2013-01-02, 23:27:44
Also wohl definitiv erst in 2014. Valleyview-M/-D jedenfalls.

http://www.abload.de/img/1xpxpd.png

http://www.abload.de/img/25vl98.png

http://www.abload.de/img/32px1q.png

http://www.abload.de/img/45nl9q.png

http://www.abload.de/img/5silr6.png

http://www.abload.de/img/6sbbob.png

Nightspider
2013-01-28, 02:19:45
Mal grob zur Einordnung, wo würde man denn mit 3x GPU-Speed landen zB. im Vergleich zu einem iPad4 wenn wir die GPU Leistung des iPad4 auf 100% festlegen?

Und gibt es mittlerweile Informationen dazu, wie schnell die komplett neuen Atom-CPU-Kerne werden?

Ich könnte mir übrigens auch gut vorstellen, das Intel zukünftig die Atom-Serie als erstes auf neue Fertigungsverfahren los lässt und das erste 14nm Produkt ein Atom wird, da man bei so kleinen SoCs weniger Abfall hat, wenn die Yieldrate noch nicht stimmt und noch zu viele defekte DICE auftreten.
Mich wunder es zumindest, das Intel das bisher nicht so gemacht hat.

deLuxX`
2013-01-28, 10:35:02
Ich könnte mir übrigens auch gut vorstellen, das Intel zukünftig die Atom-Serie als erstes auf neue Fertigungsverfahren los lässt und das erste 14nm Produkt ein Atom wird, da man bei so kleinen SoCs weniger Abfall hat, wenn die Yieldrate noch nicht stimmt und noch zu viele defekte DICE auftreten.
Mich wunder es zumindest, das Intel das bisher nicht so gemacht hat.
Das könnte ich mir auch aus dem Grund vorstellen, da der Markt sich ja gerade zu diesen tragbaren Geräten hin dreht. Evtl wird dann so ein kleines SoC ja wichtiger als eine Desktop CPU bei der von Jahr zu Jahr eh immer nur 10% Leistungssteigerung hinzukommen.

robbitop
2013-01-28, 10:41:03
Out of order Architektur und bis zu 2,7 GHz? Ich sehe schon, dass Intel im SFF ggü. AMD wieder das gleiche tut wie seit 2006 im Desktopmarkt...

S940
2013-01-28, 11:23:41
Und gibt es mittlerweile Informationen dazu, wie schnell die komplett neuen Atom-CPU-Kerne werden?Mir ist nichts bekannt. Man weiss nur, dass es OOO-Kerne werden, so schlecht können die gar nicht sein.
Ich könnte mir übrigens auch gut vorstellen, das Intel zukünftig die Atom-Serie als erstes auf neue Fertigungsverfahren los lässt und das erste 14nm Produkt ein Atom wird, da man bei so kleinen SoCs weniger Abfall hat, wenn die Yieldrate noch nicht stimmt und noch zu viele defekte DICE auftreten.
Mich wunder es zumindest, das Intel das bisher nicht so gemacht hat.
Einfache Erklärung, Finfets sind einerseits ziemlich teeeuer, andrerseits ist das Low-End Marktsegment aber durch Niedrigpreise verwöhnt. Das rentiert sich nicht ohne billige Fertigung. Deswegen wartet intel da. Ende 2013 wollen sie bereits mit 14nm für die teuren Chips anfangen, dadurch werden dann 22nm Kapazitäten frei.
Das könnte ich mir auch aus dem Grund vorstellen, da der Markt sich ja gerade zu diesen tragbaren Geräten hin dreht. Evtl wird dann so ein kleines SoC ja wichtiger ...
Das schon, aber für so nen SoC kann man halt keine ~200 Euro verlangen.

Out of order Architektur und bis zu 2,7 GHz? Ich sehe schon, dass Intel im SFF ggü. AMD wieder das gleiche tut wie seit 2006 im Desktopmarkt...Jupp, damit wird man wohl rechnen müssen, insbesondere da Intel den Fertigungsjoker spielen kann. 28nm TSMC bulk gegen 22nm Intel Finfet ist ne eindeutige Geschichte - zumindest aus Leistungssicht. Aus Preis/Leistungssicht könnte es immer noch nen Vorteil für AMD und der billigen TSMC-Produktion geben, wobei intel im dem Fall aber genug Geld hat um die Produkte Notfalls zum Selbstkostenpreis zu verkaufen oder gar mit Verlust.

Leistungsmäßig könnte AMD nur dagegen halten, wenn sie Beema 2014 von GF in FD-SOI orderten. Dann wärs wieder ne spannende Sache, billigere Produktion und schnellerer Chip mit weniger Verbrauch ;-)

Aber leider gibts bisher noch nirgends irgendwelche Quellen, dass AMD überhaupt FD-SOI haben will, nur Indizien.

Ronny145
2013-01-28, 11:46:24
Und gibt es mittlerweile Informationen dazu, wie schnell die komplett neuen Atom-CPU-Kerne werden?



IPC meinst du? Dazu gibt es nur die CPU-world Meldung.


The cores use Silvermont out-of order microarchitecture, that is expected to be up to 35% faster per clock than existing 32nm Saltwell architecture.
http://www.cpu-world.com/news_2013/2013011801_Details_of_Intel_Rangeley_Atom_processors.html


Einfache Erklärung, Finfets sind einerseits ziemlich teeeuer


Laut Intel 2-3% Mehrkosten. Würde ich nicht als ziemlich teuer bezeichnen. Teuer wäre höchstens die ganze Investition in kleinere Prozesse.

fondness
2013-01-28, 11:50:51
Out of order Architektur und bis zu 2,7 GHz? Ich sehe schon, dass Intel im SFF ggü. AMD wieder das gleiche tut wie seit 2006 im Desktopmarkt...

Out-of-Order hat auch ein A9 und der verliert selbst gegen einen Atom. Die Performanceangaben finde ich jetzt nicht so beeindrucken. Intel spricht von 50-100% mehr Performance ggü. dem heutigen Atom. Alleine durch die doppelte Core-Anzahl hat man marketingetechnisch eigentlich schon 100% mehr Leistung, mal abwarten.

/Edit: Und wenn die Angabe von Ronny oben stimmt mit nur "bis zu 35% mehr IPC" wie ein Atom wäre das noch immer meilenweit unter einem Jaguar.

Ronny145
2013-01-28, 11:56:20
Alleine durch die doppelte Core-Anzahl hat man marketingetechnisch eigentlich schon 100% mehr Leistung, mal abwarten.


Hätte man nicht. Der jetzige Atom hat SMT was einiges bringt im multithread.

fondness
2013-01-28, 12:01:07
Hätte man nicht. Der jetzige Atom hat SMT was einiges bringt im multithread.

Silvermont nicht mehr?

Ronny145
2013-01-28, 12:04:15
Silvermont nicht mehr?


Nein. Ist doch schon lange bekannt.

robbitop
2013-01-28, 12:06:29
Out-of-Order hat auch ein A9 und der verliert selbst gegen einen Atom. Die Performanceangaben finde ich jetzt nicht so beeindrucken. Intel spricht von 50-100% mehr Performance ggü. dem heutigen Atom. Alleine durch die doppelte Core-Anzahl hat man marketingetechnisch eigentlich schon 100% mehr Leistung, mal abwarten.

/Edit: Und wenn die Angabe von Ronny oben stimmt mit nur "bis zu 35% mehr IPC" wie ein Atom wäre das noch immer meilenweit unter einem Jaguar.
Da hast du schon recht. Aber wir erinnern uns, dass es Intel ist, über die wir hier sprechen. Da wird ein OoO Nachfolger ganz sicher schneller sein als der in order Vorgänger.
35 % sind moderat.
Hoffentlich ist AMD mit Beema in 20 nm (?) nicht so langsam. In dem Markt darf AMD den Anschluss nicht verlieren.

RLZ
2013-01-28, 12:27:24
Hoffentlich ist AMD mit Beema in 20 nm (?) nicht so langsam. In dem Markt darf AMD den Anschluss nicht verlieren.
Da habe ich nicht viel Hoffnung.
AMD hat sich diesmal einen verdammt schweren Markt ausgesucht. Es gibt mit Qualcomm und Intel zwei absolute Schwergewichte. Dazu kämpft Intel diesmal um seine zukünftige Existenz. Damit sind sie noch ein ganz anderer Gegner als ein Intel, das dank 80% Marktanteil die Füße hochlegen kann.

Undertaker
2013-01-28, 13:07:12
Einfache Erklärung, Finfets sind einerseits ziemlich teeeuer, andrerseits ist das Low-End Marktsegment aber durch Niedrigpreise verwöhnt.

Da hab ich dich doch schon letztens korrigiert, mehrfache Wiederholung macht es nicht richtiger. Wie Ronny auch schon sagte: 2-3% Mehrkosten. SOI: 10-20%. Außerdem muss man beachten, das bei AMD nunmehr auch die Gewinnspanne des Auftragsfertigers die Preise antreibt.

S940
2013-01-28, 15:40:22
Laut Intel 2-3% Mehrkosten. Würde ich nicht als ziemlich teuer bezeichnen. Teuer wäre höchstens die ganze Investition in kleinere Prozesse.Die 2-3% von Intel beziehen sich nur auf den Prozess. Dazu kommen schlechtere Yields und komplizierteres Design.
Yields sollten für nen sicherlich kleinen Atom-Chip jetzt kein Problem sein, die werden ggü. den aktuellen Quad Ivys natürlich besser, bleiben aber noch die Design-Kosten.

Edit:
Abgesehen davon, wenns wirklich so ganz toll und billig wäre, gölte Nightspiders Verwunderung:
Mich wunder es zumindest, das Intel das bisher nicht so gemacht hat.

Undertaker
2013-01-28, 16:17:05
Die 2-3% von Intel beziehen sich nur auf den Prozess. Dazu kommen schlechtere Yields und komplizierteres Design.
Yields sollten für nen sicherlich kleinen Atom-Chip jetzt kein Problem sein, die werden ggü. den aktuellen Quad Ivys natürlich besser, bleiben aber noch die Design-Kosten.

Was hat das mit FinFETs zu tun? Ich wüsste nicht, dass die die Yields verschlechtern oder das Design verkomplizieren.


Abgesehen davon, wenns wirklich so ganz toll und billig wäre, gölte Nightspiders Verwunderung:

Das ist relativ einfach. Mit den Atoms, die bis vor kurzem nahezu ausschließlich in Netbooks zum Einsatz kamen, macht man viel weniger Gewinn pro Wafer, als wenn man daraus Core- oder Xeon-Chips produziert. Solange die Ressourcen begrenzt sind, wird also nach wirtschaftlichen Gesichtspunkten entschieden, was in welchem Prozess gefertigt wird.

Ronny145
2013-01-28, 16:43:35
Die 2-3% von Intel beziehen sich nur auf den Prozess. Dazu kommen schlechtere Yields und komplizierteres Design.

Zu den beiden letzten Punkten bräuchte es Quellen. Kompliziertes Design ist eine wischiwaschi Aussage. Eine neue Fertigungstechnik ist sicherlich im allgemeinen schwieriger zu meistern. Und wenn du von ziemlich teuer sprichst, würde ich das ganze gerne etwas genauer aufgeschlüsselt haben.


Edit:
Abgesehen davon, wenns wirklich so ganz toll und billig wäre, gölte Nightspiders Verwunderung:

Die Gewinnmarge ist bei den Billigteilen viel geringer. Aus dem Grund kommen ja auch die Celeron/Pentium ganz zum Schluss im kleineren Verfahren. Die Kapazität ist am Anfang begrenzt, auch Intel kann nicht das ganze lineup sofort umstellen.

S940
2013-01-28, 18:34:55
Zu den beiden letzten Punkten bräuchte es Quellen. Kompliziertes Design ist eine wischiwaschi Aussage. Eine neue Fertigungstechnik ist sicherlich im allgemeinen schwieriger zu meistern.
Lol ... wischiwaschi. Bitte seriös bleiben, ok?
Natürlich sind 3D-Transistoren ganz was anderes als 2D, hat letztens auch erst ein ARM-Ingenieur erwähnt:
For design portability, Aitken said that as an ARM employee who spends a lot of time porting designs, his view is “nothing ports anywhere, ever”, but in this case he would give the advantage to FD-SOI for its closeness to the bulk process. For finFETs, he added, you can’t even port schematics to them – it takes a design rethink.
http://www.techdesignforums.com/blog/2012/12/11/fd-soi-vs-finfet/

Zwar ist ARM mittlerweile auch eng mit GF verbunden, aber ich glaube kaum dass man deswegen die Aussage anzweifeln muss, der Unterschied zw. 2D und 3D sollte wirklich jedem geläufig sein.

Die Gewinnmarge ist bei den Billigteilen viel geringer. Aus dem Grund kommen ja auch die Celeron/Pentium ganz zum Schluss im kleineren Verfahren.
Sag ich doch:
Einfache Erklärung, Finfets sind einerseits ziemlich teeeuer, andrerseits ist das Low-End Marktsegment aber durch Niedrigpreise verwöhnt. Das rentiert sich nicht ohne billige Fertigung.
Bevor hier der Flameware losgeht können wir uns gerne darauf einigen, dass der 22nm Prozess teuer ist, egal ob jetzt aufgrund von Finfets oder nicht. Unabhängige Aussagen über Intels Finfetkosten gibts sowieso nicht. Ich zweifle Aussagen einer Firma X über Firma X immer an, aber wers glauben will, soll es tun. Ich kann das Gegenteil auch nicht 100%ig beweisen. Selbst wenn ich was allgemeines zu Finfets fände, hätte das keine Aussagekraft über Intels Prozess.
Mutig finde ich im Zusammenhang auf alle Fälle die Aussage, dass FD-SOI ~10% teurer wäre, wobei in allen anderen Publikationen steht, dass man mit FD-SOI mehrer Prozess-Schritte einsparen kann:
http://www.abload.de/img/benefitse3u99.jpg

Die Kalkulation wie sie auf die jeweiligen Zahlen gekommen sind würde mich wirklich interessieren, aber wir werden es sicherlich nie erfahren.

Undertaker
2013-01-28, 19:03:36
Natürlich sind 3D-Transistoren ganz was anderes als 2D, hat letztens auch erst ein ARM-Ingenieur erwähnt

Es geht ja auch nicht darum, ein bestehendes Design unverändert auf FinFET umzusetzen. Bei einem neuen Design kann man entsprechend veränderte Entwurfsgrundsätze von Beginn an einfließen lassen.

Bevor hier der Flameware losgeht können wir uns gerne darauf einigen, dass der 22nm Prozess teuer ist, egal ob jetzt aufgrund von Finfets oder nicht.

Jeder neue Prozess ist erstmal teuer, ob es nun 28nm bei GF oder 22nm bei Intel sind. Aber: Ab einem gewissen Punkt kompensieren die Flächeneinsparungen die Umstellungskosten. Hinzu kommt der unschätzbare Vorteil, komplexere und sparsamere Chips bauen zu können, was sich direkt in höhere Verkaufspreise ummünzen lässt.

All das hat mit der anfänglichen Frage, warum der Atom prozesstechnisch bisher so vernachlässig wurde, aber wenig zu tun. Wie schon mehrfach erwähnt: Das geben die Kapazitäten einfach nicht her bzw. haben margenträchtigere Produkte da die höhere Priorität.

Nightspider
2013-01-28, 21:29:15
Haben die FinFETs jetzt eigentlich irgendwo die angekündigte riesen Verbesserung gebracht?

Ivy Bridge war ja jetzt nicht wirklich stromsparender, als man es mit einem neuen Fertigungsprozess sowieso erwartet hätte oder?

Bei den geannten Vorteilen von FinFETs habe ich persöhnlich zumindest mit deutlich größeren Einsparungen gerechnet bzw. mir höheren OC-Potential erhofft. Aber alles blieb aus.


Manche glauben ja das Ivy Bridge nur ein Testlauf war und erst mit Haswell die Vorteile der 3D-Transistoren richtig ausgespielt werden. Aber ob da etwas dran ist?

Undertaker
2013-01-28, 21:39:45
Tri-Gate hat vor allem bei niedrigen Spannungen seine Vorteile - schau also mal auf die ULV-CPUs. ;) Dazu gibt's auch ein paar hübsche Folien bei Intel.

S940
2013-01-28, 22:03:19
Haben die FinFETs jetzt eigentlich irgendwo die angekündigte riesen Verbesserung gebracht?
Intel hat etwas getrixt, aktuell sind es keine 100%ig "echten" Finfets, anstatt ner sauberen, senkrechten Kante hat der Transistor eher Trapezform:
http://www.eetimes.com/electronics-news/4373195/Intel-FinFETs-shape-revealed

Deswegen verlieren sie 10-15% der Leistung meint ein Professor:
http://www.electronicsweekly.com/blogs/david-manners-semiconductor-blog/2012/07/has-intel-got-it-wrong-on-finf.html

Ohne Grund wird Intel das aber sicherlich nicht machen, soviel ist ganz sicher klar. Nachdem es nicht positiv für die Leistung ist, muss es eine Maßnahme zur Yieldsteigerung oder allgemein eine Maßnahme zur Kostensenkung sein.

Manche glauben ja das Ivy Bridge nur ein Testlauf war und erst mit Haswell die Vorteile der 3D-Transistoren richtig ausgespielt werden. Aber ob da etwas dran ist?Ja, davon kann man ausgehen. Finfets sind eben nagelneu und eine neue Designherausforderung. Bis da die ganzen Tools und Libraries den gleichen Tuningstand wie für die alten 2D-Transistoren haben dauert es sicherlich ein paar Generationen. Mindestens eine. Auf Haswell darf man schon gespannt sein :)

Henroldus
2013-02-12, 13:14:01
angeblich neue Infos zu Intels 22-nm-Atoms
Specifications of embedded ValleyView processors (http://www.cpu-world.com/news_2013/2013021101_Specifications_of_embedded_ValleyView_processors.html)

Entry-level SoC will have 1 CPU core, 1.3 GHz - 1.6 GHz clock rate, and GPU, clocked at 400 MHz. Mid-class SKU will have 2 cores, 1.2 GHz - 1.5 GHz frequency, and 533 MHz GPU speed. High SKU will also have 2 cores, and higher 1.5 GHz - 1.7 GHz clock speed. Its graphics unit will operate at 667 MHz. Premium SKU will have 4 CPU cores, 1.7GHz - 2GHz clock speed, and 700 MHz GPU frequency. Integrated memory controller on entry-level and mid SKUs will have only one channel, whereas high and premium SKUs will have two memory channels.

Ronny145
2013-02-12, 14:04:03
Prinzipiell nichts neues. Zum embedded hatten wir hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9539964#post9539964) schon Infos.

robbitop
2013-02-12, 14:39:57
Oha Dual Channel beim Valley View. Ich bin gespannt, wann das in die Bobcat-Derivat-SoCs von AMD kommt.

Ronny145
2013-03-21, 02:30:36
Product Name: Next Gen Intel® Atom™ processor for tablets (Bay Trail -T)
Product Introduction Date: August-October 2013 (Date/Time TBD)
http://webcache.googleusercontent.com/search?q=cache:TbWegjv5kXAJ:www.intel.it/content/dam/www/secure/emea/distributor/files/ilu-full-package.pdf+&cd=2&hl=de&ct=clnk&gl=de


Die Tablet Variante offenbar für dieses Jahr geplant.

S940
2013-03-21, 14:54:56
http://webcache.googleusercontent.com/search?q=cache:TbWegjv5kXAJ:www.intel.it/content/dam/www/secure/emea/distributor/files/ilu-full-package.pdf+&cd=2&hl=de&ct=clnk&gl=de


Die Tablet Variante offenbar für dieses Jahr geplant.

Interessantes File. Weisst Du was damit gemeint sein könnte:

What’s Public (OEM/
ALLOWED to reference) /
What’s Not
OK for public disclosure: New architecture (22nm), Holiday 2013 availability, multi-OS
support, name/ system features, price ranges for future systems, intent to offer future systems
NOT OK for public disclosure: Processor number, frequency, pricing, performance, features
not disclosed by Intel, disclosure of availability, no discussion of “FFRD” or “Scale Program”

FFRD, Scale?

YfOrU
2013-03-21, 15:57:57
-> Form Factor Reference Design

Beispiel Medfield (Intel AZ210):
http://www.anandtech.com/show/5578/orange-to-sell-cobranded-intel-smartphone-reference-design-directly-to-customers-codename-santa-clara
http://www.anandtech.com/show/5770/lava-xolo-x900-review-the-first-intel-medfield-phone
http://www.theverge.com/2012/8/22/3259475/megafon-mint-intel-medfield-announcement

Dabei handelt es sich um von Intel vollständig entwickelte Referenzdesigns welche von Kunden adaptiert bzw. auch unter eigenen Label verkauft werden können. Spart gegenüber klassischen Dev Plattformen bezogen auf eine Markteinführung natürlich einiges an Zeit. Das Intel AZ210 FFRD lässt Intel bei Gigabyte fertigen.

fondness
2013-04-12, 10:37:16
Der Smartphone SoC "Merrifield" wurde jetzt von Intel offiziell für Q1/2014 bestätigt. Die Tablet-Variante "Bay Trail" für Q4/2013:
http://www.computerbase.de/news/2013-04/intels-neuer-smartphone-soc-merrifield-ab-q1-2014/

y33H@
2013-04-12, 12:23:27
Leider verlinkt Volker fast nie die PDFs ... welche ist es?

https://intel.activeevents.com/bj13/scheduler/catalog.do

Ronny145
2013-04-12, 12:35:30
Leider verlinkt Volker fast nie die PDFs ... welche ist es?

https://intel.activeevents.com/bj13/scheduler/catalog.do


Die haben es generell nicht so mit Quellen angeben. Wenn man was im Original nachlesen möchte, was wegen falscher Newsschreiber Interpretationen häufig unabdingbar ist, muss man erst selber suchen.

Ronny145
2013-04-24, 17:41:00
http://s7.directupload.net/images/130424/yn5v26d4.png
http://www.intel.com.br/content/dam/www/secure/intelligent-systems/privileged/documents/guides/intel-fcbga10-package-manufacturing-presentation.pdf


Avoton ist 107 mm² groß. Avoton wird überall mit 8 Kernen angegeben. Valleyview mit seinen 4 Kernen müsste demnach etwas drunter liegen, falls es sonst keine Unterscheidung gibt.

Ronny145
2013-05-06, 19:21:14
Silvermont Vergleich mit Saltwell (gemischter workload mit u.a. Browser Benchmarks, kein showcase Benchmark laut Intel)

http://s14.directupload.net/images/130506/5a26vcws.png


2C Silvermont Smartphone und unten 4C Silvermont Tablet Vergleich mit verschiedenen ARM Konkurrenten.

http://s7.directupload.net/images/130506/mau8dsx4.png

http://s14.directupload.net/images/130506/b5qfr6vi.png


http://www.computerbase.de/news/2013-05/intel-stellt-neue-silvermont-cpu-architektur-vor/
http://www.anandtech.com/show/6936/intels-silvermont-architecture-revealed-getting-serious-about-mobile
http://www.pcper.com/reviews/Processors/Intel-Silvermont-Architecture-Updates-Atom-Phones-and-Tablets
http://techreport.com/review/24767/the-next-atom-intel-silvermont-architecture-revealed
http://www.tomshardware.com/reviews/atom-silvermont-architecture,3499.html

mczak
2013-05-06, 21:18:26
Die Werte sehen doch richtig gut aus. Mich hätte interessiert wie der im Vergleich zu Jaguar aussieht aber darüber findet man leider nix. Wenn man sich das so ansieht ist ja da die Silvermont-Architektur schon fast identisch zu Jaguar :-).

Knuddelbearli
2013-05-06, 21:36:03
Es sind Herstellerwerte da sieht es immer gut aus sogar der Bulldozer oder der Pentium 4

Ronny145
2013-05-06, 21:57:26
Die Werte sehen doch richtig gut aus. Mich hätte interessiert wie der im Vergleich zu Jaguar aussieht aber darüber findet man leider nix. Wenn man sich das so ansieht ist ja da die Silvermont-Architektur schon fast identisch zu Jaguar :-).


Die Effizienz wird Jaguar nicht erreichen. Silvermont dürfte in einer anderen Liga spielen. Viel geringere Leistungsaufnahme bei besserer Performance (wenn sich die 2+ Ghz bewahrheiten). Übrig bleiben dürfte für Jaguar ein gewisser IPC Vorteil. Aber da Silvermont deutlich höher taktet, ist das letztendlich egal. Mit der neuen tick-tock Strategie vom Atom wird das für mich nur eine Frage der Zeit sein, bis Intel den Smartphone/Tablet Markt dominiert.

YfOrU
2013-05-06, 22:06:55
Die Werte sehen doch richtig gut aus. Mich hätte interessiert wie der im Vergleich zu Jaguar aussieht aber darüber findet man leider nix. Wenn man sich das so ansieht ist ja da die Silvermont-Architektur schon fast identisch zu Jaguar :-).

Mit Blick auf das was Intel bei CT bzw. CT+ (32nm) noch auf Basis des alten Atom abliefern konnte ist schon ziemlich lange klar das ein komplett neues Design für AMD unter normalen Umständen nicht erreichbar sein kann. Dürfte übrigens auch für A15 (28nm) gelten.

Jaguar ist für AMD ein wichtiger Schritt aber leider wie so oft sehr viel später am Markt als es hätte sein sollen. Ursprünglich wäre AMD weit über ein Jahr ohne (Intel) Konkurrenz gewesen.

Nightspider
2013-05-06, 22:11:45
Nunja das sind bisher ja nur CPU Benchmarks.
QualComm und Co. schmeißen ja auch aller 6 Monate neue SoCs auf den Markt mit neuen, schnelleren GPUs.

Wenn die GPU der Silvermont SoCs auch an der Spitze steht, sieht es gut aus für Intel.

YfOrU
2013-05-06, 22:13:27
Nunja das sind bisher ja nur CPU Benchmarks.
QualComm und Co. schmeißen ja auch aller 6 Monate neue SoCs auf den Markt mit neuen, schnelleren GPUs.

Wenn die GPU der Silvermont SoCs auch an der Spitze steht, sieht es gut aus für Intel.

Dafür (GPU Spitze) wird es nicht reichen aber die rote Laterne muss Intel trotzdem nicht mehr tragen. Für Intel ist die kommende Generation in jeden Fall ein Quantensprung und gleichzeitig eine Ausgangsbasis bei der jeder Konkurrent den weiteren Verlauf kennt -> gnadenlose Entwicklungszyklen.

Nightspider
2013-05-06, 22:43:42
Intels Tick-Tock-Modell, d.h. die wechselseitige Überarbeitung von Architektur und Fertigungstechnologie, kommt jetzt auch beim Atom zum Einsatz; aber erst einmal muss der Rückstand aufgeholt werden. Im kommenden Jahr will Intel die Konkurrenz eingeholt haben und mit ersten 14-nm-Produkten als „Silvermont“-Refresh, Codename „Airmont“, im Handel stehen. Wie bei normalen CPUs üblich folgt auf einen Fertigungs-Shrink eine neue Architektur in gleicher 14-nm-Fertigung, die ab 2015 verfügbar ist – so der Plan.
http://www.computerbase.de/news/2013-05/fahrplan-und-termine-fuer-intels-kommende-atom-cpus/

Letztens haben hier doch welche behauptet, das 14nm in Form von Airmont 2014 noch nicht auf den Markt kommen würde.

Ronny145
2013-05-06, 23:31:55
Was heißt behauptet. Airmont steht auf der Desktop Roadmap für H1 2015 drin. Das muss für Tablet/Server nicht zwingend gelten. Silvermont kommt ja auch zuerst für Server und Tablet dieses Jahr. Ich gehe von 1-1,5 Jahre aus. Wäre in etwa der normale tick-tock Rhythmus.


50% mehr IPC.


Intel claims that the core and system level microarchitectural improvements will yield 50% higher IPC for Silvermont versus the previous generation.
http://www.realworldtech.com/silvermont/8/

mczak
2013-05-07, 00:58:08
Dafür (GPU Spitze) wird es nicht reichen aber die rote Laterne muss Intel trotzdem nicht mehr tragen. Für Intel ist die kommende Generation in jeden Fall ein Quantensprung und gleichzeitig eine Ausgangsbasis bei der jeder Konkurrent den weiteren Verlauf kennt -> gnadenlose Entwicklungszyklen.
Rein theoretisch sind die 4 EUs von ValleyView schon nicht so viel. Aber eigentlich zählt ja sowieso ausschliesslich Energieeffizienz und da könnte es für ziemlich weit vorne reichen - wenn da intel aufgrund des Herstellungsprozesses sagen wir mal 20% Vorteil hat müssen das die anderen Hersteller erst mal wieder mit effizienteren Architekturen wettmachen (der Tegra 4 z.B. sollte das eigentlich locker hinkriegen auch wenn dessen Effizienz zugunsten ziemlich fragwürdiger Massnahmen geht - sind doch Datenpfade, Multiplizierer etc. deutlich schlanker weil da nur mit FP20 gerechnet wird) . Ich wage nicht mal zu raten wie hoch der Maximaltakt der Grafikeinheit ist und ob der allenfalls überhaupt etwas zu tun hat mit dem Takt der durchschnittlich erreicht wird. Jedenfalls sind gerade bei Smartphones (weniger bei Tablets) die Probleme mit Stromaufnahme bzw. Wärme offensichtlich wenn man z.B. bei anandtech dann die Performance im und ausserhalb des Kühlschranks misst und da z.T 20% Unterschied herauskommen.

Shink
2013-05-07, 06:56:03
Dafür (GPU Spitze) wird es nicht reichen aber die rote Laterne muss Intel trotzdem nicht mehr tragen.
Hmm... also zuviel erwarten würde ich mir von der Intel-GPU dann auch wieder nicht. Auf welcher Basis soll die nochmal sein?
An die GPU der alten Brazos reicht nicht einmal ein aktueller Ivy Bridge Pentium ran - der Valley View dürfte da ja noch um einiges mehr beschnitten sein, oder?

YfOrU
2013-05-07, 07:55:35
Hmm... also zuviel erwarten würde ich mir von der Intel-GPU dann auch wieder nicht. Auf welcher Basis soll die nochmal sein?

Gen 7 (IB) - 4 EUs.


An die GPU der alten Brazos reicht nicht einmal ein aktueller Ivy Bridge Pentium ran - der Valley View dürfte da ja noch um einiges mehr beschnitten sein, oder?

Die IB GT1 (6 EUs) sehe ich schon grob im Bereich einer HD 6310. Der Vergleich ist aber etwas schwierig da Brazos in einigen Benchmarks im CPU Limit hängt.
Wobei wir hier teilweise über ganz andere TDP Einstufungen reden. Die reale Leistung wird zwangsläufig entsprechend abhängig vom Einsatzbereich (Smartphone - Tab) ausfallen.

Es bleibt am Ende immer die Frage was unterhalb einer bestimmten TDP noch real übrig bleibt und das ist auch bei Zacate nicht viel (halbe GPU Taktfrequenz bei 5W).

Shink
2013-05-07, 08:07:48
Wobei wir hier teilweise über ganz andere TDP Level reden.
Das ist schon klar (wenn auch das neue Kabini/Temash-Zeug von AMD nochmal 20% schneller ist und immerhin weniger TDP haben soll)
Was sind denn nochmal genau die Zahlen beim Valley View?
€: 1,5 Watt für was genau?

YfOrU
2013-05-07, 11:16:45
Das ist schon klar (wenn auch das neue Kabini/Temash-Zeug von AMD nochmal 20% schneller ist und immerhin weniger TDP haben soll)
Was sind denn nochmal genau die Zahlen beim Valley View?
€: 1,5 Watt für was genau?

Max core power

Intel wählt in dem Vergleich 1W bei Smartphone und 1,5W bei Tablet. Das ist auch recht realistisch. Wobei n*Max Core Power praktisch die TDP unter CPU Last definiert (reine CPU Last -> CPU bekommt die gesamte TDP des SoCs zur Verfügung).

Ailuros
2013-05-07, 11:26:21
Dafür (GPU Spitze) wird es nicht reichen aber die rote Laterne muss Intel trotzdem nicht mehr tragen. Für Intel ist die kommende Generation in jeden Fall ein Quantensprung und gleichzeitig eine Ausgangsbasis bei der jeder Konkurrent den weiteren Verlauf kennt -> gnadenlose Entwicklungszyklen.

Nach den letzten cross-platform benchmarks sieht es nicht danach aus als ob Intel's integrierte tablet GPU selbst das iPad4 schlagen kann.

Klar ist es ein Quantensprung von der CPU Seite von Intel nur liegt der Schwerpunkt fuer zukuenftige SFF SoCs eher auf der GPU als auf der CPU Seite.

Zu guter letzt hoere/lese ich fuer Intel's "Quantenspruenge" im SFF Markt schon wie viele Jahre genau oder noch besser wie oft in der Vergangenheit genau?

Die echte Zukunft fuer tablets liegt in Apple/Amazon's Haenden und das hat weniger mit OS bzw. hw zu tun, welches natuerlich auch schon des oefteren erwaehnt wurde.

YfOrU
2013-05-07, 11:45:06
Nach den letzten cross-platform benchmarks sieht es nicht danach aus als ob Intel's integrierte tablet GPU selbst das iPad4 schlagen kann.

Davon gehe ich auch nicht aus aber eine ordentliche Leistung bei vernünftigen Feature Set ist vorhanden.


Klar ist es ein Quantensprung von der CPU Seite von Intel nur liegt der Schwerpunkt fuer zukuenftige SFF SoCs eher auf der GPU als auf der CPU Seite.

Sehe ich auch so. Kleine IPC und Effizienzsteigerungen und primär GPU.


Zu guter letzt hoere/lese ich fuer Intel's "Quantenspruenge" im SFF Markt schon wie viele Jahre genau oder noch besser wie oft in der Vergangenheit genau?

Das Paket stimmt endlich und siehe nächster Absatz ->


Die echte Zukunft fuer tablets liegt in Apple/Amazon's Haenden und das hat weniger mit OS bzw. hw zu tun, welches natuerlich auch schon des oefteren erwaehnt wurde.

Microsoft. Windows 8 ist ein ordentliches Tablet OS und dem hat bisher der passende Unterbau gefehlt. Den gibt es jetzt dann sowohl von AMD als auch von Intel. Die würde ich nicht so einfach abschreiben - auch bezogen auf das MS Ökosystem.

Shink
2013-05-07, 12:06:30
Max core power

Intel wählt in dem Vergleich 1W bei Smartphone und 1,5W bei Tablet. Das ist auch recht realistisch. Wobei n*Max Core Power praktisch die TDP unter CPU Last definiert (reine CPU Last -> CPU bekommt die gesamte TDP des SoCs zur Verfügung).
Heißt das 4x1,5W = 6 Watt bei einem Quadcore?
Die neuen Temash-Dinger sollen doch auch 6 Watt brauchen für den Quadcore, oder?

Ailuros
2013-05-07, 12:09:23
Microsoft. Windows 8 ist ein ordentliches Tablet OS und dem hat bisher der passende Unterbau gefehlt. Den gibt es jetzt dann sowohl von AMD als auch von Intel. Die würde ich nicht so einfach abschreiben - auch bezogen auf das MS Ökosystem.

Windows fuer tablets ist zwar im Aufschwung aber ich bezweifle dass die ganze Affaere bis jetzt so gut ging wie es sich Microsoft selber gewuenscht haette. Der Haken ist eben dass M$ erstmal ein anstaendiges tablet Oekosystem auf die Beine stellen muss und selbst nach dem RT bzw. Surface PRO ramtamtam liess das Resultat nur zu wuenschen uebrig.

Ich bin unter den ersten die auf ein anstaendiges windows tablet sofort greifen wuerden, aber alles was ich bis jetzt gesehen habe (egal ob moechtegern hybrides ultrabook/tablet oder umgekehrt) war die Investition aus mehreren Gruenden nicht wert.

Ausser Microsoft moebelt grandios auf fuer die absebahre Zukunft, fehlt eben leider die wichtigste Komponente des "Pakets" und am schlimmsten fuer Intel ist eben dass es nicht unter ihrer direkten Kontrolle liegt.

Ronny145
2013-05-07, 12:29:00
Heißt das 4x1,5W = 6 Watt bei einem Quadcore?
Die neuen Temash-Dinger sollen doch auch 6 Watt brauchen für den Quadcore, oder?


Der Tablet Soc hat eine TDP von unter 3W laut Roadmap. Ich tippe mal drauf das Intel die TDP vom Vorgänger anpeilt. Verbessern dürfte Intel Idle und Teillast. Maximalverbrauch war ja mit dem alten Atom schon nicht das Problem. Der Temash Quad Soc hat 8W afaik. Wie gesagt liegt Intel in einer ganz anderen TDP Dimension. Umso erstaunlicher wäre es, wenn die Silvermont Kerne schneller rechnen, was bei 4x2.1 Ghz laut Roadmap so gut wie sicher wäre.

Shink
2013-05-07, 12:52:34
Der Temash Quad Soc hat 8W afaik. Wie gesagt liegt Intel in einer ganz anderen TDP Dimension. Umso erstaunlicher wäre es, wenn die Silvermont Kerne schneller rechnen, was bei 4x2.1 Ghz laut Roadmap so gut wie sicher wäre.
8W bei Turbo, 5.9W ohne Turbo.
Erstaunlich wäre es nicht, wenn Silvermont schneller rechnet, da kleiner gefertigt und GPU schlechter, oder?

dildo4u
2013-05-07, 12:56:21
Vermutlich ist die GPU deutlich schlechter rein von der Werbung her wäre es kein Problem,weil alles ein massiver Sprung wäre von dem Schrott der jetzt verbaut wird.

Ronny145
2013-05-07, 12:57:39
8W bei Turbo, 5.9W ohne Turbo.

Mit Turbo sind es 15W laut einstimmigen Quellen. 8W müsste Normalzustand sein.


Erstaunlich wäre es nicht, wenn Silvermont schneller rechnet, da kleiner gefertigt und GPU schlechter, oder?

Bei einem dreifach höheren TDP Budget sollte GPU und CPU deutlich schneller sein. Alles andere wäre schwach.

dildo4u
2013-05-07, 13:03:21
Die 15Watt Version schafft 1.5Ghz,der Turbo der 1Ghz Version erreicht nur 1.4Ghz.Vermutlich läuft auch die GPU Langsamer als im 15Watt Modell.

http://www.computerbase.de/news/2013-04/amd-praesentiert-neue-g-serie-mit-jaguar-socs/

robbitop
2013-05-07, 13:06:25
Umso erstaunlicher wäre es, wenn die Silvermont Kerne schneller rechnen, was bei 4x2.1 Ghz laut Roadmap so gut wie sicher wäre.
Wieso erstaunlich? 22 nm + Tri Gates + low power prozess + design und prozess sind aneinander angepasst. Mit dem Fertigungsvorsprung ist nichts "erstaunlich".

Ronny145
2013-05-07, 13:14:15
Die 15Watt Version schafft 1.5Ghz,der Turbo der 1Ghz Version erreicht nur 1.4Ghz.Vermutlich läuft auch die GPU Langsamer als im 15Watt Modell.

http://www.computerbase.de/news/2013-04/amd-praesentiert-neue-g-serie-mit-jaguar-socs/

Das sind embedded Modelle. Wir reden von Temash für Tablets. Der kommt auf 1,4 Ghz im turbo dock bei übereinstimmig 15W TDP. Wer etwas anders behauptet, nur zu. Dann aber eine sinnvolle Quelle angeben.

Wieso erstaunlich? 22 nm + Tri Gates + low power prozess + design und prozess sind aneinander angepasst. Mit dem Fertigungsvorsprung ist nichts "erstaunlich".


Dreifach höhere TDP, wenn nicht gar mehr. Temash wird in 28nm gefertigt. Nur ein half-node Unterschied. Silvermont ist einfach effizienter als Jaguar. Silvermont lässt sich viel weiter nach unten skalieren.

Gandharva
2013-05-07, 13:17:25
Intels neue Atom-Architektur Silvermont lässt ARM alt aussehen | heise online (http://www.heise.de/newsticker/meldung/Intels-neue-Atom-Architektur-Silvermont-laesst-ARM-alt-aussehen-1857164.html)
AnandTech | Intel’s Silvermont Architecture Revealed: Getting Serious About Mobile (http://www.anandtech.com/show/6936/intels-silvermont-architecture-revealed-getting-serious-about-mobile/7)
Intel launches the 22nm Silvermont Atom core | SemiAccurate (http://semiaccurate.com/2013/05/06/intel-launches-the-22nm-silvermont-atom-core/)
Silvermont has a completely new microarchitcture under the hood | SemiAccurate (http://semiaccurate.com/2013/05/07/draft/)

robbitop
2013-05-07, 13:55:59
Dreifach höhere TDP, wenn nicht gar mehr. Temash wird in 28nm gefertigt. Nur ein half-node Unterschied. Silvermont ist einfach effizienter als Jaguar. Silvermont lässt sich viel weiter nach unten skalieren.
Von der Gategröße her vieleicht. Jeder weiß, dass die Halfnodes idR nur die Low Cost Version der Fullnodes sind - also kaum besser als diese sind.
Außerdem nutzt AMD einen Wald-und-Wiesen-Prozess, den jeder TSMC Kunde nutzen kann. Intel einen speziell auf das Design angepassten Prozess. Außerdem haben sie Tri-Gates. Intels Prozess ist mit dem von TSMC nicht mal annähernd vergleichbar.
Es gibt leider wenig Möglichkeiten, beide zu vergleichen, da es kein gleiches Design gibt. Der Atom in 32 nm ist jedoch so niedrig im Stromverbrauch bei gleichzeitig recht guter Leistung, dass der Schluss nicht fern liegt, dass sogar Intels 32 nm Prozess ein gutes Stück besser ist als TSMCs 28 nm Version. Es würde mich jedenfalls nicht wundern.

Hinzu kommt, dass AMD mehr GPU Leistung integriert, was ja auch nicht umsonst kommt.
Vermutlich ist unterm Strich Silvermont dennoch effizienter. Das ist auf der Kurve des sinkenden Grenzertrags auch kein Wunder. Je höher man die IPC prügelt, desto mehr bezahlt man mit Leistungsaufnahme und Kerngröße. Die ARM CPUs und auch der in order Atom sind vermutlich effizienter (Leistung pro Watt) als Jaguar.

Die Cats waren, wie auch der erste Atom, ursprünglich nicht für den SFF (inkl. Smartphones) gedacht gewesen. Eher für Netbooks, Nettops etc (die ja nur eine Eintagsfliege waren). Jetzt muss man sie nachträglich dort in etwa versuchen, hineinzuprügeln. Das hat Intel mit Silvermont mit einer neuen µ-Arch jetzt elegant korrigiert.

fondness
2013-05-07, 14:56:57
Das sind embedded Modelle. Wir reden von Temash für Tablets. Der kommt auf 1,4 Ghz im turbo dock bei übereinstimmig 15W TDP. Wer etwas anders behauptet, nur zu. Dann aber eine sinnvolle Quelle angeben.




Dreifach höhere TDP, wenn nicht gar mehr. Temash wird in 28nm gefertigt. Nur ein half-node Unterschied. Silvermont ist einfach effizienter als Jaguar. Silvermont lässt sich viel weiter nach unten skalieren.

Deine Angaben passen doch hinten und vorne nicht zusammen. Es gibt mehrere AMD-Folien wo ein Quad-Core mit max. 5.9W TDP angegeben wird. Zumal der schon vorgestellte embedded Kabini bei 15W 1,5Ghz CPU und 500MHz GPU erreicht. Temash wird mit Sicherheit nicht mehr Strom benötigen. Also anstatt einfach irgend was zu behaupten sollte man vielleicht einfach mal abwarten bis Temash vorgestellt wird.

Ronny145
2013-05-07, 15:13:35
Deine Angaben passen doch hinten und vorne nicht zusammen. Es gibt mehrere AMD-Folien wo ein Quad-Core mit max. 5.9W TDP angegeben wird.


Meine Angaben? Die beziehen sich auf mehreren Quellen. Die Roadmap mit den 5.9W drauf ist sehr alt.

http://semiaccurate.com/forums/showthread.php?p=182086
http://www.slashgear.com/amd-turbo-dock-temash-tablet-reference-design-hands-on-24271087/
http://www.ocaholic.ch/modules/news/article.php?storyid=6577

robbitop
2013-05-07, 15:17:44
Also 15 W sind auch viel zu viel für ein Tablet. Das muss schon im unteren einstelligen Bereich sein. maximal 5-6 W.

edit: aber dass aktiv gekühlt wird, spricht eher für 15 W. Wer baut sowas in ein Tablet?

fondness
2013-05-07, 15:18:27
Meine Angaben? Die beziehen sich auf mehreren Quellen. Die Roadmap mit den 5.9W drauf ist sehr alt.

http://semiaccurate.com/forums/showthread.php?p=182086
http://www.slashgear.com/amd-turbo-dock-temash-tablet-reference-design-hands-on-24271087/
http://www.ocaholic.ch/modules/news/article.php?storyid=6577

Und was dir nicht passt wird einfach ignoriert. Das sind Fakten:
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-G-Serie-Kabini-SoC-1066539/

Du behauptest jetzt das die Tablet-Version Temash (wo wohl einige Dinge deaktiviert werden) mehr verbraucht wie Kabini.

Ronny145
2013-05-07, 15:20:09
Und was dir nicht passt wird einfach ignoriert. Das sind Fakten:
http://www.pcgameshardware.de/CPU-Hardware-154106/News/AMD-G-Serie-Kabini-SoC-1066539/



Passt doch. 15W für den Turbo dock Modus mit 1.4 Ghz.

Nightspider
2013-05-07, 15:38:07
Gibt es schon Fakten, was bei Airmont verändert wird?

Wenn Intel die GPU von Airmont nicht wenigstens 3mal so schnell macht wie von Valley View seh ich schwarz für den Plan von Intel den Markt zu übernehmen.

Die GPU ist viel zu wichtig und wenn schon Valley View von der GPU Leistung hinter einem iPad4 landet wäre das mehr als schwach.

robbitop
2013-05-07, 15:45:31
Dank 14 nm hat man doch genug Potenzial, die GPU Leistung zu erhöhen. Intel nutzte bei den Core CPUs jeden Shrink in den letzten Jahren, um die GPU aufzublasen.

mrt
2013-05-07, 15:50:34
Passt doch. 15W für den Turbo dock Modus mit 1.4 Ghz.
Nur sind bei der Embeddedvariante die kompletten I/O-Blöcke aktiv (8 PCIe Lanes, SATA v4, USB3...), also ein ganz normaler Kabini. Tamesh sollte ursprünglich eine reduzierte Anzahl an I/O-Ports haben, eben wegen der TDP.

Nightspider
2013-05-07, 16:05:47
Dank 14 nm hat man doch genug Potenzial, die GPU Leistung zu erhöhen. Intel nutzte bei den Core CPUs jeden Shrink in den letzten Jahren, um die GPU aufzublasen.

Selbst in 28nm kommen noch Qualcomm S800 SoCs die deutlich schneller als ein iPad 4 sind.
Intel könnte schon in 22nm eine 2-3 mal so starke GPU in Valley View packen. Macht man aber nicht.

robbitop
2013-05-07, 16:12:17
Dafür haben sie 4x CPU Kerne, die mit allen anderen locker flockig den Boden aufwischt. Davon hat man IMO zunächst mehr als von einer GPU, die etwas flotter ist. Wirklich ernsthaft wird doch sowieso nicht auf SFF Geräten gespielt. Dazu ist das Display zu klein, die Eingabegeräte ungeeignet und die Leistung sowieso zu gering. CPU Leistung kannst du aber sofort für alle Kernaufgaben nutzen.

mrt
2013-05-07, 16:13:08
Macht man wohl wegen der TDP nicht.
Die GPU wird allerdings zum rendern der GUI verwendet, was bei Displays mit hoher Pixeldichte nicht unwichtig ist.

robbitop
2013-05-07, 16:15:40
Für ein GUI eines OS ist mehr als genug Rechenleistung da.

Nightspider
2013-05-07, 16:28:54
Die GPU vom iPad4 ist gerade schnell genug für 2048*1536.
Valley View muss aber auch Displays mit 2560*1600 befeuern können.

Und genau da könnte Valley View zu langsam sein.

robbitop
2013-05-07, 16:55:43
Was soll so schlimm daran sein, ein UI für ein OS darzustellen? Dafür ist seit Jahren mehr als genug Rechenleistung da. Selbst der IMG MBX hat sich damals bei 60 fps gelangweilt.
Bei Spielen kann man auch eine geringere Auflösung nehmen oder Details reduzieren. Gerade in der Android Welt, bei dem die Hardware sehr fragmentiert ist, wird sich eh nach dem schwächsten Glied der Kette gerichtet. Ich sehe iPad4 Leistung für 2013 für unproblematisch an. Selbst wenn es weniger wäre. Dafür ist halt eine extrem schnelle CPU an Board.

fondness
2013-05-07, 17:36:13
Nur sind bei der Embeddedvariante die kompletten I/O-Blöcke aktiv (8 PCIe Lanes, SATA v4, USB3...), also ein ganz normaler Kabini. Tamesh sollte ursprünglich eine reduzierte Anzahl an I/O-Ports haben, eben wegen der TDP.


Dazu kommt das die embedded Version mit 1,5Ghz taktet bei 15W und nicht mit 1,4Ghz. Temash wird mit Sicherheit keine schlechtere Perf/Watt haben wie die eVersionen. Aber das weiß Ronny eh alles, er stellt sich nur blöd wenn es um AMD geht.

YfOrU
2013-05-07, 18:15:41
Dazu kommt das die embedded Version mit 1,5Ghz taktet bei 15W und nicht mit 1,4Ghz. Temash wird mit Sicherheit keine schlechtere Perf/Watt haben wie die eVersionen. Aber das weiß Ronny eh alles, er stellt sich nur blöd wenn es um AMD geht.

Es wird wenig daran ändern das Intel bei einer TDP um 5-6 Watt (passiv) wesentlich höhere Taktfrequenzen realisieren kann. Das führt in der Praxis vor allen zu einer deutlich höheren Performance bei kaum parallelisierbaren Aufgaben bzw. schlecht programmierten Anwendungen.

Die niedrige ST Performance sehe ich als eine der größten Problemzonen in diesem Segment an. Ob die GPU 100% oder nur 70% liefert tangiert mich persönlich weniger. Mehr Leistung ist zwar immer schön aber die CPUs müssen erstmal auf einem Niveau ankommen welches sich mehr wie ein PC als ein übergroßes Smartphone anfühlt. Genau das (ST Performance) ist Intels Paradedisziplin. Beim Smartphone nicht so essentiell da hier das Anwendungsspektrum im Regelfall deutlich kompakter ist aber bei Tablets sehe ich das als absolutes Zugpferd.

fondness
2013-05-07, 18:30:49
Es wird wenig daran ändern das Intel bei einer TDP um 5-6 Watt (passiv) wesentlich höhere Taktfrequenzen realisieren kann. Das führt in der Praxis vor allen zu einer deutlich höheren Performance bei kaum parallelisierbaren Aufgaben bzw. schlecht programmierten Anwendungen.

Die niedrige ST Performance sehe ich als eine der größten Problemzonen in diesem Segment an. Ob die GPU 100% oder nur 70% liefert tangiert mich persönlich weniger. Mehr Leistung ist zwar immer schön aber die CPUs müssen erstmal auf einem Niveau ankommen welches sich mehr wie ein PC als ein übergroßes Smartphone anfühlt.

Mal sehen ob und wie AMD den Turbo realisiert. Ansonsten könnte man die Single-Thread-Leistung schon deutlich anheben. Die IPC wird bei Jaguar höher liegen. Aber klar das man Intel hier nicht schlagen kann, alleine schon aufgrund der potenteren GPU und des unterlegene Prozesses. Allerdings hat man immerhin ein halbes Jahr den Markt weitgehend alleine.

YfOrU
2013-05-07, 18:40:29
Mal sehen ob und wie AMD den Turbo realisiert. Ansonsten könnte man die Single-Thread-Leistung schon deutlich anheben. Die IPC wird bei Jaguar höher liegen. Aber klar das man Intel hier nicht schlagen kann, alleine schon aufgrund der potenteren GPU und den unterlegene Prozesses.

Die GPU spielt hier keine nennenswerte Rolle. Die TDP wird dynamisch verteilt und das macht es aufgrund der Fertigung noch problematischer (schlechtere Skalierung mit zunehmender Frequenz). Es ist wirklich ein Witz das Intel dieses Segment so lange vernachlässigt hat denn je limitierter die TDP desto stärker wirkt sich die eigene Fertigung in Kombination mit Anpassungen der Designs auf das Endergebnis aus. Bezogen auf das Segment der Tablet-PCs wird das zwangsläufig zur Dominanz führen - schlichtweg weil das sonst keiner (mangels entsprechender eigener Fertigung) liefern kann.


Allerdings hat man immerhin ein halbes Jahr den Markt weitgehend alleine.

Hätte leider viel mehr sein können und auch müssen. Sehr schade denn so verliert Jaguar einiges an Potential. Bei einem Zeitfenster von gut einem Jahr wäre fast keiner um entsprechende Tablet Designs herum gekommen. Um die 6 Monate sind nicht so viel wenn man mit einbezieht das Intel Samples im Regelfall deutlich früher ausliefert als AMD.

Ailuros
2013-05-07, 18:56:23
Also 15 W sind auch viel zu viel für ein Tablet. Das muss schon im unteren einstelligen Bereich sein. maximal 5-6 W.

edit: aber dass aktiv gekühlt wird, spricht eher für 15 W. Wer baut sowas in ein Tablet?

"Tablets" duerfen wenn es nach mir ginge gerne wachsen wenn es zum Stromverbrauch kommt so lange man das Geraet noch problemlos in einer Hand halten kann. Unter diesen Vorraussetzungen darf ich bitte die 15W TDP Leistung haben anstatt dem staendigen 5W Kaese? :D

Was soll so schlimm daran sein, ein UI für ein OS darzustellen? Dafür ist seit Jahren mehr als genug Rechenleistung da. Selbst der IMG MBX hat sich damals bei 60 fps gelangweilt.
Bei Spielen kann man auch eine geringere Auflösung nehmen oder Details reduzieren. Gerade in der Android Welt, bei dem die Hardware sehr fragmentiert ist, wird sich eh nach dem schwächsten Glied der Kette gerichtet. Ich sehe iPad4 Leistung für 2013 für unproblematisch an. Selbst wenn es weniger wäre. Dafür ist halt eine extrem schnelle CPU an Board.

Es ist also ok wenn egal welcher IHV mit seiner top tablet Loesung in etwa gleich so viel liefert wie ein moegliches smartphone design der Konkurrenz?

Die Android und iOS Welt wird sich zunehmend an GPGPU orientieren. Erzaehl mal wie viel die CPUs nach Silvermont genau noch in Leistung skalieren koennen innerhalb einem gewissen TDP?

Wenn NV mal nicht wieder uebertreibt macht mir Logan durchaus Angst; weiss der Geier mit welchem Stromverbrauch aber es spricht sich herum dass es doch ueber 400 GFLOPs fuer die groesste Variante werden koennte. IMHO wohl nicht fuer ~5W tablets sondern fuer groessere aber es dann wohl doch genau der Bereich an den Intel fuer tablets momentan zielt.

YfOrU
2013-05-07, 19:27:59
"
Die Android und iOS Welt wird sich zunehmend an GPGPU orientieren. Erzaehl mal wie viel die CPUs nach Silvermont genau noch in Leistung skalieren koennen innerhalb einem gewissen TDP?

Eine IPC wie bei Haswell lässt sich auf absehbare Zeit ~ 7-8 W schon unterbringen. Atom zielt eindeutig auf den Bereich darunter.

Bezogen auf GPUs würde ich Intel nicht abschreiben denn der Trend sieht insgesamt sehr positiv aus. Man hat verstanden das es in diesem veränderten Marktumfeld unumgänglich ist die im Portfolio vorhandenen teils groben Schwachstellen zu adressieren. Das ist grundsätzlich aber kostengünstiger und schneller zu regeln als die Problemstellen bei der Konkurrenz -> Fertigung und CPU.

Palpatin
2013-05-07, 20:14:35
Also 15 W sind auch viel zu viel für ein Tablet. Das muss schon im unteren einstelligen Bereich sein. maximal 5-6 W.

Also so ein 11,6 Zoll Surface Pro mit I5 und HD 4000 wär schon meins wenn nicht Haswell vor der Tür stehen würd :D.

mrt
2013-05-07, 22:18:39
Für ein GUI eines OS ist mehr als genug Rechenleistung da.
Spätestens wenn ein weiterer Monitor oder TV angeschlossen wird, kanns je nach Takt und wieviel TDP-Budget für die Grafik übrig bleibt eng werden. Es geht nicht um eine Beschleunigung, wo nur ein Teil des Renderings auf der GPU läuft, sondern komplett inklusive Browser, dahin gehts nämlich bzw ist man teilweise schon dort. Von GPGPU fang ich noch gar nicht an ;)

robbitop
2013-05-08, 09:26:16
"Tablets" duerfen wenn es nach mir ginge gerne wachsen wenn es zum Stromverbrauch kommt so lange man das Geraet noch problemlos in einer Hand halten kann. Unter diesen Vorraussetzungen darf ich bitte die 15W TDP Leistung haben anstatt dem staendigen 5W Kaese? :D
Dann musst du ja ziemlich durchtrainiert sein. :D
Ich merke, dass selbst die 10" ARM Tablets die Arme ermüden. Das geht nur auf dem Schoß. Wenn jetzt noch deutlich mehr TDP reinpassen soll, wiegt das Ding am Ende fast 1 kg. Das ist dann schon fast ein Ultrabook und kein Tablet mehr.

Klar gibt es dafür bestimmt auch einen Markt.



Es ist also ok wenn egal welcher IHV mit seiner top tablet Loesung in etwa gleich so viel liefert wie ein moegliches smartphone design der Konkurrenz?

Was "OK" ist, entscheidet der Kunde. Wenn die CPU, dessen Leistung du sofort nutzen kannst, deutlich fixer ist als die Konkurrenz - warum nicht?

Spätestens Airmont wird 1 Jahr später auch die GPU Leistung aufdrehen. Wenn Intel ersteinmal in's Rollen kommt, passiert das, was Conroe mit dem CPU Markt gemacht hat. Allerdings nur, wenn sie die Design-Wins bekommen (der Preis muss also auch stimmen).


Die Android und iOS Welt wird sich zunehmend an GPGPU orientieren. Erzaehl mal wie viel die CPUs nach Silvermont genau noch in Leistung skalieren koennen innerhalb einem gewissen TDP?
Nenn mir eine Anwendung, die GPGPU lastig ist und wirklich von dem Großteil der Userbase genutzt wird. Es ist ja nicht so, dass Valley View keine GPU hätte, die das nicht könnte. Sollen andere doch erstmal schneller sein. Ich glaube nicht, dass das zur Lebenszeit dieses SoCs eine echte Rolle spielt.


Wenn NV mal nicht wieder uebertreibt macht mir Logan durchaus Angst; weiss der Geier mit welchem Stromverbrauch aber es spricht sich herum dass es doch ueber 400 GFLOPs fuer die groesste Variante werden koennte. IMHO wohl nicht fuer ~5W tablets sondern fuer groessere aber es dann wohl doch genau der Bereich an den Intel fuer tablets momentan zielt.
Auch Nvidia kann nicht zaubern. Spätestens mit 14 nm Airmont haben sie sicher auch eine konkurrenzfähige GPU.

Also so ein 11,6 Zoll Surface Pro mit I5 und HD 4000 wär schon meins wenn nicht Haswell vor der Tür stehen würd :D.
Wäre mir viel zu schwer. Das ist schon fast ein Ultrabook (mit Tabletmode). Dann lieber ein schön leichtes portables Tablet und ein Ultrabook. Damit wird man glücklicher.

Spätestens wenn ein weiterer Monitor oder TV angeschlossen wird, kanns je nach Takt und wieviel TDP-Budget für die Grafik übrig bleibt eng werden. Es geht nicht um eine Beschleunigung, wo nur ein Teil des Renderings auf der GPU läuft, sondern komplett inklusive Browser, dahin gehts nämlich bzw ist man teilweise schon dort. Von GPGPU fang ich noch gar nicht an ;)
GPGPU im SFF Bereich ist im Moment nur ein Buzzword. Nenne mir eine App, die vom Großteil der Userbase genutzt wird (also populär), für die Valley View (mit iPad 4! Performance) nicht ausreicht.
Wenn selbst jedes aktuelle 10" Android Tablet diesen Anwendungsfall schafft, sollte es Valley View auch schaffen.

Außerdem: wer schließt schon sein Tablet an den TV an? Airplay ist doch viel entspannter.

Ailuros
2013-05-08, 10:14:40
Dann musst du ja ziemlich durchtrainiert sein. :D
Ich merke, dass selbst die 10" ARM Tablets die Arme ermüden. Das geht nur auf dem Schoß. Wenn jetzt noch deutlich mehr TDP reinpassen soll, wiegt das Ding am Ende fast 1 kg. Das ist dann schon fast ein Ultrabook und kein Tablet mehr.

Klar gibt es dafür bestimmt auch einen Markt.

In 1kg Geraet-Gewicht passt schon unter Umstaenden fuer die absehbare Zukunft ein bis zu 15W TDP tablet.

Was "OK" ist, entscheidet der Kunde. Wenn die CPU, dessen Leistung du sofort nutzen kannst, deutlich fixer ist als die Konkurrenz - warum nicht?

Was hat denn der Kunde bis jetzt fuer tablets/smartphones genau entschieden?

Spätestens Airmont wird 1 Jahr später auch die GPU Leistung aufdrehen. Wenn Intel ersteinmal in's Rollen kommt, passiert das, was Conroe mit dem CPU Markt gemacht hat. Allerdings nur, wenn sie die Design-Wins bekommen (der Preis muss also auch stimmen).

Und die Konkurrenz wird bei der GPU Leistung sich auf ihren Lorbeeren ausruhen? "Preis" und Intel passen momentan immer noch in den gleichen Satz aber sie sind gerade dabei auch in diesem Bereich aufzuwachen.

Nenn mir eine Anwendung, die GPGPU lastig ist und wirklich von dem Großteil der Userbase genutzt wird. Es ist ja nicht so, dass Valley View keine GPU hätte, die das nicht könnte. Sollen andere doch erstmal schneller sein. Ich glaube nicht, dass das zur Lebenszeit dieses SoCs eine echte Rolle spielt.

Sagte auch NVIDIA und platzierte einen netten Grabstein ueber Tegra4 (RIP), waehrend fett mit Logan bzw. OGL4.3 geworben wird in der Zwischenzeit. Ich nenn Dir gar nichts; wenn sie den Zug wieder verpassen sollten dann sind dann wohl wieder die Sterne schuld da sie nicht richtig platziert waren.

Auch Nvidia kann nicht zaubern. Spätestens mit 14 nm Airmont haben sie sicher auch eine konkurrenzfähige GPU.

Drei Mal darfst Du wie die TFLOPs bei konkurrierenden GPUs zu dem Zeitpunkt aussehen werden.

GPGPU im SFF Bereich ist im Moment nur ein Buzzword. Nenne mir eine App, die vom Großteil der Userbase genutzt wird (also populär), für die Valley View (mit iPad 4! Performance) nicht ausreicht.
Wenn selbst jedes aktuelle 10" Android Tablet diesen Anwendungsfall schafft, sollte es Valley View auch schaffen.

Dann ist GPU im SFF Bereich ebenso ein buzzword wenn man es einfach um auf seinem Punkt bestehen zu koennen alles auf nur UI rendering begrenzen will. Wo Du erstmal die iPad4 Leistung garantiert siehst bei der unteren TDP Schwelle gehoert wohl zu Deiner Phantasie.

Sonst ueberlass ich den schon etliche Male besprochenen Kaugummi der Zukunft und wir werden dann nochmal sehen koennen was und wo genau und auch wieso gefehlt hat.

Zwar quer OT aber ich behaupte jetzt auch dass FP32 in PS ALUs nirgendwo einen sehenswerten Unterschied machen kann und ich finde Dir auch gerne mehrere Marketing-Abteilungen die es momentan prompt unterschreiben wuerden: http://withimagination.imgtec.com/index.php/powervr/rockchip-releases-rk3168-soc-with-powervr-sgx-graphics-we-go-hands-on-with-image-quality-tests

Eine IPC wie bei Haswell lässt sich auf absehbare Zeit ~ 7-8 W schon unterbringen. Atom zielt eindeutig auf den Bereich darunter.

Bezogen auf GPUs würde ich Intel nicht abschreiben denn der Trend sieht insgesamt sehr positiv aus. Man hat verstanden das es in diesem veränderten Marktumfeld unumgänglich ist die im Portfolio vorhandenen teils groben Schwachstellen zu adressieren. Das ist grundsätzlich aber kostengünstiger und schneller zu regeln als die Problemstellen bei der Konkurrenz -> Fertigung und CPU.

Zwischen abschreiben und Zweifel bzw. Vorbehalte zu haben dank bisherigem track record gibt es schon einen Unterschied. IMHO ist es naiv zu glauben dass die Kundschaft teilweise nicht von "halo effects" beinflusst werden kann. Qualcomm ist eben mit ihrem Adreno320 genau auf dem richtigen Pfad und es eben schon ein Unterschied wenn N GPU Loesung eines SoCs an der Spitze von benchmarks landet oder irgendwo in der Mitte. Qualcomm's momentane smartphone SoCs sind von der GPU Seite schneller als das iPad4.

robbitop
2013-05-08, 10:51:45
In 1kg Geraet-Gewicht passt schon unter Umstaenden fuer die absehbare Zukunft ein bis zu 15W TDP tablet.
IMO ist das schon kein Tablet mehr. Das ist ja schon doppelt so schwer wie die (ohnehin zu schweren) 10" ARM Tablets.



Was hat denn der Kunde bis jetzt fuer tablets/smartphones genau entschieden?
Der Kunde entscheidet sich am Ende für ein Produkt und nicht für einen SoC oder eine GPU. Passt das Produkt, wird es gekauft. Das iPad bspw. ist ein sehr gutes (und vielverkauftes) Produkt. Das würde sich mit jedem modernen SoC verkaufen.



Und die Konkurrenz wird bei der GPU Leistung sich auf ihren Lorbeeren ausruhen? "Preis" und Intel passen momentan immer noch in den gleichen Satz aber sie sind gerade dabei auch in diesem Bereich aufzuwachen.

Ausruhen dürfen sie sich natürlich nicht. Aber ich finde, dass Intel mit Valley View einen deutlichen Sprung nach vorn gemacht haben. Airmont folgt doch bereits ein Jahr später. Da wird schon was kommen. Sie sind zwar bei der GPU dann ein wenig hinterher, dafür wischen sie mit jedem ARM Prozessor den Boden auf. Ist das etwa nicht relevant?


Sagte auch NVIDIA und platzierte einen netten Grabstein ueber Tegra4 (RIP), waehrend fett mit Logan bzw. OGL4.3 geworben wird in der Zwischenzeit.
Valley View mit Tegra4 zu vergleichen passt irgendwie nicht. Die Intel GPU hat ein modernes Featureset, Tegra ein veraltetes. Sicherlich ist die GPU Performance nicht auf Platz 1 - aber auch nicht katastrophal.


Ich nenn Dir gar nichts; wenn sie den Zug wieder verpassen sollten dann sind dann wohl wieder die Sterne schuld da sie nicht richtig platziert waren.
Valley View ist doch nur ein Schritt von vielen. Und es ist ein Schritt nach vorn. Du tust so als ob die GPU katastrophal wäre - das ist sie nicht.



Drei Mal darfst Du wie die TFLOPs bei konkurrierenden GPUs zu dem Zeitpunkt aussehen werden.
TFLOPs sind nicht alles. Valley View hat nur 4 EUs und damit 45 GFLOPs. (700 MHz?) Das ist durchaus im Bereich des iPad 4 (38 GFLOPs).

Airmont kann das sicher steigern. Der Shrink wird sicher größenteils in die GPU gesteckt werden. Am Ende würde es mich nicht wundern, wenn man die Anzahl der EUs verzwei- oder verdreifachen wird.



Dann ist GPU im SFF Bereich ebenso ein buzzword wenn man es einfach um auf seinem Punkt bestehen zu koennen alles auf nur UI rendering begrenzen will. Wo Du erstmal die iPad4 Leistung garantiert siehst bei der unteren TDP Schwelle gehoert wohl zu Deiner Phantasie.
Siehe oben.


Sonst ueberlass ich den schon etliche Male besprochenen Kaugummi der Zukunft und wir werden dann nochmal sehen koennen was und wo genau und auch wieso gefehlt hat.
Wenn die großen GPGPU Anwendungen da sind, bei denen iPad4 Leistung nicht mehr reicht, haben wir längst den Nachfolger von Airmont, wenn nicht sogar dessen Nachfolger. Bisher sehe ich nichts ernsthaftes an dieser Front.



eines SoCs an der Spitze von benchmarks landet oder irgendwo in der Mitte. Qualcomm's momentane smartphone SoCs sind von der GPU Seite schneller als das iPad4.
Adreno 320 sieht gut aus - liegt aber im Mittel nicht vor A6/A6x
http://www.anandtech.com/show/6747/htc-one-review/13

Ich würde sagen, beide liegen auf Augenhöhe.

Ailuros
2013-05-08, 11:21:58
IMO ist das schon kein Tablet mehr. Das ist ja schon doppelt so schwer wie die (ohnehin zu schweren) 10" ARM Tablets.

Huh? Wie schwer sind denn in "Deinem" Universum heutige ultrabooks und was fuer einen TDP haben diese? Ich sagte uebrigens absehbare Zukunft.

Der Kunde entscheidet sich am Ende für ein Produkt und nicht für einen SoC oder eine GPU. Passt das Produkt, wird es gekauft. Das iPad bspw. ist ein sehr gutes (und vielverkauftes) Produkt. Das würde sich mit jedem modernen SoC verkaufen.

Ich bin mir sicher dass es durchaus fuer Apple's Margen Gold gewesen waere etwas wie einen heutigen low end Mediatek SoC zu verwenden, aber dass das Endresultat dann eben doch auf heutigem iPad4 Nivaeu gewesen waere von der Effizienz bis zu verkauften Einheiten glaubst auch wohl nur Du. Ich bin mir sicher dass jeglicher Erfolg im SFF Markt reiner Zufall ist und jeglicher bisheriger Misserfolg eben NICHT das Resultat reiner Daemlichkeit der Direktion bzw. Marketing bei jeglichem IHV.


Ausruhen dürfen sie sich natürlich nicht. Aber ich finde, dass Intel mit Valley View einen deutlichen Sprung nach vorn gemacht haben. Airmont folgt doch bereits ein Jahr später. Da wird schon was kommen. Sie sind zwar bei der GPU dann ein wenig hinterher, dafür wischen sie mit jedem ARM Prozessor den Boden auf. Ist das etwa nicht relevant?

Na dann mal her mit den unabhaengigen Messungen die den Boden angeblich aufwischen. Hauseigener Marketing-Bullshit ist ja stets so relevant wie es einem gerade noch so passen wuerde.

Valley View mit Tegra4 zu vergleichen passt irgendwie nicht. Die Intel GPU hat ein modernes Featureset, Tegra ein veraltetes. Sicherlich ist die GPU Performance nicht auf Platz 1 - aber auch nicht katastrophal.

Es darf eben NIRGENDS fehlen. Wenn ich anfange eine Liste von "ja aber" Punkten fuer Intel zu machen dann kratzt man schnell so einiges vom momentan "hoppla" Effekt ab. Katastrophal ist gar nichts, aber je mehr Augen man zudrueckt desto kleiner die Chancen fuer ploetzlich um einiges groessere Verkaufsvolumen.

Valley View ist doch nur ein Schritt von vielen. Und es ist ein Schritt nach vorn. Du tust so als ob die GPU katastrophal wäre - das ist sie nicht.

Siehe oben. Ich hoer Eure tolle Intel SFF Verteidigungs-Linien schon seit mehr als einem halben Jahrzehnt. Wie waere es ausnahmsweise mal mit Marktanteil-Prozentualen?


TFLOPs sind nicht alles. Valley View hat nur 4 EUs und damit 45 GFLOPs. (700 MHz?) Das ist durchaus im Bereich des iPad 4 (38 GFLOPs).

;D

554MP4@280MHz
4 cores * 8 ALUs * 8 FLOPs * 0.28GHz = 71.68 GFLOPs

und wenn ich die SFU noch mitberechne wo man fuer GPGPU noch 1 MUL dazubekommt sind es 80.64 GFLOPs.

700MHz? Ich hab zwar noch nichts zuverlaessiges in der Hand aber die bisherigen Geruechte sind verdammt bescheiden diesbezueglich.

Clovertrail+ ist uebrigens bei 34 GFLOPs (SGX544MP2@533MHz).

Airmont kann das sicher steigern. Der Shrink wird sicher größenteils in die GPU gesteckt werden. Am Ende würde es mich nicht wundern, wenn man die Anzahl der EUs verzwei- oder verdreifachen wird.

Klingt spannend :rolleyes:


Wenn die großen GPGPU Anwendungen da sind, bei denen iPad4 Leistung nicht mehr reicht, haben wir längst den Nachfolger von Airmont, wenn nicht sogar dessen Nachfolger. Bisher sehe ich nichts ernsthaftes an dieser Front.

In 2014 duerfte es so langsam mit GPGPU loslegen; minimum wird bei ~250GFLOPs liegen von tablet GPUs der Zeit.

Adreno 320 sieht gut aus - liegt aber im Mittel nicht vor A6/A6x
http://www.anandtech.com/show/6747/htc-one-review/13

Ich würde sagen, beide liegen auf Augenhöhe.

Qualcomm gewinnt momentan Eindruecke in dem Bereich, Apple darf sich bis zum naechsten launch bedroht fuehlen und Intel trottelt irgendwo in der unteren Mitte rum. Was genau ist diesbezueglich einem jeglichem psychologischem "halo effect" genau schwer zu verstehen?

YfOrU
2013-05-08, 11:34:48
Zwischen abschreiben und Zweifel bzw. Vorbehalte zu haben dank bisherigem track record gibt es schon einen Unterschied.

Wenn wir hier nur die (eigenen) GPUs seit der Integration in die CPU betrachten ist der meiner Ansicht nach durchaus respektabel. Gleiches gilt für die Treiberentwicklung.
Vom absoluten Hinterwäldler zu D3D 11.1 Feature-Set und OpenCL1.2 Treibern vor Nvidia.


IMHO ist es naiv zu glauben dass die Kundschaft teilweise nicht von "halo effects" beinflusst werden kann.

Genauso wie der Markenname Intel Gewicht beim Kunden hat. Da hat Qualcomm noch sehr viel Nachholbedarf denn bis vor wenigen Jahren wusste praktisch niemand welche Hardware in den (ultra-mobilen) Geräten verbaut ist.


Qualcomm ist eben mit ihrem Adreno320 genau auf dem richtigen Pfad und es eben schon ein Unterschied wenn N GPU Loesung eines SoCs an der Spitze von benchmarks landet oder irgendwo in der Mitte. Qualcomm's momentane smartphone SoCs sind von der GPU Seite schneller als das iPad4.

Ist Qualcomm bezogen auf GPUs definitiv. Das hätte so kaum jemand in der relativ kurzen Zeit für möglich gehalten. Die kommen schließlich wie Intel von vorgestern ;)

Ailuros
2013-05-08, 11:44:55
Wenn wir hier nur die (eigenen) GPUs seit der Integration in die CPU betrachten ist der meiner Ansicht nach durchaus respektabel. Gleiches gilt für die Treiberentwicklung.
Vom absoluten Hinterwäldler zu D3D 11.1 Feature-Set und OpenCL1.2 Treibern vor Nvidia.

Ich meinte weder/noch. Intel liegt leider fuer die letzten paar tablet Generationen um einiges Leistungsmaessig der Konkurrenz gegenueber zurueck.

Genauso wie der Markenname Intel Gewicht beim Kunden hat. Da hat Qualcomm noch sehr viel Nachholbedarf denn bis vor wenigen Jahren wusste praktisch niemand welche Hardware in den (ultra-mobilen) Geräten verbaut ist.

Schlagwort baseband fuer Qualcomm fuer's touche.

Ist Qualcomm bezogen auf GPUs definitiv. Das hätte so kaum jemand in der relativ kurzen Zeit für möglich gehalten. Die kommen schließlich wie Intel von vorgestern ;)

Ganz im Gegenteil. Adrenos waren und sind immer noch lahmarschig mit niedriger shader-Komplexitaet dank beklopptem compiler/Treiber. So bald shader-Komplexitaet ansteigt legen die Dinger wie man erwarten wuerde los. Um wieviel sind shaders von GLB2.1 bis zu 2.7 genau komplizierter geworden?

Qualcomm hat uebrigens fett eingekauft und macht auch damit weiter. Wieso wandern die grossen engineering Talente die z.B. AMD verlassen nicht zu Intel ueber?

robbitop
2013-05-08, 11:55:14
Huh? Wie schwer sind denn in "Deinem" Universum heutige ultrabooks und was fuer einen TDP haben diese? Ich sagte uebrigens absehbare Zukunft.
Ultrabooks wiegen 1,2 kg (zumindest hochwertige) und haben eine TDP von 15 W für den SoC. (Haswell ULT im MBA11)
Ein anständiges Tablet wiegt ~ 500 g.



Ich bin mir sicher dass es durchaus fuer Apple's Margen Gold gewesen waere etwas wie einen heutigen low end Mediatek SoC zu verwenden, aber dass das Endresultat dann eben doch auf heutigem iPad4 Nivaeu gewesen waere von der Effizienz bis zu verkauften Einheiten glaubst auch wohl nur Du. Ich bin mir sicher dass jeglicher Erfolg im SFF Markt reiner Zufall ist und jeglicher bisheriger Misserfolg eben NICHT das Resultat reiner Daemlichkeit der Direktion bzw. Marketing bei jeglichem IHV.
Ich meinte natürlich keinen Low End SoC.




Na dann mal her mit den unabhaengigen Messungen die den Boden angeblich aufwischen. Hauseigener Marketing-Bullshit ist ja stets so relevant wie es einem gerade noch so passen wuerde.
Bisher hat Intel bei den IPC Projektionen für ihre CPUs IIRC nie gelogen. Ein In-Order Atom ist von der IPC im Bereich von Krait 300 oder drüber. Dass Silvermont durch echtes OoO, integrierten Speichercontroller, loop control etc.pp >50 % IPC gewinnt, halte ich für nicht unwahrscheinlich. Weiterhin wird der Takt noch deutlich aufgedreht. Schon Atom war den absoluten High End ARMs gefährlich nahe. Wenn jetzt + 50 % IPC + 30 % mehr Takt drauf kommt, kannst du 1 + 1 selbst zusammenzählen.



Es darf eben NIRGENDS fehlen. Wenn ich anfange eine Liste von "ja aber" Punkten fuer Intel zu machen dann kratzt man schnell so einiges vom momentan "hoppla" Effekt ab. Katastrophal ist gar nichts, aber je mehr Augen man zudrueckt desto kleiner die Chancen fuer ploetzlich um einiges groessere Verkaufsvolumen.
Da gebe ich dir Recht. Ein voll ausgebauter Rogue wäre pro W / pro sqmm sicher die bessere Wahl gewesen. Vieleicht wollte Intel Lizenzkosten sparen, vieleicht waren sie auch aufgrund der Treibermissgeschicke von IMG enttäuscht.



Siehe oben. Ich hoer Eure tolle Intel SFF Verteidigungs-Linien schon seit mehr als einem halben Jahrzehnt. Wie waere es ausnahmsweise mal mit Marktanteil-Prozentualen?
Intel bekam seit Jahren keinen Fuss in die Tür, weil deren Mobileprodukte meilenweit von den Anforderungen entfernt waren und vermutlich auch noch zu teuer waren. Immerhin waren die beiden letzten Schritte schon wirklich große. Es fehlt nicht mehr viel. Und Intel scheint jetzt (bezüglich SFF und bezüglich GPU im PC) aufgewacht zu sein. Valley View macht einen riesigen Schritt nach vorn. Mit Iris hat man jetzt eine eigene GPU Marke, mit dem großen Wachstum an EUs, dem Hinzufügen von eDRAM und der stetigen Verbesserung der Treiber ist man immer weiter nach vorn gegangen. Das wird auch bald im SFF Bereich ankommen.
Intel gibt jetzt an beiden Fronten offenbar gas. Im Endeffekt wird man keine mainstream NV/AMD GPUs mehr in Laptops brauchen. Nur noch deren High End Produkte. Bei SFF erwarte ich analog dazu ebenfalls Fortschritte. Eben weil Intel mitbekommen hat, dass SFF die Zukunft ist und die klassischen PC/Laptopmärkte schrumpfen.




;D

554MP4@280MHz
4 cores * 8 ALUs * 8 FLOPs * 0.28GHz = 71.68 GFLOPs

und wenn ich die SFU noch mitberechne wo man fuer GPGPU noch 1 MUL dazubekommt sind es 80.64 GFLOPs.

700MHz? Ich hab zwar noch nichts zuverlaessiges in der Hand aber die bisherigen Geruechte sind verdammt bescheiden diesbezueglich.

Clovertrail+ ist uebrigens bei 34 GFLOPs (SGX544MP2@533MHz).

Ich war noch beim SGX543MP4. Du hast Recht. Das iPad4 hat mehr arithmetische Leistung.



Klingt spannend :rolleyes:
Warum nicht? FLOPs sind nicht alles. Wenn es nur um reine FLOPs geht - die kann man sehr transistorgünstig aufpumpen. (siehe R520 -> R580, siehe SGX -> Rogue). Wenn man am Ende aber die anderen Einheiten und Controlllogik, Caches, Bandbreite, ROPs etc nicht mitskaliert, kommt nur ein Bruchteil der Mehrleistung an.
Keiner weiß, was Intels Gen8 macht. Dort könnte das ALU:TEX Verhältnis ebenfalls erhöht werden.



In 2014 duerfte es so langsam mit GPGPU loslegen; minimum wird bei ~250GFLOPs liegen von tablet GPUs der Zeit.
Die schwächste GPU wird 250 GFLOPs haben, meinst du? Wie gesagt: GFLOPs sind nicht alles.
Wenn die GPUs innerhalb eines Shrinks ihre aritmetische Rechenleistung ver-n-fachen, muss zwangsweise etwas anderes nicht mitskaliert werden. Siehe oben.



Qualcomm gewinnt momentan Eindruecke in dem Bereich, Apple darf sich bis zum naechsten launch bedroht fuehlen und Intel trottelt irgendwo in der unteren Mitte rum. Was genau ist diesbezueglich einem jeglichem psychologischem "halo effect" genau schwer zu verstehen?
Solange Intel auf nicht-SFF-GPUs baut, werden sie da auch nicht drankommen. Vieleicht ändert sich mit Gen8 etwas oder vieleicht lizensieren sie ja doch nochmal ein Design oder kreieren ein eigenes SFF GPU Design.
Interessant zu wissen wäre, wieviel sqmm die GPU von Valley View benötigt und was man alternativ dafür bei IMG bekäme...

YfOrU
2013-05-08, 12:16:51
Ich meinte weder/noch. Intel liegt leider fuer die letzten paar tablet Generationen um einiges Leistungsmaessig der Konkurrenz gegenueber zurueck.

Die Frage ist wie viel einiges in der Zukunft ist und wie lange die anhält. Es ist offensichtlich das man bei Intel hier inzwischen einen Schwerpunkt (über alle Segmente) sieht. Die GPUs werden von Generation zu Generation besser und aufgrund der konkurrenzlosen Fertigung sehe ich für Intel keine großen Probleme um sich mittelfristig halbwegs auf Augenhöhe bewegen zu können.


Schlagwort baseband fuer Qualcomm fuer's touche.

Ja und nein. Die spielt beim Endkunden im Gegensatz zu einem Intel Aufkleber keine Rolle. Das ist bei Smartphones weniger relevant aber etwas das sich Tablet-PC nennt wird davon profitieren.


So bald shader-Komplexitaet ansteigt legen die Dinger wie man erwarten wuerde los. Um wieviel sind shaders von GLB2.1 bis zu 2.7 genau komplizierter geworden?

Gilt auch für Intels Gen 7 oder eine GT 640M.


Qualcomm hat uebrigens fett eingekauft und macht auch damit weiter. Wieso wandern die grossen engineering Talente die z.B. AMD verlassen nicht zu Intel ueber?

Qualcomm ist als Arbeitgeber aus mehreren Gründen interessanter. Geld gibt es überall.

Ailuros
2013-05-08, 12:38:51
Ultrabooks wiegen 1,2 kg (zumindest hochwertige) und haben eine TDP von 15 W für den SoC. (Haswell ULT im MBA11)
Ein anständiges Tablet wiegt ~ 500 g.

Es geht auch unter einem 1kg fuer bis zu 15W mit kommenden Prozessen.

Ich meinte natürlich keinen Low End SoC.

Offensichtlich :freak: Wo liegt denn genau dann der "high end" Faktor eines A6X SoCs genau? Swift ist zwar gut genug fuer etwas wie iOS, aber es ist und bleibt ein dual core den man irgendwo ueber der CortexA9 aber definitiv unter A15 platzieren kann.


Bisher hat Intel bei den IPC Projektionen für ihre CPUs IIRC nie gelogen. Ein In-Order Atom ist von der IPC im Bereich von Krait 300 oder drüber. Dass Silvermont durch echtes OoO, integrierten Speichercontroller, loop control etc.pp >50 % IPC gewinnt, halte ich für nicht unwahrscheinlich. Weiterhin wird der Takt noch deutlich aufgedreht. Schon Atom war den absoluten High End ARMs gefährlich nahe. Wenn jetzt + 50 % IPC + 30 % mehr Takt drauf kommt, kannst du 1 + 1 selbst zusammenzählen.

Es gibt kein Marketing dass nicht einer Luege gleichsteht. Du darfst es von mir aus auch "Uebertreibung" nennen. Danach will ich immer noch unabhaengige tests sehen.

Da gebe ich dir Recht. Ein voll ausgebauter Rogue wäre pro W / pro sqmm sicher die bessere Wahl gewesen. Vieleicht wollte Intel Lizenzkosten sparen, vieleicht waren sie auch aufgrund der Treibermissgeschicke von IMG enttäuscht.

Es duerften schon die Treiber u.a. schuld sein, aber es ist der Punkt wo ich fuer IMG zur Schadenfreude komme bis endlich das obrige Management von IMG einsieht wie daemlich ihre PR/Marketing Heinis genau sind. Es ist ueberall immer genau die gleiche ehlendige Geschichte egal ob Intel, NV, AMD, IMG oder sonstwo. Engineers sind nahezu Genies und irgendwelche Marketing-Furz-Idioten treffen Entscheidungen ueber Sachen von den sie nicht die blasseste Ahnung haben (***).

In dem Fall ist es scheissegal ob Rogue oder GenX; wenn es nach Intel ginge wuerde sie genauso daemlich sein und eine Bums-Variante von Rogue integrieren mit dem label "intel inside" und in Kleinschrift "gut genug".

Intel bekam seit Jahren keinen Fuss in die Tür, weil deren Mobileprodukte meilenweit von den Anforderungen entfernt waren und vermutlich auch noch zu teuer waren.

Zwar hat sich einiges zum besseren bewegt in der Zwischenzeit aber nichts dass den grossen Durchbruch suggestiert.

Immerhin waren die beiden letzten Schritte schon wirklich große. Es fehlt nicht mehr viel. Und Intel scheint jetzt (bezüglich SFF und bezüglich GPU im PC) aufgewacht zu sein. Valley View macht einen riesigen Schritt nach vorn. Mit Iris hat man jetzt eine eigene GPU Marke, mit dem großen Wachstum an EUs, dem Hinzufügen von eDRAM und der stetigen Verbesserung der Treiber ist man immer weiter nach vorn gegangen. Das wird auch bald im SFF Bereich ankommen.
Intel gibt jetzt an beiden Fronten offenbar gas. Im Endeffekt wird man keine mainstream NV/AMD GPUs mehr in Laptops brauchen. Nur noch deren High End Produkte. Bei SFF erwarte ich analog dazu ebenfalls Fortschritte. Eben weil Intel mitbekommen hat, dass SFF die Zukunft ist und die klassischen PC/Laptopmärkte schrumpfen.

Fuer PC/notebook SoC GPUs ja aber fuer SFF SoCs eben NICHT. Wie "geil" ist denn heute ein SGX540@400MHz (oh Gott Du bekommst den Scheiss heute sogar in Google's Brillen-Dingsbumsen....) bzw. SGX544MP2@533MHz. Es wird wohl nicht allzu schwer sein dass verdammt einfache too little too late endlich zu schnallen. Und NEIN es gibt eben KEINE Entschuldigungen in einem cut throat Markt und schon gar nicht wenn der "cut throat" Anteil konstant zunimmt.



Warum nicht? FLOPs sind nicht alles. Wenn es nur um reine FLOPs geht - die kann man sehr transistorgünstig aufpumpen. (siehe R520 -> R580, siehe SGX -> Rogue). Wenn man am Ende aber die anderen Einheiten und Controlllogik, Caches, Bandbreite, ROPs etc nicht mitskaliert, kommt nur ein Bruchteil der Mehrleistung an.
Keiner weiß, was Intels Gen8 macht. Dort könnte das ALU:TEX Verhältnis ebenfalls erhöht werden.

Natuerlich sind FLOPs nicht alles. Dafuer hier mal ein paar gemeine low level synthetische Tests fuer Fuellraten bzw. Geometrie:

http://gfxbench.com/compare.jsp?D1=Asus+N56VZ&D2=Apple+iPad+4&cols=2

Die schwächste GPU wird 250 GFLOPs haben, meinst du? Wie gesagt: GFLOPs sind nicht alles.

Minimum fuer high end tablets.

Wenn die GPUs innerhalb eines Shrinks ihre aritmetische Rechenleistung ver-n-fachen, muss zwangsweise etwas anderes nicht mitskaliert werden. Siehe oben.

Na dann streng Dich mal an die relativ geringen Echtzeit Geometrie- bzw. Fuell-raten eines vollen HD4000 zu erklaeren von den Resultaten oben. Irgendwo muss doch der Vorteil sein den ich verpasst habe.

Solange Intel auf nicht-SFF-GPUs baut, werden sie da auch nicht drankommen. Vieleicht ändert sich mit Gen8 etwas oder vieleicht lizensieren sie ja doch nochmal ein Design oder kreieren ein eigenes SFF GPU Design.
Interessant zu wissen wäre, wieviel sqmm die GPU von Valley View benötigt und was man alternativ dafür bei IMG bekäme...

Ach lass doch IMG aussen weg; es geht um Intel und nur um Intel. Wie gesagt selbst wenn Intel Rogue benutzen wuerde waere es irgend eine Bums-Rogue-Variante und Apple's Antwort darauf zumindest 2x Mal so schnell. Liess nochmal den (***) Paragraphen oben durch. Mag wohl sein dass Intel in N Jahren eine supertolle GPU in tablet designs integrieren wird, aber bis ich sie sehe bleibt es nur bei lehren Versprechungen und die Geschichte wiederholt sich in der Zwischenzeit.

Die Frage ist wie viel einiges in der Zukunft ist und wie lange die anhält. Es ist offensichtlich das man bei Intel hier inzwischen einen Schwerpunkt (über alle Segmente) sieht. Die GPUs werden von Generation zu Generation besser und aufgrund der konkurrenzlosen Fertigung sehe ich für Intel keine großen Probleme um sich mittelfristig halbwegs auf Augenhöhe bewegen zu können.

Es gibt technisch keine Huerden fuer Intel IMO, es wird nicht allzu schwer sein einen spezial angepassten SFF GPU design irgendwann zu liefern; da wo es hagelt, hagelt es schon seit langem bei Intel und GPUs. Und obwohl es zugegeben besser geworden ist, liegt SFF leider immer noch im Nachteil.

Ja und nein. Die spielt beim Endkunden im Gegensatz zu einem Intel Aufkleber keine Rolle. Das ist bei Smartphones weniger relevant aber etwas das sich Tablet-PC nennt wird davon profitieren.

Fuer ein =/>win8 tablet durchaus. Fuer ein tablet dass auf Android laeuft faellt es mir schwer jegliche Relevanz zu verstehen.

Gilt auch für Intels Gen 7 oder eine GT 640M.

Ich hab keine GLB2.1 Raten fuer die beiden.

Qualcomm ist als Arbeitgeber aus mehreren Gründen interessanter. Geld gibt es überall.

Qualcomm soll nach Angaben zwar gut bezahlen aber man muss bei denen auch ziemlich viel Blut schwitzen und so wie es sich oefters anhoert mehr als woanders.

Intel duerfte IMHO die besten Arbeitsbedingungen bedeuten, wobei dieses aber auch relativ ist denn Intel's groesstes Problem ist dass sie zu gross und zu buerokratisch "verwurschtelt" sind.

robbitop
2013-05-08, 12:41:22
Es ist zumindest nicht unabwegig, dass Intel in den nächsten Jahren dort seine eigene Position im SFF Bereich verbessern werden. Natürlich ist es erst entscheidend, wenn sie dort den Durchbruch geschafft haben. Aber das Potenzial ist definitiv vorhanden.
Und wenn man sich mal anschaut, was sie aus den IGPs gemacht haben, sehe ich ein Umdenken bei Intel.

YfOrU
2013-05-08, 13:00:05
Es gibt technisch keine Huerden fuer Intel IMO, es wird nicht allzu schwer sein einen spezial angepassten SFF GPU design irgendwann zu liefern; da wo es hagelt, hagelt es schon seit langem bei Intel und GPUs. Und obwohl es zugegeben besser geworden ist, liegt SFF leider immer noch im Nachteil.

Ja aber nicht mehr so signifikant das es praktisch ein No-Go wie bei Clover Trail darstellt. Im Umkehrschluss sehe ich über 50% mehr ST Performance (dazu ist Intel mittelfristig in der Lage) als gravierend an denn das macht sich im Alltag richtig bemerkbar. Wenn sich etwas massiv parallelisieren lässt ist die spürbare Differenz im Regelfall sehr viel geringer. Dazu zählt auch GPGPU.

Im Segment der Tablets sehe ich das CPU Limit als das insgesamt größere Problem. Wenn die Dinger wirklich ernsthaft in den Bereich der Notebooks sollen muss hier auch eine entsprechende Performance gegeben sein welche für Anwendungen oberhalb von aufgeblasenen Smartphone Derivaten ausreicht.


Fuer ein =/>win8 tablet durchaus. Fuer ein tablet dass auf Android laeuft faellt es mir schwer jegliche Relevanz zu verstehen.

Die Zusammenhänge sind im Endkundenbereich kaum relevant. Der Name Intel hat hier einen sehr festen Stand.


Ich hab keine GLB2.1 Raten fuer die beiden.

Ist 2.5 zu 2.7 und da sehe ich eine sehr ähnliche Verschiebung.


Intel duerfte IMHO die besten Arbeitsbedingungen bedeuten, wobei dieses aber auch relativ ist denn Intel's groesstes Problem ist dass sie zu gross und zu buerokratisch "verwurschtelt" sind.

Darauf wollte ich hinaus.

Nightspider
2013-05-08, 13:36:11
sry falscher Thread ^^

robbitop
2013-05-08, 13:38:05
Ich glaube nicht, dass man im SFF schon eDRAM braucht. Das kostet ja auch Geld (SoC sind ein hart kalkuliertes Geschäft) und die Leistung ist ja noch lange nicht in dem Bereich der HD5xxx.

Ailuros
2013-05-08, 14:12:31
Es ist zumindest nicht unabwegig, dass Intel in den nächsten Jahren dort seine eigene Position im SFF Bereich verbessern werden. Natürlich ist es erst entscheidend, wenn sie dort den Durchbruch geschafft haben. Aber das Potenzial ist definitiv vorhanden.
Und wenn man sich mal anschaut, was sie aus den IGPs gemacht haben, sehe ich ein Umdenken bei Intel.

Ich waere ein Vollidiot wenn ich behaupten wuerde dass Intel nicht das Potential bzw. Resourcen fuer so etwas hat. Damit Du meine Logik leichter verstehst: wieso war Larabee ein Griff ins Klo fuer 3D? Vielleicht weil irgendwelche irrelevante Deppen die falschen Entscheidungen getroffen hatten? Genau der gleiche Bereich des "gut genug" Aufklebers.

robbitop
2013-05-08, 14:20:06
Wer sagt, dass es diesmal nicht anders aussieht. Die CPU sieht schonmal extremst gut aus!

Ailuros
2013-05-08, 14:35:20
Ja aber nicht mehr so signifikant das es praktisch ein No-Go wie bei Clover Trail darstellt. Im Umkehrschluss sehe ich über 50% mehr ST Performance (dazu ist Intel mittelfristig in der Lage) als gravierend an denn das macht sich im Alltag richtig bemerkbar. Wenn sich etwas massiv parallelisieren lässt ist die spürbare Differenz im Regelfall sehr viel geringer. Dazu zählt auch GPGPU.

Es ist niemand anders an Intel's daemlichen Design-Entscheidungen schuld als Intel selber; Cedartrail haette von Anfang an das heutige Clovertrail+ sein sollen von der GPU Seite und anstatt dem heutigem Clovertrail+ eine 2x Mal so schnelle GPU. Und dabei ist es wurscht ob die GPU SGX oder GenX heisst.

Im Segment der Tablets sehe ich das CPU Limit als das insgesamt größere Problem. Wenn die Dinger wirklich ernsthaft in den Bereich der Notebooks sollen muss hier auch eine entsprechende Performance gegeben sein welche für Anwendungen oberhalb von aufgeblasenen Smartphone Derivaten ausreicht.

Im idealsten Fall haette ich persoenlich auf jeglicher Platform eine feine Balance zwischen CPU und GPU Staerke; wenn es aber irgendwo nachlassen sollte haengt es IMHO stark vom unterliegenden OS ab.

Ist 2.5 zu 2.7 und da sehe ich eine sehr ähnliche Verschiebung.

Der Abstand zwischen 2.5 und 2.7 ist um zich Male geringer als im Vergleich zu 2.5 vs. 2.1.

Darauf wollte ich hinaus.

;)

Wer sagt, dass es diesmal nicht anders aussieht. Die CPU sieht schonmal extremst gut aus!

Seit wann macht Intel generell fuer CPUs irgendwelche Sorgen? Ausser Du willst mir einreden dass wenn Intel zusaetzlich noch eine bessere GPU fuer den gleichen Preis bzw. Stromverbrauch bieten wuerde, Du theoretisch "nein" sagen wuerdest weil es einfach "gut genug" waere.

robbitop
2013-05-08, 14:45:15
Seit wann macht Intel generell fuer CPUs irgendwelche Sorgen?
Atom in seiner ersten Form war keine besonders gute CPU.


Ausser Du willst mir einreden dass wenn Intel zusaetzlich noch eine bessere GPU fuer den gleichen Preis bzw. Stromverbrauch bieten wuerde, Du theoretisch "nein" sagen wuerdest weil es einfach "gut genug" waere.
Ich verstehe deine Formulierung leider nicht so recht. Mit dem Shrink auf 14 nm ist jedoch jede Menge Potenzial da, diesen Malus zu reduzieren. Wer weiß, was mit einer IMG Lizenz möglich gewesen wäre...

Ronny145
2013-05-08, 15:02:49
Die Intel Tablets sollen auch für Windows gut sein und da wäre PowerVR unbrauchbar. Wenn ich mich für ein Tablet oder Smartphone zwischen schneller GPU und schneller CPU entscheiden müsste, ich würde mich für die schnellere (und effizientere) CPU entscheiden. Wenn die CPU Grundleistung für Smartphones/Tablets in ein paar Jahren auf einem durchgängig hohen Level liegt, wird sich die Gewichtung sicherlich verschieben. Silvermont wird wohl als die CPU Basis der nächsten Jahre herhalten. Der Sprung ist vergleichbar mit dem C2D im Desktop Segment. Was nicht heißen soll das Intel ihre Smartpohne/Tablet GPU zukünftig nicht kräftig aufbohren muss. Davon ist sowieso auszugehen. Der 14nm shrink bietet sich bestens dafür an.

robbitop
2013-05-08, 15:17:53
Die Intel Tablets sollen auch für Windows gut sein und da wäre PowerVR unbrauchbar. Wenn ich mich für ein Tablet oder Smartphone zwischen schneller GPU und schneller CPU entscheiden müsste, ich würde mich für die schnellere (und effizientere) CPU entscheiden. Wenn die CPU Grundleistung für Smartphones/Tablets in ein paar Jahren auf einem durchgängig hohen Level liegt, wird sich die Gewichtung sicherlich verschieben. Silvermont wird wohl als die CPU Basis der nächsten Jahre herhalten. Der Sprung ist vergleichbar mit dem C2D im Desktop Segment. Was nicht heißen soll das Intel ihre Smartpohne/Tablet GPU zukünftig nicht kräftig aufbohren muss. Davon ist sowieso auszugehen. Der 14nm shrink bietet sich bestens dafür an.
Endlich mal jemand, der mich versteht... :)

Ailuros
2013-05-08, 15:49:52
Die Intel Tablets sollen auch für Windows gut sein und da wäre PowerVR unbrauchbar.

Wenn IMG weiterhin keine WHQL Treiber fuer windows liefern sollte ja.

Wenn ich mich für ein Tablet oder Smartphone zwischen schneller GPU und schneller CPU entscheiden müsste, ich würde mich für die schnellere (und effizientere) CPU entscheiden.

Das hat mit dem obrigen aber auch ueberhaupt nichts zu tun. Denn Intel benutzt fuer die kommende tablet Generation GenX GPUs und fuer die kommende smartphone Generation IMG GPU IP. Der Haken ist dass mit aller Wahrscheinlichkeit in beiden Faellen die GPU Leistung hinterherhinken wird im Vergleich zu so mancher Konkurrenz egal von wo.

Ein balanciertes System besteht aus einer starken CPU und einer starken GPU.

Wenn die CPU Grundleistung für Smartphones/Tablets in ein paar Jahren auf einem durchgängig hohen Level liegt, wird sich die Gewichtung sicherlich verschieben. Silvermont wird wohl als die CPU Basis der nächsten Jahre herhalten. Der Sprung ist vergleichbar mit dem C2D im Desktop Segment. Was nicht heißen soll das Intel ihre Smartpohne/Tablet GPU zukünftig nicht kräftig aufbohren muss. Davon ist sowieso auszugehen. Der 14nm shrink bietet sich bestens dafür an.

Die Gewichtung hat sich schon sein langem verschoben denn GPUs nehmen auf SFF SoCs um einiges mehr an die area ein und sie werden auch weiterwachsen.

Endlich mal jemand, der mich versteht... :)

Wenn wir einen Ueberblick ueber SFF Markanteile fuer 2014 z.B. sehen werden wir wohl dann erst sehen was der Depp des Dorfes wieder sagen wollte.

robbitop
2013-05-08, 15:56:21
Wenn wir einen Ueberblick ueber SFF Markanteile fuer 2014 z.B. sehen werden wir wohl dann erst sehen was der Depp des Dorfes wieder sagen wollte.
Es geht mir (und Ronny offenbar auch) erstmal um technische Potenziale. Marktanteile sind das Resultat von langfristig guten SoCs und einem guten P/L Verhältnis.
Wen meinst du eigentlich mit dem Depp des Dorfes? :|

Ronny145
2013-05-08, 15:59:05
Das hat mit dem obrigen aber auch ueberhaupt nichts zu tun. Denn Intel benutzt fuer die kommende tablet Generation GenX GPUs und fuer die kommende smartphone Generation IMG GPU IP.

Windows wäre eh nur für Tablets relevant. Gibt es eigentlich irgendwo eine Quelle, die Bay Trail für Smartphones mit PowerVR GPU bestätigt?


Ein balanciertes System besteht aus einer starken CPU und einer starken GPU.


Es gibt niemanden der beides vereint. Deswegen für mich jedenfalls ist die CPU Leistung und Effizienz/Verbrauch des gesamten SoC wichtiger.

robbitop
2013-05-08, 16:14:08
Ohne echten Anwendungszweck für die vielen GFLOPs sehe ich das genauso. Und noch kenne ich keine Killerapp, die dringend x hundert GFLOPs braucht oder brauchen wird.
Spiele sind auf den Geräten sowieso ein Witz. Viel zu fragmentiert ist der Markt, zu niedrig die Budgets, mangelhafte Eingabemöglichkeiten, kleiner Screen. Alles nur Casual Müll, der mich nicht interessiert und auch mit einem iPad 3 schnell genug läuft.

mrt
2013-05-08, 16:34:49
GPGPU im SFF Bereich ist im Moment nur ein Buzzword. Nenne mir eine App, die vom Großteil der Userbase genutzt wird (also populär), für die Valley View (mit iPad 4! Performance) nicht ausreicht.
Wenn selbst jedes aktuelle 10" Android Tablet diesen Anwendungsfall schafft, sollte es Valley View auch schaffen.

Außerdem: wer schließt schon sein Tablet an den TV an? Airplay ist doch viel entspannter.
Die iPad4-GPU-Leistung will ich bei den kleinen Varianten (für die Androidtablets) erst mal sehen. Es geht bei GPGPU um die Zukunft, nachdem die anderen SoC-Hersteller in die Richtung gehen, werden die Anwendungen schon kommen. Wenn die Leistung da ist, wird man sie auch nutzen wollen ;)
Per WiDi ist/wird das recht komfortabel und so mancher wird sich überlagen ob er noch einmal ein Notebook/Desktop zum Surfen, Mails schreiben und ähnliches kauft. Wenn die kleinen Varianten auch mit entsprechend Leistung daherkommen ist der Punkt zumindest abgehakt.

Ailuros
2013-05-08, 19:05:21
Es geht mir (und Ronny offenbar auch) erstmal um technische Potenziale. Marktanteile sind das Resultat von langfristig guten SoCs und einem guten P/L Verhältnis.
Wen meinst du eigentlich mit dem Depp des Dorfes? :|

Mich selber.

Windows wäre eh nur für Tablets relevant.

Fuer Intel womoeglich schon; es sollte aber nicht heissen dass Intel's kommende Loesungen schlecht fuer Android sein werden oder?

Gibt es eigentlich irgendwo eine Quelle, die Bay Trail für Smartphones mit PowerVR GPU bestätigt?

Nichts oeffentliches, aber macht es irgend einen Unterschied zur Debatte ob IMG GPU IP oder nicht?

Es gibt niemanden der beides vereint. Deswegen für mich jedenfalls ist die CPU Leistung und Effizienz/Verbrauch des gesamten SoC wichtiger.

Qualcomm hat eine ziemlich gute Balance zwischen ihren GPU/CPUs fuer ihre smartphone SoCs und es ist auch wohl kein Zufall dass sie die groesste konstante Wachstumsrate der letzten Jahre als grosser semi haben.

Nochmal bei Intel hapert es nicht am engineering, knowhow oder resourcen. Der Haken ist wo anders; dass Intel erstmal seit neuestem anstaendigere Preise fuer ihre SoCs verlangen soll ist auf jeden Fall ein positives Anzeichen und ich will hoffen dass es dabei bleiben wird. Danach koennen sie natuerlich auch fuer den Rest sorgen, aber mit dem Prozess-Vorteil den sie haben waere auch mehr theoretisch moeglich.

Dan3604
2013-05-10, 21:16:47
Qualcomm hat eine ziemlich gute Balance zwischen ihren GPU/CPUs fuer ihre smartphone SoCs und es ist auch wohl kein Zufall dass sie die groesste konstante Wachstumsrate der letzten Jahre als grosser semi haben.

Naja, lag / liegt ja wohl zuerst an den LTE-Modems.

Und dann erst daran, daß ihr Krait auf den Punkt passte, während die A15-SoCs ihre TDP-Ziele ganz knapp verpaßten...

Ailuros
2013-05-11, 09:23:10
Naja, lag / liegt ja wohl zuerst an den LTE-Modems.

Mobile war schon seit einer Ewigkeit Qualcomm's Kerngeschaeft, ergo mag es zwar passen alles nur auf LTE zu vereinfachen, aber es ist schon ein Buendel etlicher Faktoren die QCOM zu ihrem heutigen Status brachte.

Und dann erst daran, daß ihr Krait auf den Punkt passte, während die A15-SoCs ihre TDP-Ziele ganz knapp verpaßten...

Qualcomm, Apple und auch bald NVIDIA setzen auf custom CPU core basierend auf ARM ISAs. Wie ARM ihre Lizenzgebuehren/royalties reinbekommen ist ziemlich scheissegal, hauptsaechlich sie werden dafuer bezahlt. In dem Fall hat ARM den gigantischen Vorteil nicht nur IP zu verkaufen in einem Markt wo IP fast ideal ist, sondern liefert eben ihren Kunden genau die Flexibilitaet die ihnen gerade Intel NIE liefern koennen wird und am Ende ist das Resultat auch nocht billiger.

http://forum.beyond3d.com/showpost.php?p=1732830&postcount=203

Will Intel let companies design their own SoC with Silvermont?

Will Intel guarantee they will never prioritirize a company for chips delivery? If not will they let a company bring Silvermont to another foundry?

Will Intel let a company makes its own x86 CPU to increase differentiation against competition?

Will Intel design ultra low cost x86 CPU for lower end smartphones so that a phone maker can have the same software for all of its phones?

Gibt es irgendwo eine Frage oben die man mit "ja" oder sogar "vielleicht" beantworten koennte? Noch dazu dass nicht jeder Hersteller Lust hat sich mit Intel anzulegen.

Wenn Qualcomm momentan einen Kopfschmerz hat dann sind es die brutal wachsenden chinesischen Hersteller wie Allwinner, Mediatek und co. als Intel. Allwinner hat wahrscheinlich im letzten Jahr 2x Mal so viel tablets verkauft als Qualcomm und Intel zusammen. Was will Intel gegen low cost SoCs genau anrichten? Zeig mir mal wo ein sub-$5 tablet SoC fuer Intel in absehbarer Zukunft im Plan steht.

Dan3604
2013-05-11, 12:53:48
Mobile war schon seit einer Ewigkeit Qualcomm's Kerngeschaeft, ergo mag es zwar passen alles nur auf LTE zu vereinfachen, aber es ist schon ein Buendel etlicher Faktoren die QCOM zu ihrem heutigen Status brachte.

Klar reicht LTE alleine nicht, um einen ansonsten schlechten SoC gut zu verkaufen. Aber mit LTE wird ein ansonsten vergleichbarer SoC konkurrenzlos und Qualcomm kann dann im Ggsatz zur Konkurrenz deutlich mehr als Herstellungskosten & RD verlangen und damit die Kohle machen, um die sie derzeit jeder beneidet.


Wenn Qualcomm momentan einen Kopfschmerz hat dann sind es die brutal wachsenden chinesischen Hersteller wie Allwinner, Mediatek und co. als Intel.
Momentan = FullAck. Es wär aber vermessen, Intel nicht zuzutrauen, daß sie mit der Kombination aus aktuell gezeigter Innovation rum um ATOM & SoCs, dazu dem Prozeßvorsprung und schließlich ihrer konkurrenzlosen Analogintegration SoCs bauen können, die für viele praktische Anwendungsfälle in gleicher TDP die doppelte Leistung auf die Straße bringen. Und da denke ich prinzipiell ans nächste "Big Thing", nämlich den Desktop im Handy. Nur weil PCs seit Jahren schnell genug sind und damit immer weniger verkauft werden, ist der produktive Arbeitsplatz auch im Privaten doch immernoch der Desktop. Und ein per Virtualisierung oder zweitem Desktopmanager implementiertes, auf dem Handy laufes Desktop-System könnte dann Intel eben genau dieses Alleinstellungsmerkmal bieten, daß eben Intel's SoCs Excel, Mozilla, Outlook, FB und den übrigen Schlonz spürbar besser zum laufen bringen.

Ailuros
2013-05-11, 14:07:40
Momentan = FullAck. Es wär aber vermessen, Intel nicht zuzutrauen, daß sie mit der Kombination aus aktuell gezeigter Innovation rum um ATOM & SoCs, dazu dem Prozeßvorsprung und schließlich ihrer konkurrenzlosen Analogintegration SoCs bauen können, die für viele praktische Anwendungsfälle in gleicher TDP die doppelte Leistung auf die Straße bringen. Und da denke ich prinzipiell ans nächste "Big Thing", nämlich den Desktop im Handy.

High end ist ein anderes Kapitel im Vergleich zum hohen Volumen. Ich sag es mal anders: wuerde Intel sich im umwahrscheinlichen Fall morgen umdrehen und Silvermont bzw. dessen Nachfolger als CPU IP oder nur als ISA lizenzieren wuerde, muesste ARM ziemlich drastisch ueber ihre Schulter glotzen muessen.

Nur weil PCs seit Jahren schnell genug sind und damit immer weniger verkauft werden, ist der produktive Arbeitsplatz auch im Privaten doch immernoch der Desktop. Und ein per Virtualisierung oder zweitem Desktopmanager implementiertes, auf dem Handy laufes Desktop-System könnte dann Intel eben genau dieses Alleinstellungsmerkmal bieten, daß eben Intel's SoCs Excel, Mozilla, Outlook, FB und den übrigen Schlonz spürbar besser zum laufen bringen.

Ich persoenlich wuerde mir gerne ein leistungsfaehiges hybrides tablet/ultrabook mit windows anschaffen. Bis jetzt ist es entweder begrenzte Faehigkeiten/Leistung in einem tablet oder um einiges akzeptablere Faehigkeiten/Leistung auf Kosten des Gewichts bzw. Batterie-Laufzeit. Mit der Zeit wird sich der Abstand zwischen den beiden schon verkleinern, aber billig wird das Resultat auch nicht sein. Es bleibt dann auch wieder high end wasauchimmer man es dann nennen will.

Das Problem vom desktop im Vergleich zur mobilen Welt (Stagnation vs. Explosion) ist nicht nur auf hw begrenzt sondern betrifft auch durchaus sw bzw. sw Oekosysteme. Microsoft koennte es in absehbarer Zukunft im Vergleich zu Google schwerer haben als Intel vs. ARM, aber auch nur weil das Wintel "Kartell" nicht den Grips hatte Markt-Tendenzen rechtzeitig zu erkennen.

Wenn es aber am Ende dazu kommt dass wir weniger insgesamt quasi Monopole haben in der Zukunft desto besser.

Dan3604
2013-05-11, 17:31:02
High end ist ein anderes Kapitel im Vergleich zum hohen Volumen.


Bei den Verkaufszahlen von GS3 und den letzten IPhone-Generationen paßt das schon zussammen. Und nur dort läßt sich das Geld verdienen, das Intel haben will. Nach der technischen Führerschaft zählt für Intel noch vor dem absoluten Umsatz doch das Verhältnis aus Umsatz und Gewinn.

Wenn Intel technisch die Nr.1 ist und den Markt nach Umsatz und Gewinn dominiert, dann darf alles noch Niederpreisigere dann, wie bei x86 heute noch und insbesondere früher AMD zukünftig dann Mediatek & Co anbieten.


Ich persoenlich wuerde mir gerne ein leistungsfaehiges hybrides tablet/ultrabook mit windows anschaffen. Bis jetzt ist es entweder begrenzte Faehigkeiten/Leistung in einem tablet oder um einiges akzeptablere Faehigkeiten/Leistung auf Kosten des Gewichts bzw. Batterie-Laufzeit.


Was ist Deine Meinung zum Thinkpad Helix?



Wenn es aber am Ende dazu kommt dass wir weniger insgesamt quasi Monopole haben in der Zukunft desto besser.

Steuern wir im Moment nicht mit Volldampf einem Oligopol entgegen, für das Apple & Google bereits gesetzt sind, während sich MS und Amazon um Position Drei balgen?

oT: sowieso mein Tip, daß als nächste große Fusion MS & Amazon zusammengehen... :wink:

Ailuros
2013-05-11, 20:30:45
Bei den Verkaufszahlen von GS3 und den letzten IPhone-Generationen paßt das schon zussammen. Und nur dort läßt sich das Geld verdienen, das Intel haben will. Nach der technischen Führerschaft zählt für Intel noch vor dem absoluten Umsatz doch das Verhältnis aus Umsatz und Gewinn.

Wenn Apple langfristig in die Richtung geht die ich verdaechtige wird es leistungsfaehigere und um einiges teurere tablets geben.

Wenn Intel technisch die Nr.1 ist und den Markt nach Umsatz und Gewinn dominiert, dann darf alles noch Niederpreisigere dann, wie bei x86 heute noch und insbesondere früher AMD zukünftig dann Mediatek & Co anbieten.

Bevor wir von Marktdominanz reden muss Intel erstmal ein besseres Standbein im SFF erreichen. Schritt fuer Schritt

Was ist Deine Meinung zum Thinkpad Helix?

Nicht schlecht; muss mir mal das Ding ansehen. Ein hybrides Toshiba in dem ich vor einiger Zeit interessiert war, war zu schwer um es als tablet zu bedienen. Das thinkpad scheint mehr Potential zu haben.

***edit: core i7@2GHz, 4GB, 256GB SSD Variante = 2429,00 Euros :rolleyes:

Steuern wir im Moment nicht mit Volldampf einem Oligopol entgegen, für das Apple & Google bereits gesetzt sind, während sich MS und Amazon um Position Drei balgen?

oT: sowieso mein Tip, daß als nächste große Fusion MS & Amazon zusammengehen... :wink:

Ich bezweifle dass iOS je so stark wachsen wird wie Android. Interessiert wohl auch Apple nicht unbedingt so lange ihre Gewinn-margen obszoen hoch sind und sie weiter Milliarden in der Bank stapeln koennen.

Sunrise
2013-05-12, 01:47:08
@Dan3604 und Ailuros:
Das Helix gefällt mir überhaupt nicht. Wen soll das denn ansprechen? Ein Laptop, dass auch Tablet sein will. Und der Preis ist absolut indiskutabel, vollkommen überzogen.

Das Surface Pro geht schon in die richtige Richtung. Ein Tablet, dass sich vom altbackenen Laptop-Gedanken löst, trotz ähnlicher Flexibilität. Microsoft hat damit schon das richtige Rezept. Dumm nur, dass man so engstirnig war, und sich das wieder damit verdorben hat, zweigleisig fahren zu müssen. Das Surface Pro braucht nur ein wenig mehr Batterielaufzeit, anständige CPU- und GPU-Leistung (Haswell) und es sollte leichter und etwas dünner sein.

Dann wären wir schon verdammt nahe am optimalen Tablet, mit dem man auch produktiv ohne Einschränkungen arbeiten kann.

Das perfekte Tablet wäre für mich:
- Apples AX-SoC durch stromsparende Intel-CPU/GPU-Kombi ersetzen
- Ab Werk kalibrierten min. FHD IPS mit sRGB-Farbraum
- ähnlich dünn wie ein iPad und ähnlich leicht
- gute rückseitige Kamera

Features die ich bräuchte:
- Stifteingabe (Word? Excel?)
- Optionale Tastatur
- Anschlüsse (2x USB, GBit-Lan, WLAN)

Das würde mir sämtliche Wünsche erfüllen. Damit wäre ich maximal produktiv bei meinen Kunden und zuhause. Es wäre vollkommen egal ob ich vor einer Serverfarm stehe, in Meetings am Tisch sitze, auf dem Bett oder der Couch liege oder ich das Ding nur als Zuspieler nutze. Allerdings ist auch der Preis wichtig. Bei deutlich über 1200 EUR hört bei mir der Spaß auf. Unter 1000 EUR würde das Ding wie eine Bombe einschlagen.

Mein iPad langweilt mich, das liegt aber weniger an der Hardware, sondern eher am Software-Angebot. Lustigerweise hat Apple gerade dort ja eigentlich reichlich Vorsprung, zumindest möchte Apple das den Nutzern in großen Zahlen glauben machen. Da wird sich mit iOS 7 und einem schnelleren Innenleben wohl auch nicht viel ändern, wirklich einschneidende Änderungen erwarte ich frühestens mit iOS 8 oder aber einer Verschmelzung von iOS/MacOS in Zukunft. Ich lasse mich natürlich immer gerne überraschen.

Ich bezweifle dass iOS je so stark wachsen wird wie Android. Interessiert wohl auch Apple nicht unbedingt so lange ihre Gewinn-margen obszoen hoch sind und sie weiter Milliarden in der Bank stapeln koennen.
Das sehe ich genauso. Apple ist durch iOS nie in direkter Konkurrenz zu Android und kann sich hier deutlich mehr erlauben als wenn sie nur einer von vielen Android-Anbietern wären. Der Marktanteil ist sicher wichtig, jedoch ist sich Apple inzwischen auch bewusst, dass Masse nicht gleich Klasse ist. Der Anfang des iPhone kann nicht mit der aktuellen Situation verglichen werden. Wichtig ist aber, dass man immer mal wieder ein paar Ausrufezeichen setzt, die iOS in Zusammenspiel mit der Hardware konkurrenzlos oder bedingungslos einfach machen.

Ailuros
2013-05-12, 10:08:09
@Dan3604 und Ailuros:
Das Helix gefällt mir überhaupt nicht. Wen soll das denn ansprechen? Ein Laptop, dass auch Tablet sein will. Und der Preis ist absolut indiskutabel, vollkommen überzogen.

Der Preis war der erste show-stopper. Bis zu 1200 Euros koennte ich noch tolerieren.

Das Surface Pro geht schon in die richtige Richtung. Ein Tablet, dass sich vom altbackenen Laptop-Gedanken löst, trotz ähnlicher Flexibilität. Microsoft hat damit schon das richtige Rezept. Dumm nur, dass man so engstirnig war, und sich das wieder damit verdorben hat, zweigleisig fahren zu müssen. Das Surface Pro braucht nur ein wenig mehr Batterielaufzeit, anständige CPU- und GPU-Leistung (Haswell) und es sollte leichter und etwas dünner sein.

Das gute am Helix Konzept ist dass die dreifache Flexibilitaet des docks eben genau das ist was ich bei der Arbeit gebrauchen koennte.


Mein iPad langweilt mich, das liegt aber weniger an der Hardware, sondern eher am Software-Angebot. Lustigerweise hat Apple gerade dort ja eigentlich reichlich Vorsprung, zumindest möchte Apple das den Nutzern in großen Zahlen glauben machen. Da wird sich mit iOS 7 und einem schnelleren Innenleben wohl auch nicht viel ändern, wirklich einschneidende Änderungen erwarte ich frühestens mit iOS 8 oder aber einer Verschmelzung von iOS/MacOS in Zukunft. Ich lasse mich natürlich immer gerne überraschen.

Keine Ahnung ob Apple wirklich die beiden OSs langfristig verschmelzen will oder iOS einfach etwas "erwachsener" wird. IMHO duerfte Apple mit zukuenftigen tablets auch den workstation/CAD Profi ansprechen wollen der mal etwas schnell auf dem tablet einem potentiellen Kunden vorzeigen koennte. Fuer den Bereich steht natuerlich Apple's "Idee" bzw. Einzigartigkeit zur Debatte denn ich hab persoenlich nie besonders die angeblichen Vorteile von Macs gegenueber windows Geraeten sehen koennen, ueberhaupt wenn man so viel auf den Ladentisch legen kann.


Das sehe ich genauso. Apple ist durch iOS nie in direkter Konkurrenz zu Android und kann sich hier deutlich mehr erlauben als wenn sie nur einer von vielen Android-Anbietern wären. Der Marktanteil ist sicher wichtig, jedoch ist sich Apple inzwischen auch bewusst, dass Masse nicht gleich Klasse ist. Der Anfang des iPhone kann nicht mit der aktuellen Situation verglichen werden. Wichtig ist aber, dass man immer mal wieder ein paar Ausrufezeichen setzt, die iOS in Zusammenspiel mit der Hardware konkurrenzlos oder bedingungslos einfach machen.

Und hier ist auch der Haken meiner ganzen Vorbehalte fuer Intel. Sie sind im SFF eben nicht mehr ein definierender Faktor und so lange Microsoft nicht einen anstaendigen Marktanteil in der Zukunft dazugewinnt sehen Intel's Prospekte begrenzt aus.

Ailuros
2013-05-25, 13:30:27
http://www.theinquirer.net/inquirer/news/2268288/intel-used-arms-ds5-screenshots-in-silvermont-presentation

IMHO nebensaechlich, aber ich bestehe darauf dass ich trotz allem unabhaengige Messungen sehen will wenn die Zeit reif ist.

AnarchX
2013-05-27, 12:25:57
Intel to release N2805, N2810 and N2910 ULV processors (http://www.cpu-world.com/news_2013/2013052601_Intel_to_release_N2805_N2810_and_N2910_ULV_processors.html)

Heftige Preise.

2phil4u
2013-05-27, 12:48:35
Der gleiche Preis für 2 Kerne auf unterschiedlichen Takten und dem 4 Kerner ?

Da muss der niedrig getaktete 2 Kerner aber extrem selektiert sein für low Voltage um das zu rechtfertigen.
Und der 4 Kerner (doppelte Transistoren) zum gleichen Preis ?

Sehr merkwürdig.

Ronny145
2013-05-27, 13:41:25
Die normalen Desktop/Notebook Valleyview Modelle kommen doch erst nächstes Jahr. Intel aktualisiert doch nicht im Mai die Preisliste für Modelle, die erst nächstes Jahr kommen.


http://s14.directupload.net/images/130527/dgpjdx74.png
http://files.shareholder.com/downloads/INTC/2426657245x0x666663/D1F8731B-805F-45B6-9F31-A437CB5F8258/Copy_of_May_26_13_Recommended_Customer_Price_List.pdf


FCBGA10 sind höchstwahrscheinlich Ivy Bridge basierende Modelle. Atom Modelle sind extra gelistet.

AnarchX
2013-05-27, 14:01:26
4 Kerne mit 2MiB Cache auf Ivy Basis?
Nutz Avoton nicht FCBGA10? http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9745136#post9745136

Ronny145
2013-05-27, 14:09:35
Ja aber FCBGA10 glaube ich nicht. Das dürfte eine andere Nummer hinten haben, bei den älteren Server Atom ist das FCBGA11. Avoton ist für Server mit bis zu 8 Kernen. Das in der Preisliste für Mobile ULV, was schon rein von der Bezeichnung typisch Core basierend ist.

Undertaker
2013-05-27, 15:23:21
Ich kann mir da keinen Ivy Bridge dahinter vorstellen...

1. Namenschema: Nxxx -> Atom
2. Features: kein SMT, aber vier Kerne? -> Atom
2. Preis bzw. Leistung: 4x 1,6 GHz (vgl. i3 ULV!) für 132$? -> Atom

Edit: Das die Dinger evtl. trotzdem nicht als Atom vermarktet werden, wäre ja trotzdem denkbar. Aber die Specs sehen für IB einfach arg komisch aus.

Ronny145
2013-05-27, 16:56:20
Sieht doch danach aus. intel-fcbga10-package heißt ja das Dokument mit den Avoton/Rangeley Abmessungen. Die Basistakte sehen ordentlich aus. Im Burst Modus sollte der Quad auf 2 Ghz hochgehen. Nur komisch das die Preise alle gleich sind zwischen den Modellen.

AnarchX
2013-06-01, 14:05:32
Die Preisliste wurde "korrigiert".

Es kommen wohl aber sogar Baytrail Pentiums: http://www.pcworld.com/article/2040401/intel-shifting-celeron-pentium-chips-to-atom-architecture.html#tk.rss_all

AnarchX
2013-06-06, 18:45:04
http://www.4gamer.net/games/047/G004743/20130606106/SS/015.jpg
http://www.4gamer.net/games/047/G004743/20130606106/screenshot.html?num=015

Ailuros
2013-06-06, 19:19:01
http://www.4gamer.net/games/047/G004743/20130606106/SS/015.jpg
http://www.4gamer.net/games/047/G004743/20130606106/screenshot.html?num=015

Knapp ueber 2x Mal mehr als iPad4, aber komischerweise wird mit 2.5 anstatt von 2.7 verglichen. Waere es GLB2.7 x3 waere es kinderleicht die Variante und deren Frequenz einzuschaetzen.

Ronny145
2013-06-06, 20:17:09
Zumindest Ice Storm lässt sich einfach hochskalieren.



Test conducted in AMD Performance Labs using FutureMark 3DMark for Windows 8 Ice Storm Test as a metric for GPU performance. The AMD A4-1200 APU-based system scored 11,920 while the Intel Atom Z2760 based system scored 2431. The platforms tested were the “Larne” reference platform with an AMD A4-1200 Dual Core 1.0GHz APU, AMD Radeon™ HD 8180 series graphics, 2GB DDR3-1066 system memory and Microsoft Windows 8, versus an Acer ICONIA W510-1666 with an Intel Atom Z2760 1.5GHz CPU, Intel integrated graphics, 2GB DDR3-1066 system memory and Microsoft Windows 8. TEM-18
http://www.amd.com/us/press-releases/Pages/amd-rejuvenates-mobile-2013may23.aspx


Wären ~11.5K. Zu TouchXPRT 2013 gibt es hier ein paar Werte: http://www.anandtech.com/show/6827/samsung-ativ-smart-pc-revisiting-clover-trail-convertibles/4

Ailuros
2013-06-07, 12:22:08
Zumindest Ice Storm lässt sich einfach hochskalieren.



http://www.amd.com/us/press-releases/Pages/amd-rejuvenates-mobile-2013may23.aspx


Wären ~11.5K. Zu TouchXPRT 2013 gibt es hier ein paar Werte: http://www.anandtech.com/show/6827/samsung-ativ-smart-pc-revisiting-clover-trail-convertibles/4


Der Haken ist dann eben dass sowohl GLB2.5 als auch Ice Storm im Vergleich zu GLB2.7 relativ "veraltet" aussehen. Ob jetzt X zukuenftige Loesung in GLB2.5 z.B. 120 oder 150 fps erreicht ist ziemlich egal, da die zu hohen Frameraten den Vergleich eher nutzlos macht. Die Frage ist dann eher ob es auch ein zumindest 3x Mal Unterschied in 2.7 sein wird oder um einiges mehr; nur wuerde eine jegliche Marketing-Abteilung sich schwer von einem 4x Mal so grossen Unterschied zurueckhalten. Bei 3x Mal so viel GLB2.7 sind es gerade noch ca. 25% mehr im Vergleich zum iPad4 und eher in der ultra-gaehn Region.

Ronny145
2013-06-10, 02:34:35
In der Fußnote der Folie:

http://s7.directupload.net/images/130610/sz6okwi5.png
http://www.anandtech.com/show/7048/silvermont-to-sell-under-atom-celeron-and-pentium-brands-24ghz-z3770-leaked

AnarchX
2013-06-10, 14:08:59
Bisher waren es doch nur 2,1GHz?
Aber die >2GHz Celerons dürften wohl durchaus die <1,5GHz Celerons auf Core i-Basis überflüssig machen.

Ronny145
2013-06-10, 14:47:25
Fragt sich nur, ob die 2,4 Ghz zum Burst/Turbo oder Basistakt gehören. Normalerweise wird immer der Basistakt angegeben, aber kann sich geändert haben.

AnarchX
2013-06-10, 14:51:01
2,4GHz Basistakt wären dann doch etwas zu viel des guten für 2W SDP. :D
Der Z2760 wird auf der Folie auch mit seinen 1,8GHz Turbo angegeben.

Ronny145
2013-06-10, 15:02:59
Wo liegt der Basistakt beim Z2760?

Ailuros
2013-06-10, 15:11:04
Was genau versteht Ihr unter "Basistakt"?

The quad-core SKU features a max CPU clock of 2.4GHz and carries a 2W SDP (Scenario Design Power) rating.

Auf jeden Fall gibt Anand selber im Artikel eine maximale Frequenz von 2.4GHz an, welche alles andere als abartig ist fuer die kommende Generation an SFF mobilen SoCs selbst fuer smartphones.

YfOrU
2013-06-10, 15:20:06
Basistakt beim Z2760 sind 1,5Ghz.

Basistakt (Intel) = garantierte CPU Frequenz bei GPU Last. Würde das zum Beispiel Samsung angeben wäre großes Kopfschütteln angesagt.
Der Raum oberhalb des Basistaktes steht für die dynamischen Verteilung nach Bedarf zur Verfügung (CPU - GPU).

Der Z2760 läuft bei CPU Last auf beiden Kernen mit 1,8Ghz.
Wenn das beim Z3770 bei einer geschätzten TDP (ausgehend von der SDP) von ~3 Watt ebenfalls eintritt (2,4 Ghz auf 4 Kernen) wird das entsprechend einschlagen. Ist natürlich Spekulation aber es würde mich wundern wenn ein 2,4 Ghz Silvermont langsamer als ein 2,0 Ghz Jaguar wäre. Dürfte unrealistisch sein denn dann wäre es kaum möglich Silvermont als Celeron und Pentium zu vermarkten.

Da sich die Begeisterung über Kabini anscheinend im Rahmen hält (Hersteller) und seit einer Weile an Silvermont basierten Produkten gearbeitet wird gehe ich stark davon aus das Intel hier ein sehr deutlich überlegendes Produkt hat. Die paar Bilder von der Computex sprechen eigentlich schon Bände -> Intel passiv, AMD mit aktiver Kühlung.

Ronny145
2013-06-10, 15:20:47
Was genau versteht Ihr unter "Basistakt"?



Ein immer anliegender und garantierter Takt, auch bei voller Auslastung unter 4 Kernen. Es macht einen riesengroßen Unterschied, ob 2,4 Ghz nur bei 1-2 Kernauslastung anliegen oder auch bei 4 Kern Auslastung.

YfOrU
2013-06-10, 16:08:50
Was genau versteht Ihr unter "Basistakt"?
Auf jeden Fall gibt Anand selber im Artikel eine maximale Frequenz von 2.4GHz an, welche alles andere als abartig ist fuer die kommende Generation an SFF mobilen SoCs selbst fuer smartphones.

Wer abseits von evtl. Qualcomm (->ARM) bekommt das mit einer IPC auf dem ungefähren Niveau von A15 vor 20nm hin ? Was den Zeitrahmen für die nächste Generation angeht habe ich so meine Bedenken. Vergleichsweise verlässlich (Verfügbarkeit) sind eigentlich nur Intel und Qualcomm. Letztere scheinen mir bezogen auf 20nm nicht gerade übermäßig optimistisch zu sein.

Ronny145
2013-06-10, 16:46:06
Der Z2760 läuft bei CPU Last auf beiden Kernen mit 1,8Ghz.
Wenn das beim Z3770 bei einer geschätzten TDP (ausgehend von der SDP) von ~3 Watt ebenfalls eintritt (2,4 Ghz auf 4 Kernen) wird das entsprechend einschlagen. Ist natürlich Spekulation aber es würde mich wundern wenn ein 2,4 Ghz Silvermont langsamer als ein 2,0 Ghz Jaguar wäre. Dürfte unrealistisch sein denn dann wäre es kaum möglich Silvermont als Celeron und Pentium zu vermarkten.



Für den Z3770 mit 2W SDP (3W TDP?) ist ein Jaguar mit 2 Ghz und 25W TDP nicht der passende Vergleich. Gegner im Tablet Bereich wäre der A4-1200 mit 3,9W TDP. Dieser hat 2 Kerne mit 1,0 Ghz (ohne Turbo!). Silvermont wird den ohne Zweifel plätten. Angesichts dessen, und die OEMs haben längst Bay Trail Samples in der Hand, verwundert die passive Haltung gegenüber Temash und Kabini bislang nicht. A4-1200 zu langsam, A6-1450/A4-1250 komische Mitteldinger und oberhalb ist nur der A6-5200 interessant.

YfOrU
2013-06-10, 17:58:04
Für den Z3770 mit 2W SDP (3W TDP?) ist ein Jaguar mit 2 Ghz und 25W TDP nicht der passende Vergleich...

Ist mir bewusst und ich wollte damit mangels exakter Daten die Relationen hervorheben. Daran wird sich auch bei den Desktop Varianten kaum etwas ändern -> gleiche (CPU) Performance bei ungefähr 1/3 der TDP. Temash und Kabini kamen viel zu spät und dann noch das leidige Thema Turbo.

Undertaker
2013-06-10, 18:36:18
Basistakt beim Z2760 sind 1,5Ghz.

Woher hast du denn das? Der Z2760 hat feste 1,8 GHz und keinerlei Turbo.

Insofern würde ich auch nicht ausschließen, dass die 2,4 GHz beim Z3770 ebenso die (feste) Taktrate darstellen und es keinen Turbo gibt.

YfOrU
2013-06-10, 18:44:35
Woher hast du denn das? Der Z2760 hat feste 1,8 GHz und keinerlei Turbo.

Insofern würde ich auch nicht ausschließen, dass die 2,4 GHz beim Z3770 nicht ebenso die (feste) Taktrate darstellen und es keinen Turbo gibt.

Das ist beim Z2760 etwas skurril denn der wird zwar mit 1,8 Ghz offiziell beworben aber als "Up to".

Undertaker
2013-06-10, 18:49:30
Vielleicht dürfen OEMs den SoC für kleinere Geräte auch langsamer takten? Die 1,8 Ghz sind zumindest defintiv kein Turbo und liegen auch bei Volllast (CPU + GPU!) konstant an (http://www.notebookcheck.com/typo3temp/_processed_/csm_stress_1_8_a4499f2667.png). (Bild von hier (http://www.notebookcheck.com/Test-Samsung-ATIV-Smart-PC-XE500T1C-Convertible.85012.0.html))

YfOrU
2013-06-10, 18:54:37
Typische komplette Beschreibung:
Intel® Atom™ Dual-Core Processor Z2760 1.5GHz with Intel® Burst Technology up to 1.8GHz

Könnte natürlich auch sein das diverse Hersteller auf Burst verzichten bzw. der Modus sowieso durchgehend zur Verfügung steht (da die TDP des SoCs für ein Tablet recht moderat ist).

Ronny145
2013-06-10, 19:04:56
Wie hoch liegt eigentlich die TDP beim Z2760?

Undertaker
2013-06-10, 19:06:30
Bitte mal immer die Quelle mit verlinken. Stammt das direkt von Intel? Wenn der Hersteller nichts von einem Turbo sagt, im ARK von festen 1,8 GHz spricht (http://ark.intel.com/de/products/70105/Intel-Atom-Processor-Z2760-1MB-Cache-1_80-GHz), kein Tool eine entsprechende Taktstufe auslesen kann (normalerweise ist der Basistakt als HFM (Max) hinterlegt) und nirgends ein anderer Takt als 1,8 GHz anliegt, ist das für mich ausreichend widerlegt.

Wie hoch liegt eigentlich die TDP beim Z2760?

So richtig offiziell gibt's da afaik keine Angabe. Öfters liest man mal etwas von 1,7 Watt, was mir aber sehr wenig erscheint. Realistisch ist nach Verbrauchsmessungen imo etwas um 3 Watt.

Ronny145
2013-06-10, 19:12:15
Dell Latitude 10 - Intel Atom processor Z2760 (1.8GHz with Intel Burst Technology, 1.5GHz HFM, 600MHz LFM
http://shopper.cnet.com/notebooks/dell-latitude-10-intel/4014-3121_9-35753132.html#ixzz2VpmuxejS

Hier gibt es so eine Angabe. Ob das auf offizielle Specs zurückführt, ich weiß es nicht.

YfOrU
2013-06-10, 19:15:33
Schreibt zum Beispiel Dell beim Latitude 10:
http://www.dell.com/us/business/p/latitude-10-tablet/fs
Specifications -> Processor

Z2760: 1,7W
http://www.heise.de/mobil/meldung/Intels-Tablet-Prozessor-Clover-Trail-wird-offiziell-1720526.html

AnarchX
2013-06-10, 19:17:18
Hier nennt man auch die 1,5GHz HFM: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9550788#post9550788

Möglicherweise sind die 2,1GHz bei Baytrail-T der HFM und die 2,4GHz Burst.

Ronny145
2013-06-10, 19:38:05
HFM wird im Z2760 Datasheet als Normal Operation bezeichnet. Darüber hinaus gibt es den Burst Modus

In addition, it also supports Intel® Burst Technology, which enhances processor performance.


Unter den Umständen sieht es nach 1,5 Ghz Basistakt aus und 1,8 Ghz ist der Burst. Klar, wie oft der Burst Modus greift, ist die andere Frage. Für den Z3770 Bay Trail-T sehe ich das auch so. 2,1 Ghz Basis/HFM und im Burst Modus 2,4 Ghz.

Ailuros
2013-06-10, 19:45:13
Das ist beim Z2760 etwas skurril denn der wird zwar mit 1,8 Ghz offiziell beworben aber als "Up to".

So wie ich es bis jetzt verstehe ist beim Z3770 die maximale Frequenz 2.4GHz, ebenso wie fuer 2760 die 1.8GHz. In einem SFF SoC wird man es wohl nicht gern haben wenn jegliche integrierte CPU konstant auf der maximalen Frequenz herumreitet und somit in null komma nichts die Batterie lehrt.

Ein immer anliegender und garantierter Takt, auch bei voller Auslastung unter 4 Kernen. Es macht einen riesengroßen Unterschied, ob 2,4 Ghz nur bei 1-2 Kernauslastung anliegen oder auch bei 4 Kern Auslastung.

Dass 2.4GHz moeglich sind und auch bei Nutzung aller 4 threads bzw. cores gleichzeitig sollte klar sein; fuer wie lange solch ein peak dann anhaelt ist dann ein anderes Kapitel und wie selten er ueberhaupt vorkommt. Unter 2W SDP verstehe ich smartphone Material; in dem Fall sind die 2.4GHz genau so viel "wert" wie Qualcomm's S800 bzw. Tegra4i maximale CPU Frequenzen. Nichts wirklich besonderes.

Undertaker
2013-06-10, 20:02:50
HFM wird im Z2760 Datasheet als Normal Operation bezeichnet. Darüber hinaus gibt es den Burst Modus

Unter den Umständen sieht es nach 1,5 Ghz Basistakt aus und 1,8 Ghz ist der Burst. Klar, wie oft der Burst Modus greift, ist die andere Frage. Für den Z3770 Bay Trail-T sehe ich das auch so. 2,1 Ghz Basis/HFM und im Burst Modus 2,4 Ghz.

Nur wieso ist dann in realen Geräten 1,8 GHz als HFM hinterlegt? Nochmal der Link von oben:

http://www.notebookcheck.com/typo3temp/_processed_/csm_stress_1_8_a4499f2667.png

Entweder hat Intel nochmal an den Specs geschraubt (falls ursprünglich 1,5 GHz Basis, 1,8 GHz Turbo geplant waren) oder die OEMs haben wirklich die Freiheit, den Basistakt abzusenken. Im Zweifelsfall ist für mich immer ARK (sowie die Realität) die Referenz. Selbst das Latitude 10 läuft ja entgegen der Angabe bei Prime und Furmark (!) mit 1,8 GHz (http://www.notebookcheck.com/Test-Dell-Latitude-10-Tablet.88062.0.html).

Ist ja auch egal: Die 1,8 GHz liegen beim Z2760 immer an. Ähnliches könnte man auch für den Z3770 spekulieren, wenn Intel dort von 2,4 GHz spricht.

Ronny145
2013-07-02, 11:34:49
http://webcache.googleusercontent.com/search?q=cache:TbWegjv5kXAJ:www.intel.it/content/dam/www/secure/emea/distributor/files/ilu-full-package.pdf+&cd=2&hl=de&ct=clnk&gl=de


Die Tablet Variante offenbar für dieses Jahr geplant.


Jetzt genauer eingegrenzt:

http://s14.directupload.net/images/130702/3rls7xmo.png
http://chinese.vr-zone.com/71695/intel-will-release-bay-trail-series-and-core-i5-mobile-cpu-on-september-07022013/

Ronny145
2013-07-03, 12:42:50
モデル名:byt_t_ffrd10 (BayTrail-Tの開発機であると判明済)
動作周波数:1101Mhz (1.1Ghz)
Android 4.2.2 JellyBean
総合スコア:43416
測定ロケール:米国
http://rbmen.blogspot.ro/2013/07/intelsocbaytrail-tantutu43426.html

43416 im AnTuTu Benchmark.

Gandharva
2013-07-03, 13:37:33
Und das bereits mit 1100 MHz. Nicht schlecht.

Ich denke mein nächstes Smartphone wird bereits einen Intel SoC haben.

boxleitnerb
2013-07-03, 13:39:17
http://rbmen.blogspot.ro/2013/07/intelsocbaytrail-tantutu43426.html

43416 im AnTuTu Benchmark.

Zum Vergleich:

Atom@1.8 GHz: 25,000 Punkte
Snapdragon S800@2.2 GHz: 30,000+ Punkte
Samsung Exynos 5410@1.6 GHz: 30,000+ Punkte

http://www.tabtech.de/android-bzw-google-tablet-pc-news/intel-bay-trail-t-prozessor-im-antutu-benchmark-niedrige-taktfrequenz-und-trotzdem-bestwerte-unter-android

Blediator16
2013-07-03, 17:00:26
Sowas sollte man wie die 3dmark Ergebnisse von Intel nehmen. Absolut nicht aussagekräftig.

Knuddelbearli
2013-07-03, 17:35:18
vor allem da solche benchmarks massiv angepasst werden, auf dem handy dann aber fast alle programme über eine vm laufen müssen.

also eigentlich noch viel schlimmer als 3dmark ^^

Ailuros
2013-07-03, 20:12:36
Zum Vergleich:

Atom@1.8 GHz: 25,000 Punkte
Snapdragon S800@2.2 GHz: 30,000+ Punkte
Samsung Exynos 5410@1.6 GHz: 30,000+ Punkte

http://www.tabtech.de/android-bzw-google-tablet-pc-news/intel-bay-trail-t-prozessor-im-antutu-benchmark-niedrige-taktfrequenz-und-trotzdem-bestwerte-unter-android

Wenn man die Resultate zwischen Atom und S800 sieht, sieht man schnell wie wertlos der AnTuTu benchmark genau ist. Wie schon erwaehnt es soll auch ein 8*A7@2.0GHz Mediatek Dingsda um die 30k erreichen. Man wird wohl nicht so naiv sein zu glauben dass der letzte config gleich schnell mit einem S800@2.2GHz ist.

Ronny145
2013-07-03, 20:16:42
Der AnTuTu soll doch gut mit Kernen skalieren, ist doch kein Wunder das 8 schwache Kerne verhältnismäßig gut aussehen. Bei gleicher Kernzahl ist das kein Faktor.

boxleitnerb
2013-07-03, 20:17:15
@Ail:
Wieso? Etwas weniger Takt, evtl. nicht perfekte Parallelisierung und A7 sind doch recht alte bzw. schwache Kerne, oder?
Auch weiß man ja gar nicht, wie hoch die Dinger dann wirklich getaktet haben, ob gedrosselt wurde. Ich würde die Ergebnisse nicht so schnell von der Hand weisen.

fondness
2013-07-03, 20:29:06
Der Benchmark ist trotzdem wenig aussagekräftig. Es wird zB die Speicherlatenz gemessen und ins Endergebnis eingerechnet, etwas wo Intel schon immer ausgezeichnet lag.

Ailuros
2013-07-03, 20:36:05
@Ail:
Wieso? Etwas weniger Takt, evtl. nicht perfekte Parallelisierung und A7 sind doch recht alte bzw. schwache Kerne, oder?

A7 sind die "LITTLE" Kerne die ein Samsung Exynos5410 fuer big.LITTLE neben den A15 Kernen benutzt; ja es sind low end Kerne und nein alles andere als "alt". Sie sind die neuesten ARM Kerne die momentan verkauft werden.

Auch weiß man ja gar nicht, wie hoch die Dinger dann wirklich getaktet haben, ob gedrosselt wurde. Ich würde die Ergebnisse nicht so schnell von der Hand weisen.

Ach wenn ein 8*A7/2GHz mainstream Gespann fast genauso viel leistet wie ein 4*Krait@2.2GHz high end Gespann dann kommt Dir dieses nicht als merkwuerdig vor oder? Von mir aus kann jeder glauben was er will und natuerlich wird Silvermont ein starkes Eisen sein, aber hoert mir bitte auf den nutzlosen Antutu Scheiss zu verteidigen. Im Zweifelfall fragt doch einfach mal einen Profi ueber die Applikation.

Es werden wohl irgendwann geekbench Resultate durchsickern oder?

boxleitnerb
2013-07-03, 20:38:35
Dann sag doch mal wieviel IPC ein Krait mehr hat ggü. einem A7? Kann man das irgendwo nachlesen oder ist das zu anwendungsabhängig?

Ailuros
2013-07-03, 20:50:20
Dann sag doch mal wieviel IPC ein Krait mehr hat ggü. einem A7? Kann man das irgendwo nachlesen oder ist das zu anwendungsabhängig?

Ich kann Dir garantieren dass Du in einem anstaendigeren benchmark als dem Antutu Scheiss einen korrekteren Unterschied zwischen 8*A7@2GHz und 4*Krait@2.2GHz bekommen wirst.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9830548&postcount=42

Undertaker hat es schon richtig ausgerechnet.

boxleitnerb
2013-07-03, 20:56:02
Na sooo weit sind die Ergebnisse jetzt nicht weg.
Milchmädchen:
8*2*1 (IPC) = 16
4*2,2*1,4 (IPC) = 12,3
Und wir gehen hier von absolut perfekter Skalierung aus. Zudem steckt wie fondness richtig sagt noch anderer Kram in dem AnTuTu drin, nicht nur die CPU. Könnte also schon passen.

Ailuros
2013-07-03, 21:00:55
Na sooo weit sind die Ergebnisse jetzt nicht weg.
Milchmädchen:
8*2*1 (IPC) = 16
4*2,2*1,4 (IPC) = 12,3
Und wir gehen hier von absolut perfekter Skalierung aus. Zudem steckt wie fondness richtig sagt noch anderer Kram in dem AnTuTu drin, nicht nur die CPU. Könnte also schon passen.

Es bleibt ein benchmark der mal milder ausgedrueckt fuer realistische 1:1 CPU Vergleiche total nutzlos ist; ich weiss zwar nicht fuer was es genau nutzvoll sein soll, aber das ist auch ein anderes Kapitel :P

Ronny145
2013-07-03, 21:08:19
Es bleibt ein benchmark der mal milder ausgedrueckt fuer realistische 1:1 CPU Vergleiche total nutzlos ist; ich weiss zwar nicht fuer was es genau nutzvoll sein soll, aber das ist auch ein anderes Kapitel :P


Ich sehe keine Argumente in dem Beitrag. Der AnTuTu ist oder war aus dem Grund ein unrealistischer Benchmark, weil dieser sehr gut mit Kernen skaliert. Das ist in der Smartphone Welt allerdings zumeist nicht gefragt. Der Vergleich mit CPUs unterschiedlicher Kernzahl kann daher nicht gut ausgehen. Bei gleicher Kernzahl sieht das anders aus. Was nicht heißen soll, dass das ein guter Benchmark ist. Ein einzelner Benchmark ist nie ausreichend, um CPUs zu vergleichen. Da braucht es ein paar mehr unterschiedliche Benchmarks.

Ailuros
2013-07-03, 21:15:59
Ich sehe keine Argumente in dem Beitrag. Der AnTuTu ist oder war aus dem Grund ein unrealistischer Benchmark, weil dieser sehr gut mit Kernen skaliert. Das ist in der Smartphone Welt allerdings zumeist nicht gefragt. Der Vergleich mit CPUs unterschiedlicher Kernzahl kann daher nicht gut ausgehen. Bei gleicher Kernzahl sieht das anders aus. Was nicht heißen soll, dass das ein guter Benchmark ist. Ein einzelner Benchmark ist nie ausreichend, um CPUs zu vergleichen. Da braucht es ein paar mehr unterschiedliche Benchmarks.

Der angebliche 8-core@2GHz 30k score ist womoeglich von einem 2*quad A7 config, wobei der zweite quad eher als Stromspar-cluster dient als alles andere. Selbst wenn Antutu 8 threads irgendwo einsetzen wuerde (was ich ernsthaft bezweifle) waere es wiederrum ziemlich unrealistisch fuer jegliche smartphone sw. Sowohl A7 als auch A15 cores koennen lediglich bis zu 4 cores pro cluster skalieren; ergo hat man in dem 8 core eigentlich einen hoch taktenden cluster fuer anspruchsvolle Aufgaben und einen niedrig taktenden fuer anspruchlosere Aufgaben. So in etwa wie big.LITTLE nur eben LITTLE.LITTLE.

Ronny145
2013-07-03, 22:55:59
http://s14.directupload.net/images/130703/blrikeg6.png
http://wenku.baidu.com/view/678a3a36dd36a32d73758148.html



Tablet und Smartphone Modelle fehlen leider. Zu den J-Celeron gab es auf der Computex bereits Ausstellungen: http://images.anandtech.com/doci/7048/BT2.jpg

y33H@
2013-07-03, 23:13:10
4C mit 2,0 GHz samt 4 EUs @ 750 MHz - das bei 7,5 W klingt schick.

Nightspider
2013-07-04, 00:59:42
Wie groß ist eigentlich das Package?
Passt so ein Teil größenmäßig in aktuelle Smartphones?

Ronny145
2013-07-04, 01:08:14
Bay Trail-M/D haben ein 25x25mm package. Bay-Trail-T 17x17mm. Das Tablet und Smartphone Package ist schon noch ein ganzes Stück kleiner.

S940
2013-07-04, 11:00:10
4C mit 2,0 GHz samt 4 EUs @ 750 MHz - das bei 7,5 W klingt schick.
Jo klingt gut. Wundere mich aber etwas, dass es dann auch nen Dualcore mit ebenfalls 7,5 W und der gleichen Taktfrequenz gibt. Da ist der Quad wohl schon aus der ULV-Spezialsortierung und dürfte nicht so günstig sein.

Undertaker
2013-07-04, 11:02:03
"Spezialsortierung" ist da imo ziemlich relativ. Auch bei den letzten Atom-Generationen hat Intel die Desktop-/Nettop-Ableger von der TDP unsinnig hoch klassifiziert.

ndrs
2013-07-04, 11:20:13
Jo klingt gut. Wundere mich aber etwas, dass es dann auch nen Dualcore mit ebenfalls 7,5 W und der gleichen Taktfrequenz gibt. Da ist der Quad wohl schon aus der ULV-Spezialsortierung und dürfte nicht so günstig sein.
Oder die 2GHz sind die Turbo-Frequenz?

Btw: für was soll eigentlich das "I" in BayTrail-I stehen?

Ronny145
2013-07-04, 11:30:35
Oder die 2GHz sind die Turbo-Frequenz?


Unwahrscheinlich. Auf den älteren Roadmaps stand was von Burst Modus 2,7 Ghz und höher. Sieht eher nach Basistakt aus, weil eben auch einige Modelle tief getaktet sind.


Btw: für was soll eigentlich das "I" in BayTrail-I stehen?


Integrated vielleicht. Könnte man auch Embedded nennen. Oder für ISG: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9539964#post9539964

Sind trotzdem embedded Modelle.

S940
2013-07-04, 11:40:29
Oder für ISG: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9539964#post9539964

Ne ISG hat doch ne eigene Spalte, da gibts auch je ein -D und -M Modelle für.

Ronny145
2013-07-08, 01:40:48
So plant Intel die Einordnung im Entry Segment für Desktop.

http://s1.directupload.net/images/130708/hs2eiuop.png

http://s7.directupload.net/images/130708/8w8xkra9.png

http://s7.directupload.net/images/130708/uvgg6rdn.png
http://www.xcom.ru/data/storage/1news/020713/intel.pdf

Nightspider
2013-07-08, 02:11:52
Bin ich der Einzige, der von Intels Namenschema langsam genervt ist?

Welche Modelle sind denn jetzt explizit für Smartphones bzw. Tablets oder kann theoretisch jedes Modell überall rein?

Und kann man schon erahnen, wie sich die IGP gegen die IGP vom Snapdragon S800 / Tegra 4 schlagen wird?

Ronny145
2013-07-08, 02:14:48
Orientiere dich einfach am Kürzel. T für Tablet, D für Desktop usw.

AnarchX
2013-07-08, 12:14:13
Sofern die in der Produktbeschreibung erwähnt werden... Mit Atom Z/N/D/(E/S) war das ganze noch etwas übersichtlicher. Mit den neuen Pentium/Celeron J1000/2000 sorgt man schon für etwas mehr Verwirrung.
Für was soll das "J" überhaupt stehen?

S940
2013-07-08, 12:30:38
Für was soll das "J" überhaupt stehen?
GUte Frage, es fällt noch auf, dass es davon 3 Levels gibt, J1, J2, J3, bei den Entry SoC Desktopteilen (rote Farbe). Das sind keine Abkürzungen, denn unter J2 stehe auch CPUs mit J1xxx Nummer und unter J3 gibt J2xxx Modelle.

Schließe mich Deiner Frage also an .. etwas mysteriös. Vom Sinn her anscheinend allgemein Entry Desktop SoCs, wie auch immer das im Detail gelöst ist.

Vielleicht "j" wie jeder kann sichs leisten ^^

Ronny145
2013-07-10, 01:12:36
Bezüglich zukünftiger Codenamen was neues.

Clovertrail was the first Windows tablet lanched in 2012 which also won this extremely talented team the IAA. This team is working on a annual cadence of products including Baytrail in 2013, Cherrytrail in 2014 and Broxton/Willowtrail in 2015
http://jobs.intel.com/mobile/job/Folsom-Logic-Design-Engineer-Job-CA-95630/2628227/

Nightspider
2013-07-10, 03:26:36
Eine Intel HD2500 mit 6EUs und einem Takt zwischen 650Mhz und 1150Mhz schafft GTA4 locker auf Konsolengrafik.
Nehmen wir mal an in Smartphones wird nur der DualCore Atom E3823 mit 1,75 Kerntakt und mit 4 EUs (AEs) mit knapp 800Mhz (792Mhz) takt bei 8W Spitzenverbrauch verbaut.
Dann wäre hätte dieses Smartphone mit Valley View SoC von der GPU Power her in etwa 45% der Leistung einer HD2500 und knapp 20-25% der Leistung einer HD4000. Damit dürften Konsolenports noch nicht laufen (außer vielleicht in 800*600). Ebenfalls würde Valley View von der Grafikleistung noch ein gutes Stück unter einem Snapdravon S800 und damit etwa auf dem Niveau vom Snapdragon S600 liegen.
http://images.anandtech.com/graphs/graph7082/55638.png
Wobei das natürlich auch nur eine Milchmädchenrechnung von mir ist.^^

Wobei der DualCore wohl eh nur für bestimmte Spiele reichen würde. Für Konsolenports wie GTA bräuchte man schon die QuadCore-Variante, welche mit 10W aber auch zu viel für ein Smartphone fressen sollte.
Nehmen wir mal an Airmont kommt nächstes Jahr (14nm) mit doppelt soviel Execution Units bei der IGP und hat auch doppelt soviel Grafikleistung und würde es auch als QuadCore in Smartphones schaffen, dann würden Games wie GTA5 locker auf Airmont-Tablets und Smartphones laufen.

Selbiges läuft ja sowieso schon flüssig auf SurFace Pro, welches natürlich noch in einer anderen Preisliga spielt.

AnarchX
2013-07-10, 08:11:01
Die E-Atoms sind für embedded Systeme.
Für Tablets (bzw. Phablets mit großem Akku) gibt es die Z-Serie (Z3770 mit 4C/bis zu 2,4GHz, 2W SDP (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9799963#post9799963)).

Aber dann gibt es auch noch Merrifield (22nm Smartphone SoC):
http://www.cnx-software.com/wp-content/uploads/2012/05/intel_smartphone_platform_roadmap_2012_2014.jpg
http://www.computerworld.com/s/article/9239763/Intel_shows_first_Merrifield_based_smartphone
... bei diesem wird vermutet, dass es wieder einen IMGTec IGP verwendet.

Nightspider
2013-07-10, 08:38:22
Keine Intel IGP?
Hmm, das macht alles noch etwas unübersichtlicher.

Worauf bezieht sich die 2W SDP Angabe? Pro Kern bei 2,4 Ghz?

AnarchX
2013-07-10, 08:47:58
Worauf bezieht sich die 2W SDP Angabe? Pro Kern bei 2,4 Ghz?
Die Szenario Design Power bezieht sich auf eine Verbrauch unter "realistischer" Auslastung. Und natürlich auf den ganzen SoC.
Die maximale TDP kann wohl gute 80% höher liegen: http://www.computerbase.de/news/2013-01/intel-stellt-ivy-bridge-mit-7-watt-sdp-13-watt-tdp-vor/

Beim Z3770 ist wohl der aktuelle Stand, dass der Basistakt bei 2,1GHz liegen sollte und er bei freien TDP-Kapazitäten auf bis zu 2,4GHz bursten kann.

Ailuros
2013-07-16, 12:06:48
http://www.eetimes.com/author.asp?section_id=36&doc_id=1318894

The current and upcoming revisions to the AnTuTu benchmark will also drastically alter the scores of Intel's upcoming Bay Trail Atom processor. As with the Atom Z2580, many in the press prematurely proclaimed it the victor over the next-generation ARM processors. Now that also appears to be highly questionable.

So, will all the sensationalistic bloggers retract their stories about Intel beating ARM? Likely not, but this definitely questions their credibility just as it does benchmarks. The moral of the story is that you have to question all benchmark data and use many data points from different sources before drawing a conclusion. It's clear that Intel still has an uphill climb to catch the ARM camp, much less surpass it. It is also clear that we need better benchmarks for mobile devices that test for platform efficiency and usage models.

Nur so nebenbei, weil meine vorigen Behauptungen als "bestandlos" und voreingenommen kategorisiert wurden. Mal sehen ob hier jemand ausnahmsweise den Anstand hat einen Rueckzieher zu machen.

mboeller
2013-07-16, 12:58:10
http://www.eetimes.com/author.asp?section_id=36&doc_id=1318894


Verstehe ich das richtig, das AnTuTu bei den Atom den Intel-hauseigenen ICC-Compiler einsetzt während die ARM beim Benchmark den GCC nutzen?

Mit welchen Compilern wird den nun Android bzw. Android-Software compiliert? Mit dem GCC oder mit anderen Compilern?

Wird auch der ICC bei Android-Software benutzt? Wahrscheinlich ja nicht, da nur die Atom X86 können. Der AnTuTu Benchmarkwert wäre dann doch, zumindest für Intel-CPUs völlig nutzlos, da ja keine Software den ICC benutzt, oder?

Das "tolle" an dem Artikel ist ja, das es Intel nicht gereicht hat das der AnTuTu den Intel-Compiler für den Benchmark einsetzt...nein sie mussten auch noch zusätzlich "optimieren".