PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Cedarview - 32nm Atom mit "D3D10.1" IGP in 2011


AnarchX
2009-11-20, 11:05:22
Fuad hat wohl eine aktuelle Roadmap vorliegen:
http://www.fudzilla.com/content/view/16513/35/
http://www.fudzilla.com/content/view/16512/41/

Primäre Fragen sind wohl momentan:

Woher kommt die IP für den IGP? GenX Nachfolger, der vielleicht auch in Sandy Bridge mit mehr EUs verbaut ist? Oder doch ein SGX545?
Wobei letzterer eher im Lincroft-Nachfolger für MIDs erscheinen könnte.

Wie wird Intel die Leistung steigern?
Quad-Atom? Architektur-Optimierungen? Takt über 2GHz?

In diesem Zeitraum dürfte Atom wohl deutlich mehr Konkurrenz erfahren als bisher:
- AMDs Bobcat
- ein möglicher VIA Nano-Dualcore @ 40nm
- stärkere ARM-Designs

reunion
2009-11-20, 11:14:04
D3D10.1 in 2011 ist jedenfalls nicht berühmt. Bobcat wird wohl eine D3D11-GPU haben.

V2.0
2009-11-20, 11:23:59
Wenn juckt DX11 in einem Netbook oder nettop?

reunion
2009-11-20, 11:26:35
Wenn juckt DX11 in einem Netbook oder nettop?

Demselben den in 2011 wohl auch CS5 oder OpenCL jucken wird. Und auch sonst nimmt man es sicherlich gerne mit.

AnarchX
2009-11-20, 11:29:14
D3D10.1 in 2011 ist jedenfalls nicht berühmt. Bobcat wird wohl eine D3D11-GPU haben.
Wohlmöglich hat man abseits von LRB kein weiteres D3D11-Design.:D
Mittlerweile würde ich SNB wohl auch nur auf D3D10.1 schätzen.

Mit Pineview wird man auch noch einen optimierten GMA 950 bis Anfang 2011 verkaufen: http://en.wikipedia.org/wiki/Intel_GMA#GMA_3100

Vielleicht ist der D3D10.1 IGP wenigstens kompatibel zur OpenCL/CS4.1.

Ailuros
2009-11-20, 11:32:40
Demselben den in 2011 wohl auch CS5 oder OpenCL jucken wird. Und auch sonst nimmt man es sicherlich gerne mit.

Nicht dass ich weiss was Intel in diesem Fall genau vorhat, aber wer sagt dass OpenCL im Fall von einem SGX54x unmoeglich ist?

Im Fall wo es SGX545 sein sollte hat dieser D3D10.1/OpenGL3.0 Unterstuetzung und ein volles GPGPU Profil eingebettet.

reunion
2009-11-20, 11:35:40
Nicht dass ich weiss was Intel in diesem Fall genau vorhat, aber wer sagt dass OpenCL im Fall von einem SGX54x unmoeglich ist?

Im Fall wo es SGX545 sein sollte hat dieser D3D10.1/OpenGL3.0 Unterstuetzung und ein volles GPGPU Profil eingebettet.

Natürlich ist OpenCL bzw. CS4.0/4.1 möglich. Die Frage ist ob solche GPUs in Zukunft dann noch entsprechend berücksichtigt werden. Die Vergangenheit hat nicht nur einmal gezeigt das man es sich hier oft leicht macht.

Ailuros
2009-11-20, 11:48:54
Natürlich ist OpenCL bzw. CS4.0/4.1 möglich. Die Frage ist ob solche GPUs in Zukunft dann noch entsprechend berücksichtigt werden. Die Vergangenheit hat nicht nur einmal gezeigt das man es sich hier oft leicht macht.

Die Entscheidung ist stets in Intel's Haenden und meistens machen ihre Entscheidungen auch nicht unbedingt Sinn. Wir reden hier ueber netbook Zeug und Intel wird anscheinend nichtmal im PC SoC sich ueber D3D10 bewegen mit dem GenX Zeug und Dich schert was sich Intel dabei denkt?

LRB klingt nicht als Option fuer Intel und Kleinkram SoCs fuer den Zeitraum, IMG's Serie6 wird irgendwo in 2010 angekuendigt (ergo keine logische Zeit fuer fruehzeitige Integrierung) ergo bleibt wohl nur das Dilemma zwischen ihrem eigenen GenX Zeug und IMG's vorhandenes IP. Der Grund warum sie bis jetzt in AtomZ nicht GenX sondern Poulsbo integriert haben kannst Du Dir wohl ausdenken.

Und da wir uebrigens schon dabei sind dauert die Integration von solchen SoCs ziemlich lange egal wer gerade herstellt. Tegra2 hatte seinen tapeout als SoC Ende 2008 und geht erst in Massenproduktion Q1 2010. Dass soll lediglich heissen dass egal was 2011 fuer AMD's Bobcat als Zeitraum darstellt, kann ich Dich schon jetzt versichern dass Du innerhalb von 2011 wohl eher keine netbooks mit Bobcat auf Regalen sehen wirst.

S940
2009-11-20, 12:18:57
Und da wir uebrigens schon dabei sind dauert die Integration von solchen SoCs ziemlich lange egal wer gerade herstellt. Tegra2 hatte seinen tapeout als SoC Ende 2008 und geht erst in Massenproduktion Q1 2010. Dass soll lediglich heissen dass egal was 2011 fuer AMD's Bobcat als Zeitraum darstellt, kann ich Dich schon jetzt versichern dass Du innerhalb von 2011 wohl eher keine netbooks mit Bobcat auf Regalen sehen wirst.Ob man das vergleichen kann ? Ich glaubs eher nicht.
Ausserdem steht auf kein Bobcat im Plan sondern Brazos, also die komplette Plattform - für 2011 ...
Muster gibts laut letzter AMD Präsenation ab Juli 2010 für die OEMs, also für 2011 sollte das locker reichen, zumindest für Q3,4/11.

ciao

Alex

V2.0
2009-11-20, 12:22:02
Demselben den in 2011 wohl auch CS5 oder OpenCL jucken wird. Und auch sonst nimmt man es sicherlich gerne mit.

Ob das in typischen Netbookanwendungen 2011-2014 jemals wichitg sein wird?

Aero darstellen, Youtube HD ruckelfrei ausgeben, wenig verbrauchen, mehr muss eine SoC Lösung im Netbook imho erstmal nicht.

Ailuros
2009-11-20, 12:31:55
Ob man das vergleichen kann ? Ich glaubs eher nicht.
Ausserdem steht auf kein Bobcat im Plan sondern Brazos, also die komplette Plattform - für 2011 ...
Muster gibts laut letzter AMD Präsenation ab Juli 2010 für die OEMs, also für 2011 sollte das locker reichen, zumindest für Q3,4/11.

ciao

Alex

Du hast Recht ich hab die Codenamen wieder verwechselt. Moment selbst Brazos scheint fuer desktop/notebooks bestimmt zu sein: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7654662&postcount=1

Welcher SoC ist jetzt fuer moegliche netbooks bestimmt? Brazos?

Wie dem auch sei dauert bis heute die Integrierung von solchen SoCs (fuer netbooks und kleiner) laenger als Du hier einschaetzt. Ob sich mit AMD' SoCs sich dabei etwas aendern wird weiss ich nicht, aber es liegt auch nicht in den Haenden des SoC Herstellers.

S940
2009-11-20, 12:35:40
Youtube HD ruckelfrei ausgeben
Mit einer Vorabversion des Flash Players 10.1 demonstriert Adobe die GPU-Unterstützung zur Videowiedergabe sowohl mit AMD-, als auch NVIDIA-Grafikkarten.

Bei beiden Firmen sind die neuesten Grafiktreiber ATI Catalyst 9.11 (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=2&id=1258485995) und NVIDIA GeForce 195.55 "WHQL" (http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?category=2&id=1258537385) Voraussetzung für die Beschleunigung durch die Grafikkarte.
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1258540152
Ein kleiner Atom müßte bei HD doch an der Belastungsgrenze arbeiten und selbst dann ruckelts vermutlich. Eine GPU macht das dagegen mit dem kleinen Finger.

Willkommen im Zeitalter der heterogenen Chips ;-)

ciao

Alex

S940
2009-11-20, 12:37:07
Du hast Recht ich hab die Codenamen wieder verwechselt. Moment selbst Brazos scheint fuer desktop/notebooks bestimmt zu sein: http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7654662&postcount=1

Welcher SoC ist jetzt fuer moegliche netbooks bestimmt? Brazos?
Jo Brazos, das ist der Plattformname für die "New Markets <20W". Letzteres ist AMDs "Netbook Segment" Umschreibung ;-)

Ailuros
2009-11-20, 13:05:30
http://www.planet3dnow.de/cgi-bin/newspub/viewnews.cgi?id=1258540152
Ein kleiner Atom müßte bei HD doch an der Belastungsgrenze arbeiten und selbst dann ruckelts vermutlich. Eine GPU macht das dagegen mit dem kleinen Finger.

Willkommen im Zeitalter der heterogenen Chips ;-)

ciao

Alex

Ich dachte ATOM netbooks haben VXD3x0 cores fuer video decoding? http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=3&DemoTech=POWERVR%20Video&#ViewPort

In dem Fall ist es besser einen winzigen HD decoder zu haben denn er wird stets auf niedrigen Frequenzen operieren und um einiges weniger verbrauchen als eine jegliche GPU. Zumindest fuer AtomZ netbooks bin ich mir sicher dass der VXD core im Poulsbo fuer encoding gebraucht wird und nicht SGX535.

Jo Brazos, das ist der Plattformname für die "New Markets <20W". Letzteres ist AMDs "Netbook Segment" Umschreibung ;-)

Ok danke. Jetzt sieht's klarer aus.

S940
2009-11-20, 13:24:12
Ich dachte ATOM netbooks haben VXD3x0 cores fuer video decoding? http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=3&DemoTech=POWERVR%20Video&#ViewPort

In dem Fall ist es besser einen winzigen HD decoder zu haben denn er wird stets auf niedrigen Frequenzen operieren und um einiges weniger verbrauchen als eine jegliche GPU. Zumindest fuer AtomZ netbooks bin ich mir sicher dass der VXD core im Poulsbo fuer encoding gebraucht wird und nicht SGX535.
Jo klar, das wäre natürlich noch besser, aber reicht das auch für (echtes) HD (ging ja oben om "Youtube HD" )?

Dein "HD" Demo ist in Wahrheit ja auch nur WideVGA
This demo shows a VXD multi standard decoder simultaneously decoding a H.264 HP L4.1 blu-ray stream, with a WideVGA H.264 MP L3.0 stream.
Wiki sagt dazu:
Wide VGA or WVGA an abbreviation (http://en.wikipedia.org/wiki/Abbreviation) for Wide Video Graphics Array is any display resolution (http://en.wikipedia.org/wiki/Display_resolution) with the same 480 pixel (http://en.wikipedia.org/wiki/Pixel) height as VGA (http://en.wikipedia.org/wiki/VGA) but wider, such as 800×480, 848×480, or 854×480
Also nicht prickelnd.

Für Netbooks sollte das auf der einen Seite locker ausreichen, auf der andren Seite wird das Quellmaterial in 2011 wohl häufiger in 1920 vorliegen als aktuell.
Aber fürs meiste sollte es wohl reichen, da geb ich Dir mal Recht ;)

ciao

Alex

Ailuros
2009-11-20, 13:36:09
Jo klar, das wäre natürlich noch besser, aber reicht das auch für (echtes) HD (ging ja oben om "Youtube HD" )?

Dein "HD" Demo ist in Wahrheit ja auch nur WideVGA

Wiki sagt dazu:

Also nicht prickelnd.

Für Netbooks sollte das auf der einen Seite locker ausreichen, auf der andren Seite wird das Quellmaterial in 2011 wohl häufiger in 1920 vorliegen als aktuell.
Aber fürs meiste sollte es wohl reichen, da geb ich Dir mal Recht ;)

ciao

Alex

Fuer 2011 geht man wohl eher auf so etwas:

http://www.imgtec.com/News/Release/index.asp?NewsID=494

S940
2009-11-20, 13:48:43
Fuer 2011 geht man wohl eher auf so etwas:

http://www.imgtec.com/News/Release/index.asp?NewsID=494
Na dann .. das sollte reichen :)
Ok also wieder zurück zum Thema, was bringen einem CS5 / OpenCL im 2011 Netbook ... :confused:

Ailuros
2009-11-20, 13:56:24
Na dann .. das sollte reichen :)
Ok also wieder zurück zum Thema, was bringen einem CS5 / OpenCL im 2011 Netbook ... :confused:

OpenCL? Hmmm wenn Adobe ihren Hintern endlich bewegt und man bekommt bessere GPU Unterstuezung fuer Zeug wie Photoshop z.B., sitze ich persoenlich erstmal aufrecht.

davidzo
2009-11-20, 15:17:54
Wenn juckt DX11 in einem Netbook oder nettop?
Die OEMs und 90% der Endkunden!
Kostet außerdem nicht wirklich mehr Transistoren als DX10.1
Wenn ich jetzt schon sehe, dass die HD3000 Serie im gegensatz zur 4000er und 5000er keine flashbeschleunigung kriegt obwohl sie es könnte, dann finde ich es schon angenehmer zu wissen dass man eine aktuelle Plattform hat für die noch neue GPU Computing Software kommt.


Der Grund warum sie bis jetzt in AtomZ nicht GenX sondern Poulsbo integriert haben kannst Du Dir wohl ausdenken.

[QUOTE]Tegra2 hatte seinen tapeout als SoC Ende 2008 und geht erst in Massenproduktion Q1 2010. Dass soll lediglich heissen dass egal was 2011 fuer AMD's Bobcat als Zeitraum darstellt, kann ich Dich schon jetzt versichern dass Du innerhalb von 2011 wohl eher keine netbooks mit Bobcat auf Regalen sehen wirst.
Na und? Von Bocat wissen wir seit 2007 und das CPU-Design ist wohl schon länger fertig (Tomcat sollte noch 2008 kommen), denn es wurde bereits parallel zum K10.5 entwickelt (gleich nach K8L). Und da es in 40nm kommt, während zu der zeit quasi schon alles der Konkurrenz in 32nm ist, kannst du sicher gehen, dass man die Zeit für die Integration bei den OEms nutzt. Du kannst davon ausgehen, dass Ontario (bobcat x 2 + cedar) quasi direkt nach cedar selbst gesampled wird. Schließlich handelt es sich um 40nm bulk wie cedar auch, also mitte 2010 wohl bereits verlässliche Technik. 2011 wird es bobcatnetbooks und nettops geben, alles andere wäre auch eine schande für amd, denn bis dahin kann intel den gesamten netbookmarkt mit seinem rekordwachstum beinahe für sich allein beanspruchen.

Ob das in typischen Netbookanwendungen 2011-2014 jemals wichitg sein wird?

2011-2014? Ist das nicht schon jetzt die wichtigste Anwendung in Netbooks?
Netbooks sind wie der Name sagt in erster Linie ein Surfgadget mit größerem Display als Handys und daher primär für Youtube, Flickr, Facebook und Co gedacht, na klar sind da die Multimediafähigkeiten am wichtigsten! Von einem Spreadsheet kriege ich ja nichtmal die ersten fünf spalten drauf, geschweige denn dass man sie lesen kann.
Der Analphabetismus in den reichsten Ländern nimmt zu, die leute lesen weniger und gucken mehr Videos und Bilder an.


Aero darstellen, Youtube HD ruckelfrei ausgeben, wenig verbrauchen, mehr muss eine SoC Lösung im Netbook imho erstmal nicht.
HD wiedergeben und Youtube Hd wiedergeben ist etwas unterschiedliches.
Bisher gabs ja lediglich HQ, nichtmal annähernd HD und der Flashplayer verschluckt im Fullscreen dermaßen leistung, dass dir die beste H264beschleunigung der Grafik nichts nützt, wenn du nicht auch Flash beschleunigst.


Welcher SoC ist jetzt fuer moegliche netbooks bestimmt? Brazos?
Brazos = Ontario APU + unbekannter IOchip (vgl. Cedartrail)
Bobcat = Low Power Architektur (vgl. Atom)
Ontario = APU also CPU(ex Twincat)+GPU(Cedar bzw. island cedarrefresh) (vgl. Cedarview)
Tomcat= gecancelter Singlecore Bobcat ohne GPU (gäbe wohl bei 40nm auch Probleme mit den Pads für IMC und HT)

Die 2010 Plattform ist hauptsächlich das was wir bisher haben. Einige neue CPUs kommen vom Desktop in das mobile segment, genauso verhält es sich mit evergreen->manhattan. Ein Gegenstück zu Pineview ist also praktisch nicht vorhanden.
"Nile", als überfällige ablösung für die 65nm athlon neo singlecores + 690e wird nicht nur größer sein, mehr strom verbrauchen, sondern auch ein verlustgeschäft für amd, wenn man mit Pineview preislich konkurrieren will.

http://regmedia.co.uk/2009/11/12/amd_note.jpg
http://brightsideofnews.com/Data/2009_11_11/AMD-sub1W-Bobcat-architecture-targets-ARM-Intel-Atom/AMD_Bobcat_675.jpg
http://brightsideofnews.com/Data/2009_11_11/AMD-sub1W-Bobcat-architecture-targets-ARM-Intel-Atom/AMD_Brazos_2011_675.jpg

Cedartrail wird es im Gegensatz zu Pinetrail nicht leicht haben.
Falls Bobcat noch das ist, was AMD 2007 geplant hat ist es immernoch eine k8basierte OOO CPU mit deutlich mehr wumms als man aus Atom herausholen kann. Speichercontrollerseitig wird wohl gleichstand herrschen, da beide wohl nur einen Kanal DDR3 nutzen (was bei AMD noch nicht feststeht aber wahrscheinlich klingt). Der 2007 Tomcat (singlecore bobcat) sollte rund 1Ghz haben und angesichts von 40nm bulkfertigung bezweifle ich dass es bei Ontario deutlich mehr geworden sind.
Cedarview hat also den Vorteil des Takts. Extrapoliert man von Silverthorne über Pinetrail zu cedartrail, wird man wohl bei ca. 2Ghz landen ohne die beabsichtigen Energieeinsparungen zu sprengen.
Wenn AMD den beabsichtigten Stromverbrauch von 1-10 Watt für Ontario hinbekommt läge man gleichauf. ich fürchte aber AMD hat das nicht ohne Grund nur zu Bobcat geschrieben, also zur Architektur. Die Architektur ist also skalierbar von ein bis zehn Watt pro Bobcat Core, was nicht heißt, dass dies beim Ontario Dualcore im 40nm prozess schon so realisiert wird. Allein wenn das eine pro Coreangabe war hat man schon 2Watt für die Minimalvariante - noch ohne GPU.
Ich denke also Cedartrail kann mal wieder einen kleinen Energievorteil im Prestigeträchtigen MID und ultralow powerbereich für sich verbuchen, wo man dann aber auch starke Konkurrenz von ARM und IMG bekommt (hoffentlich).


Ich dachte ATOM netbooks haben VXD3x0 cores fuer video decoding? http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=3&DemoTech=POWERVR%20Video&#ViewPort

ATOM MIDS, nicht netbooks. Sieht bei Cedarview wenn du mich fragst aber eher auch nicht danach aus, Pinetrail hat nämlich offenbar auch nur intelmurks drin.

Ailuros
2009-11-20, 15:31:17
Na und? Von Bocat wissen wir seit 2007 und das CPU-Design ist wohl schon länger fertig (Tomcat sollte noch 2008 kommen), denn es wurde bereits parallel zum K10.5 entwickelt (gleich nach K8L). Und da es in 40nm kommt, während zu der zeit quasi schon alles der Konkurrenz in 32nm ist, kannst du sicher gehen, dass man die Zeit für die Integration bei den OEms nutzt. Du kannst davon ausgehen, dass Ontario (bobcat x 2 + cedar) quasi direkt nach cedar selbst gesampled wird. Schließlich handelt es sich um 40nm bulk wie cedar auch, also mitte 2010 wohl bereits verlässliche Technik. 2011 wird es bobcatnetbooks und nettops geben, alles andere wäre auch eine schande für amd, denn bis dahin kann intel den gesamten netbookmarkt mit seinem rekordwachstum beinahe für sich allein beanspruchen.

Was heisst na und? Integration in finalen Geraeten haengt nicht von AMD selber ab sondern von den Herstellern. Bis jetzt ging es ziemlich lahm zu und wenn sich hier etwas aendern sollte dann wohl nicht nur fuer AMD.

ATOM MIDS, nicht netbooks. Sieht bei Cedarview wenn du mich fragst aber eher auch nicht danach aus, Pinetrail hat nämlich offenbar auch nur intelmurks drin.

Wie meinen? Ich bin mir sicher dass AtomZ netbooks den VXD video decoder integriert haben, ich weiss nur nicht was die restlichen ATOM Geraete fuer video decoding genau haben.

davidzo
2009-11-20, 15:51:44
Jo, AtomZ kann man nur mit Poulsbo kaufen, einzeln garnicht. Der ist nur eben kaum in den netbooks die das große Volumen machen. 90% haben die billigen kleinen N270 und den 945GSE bzw. mittlwerweile auch gelegentlich den ION.

Man sollte hier nicht die Plattformen vermixen.

Menlow(USW15), Moorestown und Medfield gehören in die MID Kategorie.

Diamondville(945GSE), Pinetrail und Cedartrail sind die mainstream netbook und Nettop kategorie.

945GC ist einfach nur Resteverwertung und hat da eigentlich gar nichts zu suchen. Lustig ist, dass Diamondville in Kombination mit 945GC oder GSE auch keinerlei Plattformcodenamen hat. Das bestätigt ja die provisorische Natur dieser ersten Lösungen.

Pinetrail ist etwas sparsamer als Diamondville+945GSE, kommt aber nicht an menlow ran. für den Konkurrenten zu Poulsbo wirst du noch warten müssen. Für Moorestown habe ich große Hoffnungen dass sie eine PowerVR Core in die CPu integrieren, weil sie wissen, dass sie es mit Intel grafik nie in den anvisierten Energiebereich schaffen.

S940
2009-11-20, 16:38:07
OpenCL? Hmmm wenn Adobe ihren Hintern endlich bewegt und man bekommt bessere GPU Unterstuezung fuer Zeug wie Photoshop z.B., sitze ich persoenlich erstmal aufrecht.
Da dachte ich auch dran, aber wer macht Photoshop auf nem Netbook ... ?
Die Leute, die das interessiert, sollten sich mind. nen Llano kaufen.

davidzo
2009-11-20, 17:52:53
nix photoshop.

alleine schon die ganzen 3d oberflächen und die touchbedienung braucht beschleunigung mit hochauflösenden jpegs die reibungslos skaliert, verschoben und geshadet werden müssen. und wenn man Leistung verschenken will, das ganze nochmal in flash. da hat man ja selbst bei nem aktuellen intel quadcore schon gelegentlich probleme... (flashvideo in HD fullscreen + ac3sound + einblendwerbungen)
und sowas würde man natürlich auch gerne auf einem externen monitor (fernseher/beamer) abspielen, während man auf dem gerät weitersurft und neues Material zum anschauen aussucht (multiple Hdstreams).

V2.0
2009-11-20, 18:53:38
Auf dem Netbook? Das glaube ich nicht, dass das eine weite Verbreitung findet.

davidzo
2009-11-20, 22:14:50
Ein Netbook ist ein USBstick mit Möglichkeit zu gucken was drauf ist ohne weitere Geräte dafür zu benutzen. Vielleicht zum emails checken, den meisten fehlt aber wwan und das macht mein blackberry eigentlich eleganter. vielleicht zum kurzen nachschlagen von irgendwas im netz (wieder der wwan mangel. aber ernsthaft arbeiten an einem netbook - nicht wirklich. das nimmt man eher mal kurz mit um die daten dabei zu haben, halt eben wie beim usbstick, nur dass man eben nicht ständig an einen fremden rechner muss um draufzugucken.
wenn ich mich also zu nem videoabend verabrede spiele ich ein paar aktuelle mkvs auf das netbook und dann soll das die gefälligst auch auf dem hdcp fernsehgerät abspielen wo ich das eventuell dranschließe. und wenn dann was bei youtube nachschlägt oder nachher noch ein paar musikvideos laufen lassen will, dann muss das netbook das natürlich auch können, man kann doch nicht erwarten dass ich dazu mein dickes notebook mitschleppe?
der einzige chip der diesen zweck ansatzweise erfüllt ist der IONle. ich warte trotzdem noch.

Ailuros
2009-11-21, 06:39:41
Da dachte ich auch dran, aber wer macht Photoshop auf nem Netbook ... ?
Die Leute, die das interessiert, sollten sich mind. nen Llano kaufen.

Vorrausetzung waere dass Adobe in Photoshop die jeweilige GPU voll und richtig anspricht. Image processing durch GPGPU fuer die jeweiligen PS filter waere schon mal ein angenehmer Anfang.

http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=2&DemoTech=POWERVR%20Graphics&#ViewPort

Wenn's auf einem smartphone geht, sehe ich nicht ein warum eine um einiges faehigere GPU wie auf Brazos da nicht helfen koennte.

Was dann eher limitiert ist wenn der Hersteller win7 auf so ein Ding klatscht mit zu wenig Systemspeicher fuer etwas wie photoshop.

Mein zeitiges notebook ist uralt und ziemlich schwer und ja der einzige Grund dass ich es benutze ist um Zeug von der Arbeit nach Hause schleppen zu koennen (und umgekehrt). Schwaecher als die AMD single core CPU und die 57x0 GPU wird so ein Ding trotzdem nicht sein. Natuerlich benutzte ich es auch nicht fuer aufwendige PS Aufgaben aber eher fuer leichteres Zeug.

Gast
2009-11-21, 10:40:04
Wie meinen? Ich bin mir sicher dass AtomZ netbooks den VXD video decoder integriert haben, ich weiss nur nicht was die restlichen ATOM Geraete fuer video decoding genau haben.

Dafür brauchst du dann aber noch einen Treiber, der mehr als nur den VGA-Emulationsteil anspricht. Danke Intel. :(

S940
2009-11-21, 11:07:21
Vorrausetzung waere dass Adobe in Photoshop die jeweilige GPU voll und richtig anspricht. Image processing durch GPGPU fuer die jeweiligen PS filter waere schon mal ein angenehmer Anfang.
Naja, ein paar Kleinigkeiten gehen ja schon:
http://createdigitalmotion.com/2008/10/01/more-on-adobes-pixel-bender-in-cs4-and-flash-gpus-and-performance/

und das läuft nicht über CUDA oder Stream, sondern unabhängig über:
Some GPU-accelerated features require graphics support for Shader Model 3.0 and OpenGL 2.0
http://www.adobe.com/products/photoshop/photoshop/systemreqs/?promoid=DRHXB

Wenn sie da weiter machen, kein Problem.

Aber nochmal die Frage ... an nem Netbook tut sich das doch keiner an .. ~11 Zoll Bildschirm, mickrige Auflösung ...

Selbst wenn man nen externen Monitor hat sollte man sich nen Llano kaufen.

Der HD Videoabend ok ... hmm grenzwertig ^^

ciao

Alex

LovesuckZ
2009-11-21, 11:09:55
Naja, ein paar Kleinigkeiten gehen ja schon:
http://createdigitalmotion.com/2008/10/01/more-on-adobes-pixel-bender-in-cs4-and-flash-gpus-and-performance/

und das läuft nicht über CUDA oder Stream, sondern unabhängig über:

http://www.adobe.com/products/photoshop/photoshop/systemreqs/?promoid=DRHXB

Wenn sie da weiter machen, kein Problem.

Aber nochmal die Frage ... an nem Netbook tut sich das doch keiner an .. ~11 Zoll Bildschirm, mickrige Auflösung ...

Selbst wenn man nen externen Monitor hat sollte man sich nen Llano kaufen.

Der HD Videoabend ok ... hmm grenzwertig ^^

ciao

Alex

Das Samsung N510 mit ION hat bei 11.6" eine Auflösung von 1366x768 und HDMI. Ergo steht einem Youtube 720p/1080p Videoabend nichts im Wege. :D

Ailuros
2009-11-21, 18:33:48
Naja, ein paar Kleinigkeiten gehen ja schon:
http://createdigitalmotion.com/2008/10/01/more-on-adobes-pixel-bender-in-cs4-and-flash-gpus-and-performance/

und das läuft nicht über CUDA oder Stream, sondern unabhängig über:

http://www.adobe.com/products/photoshop/photoshop/systemreqs/?promoid=DRHXB

Wenn sie da weiter machen, kein Problem.

Aber nochmal die Frage ... an nem Netbook tut sich das doch keiner an .. ~11 Zoll Bildschirm, mickrige Auflösung ...

Selbst wenn man nen externen Monitor hat sollte man sich nen Llano kaufen.

Der HD Videoabend ok ... hmm grenzwertig ^^

ciao

Alex

Die bisherigen Kleinigkeiten sind zwar willkommen, aber nicht so besonders dass sich eine high end GPU mit sagen wir mal 1GB ram von einer heutigen low end GPU mit 512MB absetzen kann.

HD video haengt vom benutzten ff video decoder ab und so lange er jegliche CPU minimal beschaeftigt sollte sogar dual stream ohne hiccups gehen.

=Floi=
2009-11-22, 14:31:00
wird es auch noch cpus ohne diese miese igp geben?

davidzo
2009-11-22, 14:43:41
Mein zeitiges notebook ist uralt und ziemlich schwer und ja der einzige Grund dass ich es benutze ist um Zeug von der Arbeit nach Hause schleppen zu koennen (und umgekehrt). Schwaecher als die AMD single core CPU und die 57x0 GPU wird so ein Ding trotzdem nicht sein.
Kein Singlecore AMD! Die Brazos Plattform hat bis jetzt nur ein Mitglied und das ist der Dualcore Ontario. Insbesondere die GPU hat deutlich mehr Wums als die meistens derzeitigen Notebooks, ist ja auch nicht schwer, in 70% steckt ne ältere Intel IGP.


Das Samsung N510 mit ION hat bei 11.6" eine Auflösung von 1366x768 und HDMI. Ergo steht einem Youtube 720p/1080p Videoabend nichts im Wege. :D
Ist das ne Sache des Displays, die displayauflösung ist für dne Fall egal, weil niemand filme auf so einem winzigen bildschirm sehen wollen würde? Klar, 720p kann er gerade so eben Anzeigen, Aber 1080p wird auch rechenleistungsmäßig knapp.
Ich habe ein Thinpad T61 mit NVS140m (GF8400GT also vergleichbar mit ION) und 2Ghz Intel T7300. 1080p material hat mitunter geruckelt bis ich durch einen Treiberhack CUDA aktivieren konnte (Lenovotreiber haben kein CUDA) und dann Core-AVC mit CUDAunterstützung benutzen konnte. Mittlerweile läuft 1080p Material je nach bitrate mit zwischen 30 und 80% CPUlast. Ein singlecore Atom wird da nicht reichen bei den höher kodierten videos. Mich interessiert ja nicht die durchschnittliche Auslastung, die kann ja bei dem netbook gerne bei 70% liegen, fatal sind die spitzen die an 100% gehen, denn die bedeuten ruckeln und/oder ton/bildverschiebung. Dazu noch den Overhead von youtub/Hulu und der Atom ist überfordert. CoreAVC unterstützt CUDA und Multithreading und schafft es so gerade eben.
Habe aber gehört dass Dualcore Atoms mit ION es mit 55-70% last schaffen sollen, daher besitze ich für sowas jetzt auch einen ZOTAC ION-X server mit atom 330(VDPAU sei dank, viel besser als dieser DXVA crap).

Ailuros
2009-11-22, 15:51:27
Kein Singlecore AMD! Die Brazos Plattform hat bis jetzt nur ein Mitglied und das ist der Dualcore Ontario. Insbesondere die GPU hat deutlich mehr Wums als die meistens derzeitigen Notebooks, ist ja auch nicht schwer, in 70% steckt ne ältere Intel IGP.

Du hast mich falsch verstanden. Ich hab mit dem single core AMD mein zeitiges Schlepptopp beschrieben; wenn leichte und schnelle Aufgaben auf dem uralten Wuerger noch gehen sehe ich nicht ein dass ein netbook der Zukunft nicht zumindest auf dem gleichen Nivaeu liegt mit PS wenn nicht um einiges besser.

V2.0
2009-11-22, 16:08:23
Aber realistisch gesehen wird niemand eine PS Lizenz auf ein Netbook aufsetzen. Für die dortigen Bedürfnisse gibt es Freeware oder zur Not PS Elements.

AnarchX
2011-01-16, 00:11:26
Wenn man sich den Unterschied zwischen SNB-DC-GT1 und SNB-DC-GT2 anschaut, wären wohl 6 EUs für diesen Atom-SoC durchaus denkbar.

Nightspider
2011-02-13, 19:18:37
Weiß einer warum Intel den Atom nicht schon seit Anfang 2010 in 32nm fertigt?

Damit wäre man der Konkurenz deutlich überlegen gewesen.

Aber man lässt sich ja scheinbar mit Absicht von der ARM-Konkurenz fertig machen.

Handelt Intel hirnlos oder steckt was anderes dahinter?

Intel will in einem Jahr selbst große >=8Kern Prozessoren in 22nm fertigen. Kleine Chips, wie den Atom zu fertigen sollte doch einfacher sein, als große >=8Kern CPUs. Wieso als 32nm erst im späten Jahr 2011? Warum nicht wenigstens gleich zum Jahreswechsel auf 22nm umsteigen?

Ich versteh es nicht.

Fabian_HT4U
2011-02-13, 19:35:29
Hi,

der Atom muss vor allem eines sein: günstig. Grundsätzlich ist es dabei manchmal so, dass eine etwas ältere Fertigung und damit verbunden ein etwas größeres Die günstiger ist, als eine neue Fertigung. Je aktueller eine Fertigung desto teurer ist diese.

grüße
Fabian

Shink
2011-02-14, 11:11:57
Grundsätzlich ist es dabei manchmal so, dass eine etwas ältere Fertigung und damit verbunden ein etwas größeres Die günstiger ist, als eine neue Fertigung.
Hmm... :confused:
Warum sollte das so sein?

Ich könnte mir vorstellen dass man mit einer neuen Fertigung mehr Ausschuss produziert aber das müsste doch bei einem kleinen Atom-Die viel weniger schlimm sein? (Weil man im Falle eines Fertigungsfehler den ganzen Die wegschmeißen muss.)

Limit
2011-02-14, 12:08:14
Naja, ich denke da gibt es verschiedene Gründe

Man hat evtl. nicht genügend Kapazitäten um alles in 32nm zu fertigen.

Aus Sicht der Verlustleistung bringt ein Shrink bei High-End CPUs am meisten, da diese sowieso schon in einem Grenzbereich agieren (wo höhere Taktfrequenzen mit höheren Spannungen erkauft werden). Bei einer Atom-CPU wäre die Verringerung der Verlustleistung prozentual deutlich geringer, da diese von Haus aus in ihrem optimalen Taktfrequenz- und Spannungsbereich betrieben werden. Ergo fängt man normalerweise mit den größten Chips an arbeitet sich dann nach unten durch.

Bei einem kleinen Chip könnte man irgendwann an eine Grenze stoßen, wo die Fläche für die I/O Pins die Mindestgröße festlegt (kA, ob das bei Atom schon der Fall wäre).


Die Wafer für 45nm dürften günstiger sein als die für 32nm.

Die Yields sind bei 45nm besser.

Shink
2011-02-14, 12:15:00
Bei einem kleinen Chip könnte man irgendwann an eine Grenze stoßen, wo die Fläche für die I/O Pins die Mindestgröße festlegt (kA, ob das bei Atom schon der Fall wäre).
Dachte ich mir auch schon. Andererseits: Die Konkurrenz hat damit wohl auch keine Probleme? (ARM-SoCs dürften ja kleiner sein - hätte ich zumindest geglaubt.)

S940
2011-02-14, 12:55:20
Ältere Produktionslinien sind bereits abbezahlt, d.h. haben ihre Investitionskosten schon reingeholt. Alles was man da dann noch produziert kann man unter Gewinn verbuchen.
Demgegenüber will man bei neuen Linien erstmal mehr / schneller Geld einholen, außerdem sind die Yields noch nicht so gut.
Deswegen fuhr Intel die 32nm erstmal nur mit den kleine Clarkdales ein, die haben ein gutes DIE-Größen / Preis Verhältnis, genauso wie die dicken Westmere 6Kerner. Da gibts zwar sicherlich ein paar Teildefekte, aber erstens kosten die 6 Kerner richtig Geld, zweitens verkauft Intel auch ein paar teildefekte als Quads (nur als Xeons), und zuletzt ist die absolute Stückzahl auch eher gering.

So macht ne alte Fertigung dann natürlich v.a.bei low-end chips Sinn. Denn da erwartet eh keiner Höchstleistungen.
Aus dem Grund läuft AMDs Zacate auch @40nm bulk bei TSMC vom Band, und nicht @32nm SOI hK in DD.

aylano
2011-02-14, 14:08:20
Weiß einer warum Intel den Atom nicht schon seit Anfang 2010 in 32nm fertigt?

Damit wäre man der Konkurenz deutlich überlegen gewesen.
...
Handelt Intel hirnlos oder steckt was anderes dahinter?

Das Frage ich mich auch selber.

Denn der Atom versagt im Smartphone-Markt und dafür wurde er entwickelt.
Deshalb verstehe ich nicht, warum PineView nicht in 32nm entwickelt wurde.
Da er ja nicht groß ist/wäre, wären z.B. Yields & Stückzahlen mit einer neuen Fertigung im Vergleich zu doppelt so großen Westmere ja auch nicht so ein Problem.
Aber gut, wahrscheinlich war für Intel damals noch nicht das Versagen abzusehen, als sie mit der Entwicklung von PineView begannen.

Nightspider
2011-02-14, 17:44:03
Mit 32nm hätte Intel der ARM Konkurenz vor einem Jahr in den Arsch treten können und in einem Jahr mit 22nm genauso.

Aber Intel überarbeitet ja nichtmal groß die CPU. Die ProMhz-Leistung wurde bis auf die Speicheranbindung seit ~3-4 Jahren fast gar nicht angerührt.

Wenn ich falsch liege klärt mich auf aber selbst wenn neue Produktionsanalgen teurer sind am Anfang...Intel hat massig Geld und würde am Ende sowieso durch neue Anlagen und kleinere Fertigung sparen.

Unte das Atom-CPUs seit Beginn an verdammt langsam sind und kaum YouTube und mehrere Tabs beim Surfen schaffen weiß auch jeder.

Wuge
2011-02-14, 18:47:26
Die wollen den großen CPUs nicht gefährlich werden, das ist der Grund. Atom darf kein Ersatz für "echte" Mainstream-Plattformen werden. Was den embedded Markt angeht, muss man erstmal ein SoC zuammenbasteln, daran wird man sicherlich arbeiten...

aylano
2011-02-14, 21:54:58
Eine CPU wird mit mehr Takt schneller und nicht mit einer Struktur-Verkleinerung auf 32nm.

Sie können den Atom @ 32nm trotzdem noch in 1,66 & 1,8 Ghz anbieten, sodass es für den Netbook-Markt gerade noch reicht. Aber diesesmal halt in 6,0 Watt-TDP statt 8,5 Watt-TDP.

Atom ist ja für den Smartphone entwickelt und dieser schafft es nicht einmal im Tablet-Markt gscheit Fuß zu fassen.
Auch wenn die ein jetziger 32nm-Atom nicht für den Smartphone-Markt reicht (Pineview ist ja noch kein echter SoC), dann hätte es aber trotzdem im Tablet-Markt bessere Chancen als jetzt.

aylano
2011-03-11, 15:48:48
Wie wird es beim Atom eigentlich genau aussehen.

Komplett neuer Kern (wie OoO) oder praktisch nur ein Shrink?
Wird es da auch einen Quad-Atom geben?
Und die Grafikeinheit? DX10.1?

Knuddelbearli
2011-03-11, 18:40:02
soweit ich es in erinnerung hab ein shrink beid em es primär um weniger verbauch geht

AnarchX
2011-04-08, 17:19:38
Ab Q4 2011: http://www.computerbase.de/bildstrecke/34013/3/

Auf der IDF verrät man vielleicht paar Details. Interessant wird die IGP werden. Vielleicht versucht man Fusion anzugreifen und verbaut die 12EUs Version. ;D

Spasstiger
2011-04-08, 17:38:08
Auf der IDF verrät man vielleicht paar Details. Interessant wird die IGP werden. Vielleicht versucht man Fusion anzugreifen und verbaut die 12EUs Version. ;D
Gegen den Netbook-Fusion-Prozessor "Brazos" reichen allerdings auch 6 EUs mit einigermaßen hohem Takt aus. 12 EUs mit niedrigem Takt wären aber vermutlich sparsamer. Letztlich ist es eine Kostenfrage und der Atom ist aus Intel-Sicht ein Low-Cost-Prozessor. Ich persönlich halte 6 EUs für realistischer. Wer mehr Intel-Grafikpower im kleinen Formfaktor will, darf zu den mobilen ULV-Varianten von Sandy Bridge greifen.

AnarchX
2011-04-08, 17:43:54
Fudo hatte vor einiger Zeit ein paar Infos zu den Preisen: http://www.fudzilla.com/processors/item/22195-cedarview-m-atom-2011-to-be-2x-cheaper

Wireless Display könnte wohl mit Hilfe der Transconding-Einheit ressourcensparend umgesetzt werden.

Es sind wohl höchtens 6 EUs, wenn die Leistungsgerüchte von Fudo stimmen: http://www.fudzilla.com/graphics/item/11212-atom-2011-graphics-2x-faster-than-atom-2010

Undertaker
2011-04-08, 17:44:43
Und nicht die Limitierung der Speicherbandbreite vergessen. Brazos profitiert in Spielen wohl extrem von höher taktendem Speicher, deswegen kann vermutet werden, dass auch ein Atom mit langsamem Singlechannel-DDR3 und ohne L3 Cache wie Sandy Bridge aus den zusätzlichen EUs nur wenig Nutzen ziehen könnte.

AnarchX
2011-04-13, 14:02:08
Nochmal D3D10.1 bestätigt: http://www.computerbase.de/news/hardware/komplettsysteme/notebooks/2011/april/idf-weitere-details-zur-neuen-atom-netbook-generation/

Konrad
2011-04-13, 14:06:44
Vermutlich ein Sandy Bridge Abkömmling. Dann wird HD Beschleunigung auch kein Problem mehr sein. Interessant wäre jetzt natürlich auch zu wissen, wie hoch die CPUs takten oder überhaupt der CPU Leistungszuwachs. Da muss mehr kommen als nur 10%.

mboeller
2011-04-13, 16:01:02
Nochmal D3D10.1 bestätigt: http://www.computerbase.de/news/hardware/komplettsysteme/notebooks/2011/april/idf-weitere-details-zur-neuen-atom-netbook-generation/


Seltsam. Ich komme beim Auszählen der Dies auf dem Wafer auf ca. 60mm². Ganz schön groß im Vergleich zum Brazos.

AnarchX
2011-04-13, 16:13:27
Trotzdem kleiner als der aktuelle Pineview-DC mit 87mm².
Deutlich unter <60mm² wird man aber wohl auch mit 64-Bit DDR3-IMC und Bildausgängen nicht kommen.

AnarchX
2011-04-29, 09:18:36
http://www.anandtech.com/show/4295/intel-cedar-trail-platform

Shink
2011-04-29, 10:15:08
Naja, 10 Watt TDP für die 2,13GHz Dualcore-Variante mit DDR3-Speichercontroller und HD Graphics find ich schon ganz nett. Und wie es aussieht gibt es auch gar keine SingleCore-Variante mehr. Jetzt müssen die Dinger nur noch verbaut werden.

Knuddelbearli
2011-04-29, 20:20:27
naja werden gefühlt trotzdem noch extrem lahm sein ...

Shink
2011-04-30, 17:08:37
naja werden gefühlt trotzdem noch extrem lahm sein ...
Unter Windows 7 Starter Edition vermutlich schon.:rolleyes:

Trotzdem sind sie natürlich für wesentlich mehr zu gebrauchen alleine wegen der h264-beschleunigenden Grafiklösung und der nicht mehr verfügbaren Singlecore-Variante.

fondness
2011-04-30, 18:02:11
Naja, 10 Watt TDP für die 2,13GHz Dualcore-Variante mit DDR3-Speichercontroller und HD Graphics find ich schon ganz nett. Und wie es aussieht gibt es auch gar keine SingleCore-Variante mehr. Jetzt müssen die Dinger nur noch verbaut werden.

Im Endeffekt ist das langsamer als ein E-350. Die TDP kann überzeugen, wohl deshalb wird AMD auch Ende des Jahres noch einen C-60 mit Turbo bringen.

Ronny145
2011-04-30, 18:06:00
Im Endeffekt ist das langsamer als ein E-350. Die TDP kann überzeugen, wohl deshalb wird AMD auch Ende des Jahres noch einen C-60 mit Turbo bringen.


Mit einer TDP von 18 Watt wohlgemerkt. Was mich interessieren würde, ob der D2700 bei der Singlethread performance über einem C-50 liegen würde.

S940
2011-04-30, 18:57:50
Mit einer TDP von 18 Watt wohlgemerkt. Was mich interessieren würde, ob der D2700 bei der Singlethread performance über einem C-50 liegen würde.
Sollte bei knapp +600Mhz Mehrtakt mal langsam der Fall sein.
Frage ist dann, wann AMDs 28nm Bobcats dann kommen, schon in Q1/12 oder später.

Undertaker
2011-04-30, 19:12:57
Im Endeffekt ist das langsamer als ein E-350. Die TDP kann überzeugen, wohl deshalb wird AMD auch Ende des Jahres noch einen C-60 mit Turbo bringen.

GPU-seitig? Könnte sein, auch wenn da noch wenig bekannt ist. CPU-seitig bin ich mir da nicht so sicher. Mehrtakt, doppelter Cache, DDR3, evntl. ja auch noch weitere Tweaks(?) - das könnte einen ziemlichen Schub geben. Auch wenn man Singlethreaded noch unter dem E-350 bliebe, würde der momentane Gleichstand mit dem D525 bei Multithreading (Cinebench, POVRay, x264 usw, da sind beide praktisch identisch schnell) zzgl. der Leistungssteigerung dann doch zu einer ganz komfortablen Situation für Cedarview führen.
In Netbooks bis 10" ist der E-350 zudem so oder so nicht anzutreffen, durch den Power/Watt Vorteil der 32nm Fertigung hat der Atom in jedem Fall einen Trumpf, zumindest so lange bis der 28nm Bobcat kommt. ;)

Mal eine Performancespekulation für den D2700 verglichen zum 1,8GHz D525:

18,3% Mehrtakt, +10%(?) durch den doppelten Cache, +5%(?) durch DDR3, ergibt reichlich 35% Mehrleistung, bei weiteren Verbesserungen vielleicht auch 40%. Das ergäbe einen CB R11.5 Score von 0,27-0,28 Singlethreaded (E-350: 0,32) und 0,82-0,84 Multithreaded (E-350: 0,63).

Ronny145
2011-04-30, 19:54:37
Mit dem D2700 würde ich den Atom erstmalig als brauchbar bezeichnen für Netbooks solange die GPU H264 Videos flüssig beschleunigen kann. Im 11-12 Zoll Bereich hat allerdings AMD mit dem E-350 die interessantere Kombination im Angebot.

fondness
2011-04-30, 20:09:47
GPU-seitig? Könnte sein, auch wenn da noch wenig bekannt ist. CPU-seitig bin ich mir da nicht so sicher. Mehrtakt, doppelter Cache, DDR3, evntl. ja auch noch weitere Tweaks(?) - das könnte einen ziemlichen Schub geben. Auch wenn man Singlethreaded noch unter dem E-350 bliebe, würde der momentane Gleichstand mit dem D525 bei Multithreading (Cinebench, POVRay, x264 usw, da sind beide praktisch identisch schnell) zzgl. der Leistungssteigerung dann doch zu einer ganz komfortablen Situation für Cedarview führen.
In Netbooks bis 10" ist der E-350 zudem so oder so nicht anzutreffen, durch den Power/Watt Vorteil der 32nm Fertigung hat der Atom in jedem Fall einen Trumpf, zumindest so lange bis der 28nm Bobcat kommt. ;)

Mal eine Performancespekulation für den D2700 verglichen zum 1,8GHz D525:

18,3% Mehrtakt, +10%(?) durch den doppelten Cache, +5%(?) durch DDR3, ergibt reichlich 35% Mehrleistung, bei weiteren Verbesserungen vielleicht auch 40%. Das ergäbe einen CB R11.5 Score von 0,27-0,28 Singlethreaded (E-350: 0,32) und 0,82-0,84 Multithreaded (E-350: 0,63).

Wann lastet man in einem Netbook schon vier Threads aus? Da geht es vorallem um Usability und damit um Single-Thread-Leistung. Laut AnandTech ändert sich am eigentlichen CPU-Kern nichts, das ist aktuell ein "pro-Mhz"-Vorteil für Bobcat im Bereich von 70%. Durch das mehr an Cache und den DDR3 dann vermutlich 60%. AMD wird vielleicht einen 1,3Ghz Bobcat mit stark reduzierten GPU-Taktraten bringen, dann sollte man auch bei der TDP ganz gut mithalten können, der C-50 kommt ohne Turbo immerhin mit 9W aus. Klar, bei mehr als zwei Threads wäre Cedarview dann im Vorteil, aber auch nur dort. Für 32nm und erst im Q4 sind die Daten für mich enttäuschend, wenig später soll AMDs Bobcat-Nachfolger in 28nm kommen.

Sollte bei knapp +600Mhz Mehrtakt mal langsam der Fall sein.
Frage ist dann, wann AMDs 28nm Bobcats dann kommen, schon in Q1/12 oder später.

Wenn die Fusion APU-Roadmap noch aktuell ist, ist wohl Ende Q1/2012 angepeilt:

http://img35.imageshack.us/img35/2659/amdfusion28nm20nm14nm6.jpg (http://img35.imageshack.us/i/amdfusion28nm20nm14nm6.jpg/)

Ronny145
2011-04-30, 20:24:17
Wenn die Fusion APU-Roadmap noch aktuell ist wohl Ende Q1/2012 angepeilt:

http://img35.imageshack.us/img35/2659/amdfusion28nm20nm14nm6.jpg (http://img35.imageshack.us/i/amdfusion28nm20nm14nm6.jpg/)


Wohl eher mitte 2012. Laut der Folie Brazos Produktionsstart Ende 2010. Wann aber gab es erste Proukte im Handel? März oder April war das. Da kann man ein Quartal drauf rechnen und kommt auf Q2-Q3 2012.

Shink
2011-04-30, 20:25:48
Mit dem D2700 würde ich den Atom erstmalig als brauchbar bezeichnen für Netbooks
Sehe ich auch so.
solange die GPU H264 Videos flüssig beschleunigen kann.
Davon gehe ich aus. Das schafften schon die älteren Intel-IGPs ab dem X4500.

fondness
2011-04-30, 20:29:04
Wohl eher mitte 2012. Laut der Folie Brazos Produktionsstart Ende 2010. Wann aber gab es erste Proukte im Handel? März oder April war das. Da kann man ein Quartal drauf rechnen und kommt auf Q2-Q3 2012.

Das stimmt nicht. Es gab schon Acer 15" Teile mit E-350 kurz nach Neujahr. AMD hat laut eigenen Angaben immerhin einen Million Fusion im Q4 ausgeliefert. Klar dauert es dann immer noch etwas bis fertige Produkte in den entsprechenden Variationen und in großer Stückzahl im Handel sind, aber das gilt auch für Intel. Jedenfalls könnte die Vorstellung, wenn man diese ähnlich timed wie bei Bobcat noch im Q1/2012 stattfinden.

Ronny145
2011-04-30, 20:40:56
Das stimmt nicht. Es gab schon Acer 15" Teile mit E-350 kurz nach Neujahr. AMD hat laut eigenen Angaben immerhin einen Million Fusion im Q4 ausgeliefert. Klar dauert es dann immer noch etwas bis fertige Produkte in den entsprechenden Variationen und in großer Stückzahl im Handel sind, aber das gilt auch für Intel. Jedenfalls könnte die Vorstellung, wenn man diese ähnlich timed wie bei Bobcat noch im Q1/2012 stattfinden.

Die Verfügbarkeit tendierte gegen Null. Selbst zur Cebit war Brazos praktisch nicht verfügbar.

Undertaker
2011-04-30, 21:13:16
Wann lastet man in einem Netbook schon vier Threads aus? Da geht es vorallem um Usability und damit um Single-Thread-Leistung. Laut AnandTech ändert sich am eigentlichen CPU-Kern nichts, das ist aktuell ein "pro-Mhz"-Vorteil für Bobcat im Bereich von 70%. Durch das mehr an Cache und den DDR3 dann vermutlich 60%. AMD wird vielleicht einen 1,3Ghz Bobcat mit stark reduzierten GPU-Taktraten bringen, dann sollte man auch bei der TDP ganz gut mithalten können, der C-50 kommt ohne Turbo immerhin mit 9W aus. Klar, bei mehr als zwei Threads wäre Cedarview dann im Vorteil, aber auch nur dort. Für 32nm und erst im Q4 sind die Daten für mich enttäuschend, wenig später soll AMDs Bobcat-Nachfolger in 28nm kommen.


Es gibt ja immerhin stetige Verbesserungen was die Parallelisierung betrifft, in Browsern wie Chrome ist bereits jeder Tab ein eigener Prozess - aber ja, Singlethreaded ist nach wie vor extrem wichtig, auch wenn die Zeit für die MT-Leistung des Atom spielt.
Zur TDP: Der D2700 ist ja zunächst mal ein Desktop-Modell - auch der D525 hatte hier hohe 13W. Ein nur 133MHz niedriger taktender N570 liegt nur noch bei 8,5W. Für Netbooks tippe ich mal auf 1,86-2,0GHz bei ~7W TDP - die Effizienz ist ja auch beim aktuellen Atom durchaus ordentlich, trotz seines Alters.

PatkIllA
2011-04-30, 21:26:31
Es gibt ja immerhin stetige Verbesserungen was die Parallelisierung betrifft, in Browsern wie Chrome ist bereits jeder Tab ein eigener ThreadDas ist ein eigener Prozess.
Mehrere Threads hat so ziemliches Programm. Nur geht oft halt ein Großteil der Last auf einen einzigen Thread.

Undertaker
2011-04-30, 21:27:31
Fixed. :)

mboeller
2011-05-01, 13:26:24
Mit einer TDP von 18 Watt wohlgemerkt. Was mich interessieren würde, ob der D2700 bei der Singlethread performance über einem C-50 liegen würde.

Nein! Der C-60 hat 9Watt. Siehe (unter anderem):
http://www.notebookcheck.com/AMD-C-60-Notebook-Prozessor.51805.0.html

Ronny145
2011-05-01, 13:41:21
Nein! Der C-60 hat 9Watt. Siehe (unter anderem):
http://www.notebookcheck.com/AMD-C-60-Notebook-Prozessor.51805.0.html

Ich verstehe jetzt nicht was du meinst. Die Rede ist vom C-50 gewesen.

w0mbat
2011-05-01, 14:28:29
nein, du hast damit einen C-60 kommentiert.

Sorkalm
2011-05-01, 14:33:26
Zur TDP: Der D2700 ist ja zunächst mal ein Desktop-Modell - auch der D525 hatte hier hohe 13W. Ein nur 133MHz niedriger taktender N570 liegt nur noch bei 8,5W. Für Netbooks tippe ich mal auf 1,86-2,0GHz bei ~7W TDP - die Effizienz ist ja auch beim aktuellen Atom durchaus ordentlich, trotz seines Alters.

Die Maximalleistung ist selbst für Netbooks ja nichtmal das Problem (siehe die ganzen Geräte die mit einem E-350 laufen), wichtig ist die Idle/Surf-Leistungsaufnahme. Zwischen einem C-50 und E-350 soll die sich ja kaum unterscheiden. Eine höhere TDP heißt eigentlich dann nur, dass das Gerät im Zweifel auch etwas mehr Abwärme abführen kann und dafür aber auch eine höhere Maximalleistung bereitstellen kann - die Designs unterscheiden sich wohl trotz unterschiedlicher Maximaltaktraten wenig im Niedrigtaktbetrieb.

Ronny145
2011-05-01, 14:35:49
nein, du hast damit einen C-60 kommentiert.

Ich habe nirgends einen C-60 kommentiert.

w0mbat
2011-05-01, 15:37:12
Ich habe nirgends einen C-60 kommentiert.:rolleyes:

Undertaker
2011-05-01, 15:44:19
Die Maximalleistung ist selbst für Netbooks ja nichtmal das Problem (siehe die ganzen Geräte die mit einem E-350 laufen), wichtig ist die Idle/Surf-Leistungsaufnahme. Zwischen einem C-50 und E-350 soll die sich ja kaum unterscheiden. Eine höhere TDP heißt eigentlich dann nur, dass das Gerät im Zweifel auch etwas mehr Abwärme abführen kann und dafür aber auch eine höhere Maximalleistung bereitstellen kann

Genau diese Wärme muss eben abgeführt werden können - vmtl. gibt es den E-350 deshalb erst in Geräten ab 11,6". Ich wüsste zumindest nicht, dass AMD entsprechende Modelle von vorherein verbieten würde. Ist die TDP niedrig genug, wären sogar Modelle ganz ohne Lüfter denkbar, wie es sie mit Cedarview ja auch geben soll - mal schauen, wie hoch bei diesen dann die Taktrate ausfällt.

Ronny145
2011-05-01, 16:18:50
:rolleyes:

Das bezog sich logischerweise auf den E-350 Zacate mit 18W TDP.

Sorkalm
2011-05-01, 17:12:31
Genau diese Wärme muss eben abgeführt werden können - vmtl. gibt es den E-350 deshalb erst in Geräten ab 11,6". Ich wüsste zumindest nicht, dass AMD entsprechende Modelle von vorherein verbieten würde. Ist die TDP niedrig genug, wären sogar Modelle ganz ohne Lüfter denkbar, wie es sie mit Cedarview ja auch geben soll - mal schauen, wie hoch bei diesen dann die Taktrate ausfällt.

Gut, das ist wahr. Ich bin aber mal gespannt, wie wichtig dieser Markt wird - ich glaube nämlich kaum, dass man lüfterlos entsprechend verkaufen kann (man kann ja heute schon sehr leise Lüfter bauen), und die Hersteller dann lieber etwas mehr Performance mitnehmen. Grade bei Notebooks bringt es halt wenig, wenn man seine Wunschkonfiguration nicht kaufen kann.

w0mbat
2011-05-01, 17:29:56
Das bezog sich logischerweise auf den E-350 Zacate mit 18W TDP.

nein, logischerweise bezieht sich das auf den C-60. kann gut sein, dass du das auf den E-350 beziehen woltest. aber so wie du es geschrieben hast, nimmt man an, dass du den C-60 meinst. das siehst du doch auch, oder?

Ronny145
2011-05-01, 17:39:37
nein, logischerweise bezieht sich das auf den C-60. kann gut sein, dass du das auf den E-350 beziehen woltest. aber so wie du es geschrieben hast, nimmt man an, dass du den C-60 meinst. das siehst du doch auch, oder?

Ich bezog mich auf den E-350, was spätestens jetzt klar sein sollte. Die C-Modelle besitzen wie du richtig erkennst keine 18W TDP. Ich dachte das wäre sowieso klar, anscheinend weit gefehlt. Damit sollten alle Unklarheiten beseitigt sein. :wink:

w0mbat
2011-05-01, 17:54:37
ja, jetzt ist es klar. war nur anfangs verwirrend, da fondness vom C-60 und dessen TDP sprach und du mit "18W TDP wohlgemerkt" geantwortet hast.

aylano
2011-05-02, 15:30:14
Wohl eher mitte 2012. Laut der Folie Brazos Produktionsstart Ende 2010. Wann aber gab es erste Proukte im Handel? März oder April war das. Da kann man ein Quartal drauf rechnen und kommt auf Q2-Q3 2012.
AMD hat schon GPUs für Ende 2011 angekündigt.
Da stellt sich die Frage, warum AMD bis Ende 2011 GPUs fertigen kann und keine APUs??

Beim Geschäftsbericht-Call kündigte AMD mehrere Tape-Outs in 28nm im 2Q 2011 an.

(Irgendwie habe ich weitere Tape-Outs im 1Q 2011 in Erinnerung, die auch von AMD angekündigt wurde.)

Ich würde mal behaupten, C-60 (wenn er kommt) wird in der Mitte zwischen C-50 und Bobcat-28nm präsentiert.
Wenn C60 Juni/Juli 2011 kommt, dann ist die Chance für Bobcat-28nm Ende/Anfang 2012 groß.
Wenn C60 nach Juni/Juli kommt, wird Bobcat-28nm wahrscheinlich dementsprechend nach Anf 2012 kommen.

Undertaker
2011-05-04, 12:22:09
http://www.fudzilla.com/processors/item/22619-cedar-trail-atom-is-n2800

N2800 für Netbooks: 2x1,86GHz + SMT, 640MHz GPU, DDR3-1066, 6,5W TDP

AnarchX
2011-05-04, 12:39:04
Die Namensgebung des IGPs ist etwas merkwürdig, warum nicht HD Graphics 1000 oder 500 z.B.? :|

Shink
2011-05-04, 12:56:32
Die Namensgebung des IGPs ist etwas merkwürdig, warum nicht HD Graphics 1000 oder 500 z.B.? :|
Vielleicht hat man sich an die AMD-Namensgebung angelehnt?:freak:

6,5W TDP sind ja ganz nett für ein Netbook. Hätte ich mir nicht gedacht bei der 1,83GHz-Variante.

Ronny145
2011-05-04, 12:58:12
Die CPU Leistung wird keine großen Sprünge vollführen bei dem Takt, wenn sich so gar nichts ändert bei der IPC ist der Sprung sehr klein. Die 6,5 W TDP sind allerdings nicht übel. GPU Namensgebung ist mehr als komisch. Aus dem Namen kann man nichts ablesen. Wird bestimmt Absicht sein, anlehnend an AMDs Namensschema.

AnarchX
2011-05-05, 12:43:51
N2600 für Netbooks: 2x1,6GHz + SMT, 400MHz GPU, DDR3-800, 3,5W TDP

http://www.cpu-world.com/news_2011/2011050401_Intel_32nm_Cedar_Trail_Atom_CPUs_to_launch_in_Q4_2011.html

Laut CPU-World GMA 3650 und GMA 3600.

aylano
2011-05-05, 13:08:55
3,5 W TDP + 1,5 W-TDP (Southbridge) = 5,0 W TDP

Und diese 5W-TDP ist genau die grenze zu Fanless und das finde ich sehr gut (aufgestellt).

Shink
2011-05-05, 14:59:35
Bisher wurde ja bevorzugt die kleinere Version verbaut.
Ich frage mich ob jetzt hauptsächlich noch dünnere Fanless-Netbooks herauskommen? Das würde dann bedeuten dass man nicht so einfach ein AMD-Modell rausbringen kann wenn im Body keine Lüftung vorgesehen ist.

Shink
2011-05-09, 15:37:13
3,5 W TDP + 1,5 W-TDP (Southbridge) = 5,0 W TDP

Und diese 5W-TDP ist genau die grenze zu Fanless und das finde ich sehr gut (aufgestellt).
Mh... weiß vielleicht irgendjemand ab welcher Verlustleistung eine CPU in der Größe des Atom ganz ohne Kühlkörper laufen kann?

LovesuckZ
2011-05-09, 15:38:53
Deutlich weniger. Mein AC100 wurde bei 1-1,5 Watt schon ziemlich warm, wo sich Tegra2 befand. 5 Watt alleine für den SoC sind da wohl eindeutig zuviel.

aylano
2011-05-09, 17:19:11
Mh... weiß vielleicht irgendjemand ab welcher Verlustleistung eine CPU in der Größe des Atom ganz ohne Kühlkörper laufen kann?
Ich habe die 5W-TDP für die Fanless-Grenze in Erinnerung.
AFAIK sagte das Apple oder sonst irgend ein großer Markt-Player.

3,5W-TDP + 1,5W (Southbrige) machen gerade diese 5W-TDP und Intel kündigte AFAIK diese auch als Fanless-CPUs an.

Ronny145
2011-05-09, 17:39:34
Ich habe die 5W-TDP für die Fanless-Grenze in Erinnerung.
AFAIK sagte das Apple oder sonst irgend ein großer Markt-Player.

3,5W-TDP + 1,5W (Southbrige) machen gerade diese 5W-TDP und Intel kündigte AFAIK diese auch als Fanless-CPUs an.

Die Southbridge sitzt in der CPU oder wieso zählt die mit? Wenns hier um die CPU geht wäre 3,5W die entscheidente Zahl.

aylano
2011-05-09, 18:42:21
Ich glaube, du verwechselst das mit der Northbridge.

Wenn es um Fanless geht, müssen alle Energie-Quellen dazugezählt werden.

Aber alles was weniger ist, ist sowieso besser, da man die Fanless-Kühlung/Wärmeableitung (leichter &) billiger machen kann bzw. weniger Priorität hat.

loewe
2011-05-09, 21:30:35
http://vr-zone.com/articles/exclusive-intel-s-cedarview-atom-to-sport-powervr-graphics/12117.html

http://www.mitrax.de/data/files/bilder/Intel_Cedartrail_Features.png

und hätte ich fast vergessen, AFAIK kommen die Treiber dann von PowerVR und nicht mehr von intel! :)

Ailuros
2011-05-09, 21:34:06
http://vr-zone.com/articles/exclusive-intel-s-cedarview-atom-to-sport-powervr-graphics/12117.html

Netbooks sollen auf 400MHz takten und nettops auf 640MHz fuer die GPU. Tut mir leid aber Intel hat mal wieder einen Vogel.

Ronny145
2011-05-09, 21:43:44
Wie schnell ist denn die SGX545 400 Mhz gegenüber einer aktuellen IGP wie der HD6310 oder HD2000/HD3000 von Intel?

Undertaker
2011-05-09, 22:41:14
Netbooks sollen auf 400MHz takten und nettops auf 640MHz fuer die GPU. Tut mir leid aber Intel hat mal wieder einen Vogel.

Ist das nicht einfach die Differenz zwischen dem 3,5W und 6,5W/10W Modell? Die kann es theoretisch beide in Netbooks und Nettops geben.

Edit: Zunächst ganz übersehen: PowerVR Grafik und nur Faktor 2 über Pinetrail? Das ist imho seeehr entäuschend. :( Ich war sicher nicht der einzige, der in Richtung 6 EUs auf Sandy Bridge Basis spekuliert hatte. Das reicht nichteinmal annähernd, um in die Leistungsregionen von ION oder Bobcat vorzustoßen - da liegt eher Faktor 6-10 dazwischen.

fondness
2011-05-09, 23:30:50
http://vr-zone.com/articles/exclusive-intel-s-cedarview-atom-to-sport-powervr-graphics/12117.html

http://www.mitrax.de/data/files/bilder/Intel_Cedartrail_Features.png

und hätte ich fast vergessen, AFAIK kommen die Treiber dann von PowerVR und nicht mehr von intel! :)

Wo ist eigentlich der doppelte Cache von dem hier immer gesprochen wurde? Ich sehe weiterhin nur 512KB Cache. Damit dürfte sich an der Leistung bei gleichem Takt genau null ändern, denn laut AnandTech ist der Kern identisch zum Vorgänger.

Ronny145
2011-05-10, 00:19:58
Wo ist eigentlich der doppelte Cache von dem hier immer gesprochen wurde? Ich sehe weiterhin nur 512KB Cache. Damit dürfte sich an der Leistung bei gleichem Takt genau null ändern, denn laut AnandTech ist der Kern identisch zum Vorgänger.

Wo wurde von doppeltem Cache gesprochen?

http://www.anandtech.com/show/4295/intel-cedar-trail-platform

2x512KB sind es weiterhin wie schon beim Pineview Dualcore.

Undertaker
2011-05-10, 00:26:05
Den hatte ich fälschlicherweise mal einer Schreibweise mit 1024KB entnommen ohne zu beachten, dass dies schlicht die Summe beider Kerne war. Ohne diese Änderung wirds wohl bei <25% Steigerung bleiben, je nach dem, was der schnellere Speicher bringt.

loewe
2011-05-10, 08:08:40
Edit: Zunächst ganz übersehen: PowerVR Grafik und nur Faktor 2 über Pinetrail? Das ist imho seeehr entäuschend. :( Ich war sicher nicht der einzige, der in Richtung 6 EUs auf Sandy Bridge Basis spekuliert hatte. Das reicht nichteinmal annähernd, um in die Leistungsregionen von ION oder Bobcat vorzustoßen - da liegt eher Faktor 6-10 dazwischen.

Der SGX545 hat wie auch der SGX540 4 USSE, damit doppelt so viele Shader-Einheiten wie der SGX535 im GMA500. Die Anzahl der TMUs bleibt gleich, wie aber auch schon beim SGX540.
Wir sehen recht gut im GLBenchmark wie das Leistungsverhältnis von SGX535 zu SGX540 ist.
Bzgl. des SGX545 kommt hier jetzt noch die Takterhöhung auf 400 bzw. 640 MHz dazu, so dass schon mit etwa 6 facher Leistung eines SGX535 (200 MHz) gerechnet werden kann.
Ein SGX535 (400 MHz) schafft unter Q3A bei FullHD etwa 60 FPS, siehe: http://www.imgtec.com/demo_room/viewdemo.asp?DemoID=63&DemoTech=POWERVR%20Graphics&DemoDev=Imagination&#ViewPort

Leider haben wir bisher noch keine SGX Ergebnisse unter Windows gesehen, die mit einem Treiber gemacht wurden, der diesen Namen auch verdient.
Ich denke schon, dass mit dem SGX545 und ordentlichen Treibern recht gute Ergebnisse möglich sind, ION sollte auf keinen Fall ein Problem sein.

Shink
2011-05-10, 08:31:45
Ich denke schon, dass mit dem SGX545 und ordentlichen Treibern recht gute Ergebnisse möglich sind, ION sollte auf keinen Fall ein Problem sein.
Also das müssen sie erst beweisen. Die "Treiber-sind-ja-so-schlecht-und-werden-sicher-gleich-besser-denn-das-Potential-ist-da"-Leier hat den Pinetrail-Käufern bisher auch nichts gebracht.
Ich sehe da schwarz.
Ich kenne deine alten GMA 500-Tests mit den original PowerVR-Linux-Treibern aber besonders überzeugend fand ich sie auch nicht -besonders ausgereift scheint der Treiber ja nicht zu sein.

Und wie sieht es dann unter Linux aus? Ich vermute mal ähnlich schlecht wie bisher: Binäre Treiber die ab und an mal mit einer Linux-Version funktionieren (aber garantiert nicht Out-Of-Box), kein stabiler OpenSource-Treiber wie bei den anderen Intel-IGPs.

AffenJack
2011-05-10, 10:01:21
Netbooks sollen auf 400MHz takten und nettops auf 640MHz fuer die GPU. Tut mir leid aber Intel hat mal wieder einen Vogel.

Naja, irgendwie muss man auf Leistung kommen und SGX543 oder ähnliches hat halt nur DX9, während die Win7 Oberfläche doch 10.1 vorraussetzt.

Ein SGX535 (400 MHz) schafft unter Q3A bei FullHD etwa 60 FPS, siehe: http://www.imgtec.com/demo_room/view...tion&#ViewPort


Nur will ich nicht wissen wielange darauf optimiert wurde. Mit normalen Treibern würde ich doch eher die Ergebnisse nehmen die wir bei Smartphones haben und da ist man erst bei 1024x768 bei 60FPS.

Gibts eigentlich schon Aussagen wie groß das ding wird? Kleine Gpu, kaum große änderungen, gleiche anzahl der kerne. Da sollte Cedarview wirklich verdammt klein werden.

loewe
2011-05-10, 10:50:13
Ich kenne deine alten GMA 500-Tests mit den original PowerVR-Linux-Treibern aber besonders überzeugend fand ich sie auch nicht -besonders ausgereift scheint der Treiber ja nicht zu sein.
Ich habe niemals Test mit PowerVR Linux Treibern gemacht.
Meine Tests mit einem PowerVR Treiber sind uralt, wie auch der dortige Treiber.
Sieh dir an was man für die Apple Teile aus dem SGX535 heraus geholt hat, da ist der Maßstab.
Und wie sieht es dann unter Linux aus? Ich vermute mal ähnlich schlecht wie bisher: Binäre Treiber die ab und an mal mit einer Linux-Version funktionieren (aber garantiert nicht Out-Of-Box), kein stabiler OpenSource-Treiber wie bei den anderen Intel-IGPs.
Es wird von PowerVR keine OpenSource-Treiber geben.
Aber, wenn Du einmal ins Jahr 2009 zurück gehst, schon damals gab es wesentlich bessere Treiber für Linux, sie wurden halt nur nicht frei gegeben, dass sollte man dann mit intel diskutieren.
http://www.phoronix.com/scan.php?page=news_item&px=NzY2MA
http://www.phoronix.com/scan.php?page=news_item&px=NzY2Mg

Nur will ich nicht wissen wielange darauf optimiert wurde. Mit normalen Treibern würde ich doch eher die Ergebnisse nehmen die wir bei Smartphones haben und da ist man erst bei 1024x768 bei 60FPS.
AFAIK gibt es hier bei den Smartphone-Treibern auch noch Probleme, sollte aber gelöst sein, bleibt nur die Frage, wann die User was davon merken werden.
Diese Werte für SGX535 bei 200 MHz sind i.O. Bei dreifacher Taktrate sollte da einiges besser werden.

Shink
2011-05-10, 11:39:05
Ich habe niemals Test mit PowerVR Linux Treibern gemacht.
Mh... ja, mag sein. Jedenfalls war es wohl OpenGL.

Ailuros
2011-05-11, 21:12:39
Naja, irgendwie muss man auf Leistung kommen und SGX543 oder ähnliches hat halt nur DX9, während die Win7 Oberfläche doch 10.1 vorraussetzt.

Ich bezweifle dass das was win7 vorraussetzt nicht mit SGX544 erreicht werden kann. Ein SGX544 MP2@450MHz haette dem 545@640MHz schon richtig den Hintern versohlt.

Nur will ich nicht wissen wielange darauf optimiert wurde. Mit normalen Treibern würde ich doch eher die Ergebnisse nehmen die wir bei Smartphones haben und da ist man erst bei 1024x768 bei 60FPS.

Du meinst wohl eher 800*480. iPad2 Resultate wuerden unter 1024 auch nichts bringen, weil es gegen das vsync limit schlagen wuerde. Was soll so merkwuerdig an 60fps bei 1080p genau sein? Bei 400MHz hat ein 535 ueber 2x Mal so viel Fuellrate als eine KYRO2.

davidzo
2011-05-13, 12:08:09
Edit: Zunächst ganz übersehen: PowerVR Grafik und nur Faktor 2 über Pinetrail? Das ist imho seeehr entäuschend. :( Ich war sicher nicht der einzige, der in Richtung 6 EUs auf Sandy Bridge Basis spekuliert hatte. Das reicht nichteinmal annähernd, um in die Leistungsregionen von ION oder Bobcat vorzustoßen - da liegt eher Faktor 6-10 dazwischen.

:nono: Vorsicht, man sollte DirectX9 Grafikkarten nicht in DirectX10 Benchmarks vergleichen.

In 3Dmark03 etwa liegt der GMA500 auf derselben Leistungsstufe wie der bisherige 3150 in den N400/N500 Atoms und der 4500MHD ist lediglich doppelt so schnell. Ein ION ist etwa 3x so schnell.

In FEAR ist es ein ähnliches Bild, GMA500 erreicht ca. 60% der Leistung der X4500MHD und zieht gleich mit der 3150, diesmal ist ION aber gut 7x schneller.

GMA500: http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-500-GMA-500.12615.0.html
GMA 3150: http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-3150-GMA-3150.23262.0.html
GMA4500MHD: http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-GMA-4500M.20362.0.html


Ich rechne etwas konservativer als Loewe nur mit einer vervierfachten leistung gegenüber GMA500/SGX535, aber das sollte ebenfalls reichen um die X4500MHD zu überholen und den ION in einigen Benchmarks zu provozieren.

Natürlich ist das noch nichts im Vergleich zu Bobcat, aber immerhin holt man beim Featureset auf und ist wieder in Sichtweite. Ähnlich wie bei Sandybridge vs. Llano hat man andere Vorteile aufzuweisen. Und das wird bei Cedarview klar der Energieverbrauch sein, der bei gleicher CPUleistung (DC ATOM ~2ghz vs e350) beinahe die Hälfte betragen wird.






Naja, irgendwie muss man auf Leistung kommen und SGX543 oder ähnliches hat halt nur DX9, während die Win7 Oberfläche doch 10.1 vorraussetzt.



Nur will ich nicht wissen wielange darauf optimiert wurde. Mit normalen Treibern würde ich doch eher die Ergebnisse nehmen die wir bei Smartphones haben und da ist man erst bei 1024x768 bei 60FPS.

Gibts eigentlich schon Aussagen wie groß das ding wird? Kleine Gpu, kaum große änderungen, gleiche anzahl der kerne. Da sollte Cedarview wirklich verdammt klein werden.

Ailuros
2011-05-13, 13:08:59
:nono: Vorsicht, man sollte DirectX9 Grafikkarten nicht in DirectX10 Benchmarks vergleichen.

In 3Dmark03 etwa liegt der GMA500 auf derselben Leistungsstufe wie der bisherige 3150 in den N400/N500 Atoms und der 4500MHD ist lediglich doppelt so schnell. Ein ION ist etwa 3x so schnell.

In FEAR ist es ein ähnliches Bild, GMA500 erreicht ca. 60% der Leistung der X4500MHD und zieht gleich mit der 3150, diesmal ist ION aber gut 7x schneller.

GMA500: http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-500-GMA-500.12615.0.html
GMA 3150: http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-3150-GMA-3150.23262.0.html
GMA4500MHD: http://www.notebookcheck.com/Intel-Graphics-Media-Accelerator-GMA-4500M.20362.0.html

Sagt mir gar nichts wenn Intel diesmal nicht so bloed ist und nicht von IMG die Treiber holt sondern sie von einer dritten Quelle coden laesst.

Wenn Intel sich wieder irgendwelchen Scheiss einraeumt was die Treiber betrifft dann sind sie selber schuld.


Ich rechne etwas konservativer als Loewe nur mit einer vervierfachten leistung gegenüber GMA500/SGX535, aber das sollte ebenfalls reichen um die X4500MHD zu überholen und den ION in einigen Benchmarks zu provozieren.

Werner bekam mit Intel's Bumstreibern in Q3A 1024*768 auf dem 200MHz/GMA500 19.8 fps, waehrend der damals halbfertige IMG OGL Treiber den er irgendwie reingequetscht hat noch auf 31.9 fps lag:

http://www.mitrax.de/?cont=artikel&aid=36&page=7

Auf GMA600 (SGX535@400MHz) erreicht das Ding um die 60fps in Q3A nur aber diesmal in 1920*1200.

Natürlich ist das noch nichts im Vergleich zu Bobcat, aber immerhin holt man beim Featureset auf und ist wieder in Sichtweite. Ähnlich wie bei Sandybridge vs. Llano hat man andere Vorteile aufzuweisen. Und das wird bei Cedarview klar der Energieverbrauch sein, der bei gleicher CPUleistung (DC ATOM ~2ghz vs e350) beinahe die Hälfte betragen wird.

Dass Intel's Entscheidung fuer den einzelnen SGX545/DX10.1 gegen eine SGX544MP2 Alternative eine Schnappsidee IMHO ist, hab ich schon erwaehnt.

Aber im Vergleich zu Intel's eigenem Zeug:

GMA500/SGX535@200MHz:

1.6 GFLOPs/s
400 MTexels/s
1.6 GPixels/s (z check)
12.5 M Tris/s

GMA600/SGX535@400MHz:

3.2 GFLOPs/s
800 MTexels/s
3.2 GPixels/s
25 M Tris/s

GMA700/SGX545@400/640MHz:

6.4/10.2 GFLOPs/s
800/1280 MTexels/s
6.4/10.2 GPixels/s
80/128 M Tris/s

Hypothetisch SGX544MP2@500MHz:

36.0 GFLOPs/s
2000 MTexels/s
16.0 GPixels/s
166 M Tris/s

Lange Geschichte kurz: wenn Treiber beschissen bleiben dann wird der Leistungsunterschied sich vielleicht doch im Bereich bewegen wie Du schaetzt. Im Gegenfall wo das Ding mit anstaendigen Treibern antanzt wird der 545 um einige Male schneller sein als GMA500. In rein Fuellraten limitierten Faelle und ohne vsync waere selbst 6x Mal so viel konservativ und ja so beschissen laeuft der Tungsten Treiber im 500 da in der Mehrzahl der core in sw rendering operiert.

Undertaker
2011-05-13, 13:37:22
:nono: Vorsicht, man sollte DirectX9 Grafikkarten nicht in DirectX10 Benchmarks vergleichen.

Ich hatte jetzt den 3DMark06 herangezogen, der ist doch nur DX9?

Pinetrail: 140P (http://www.notebookcheck.com/Test-Acer-Aspire-One-D255-Netbook-N550.39633.0.html)
ION2: 1155P (http://www.notebookcheck.com/Test-Asus-Eee-PC-1015PN-Netbook.39678.0.html)

Ergibt eine Leistungsdifferenz von Faktor 8,25. Auch im älteren 3DMark03 ist es über Faktor 5, und das bei gleicher CPU - die bei ION2 schon ab und an limitieren dürfte.

Mit einer Leistungssteigerung von Faktor 2 sehe ich da noch nicheinmal annähernd einen Gleichstand, ebensowenig zum kleinsten C-50 Bobcat. Das alles jetzt aber wie erwähnt nur auf die "Faktor 2" Aussage der Folie bezogen, die neue GPU direkt auf technischer Basis mit ihrem Vorgänger zu vergleichen getraue ich mir nicht. Bei meiner Aussage, dass es einen Sprung von Faktor 6-10 bräuchte, bleibe ich allerdings, ob dieser nun durch Treiber oder zusätzliche Einheiten/Takt kommt, ist dafür ersteinmal egal.

Ailuros
2011-05-13, 13:52:25
Ich bin zwar von Intel's Design-Entscheidung enttaeuscht, aber ich wuerde trotzdem auf die ersten Leistungs-resultate in der Zukunft warten, denn die 2x Pinetrail Behauptung erscheint mir verdammt konservativ.

davidzo
2011-05-13, 17:47:21
Ich hatte jetzt den 3DMark06 herangezogen, der ist doch nur DX9?

Ein einzelner Benchmark ist wohl etwas wenig um urteilen zu können. ich fand bisher dass meist ältere Software besser geeignet ist um das potential der hardware trotz unausgegorenem Treiber auszuloten. 3Dmark03kommt den spieletests der praxis auch näher (siehe z.B. FEAR).


Pinetrail: 140P (http://www.notebookcheck.com/Test-Acer-Aspire-One-D255-Netbook-N550.39633.0.html)
ION2: 1155P (http://www.notebookcheck.com/Test-Asus-Eee-PC-1015PN-Netbook.39678.0.html)

Die Rede ist aber von Silverthorne/GMA500 und Lincroft/GMA600, nicht von Pinetrail.
Am ehesten kann man aber vom SGX535 ausgehen und von da hochskalieren wie es Ailuros getan hat.

Da selbst mit Intels schrottreibern und generell langsamereren Atom CPUS der GMA500 zwischen 50 und 100% der Leistung des GMA3150 erreicht, kann man davon ausgehen dass ein von der Rohleistung her sechsmal schnellerer Chip wie der SGX545 also 2-3x schneller als der jetzige GMA3150 wird. Selbst mit Intels schrottreibern. Man könnte meinen treiberentwicklung sei billiger als mehr silitzium, ich denke aber da ist intel wohl noch anderer meinung. Anscheinend haben sie wohl einfach nicht die richtigen Leute dafür, sonst würde die Schätzung nicht so konservativ ausfallen.

Den IMGtech Treiber wollen sie ja nicht, sei es um die eigene ip zu stärken oder weil IMGtech für einen winxp/viasta/7 Treiber zuviel verlangt (wohl deutlich mehr als für linux/android, soviel steht fest).

Anstatt also einen vernünftigen Treiber zu machen investiert man lieber mehr silizium - das ist vorerst einfacher und billiger. Und man kann eventuell später noch einen guten Treiber nachreichen und damit aufschießen ohne einen Plattformwechsel.

Ich bin zwar von Intel's Design-Entscheidung enttaeuscht, aber ich wuerde trotzdem auf die ersten Leistungs-resultate in der Zukunft warten, denn die 2x Pinetrail Behauptung erscheint mir verdammt konservativ.

Schon, aber andererseitshat Intel im entrylevel mobilbereich immer noch die Pentium Dualcores und den GL40 im Angebot. Das dürfte das Ziel sein, natürlich gepaart mit minimalem Energieverbrauch.

Undertaker
2011-05-13, 18:01:13
Die Rede ist aber von Silverthorne/GMA500 und Lincroft/GMA600, nicht von Pinetrail.

Mein Posting #101 zitierte Posting #98 und damit folgendes Bild:

http://www.mitrax.de/data/files/bilder/Intel_Cedartrail_Features.png

Der Bezug dort ist wörtlich auf Pinetrail. Und Faktor 2, egal ob wir jetzt den 3DM03 oder den 3DM06 heranziehen, nunmal immer noch Meilen hinter ION & Co, dafür braucht es den erwähnten Faktor 6-10. Nichts anderes habe ich geschrieben. :) Wenn das wie Ailuros schrieb zu konservativ seitens Intel ist, umso besser.

davidzo
2011-05-13, 19:17:47
wie gesagt, ein einzelner benchmark heißt ja noch lange nicht, dass sich an der grundlegenden aussage dass die neue gma im mittel 2x über der 3150 liegt was ändert. Ein Benchmark ist einfach eine zu kleine Stichprobe um irgendwelche Aussagen treffen zu können. Kann sein das ION da meilenweit vornliegt, woanders wieder nicht. Außerdem liegt ION ja beinahe auf brazosniveau und die volle version (9400mg+dualchannel) nicht selten noch vor der GMA HD 2000 wenn man die CPuleistung normalisiert.
Und da möchte Intel bestimmt nicht hin. Die Differenz muss schließlich gewahrt werden, daher glaube ich kaum dass Intel anstrengungen machen wird ION oder Brazos zu erreichen. Muss man wiegesagt auch nicht. Für den Markt des Atom ist 3Dleistung nicht ausschlaggebend, H264/VC1 Decoding dagegen schon. Letzendlich kann man bei Cedartrail auch mit der Leistungsaufnahme protzen, man muss gegenüber Brazos also kein in allen belangen gleichwertiges Produkt abliefern (wobei man bei der cpuleistung über den Takt wohl drankommt).

loewe
2011-05-13, 21:05:13
Ich will die alten Zahlen hier gar nicht noch einmal aufwärmen.

Ich verstehe auch AiL sehr gut, aber intels Interessen sind andere, als ein tolle Grafik in Atom Systemen.

Auch wenn ich nach wie vor und fast jede Woche wieder fluchend hier an meinem Atom System mit GMA500 und intels sch... Treiber sitze, knapp vier Meter entfernt läuft das ION System meiner Frau. Und während hier auf meinem System viele Dinge keinen Spass machen, auf dem ION System kann man sehr gut arbeiten. Windows fühlt sich dort richtig gut an, ähnliches würde ich mir bei mir auch wünschen!

Aber zurück zur PowerVR Grafik.
Die intel Treiber sind nach wie vor schlecht, ohne Frage! Ich wage zu behaupten, dass der Treiber zumeist 50% bis 75% der Leistung des SGX535 vernichtet. Aber, das tat auch der alte PowerVR Treiber und ich bin eigentlich sicher, die Teile, die dafür verantwortlich sind, sind nicht von intel. Wir sollten wohl nicht zu laut über intel schimpfen, sie sind hier nicht an allem Schuld!

Noch einmal, AFAIK werden die Treiber für die neuen intel Chips mit PowerVR Grafik von PowerVR kommen und AFAIK hat man dort auch ein paar recht alte Probleme gelöst, was sicher auch den Windows Treibern zu gute kommen wird. Sollte dann der SGX545 sein Potenzial bei 640 MHz im Cedarview voll entfalten können, dann wäre ich für den Hausgebrauch schon nicht unzufrieden! :)

Ob das noch irgend eine Bedeutung für GMA500 und GMA600 haben wird, kann ich nicht sagen. Ein wenig Hoffnung macht mir, dass da noch eine große Software Schmiede ist, die doch "ein wenig" unglücklich mit der Treiber-Situation bzgl. der GMA500 und GMA600 ist. Von dort kommt wohl einiger Druck!

Shink
2011-05-25, 12:41:42
Auch wenn ich nach wie vor und fast jede Woche wieder fluchend hier an meinem Atom System mit GMA500 und intels sch... Treiber sitze, knapp vier Meter entfernt läuft das ION System meiner Frau. Und während hier auf meinem System viele Dinge keinen Spass machen, auf dem ION System kann man sehr gut arbeiten. Windows fühlt sich dort richtig gut an, ähnliches würde ich mir bei mir auch wünschen!
Ein Mann mit Prinzipien, das lob ich mir. "Ich verwende PowerVR, koste es was es wolle".;D

Laut PCGH (http://www.pcgameshardware.de/aid,826205/Cedarview-Atoms-mit-PowerVR-Grafik-Preise-und-Launch-im-September/CPU/News/) sind die neuen Atömer ja sehr günstig: 42$-52$ beim Launch.

Ailuros
2011-05-25, 15:25:13
Schon, aber andererseitshat Intel im entrylevel mobilbereich immer noch die Pentium Dualcores und den GL40 im Angebot. Das dürfte das Ziel sein, natürlich gepaart mit minimalem Energieverbrauch.

Es ging mir lediglich um den 3dfart06 score von vorigen Geraeten. Nimmt man diesen jetzt und multipliziert in Mal 2x muesste auch beim GMA700 wieder auf reinem sw rendering basieren damit es hinhaut. Anders wenn der 545@400MHz nicht zumindest den Tausender in 06 erreicht, dann ist mal wieder etwas wirklich ernsthaft abgef***t im Treiber.

Ronny145
2011-08-18, 10:00:23
Intel recently adjusted the launch schedule of its next-generation netbook platform, Cedar Trail-M, from September to November because the platform has encountered some graphics driver issues and has not yet passed certification for Windows 7, according to sources from notebook players.
http://www.digitimes.com/news/a20110817PD223.html


Jetzt stellt sich mir folgende Frage:


und hätte ich fast vergessen, AFAIK kommen die Treiber dann von PowerVR und nicht mehr von intel! :)


Ist das so? Wäre ja sehr sonderbar. Hätte Intel besser die Treiber selber in die Hand genommen. :freak:

Ailuros
2011-08-19, 11:22:05
http://www.hexus.net/content/item.php?item=31439

UPDATE - 15:20, 17 August 2011 - We just heard back from ViewSonic and they told us that they'll be waiting until mid September for general availability of the ViewPad 10pro in Europe in order optimise Android 2.3 on Atom. For price guidance Misco seems to already be listing it at £539.99 for the Wi-Fi version and £599.99 for the 3G one.

Wie immer ist an jeglicher Verzoegerung alles andere schuld als Intel selber.

Sonst verdammt teuer fuer das was es eigentlich liefern wird. Intel sollte endlich aufwachen und ihre Preise reduzieren als nur Mist ueber angebliche Gewinne gegenueber der ARM Fraktion (die eigentlich nur auf Papier existieren) zu behaupten.

Ronny145
2011-08-19, 17:52:56
Oak Trail hat jetzt nichts mit Cedarview zu tun.

AnarchX
2011-08-19, 18:22:59
Für Android und iOS braucht es halt keine D3D10.1 Treiber.
Das wäre natürlich ein GAU, wenn sich raustellt, dass SGX 545 doch nicht D3D10.1-kompatibel ist.

Ronny145
2011-08-19, 20:07:01
Für Android und iOS braucht es halt keine D3D10.1 Treiber.
Das wäre natürlich ein GAU, wenn sich raustellt, dass SGX 545 doch nicht D3D10.1-kompatibel ist.


Ich sehe keine Verbindung zwischen Oaktrails und Cedarviews Verschiebung. Cedarview ist auf November verschoben, wie kann ViewSonic mit Verfügbarkeit mitte September rechnen? Das sind 2 verschiedene Sachverhalte zwischen Cedarview und Oak Trail. Letzterer hat auch keinen SGX 545 verbaut. Mir stellt sich wirklich die Frage, ob es stimmt, dass PowerVR diesmal die Treiber für Cedarview bastelt.

Ailuros
2011-08-20, 16:01:11
PowerVR liefert diesmal die Treiber fuer beide Platformen und so sollte es auch sein. Der Treiber sollte vom hw Entwickler kommen und nicht von irgend einem Bums-Firmchen wie Tungsten in der Vergangenheit.

Das jetzt abgesehen Intel hat generell Herstellungsprobleme und es wird die Schuld leicht in alle andere Richtung verschoben als Intel selber. In dem Fall sind beide Platformen verdammt relativ in meinem vorigen Post. Das eine Mal sind es win7 Treiber, das andere Android Optimierungen und weiss der Geier was noch kommen wird.

So oder so wird Intel mit weder noch irgendwelchen besonderen Erfolg landen koennen, ergo ist es auch ziemlich wurscht was wirklich schuld an irgend einer Verspaetung sein koennte.

Uebrigens ist es ein einziger compiler bzw ein einziger Treiber fuer alle PowerVR IP cores. Auf den einem soll win7 angeblich schon im September moeglich sein und auf dem anderen nicht? :D

Ronny145
2011-08-20, 16:12:16
Es ist nicht so, dass Intel eine Pressemeldung rausgab und die Schuld auf PowerVR abwälzt. Sofern die Verschiebung am Grafiktreiber liegt, sieht es eher nach PowerVRs Schuld aus. Auch wenn das nicht ins Bild einiger passen will.

VR-zone berichtet von Ähnlichem. Jetzt soll es im November nur 32-Bit DX9 Treiber geben :freak:

http://vr-zone.com/articles/intel-atom-graphics-troubles-are-directx-related/13342.html

(LG Nilsson lag zuletzt oft daneben, ist mit Vorsicht zu genießen)

Ailuros
2011-08-20, 16:41:08
Es ist nicht so, dass Intel eine Pressemeldung rausgab und die Schuld auf PowerVR abwälzt. Sofern die Verschiebung am Grafiktreiber liegt, sieht es eher nach PowerVRs Schuld aus. Auch wenn das nicht ins Bild einiger passen will.

VR-zone berichtet von Ähnlichem. Jetzt soll es im November nur 32-Bit DX9 Treiber geben :freak:

http://vr-zone.com/articles/intel-atom-graphics-troubles-are-directx-related/13342.html

(LG Nilsson lag zuletzt oft daneben, ist mit Vorsicht zu genießen)

Es kann durchaus sein dass sich die Zertifikierung vom GPU Treiber verspaetet hat (denn SGX545 ist die einzige D3D10.1 Variante und es hat wohl bisher keine relevante D3D Treiber gegeben) aber es ist nach wie vor nicht das eigentliche Problem bei Intel. Es gab ein paar Wehwehchen mit dem Herstellungsprozess und nein in dem Fall hat weder Intel, noch TSMC oder Globalfoundries irgend einen Zauberstab ueberhaupt in letzter Zeit.

Ronny145
2011-08-20, 16:55:10
Inwiefern Herstellungsprozess? Der 32nm Prozess von Intel macht Probleme, ist das Design bedingt? Wenn der neue Atom eine neue Architektur mtibringen würde, hätte ich das geglaubt, so hört sich das für mich jetzt nicht glaubwürdig an. Die Treiberthese klingt schlüssiger.

Ailuros
2011-08-21, 18:05:03
Inwiefern Herstellungsprozess? Der 32nm Prozess von Intel macht Probleme, ist das Design bedingt?

Wenn ein Herstellungsprozess nicht erlaubt bei vollem projeziertem Volumen zur projezierten Zeitspanne zu produzieren dann fuehrt es sehr wohl zu leichten Verspaetungen. Was soll daran genau komisch sein? Oder besser kommt fast bei allen vor. Apple hat das iPhone5 um einige Monate verspaetet und NVIDIA hat auch ein paar kleinere Verspaetungen hauptsaechlich beim AP30.

Wenn der neue Atom eine neue Architektur mtibringen würde, hätte ich das geglaubt, so hört sich das für mich jetzt nicht glaubwürdig an. Die Treiberthese klingt schlüssiger.

Die SoCs sind garantiert nicht gleich und das von vielen Aspekten aus. Egal ob OakTrail oder Cedarview beide werden leichte Verspaetungen sehen. Ob Treiber-zertifikation oder nicht es aendert am vorigen gar nichts. In solch einem Fall veroeffentlicht man meistens eben die hw und ladet spaeter die notwendige sw nach, was durchaus mehr als oefters im embedded Bereich geschieht.

Ailuros
2011-08-24, 10:00:20
Dem Anstand zu Liebe gibt es anscheinend doch Treiber Zertifierung Probleme bei Cedartrail, aber nichts dass die Komplianz der GPU (10.1) gefaerden sollte wenn ich es richtig verstanden habe.

Ich muss auch noch zurueckziehen dass SGX545 bei bis zu 640MHz nicht eine bessere Loesung ist als ein theoretischer SGX544MP2 bei niedrigerem Takt. Fuer seine Groesse ist das Ding verdammt effizient und das wohl in perf/mm2, perf/W und perf/$ Bereichen.

mboeller
2011-08-25, 17:19:36
Ich muss auch noch zurueckziehen dass SGX545 bei bis zu 640MHz nicht eine bessere Loesung ist als ein theoretischer SGX544MP2 bei niedrigerem Takt. Fuer seine Groesse ist das Ding verdammt effizient und das wohl in perf/mm2, perf/W und perf/$ Bereichen.

Spielst du darauf an:

http://www.umpcportal.com/2011/08/amd-e-450-vs-intel-n2800-vs-intel-n570-at-blogeee-net/

Ailuros
2011-08-25, 17:28:20
Spielst du darauf an:

http://www.umpcportal.com/2011/08/amd-e-450-vs-intel-n2800-vs-intel-n570-at-blogeee-net/

Steckt wohl noch etwas in den Treibern drin. Berauschend wuerde ich so ein Resultat nicht bezeichnen; es ist lediglich erstmal schoen zu sehen dass die Resultate Intel's eigene Projektionen uebertreffen. Ich bin aber immer noch nicht ueberzeugt dass es zu irgend einem Verkaufserfolg werden wird.

***edit: ich hab gerade gehoert dass sie alle design wins die bei der IDF angekuendigt wurden verloren haben, sobald die hw draussen war. Ergo doch ein hw und Treiber Problem fuer die Verspaetung.

dildo4u
2011-08-29, 16:26:52
Intel „Cedar Trail“: Erste Benchmarks der neuen Atom-CPUs

http://www.computerbase.de/news/2011-08/intel-cedar-trail-erste-benchmarks-der-neuen-atom-cpus/

Shink
2011-09-09, 12:52:47
Erste Benchmarks der neuen Atom-CPUs
Der alte In-Order N570 hat bei ungefähr gleichem Takt eine etwas bessere Leistung als der neue OOO N2600?:freak:
Dann war der Architekturwechsel wohl umsonst? (Oder verwechsel ich da was?)

Bezüglich der Grafik: 2 Mal so schnell wie der 3150 bei irgendeinem "zufälligen" 3DMark und der von mir erwarteten Treiberqualität haut mich jetzt wirklich nicht von den Socken.

Grundsätzlich freu ich mich schon auf die neuen Geräte - man sieht ja z.B. beim Asus X101 dass ein sparsamerer Prozessor in Kombination mit einer kleinen SSD eine schlankere Bauform erlaubt. Stellt sich eben nur noch die Frage ob man N2600-Geräte auch mit MeeGo ausliefern kann oder ob hier auch die Treiber fehlen - Windows 7 auf einer 8GB SSD macht wohl nicht soviel Spaß.

AnarchX
2011-09-09, 12:54:44
Der alte In-Order N570 hat bei ungefähr gleichem Takt eine etwas bessere Leistung als der neue OOO N2600?:freak:
Dann war der Architekturwechsel wohl umsonst? (Oder verwechsel ich da was?)

Das tust du. Die Atom Cores in Cedarview basieren immer noch auf Silverthorne. OOO kommt erst mit Silvermont: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=507847

Shink
2011-09-09, 12:58:10
Das tust du. Die Atom Cores in Cedarview basieren immer noch auf Silverthorne. OOO kommt erst mit Silvermont: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=507847
Na, da bin ich ja beruhigt.

loewe
2011-09-09, 20:50:20
Bezüglich der Grafik: 2 Mal so schnell wie der 3150 bei irgendeinem "zufälligen" 3DMark und der von mir erwarteten Treiberqualität haut mich jetzt wirklich nicht von den Socken.

Du hast das noch sehr freundlich ausgedrückt. :mad:
Das können nicht die neuen Treiber von PowerVR sein. Solange die CPU nicht limitiert, sollte ein SGX545 bei 600+ MHz etwa 6 mal so schnell sein, wie ein SGX535 mit ordentlichen Treibern. Werte eines SGX535 mit ordentlichen Treibern haben wir nie gesehen, aber sagen wir mal etwa 3 mal die Leistung der intel Treiber für SGX535.

Bisher bin ich enttäuscht! :(

Ronny145
2011-09-09, 20:57:49
Vielleicht limitiert die CPU zu stark? 3dmark06 ist sehr CPU abhängig.

loewe
2011-09-09, 22:07:17
Vielleicht limitiert die CPU zu stark? 3dmark06 ist sehr CPU abhängig.
Ja, das ist schon klar und Wunder gibt es nicht. Aber unser ION System hier bringt es auf fast 1500 Punkte im 3DMark2006, was zwar nicht viel ist, aber die CPU ist mit Dual Atom bei 1.6 GHz auch nicht besser.

Eine ähnliche Leistung würde ich schon erwarten!

Shink
2011-09-10, 13:07:37
Du hast das noch sehr freundlich ausgedrückt. :mad:
Naja, du kennst meine Meinung ja...

Die "Treiber-sind-ja-so-schlecht-und-werden-sicher-gleich-besser-denn-das-Potential-ist-da"-Leier hat den Pinetrail-Käufern bisher auch nichts gebracht.
Ich sehe da schwarz.

Ich bin ja mal gespannt ob die Leistung auch unter OpenGL den 3150 überflügeln" kann. Bisher ist ja jede neue Atom-Architektur bei der Grafikleistung langsamer als der Vorgänger: Den GMA950 konnte man zumindest übertakten.

Wenn Linux und Windows-OpenGL mit der neuen Atom-Generation stabil, kompatibel und minimal schneller als der 3150 ist bin ich ehrlich gesagt schon positiv überrascht.

Ailuros
2011-09-10, 14:33:39
Ja, das ist schon klar und Wunder gibt es nicht. Aber unser ION System hier bringt es auf fast 1500 Punkte im 3DMark2006, was zwar nicht viel ist, aber die CPU ist mit Dual Atom bei 1.6 GHz auch nicht besser.

Eine ähnliche Leistung würde ich schon erwarten!

Momentchen aber ION hat 16SPs bei irgendwo doppelt so hoher Frequenz wie der 545 in Cedartrail. SGX545 hat 4 Vec2 ALUs oder "8SPs"@640MHz und ION hat 16SPs@1.2? GHz? Mehr oder weniger (auch in anbetracht der 4 TMUs von ION) muesstest Du mir 2*SGX545 in einen SoC verbauen (wobei 545 nicht MP faehig ist) um erstmal ION Leistung erreichen zu koennen.

3dfart06 laesst sich uebrigens selten von schlechten Treibern beinflussen und deshalb ist es leider selbst heute noch ein "Massstab" im embedded Bereich womit u.a. Vertraege abgeschlossen werden. Bei Cedartrail muss irgend etwas anderes nicht stimmen wenn ich es mir so ueberdenke, nachdem ich immer und immer wieder in letzter Zeit hoere dass der eine design win nach dem anderem storniert wurde weil Intel ihren Hintern abgelogen hat mit dem TDP, entweder drosseln sie Frequenzen irgendwo mit Absicht um den angegeben Stromverbrauch einzuhalten, oder system level cache bzw. SoC Bandbreite ist zu wenig oder eben alles zusammen.

Alles in allem duerftest Du aber von einem 545@640MHz nicht mehr als schaetzungsweise 800 3dfart06 Punkten erwarten zumindest IMHO und ja ich lass mich gerne eines besseren belehren.

Ronny145
2011-09-10, 16:43:59
weil Intel ihren Hintern abgelogen hat



Überrascht mich nicht, dass Du die Schuld wieder auf Intel abwälzt (ganz abgesehen von der billigen Unterstellung). PowerVR sollte als erstes zusehen ihre Treiber auf Vordermann zu bringen.

Es wäre sicherlich besser wenn Intel die GPU und Treiber zukünftig aus eigenem Haus fertigen kann. Für Silvermont erhoffe ich mir, dass die Altlast PowerVR gleich mit entsorgt wird und Intel enweder auf 4-6 EUs Gen 7 oder LRB Gen 7+ setzt. In 22nm sollte es möglich sein, den Verbrauch der GPU für Atom weit genug nach unten zu drücken. Der Umbau wäre für Cedarview sicherlich zu groß gewesen oder Sandys GPU in 32nm zu stromfressend für Atom <10 Watt.

mrt
2011-09-10, 17:24:32
PowerVRs Treiber sind ja im Embeddedmarkt auch nicht so beliebt, die Hersteller schreiben da ja sicher nicht aus Langeweile ihre eigenen Treiber. (...und sind ein wenig sauer, weil sie keine FOSS-Treiber schreiben dürfen um Code zu teilen)

Ronny145
2011-09-10, 17:43:45
PowerVRs Treiber sind ja im Embeddedmarkt auch nicht so beliebt, die Hersteller schreiben da ja sicher nicht aus Langeweile ihre eigenen Treiber. (...und sind ein wenig sauer, weil sie keine FOSS-Treiber schreiben dürfen um Code zu teilen)


Darum eben. Zumal ein Atom mit Gen 7 oder Gen 7+ Grafik sich von den gleichen Treibern der großen CPUs bedienen könnte. Müsste dann ja ein und derselbe Treiber sein. Ich sehe da bei Intels Treibern größere Entwicklungschancen. Ich bekomme das als gelegentlicher HD3000 Nutzer selber mit.

mrt
2011-09-10, 17:58:23
Fast der gleiche Treiber, ein eigener ASIC hat schon seine Eigenheiten.
Für mich als Linuxnutzer kann ich nur hoffen, dass Intel in Zukunft ihre eigene Technik verbauen, auf PowerVR hoffen kann man IMO vergessen.

mboeller
2011-09-10, 19:28:47
Überrascht mich nicht, dass Du die Schuld wieder auf Intel abwälzt (ganz abgesehen von der billigen Unterstellung). PowerVR sollte als erstes zusehen ihre Treiber auf Vordermann zu bringen.



Was haben die GPU-Treiber mit der (zu hohen) TDP zu tun die Ailuros als Grund für die Probleme erwähnt?

Ronny145
2011-09-10, 19:50:25
Was haben die GPU-Treiber mit der (zu hohen) TDP zu tun die Ailuros als Grund für die Probleme erwähnt?

Gar nichts. Wer behauptet dies? Gegenfrage: Was hat die TDP mit der Verzögerung zu tun? Ein Ablenkungsmanöver lässt sich immer starten.
Ailuros ist oft sehr schnell bei der Verurteilung wenns um Intel geht. Blättere eine Seite zurück.

Erst dies:

Wie immer ist an jeglicher Verzoegerung alles andere schuld als Intel selber.

und später relativieren:

Es kann durchaus sein dass sich die Zertifikierung vom GPU Treiber verspaetet hat

Dem Anstand zu Liebe gibt es anscheinend doch Treiber Zertifierung Probleme bei Cedartrail

Erst wird ständig am Intel eigenen GMA 500 Treiber rumgenölt und jetzt wo die Treiber von PowerVR kommen, wird noch nicht einmal die Zertifikation rechtzeitig in die Wege geleitet. Dass die herbeigesehnten PowerVR Treiber was taugen, glaube ich auch erst wenn es so weit ist. Ich hoffe inständig, dass sich Intel von PowerVR in der Silvermont Arch verabschiedet und mit der eigenen Gen 7 oder Gen 7+ antanzt.

Ailuros
2011-09-10, 22:43:21
Überrascht mich nicht, dass Du die Schuld wieder auf Intel abwälzt (ganz abgesehen von der billigen Unterstellung). PowerVR sollte als erstes zusehen ihre Treiber auf Vordermann zu bringen.

Cedartrail wird erstmal so oder so ein Flop egal ob sowohl die Treiber und auch der TDP stimmen wuerde. Sonst ja die Treiber brauchen ein paar kleine Aenderungen um die Zertifizierung zu erreichen und ja ohne diese kann es als DX10.1 vermarktetes Geraet nicht auf die Regale kommen weil es keiner haben will.

Das Unglueck ist eben dass die von Intel bisher erwaehnten Cedartrail design wins in ihrer Mehrzahl storniert wurden von ihren Partnern weil der Stromverbrauch hoeher war als anfangs versprochen. Wenn es nicht stimmen sollte, dann sollte der Intel Kerl von dem ich es habe sich bei Dir entschuldigen und nicht ich.

Es wäre sicherlich besser wenn Intel die GPU und Treiber zukünftig aus eigenem Haus fertigen kann. Für Silvermont erhoffe ich mir, dass die Altlast PowerVR gleich mit entsorgt wird und Intel enweder auf 4-6 EUs Gen 7 oder LRB Gen 7+ setzt. In 22nm sollte es möglich sein, den Verbrauch der GPU für Atom weit genug nach unten zu drücken. Der Umbau wäre für Cedarview sicherlich zu groß gewesen oder Sandys GPU in 32nm zu stromfressend für Atom <10 Watt.

Intel hat sowieso nie die richtige Einstellung fuer Grafik gehabt und dabei ist es ziemlich wurscht ob sie Grafik selber entwickeln, lizenzieren oder fertige GPU chips kaufen wuerden.

Gar nichts. Wer behauptet dies? Gegenfrage: Was hat die TDP mit der Verzögerung zu tun? Ein Ablenkungsmanöver lässt sich immer starten.
Ailuros ist oft sehr schnell bei der Verurteilung wenns um Intel geht. Blättere eine Seite zurück.

Wenn Du so gut informiert bist ueber was im Hintergrund vorgeht, Glueckwunsch und Hut ab. Am Anfang gab es ein hw Problem Geruecht aber keiner wollte etwas sagen; spaeter taucht in der Presse die Treibergeschichte auf und ich hab auf zich Seiten nachgefragt und erstmal bestaetigt dass es tatsaechlich ein Treiberproblem gibt und dann jemand bei Intel und ein paar unabhaengige Quellen ueber die eigentliche hw gefragt.

Wortwoertlich jemand von einer grossen Webseite der alles andere als Intel-feindlich ist eher das brutale Gegenteil:

Cedartrail lost all of the design wins they announced at spring IDF once silicon was released. Too damn hot. Drivers are a secondary issue.

Erst wird ständig am Intel eigenen GMA 500 Treiber rumgenölt und jetzt wo die Treiber von PowerVR kommen, wird noch nicht einmal die Zertifikation rechtzeitig in die Wege geleitet.

Die GMA500 Treiber kamen von Tungsten graphics und nicht von Intel. Intel beauftragte damals Tungsten fuer die Treiber. Und ja an dem GMA500 Schlammassel ist sowohl IMG als auch Intel schuld.

Dass die herbeigesehnten PowerVR Treiber was taugen, glaube ich auch erst wenn es so weit ist. Ich hoffe inständig, dass sich Intel von PowerVR in der Silvermont Arch verabschiedet und mit der eigenen Gen 7 oder Gen 7+ antanzt.

Intel entwickelt und verkauft wunderbare CPUs; bei GPUs kann man froh sein dass sie sich wohl schwer ausserhalb von fancy office Rechnern bewegen werden. Und PowerVR ist in diesem Sinn so oder so im embedded Markt am besten aufgehoben da ich gegen AMD oder NV standalone GPUs fuer ernsthaftes 3D sowieso nichts einzuwenden habe.

Einziger Unterschied IMG hat tonnenweise GPU IP im embedded Markt verkauft nur Intel hat nach etlichen versuchen ueber mehrere Jahre es nicht geschafft dort einen Fuss zu landen. Dafuer ist natuerlich alles andere schuld als Intel selber und ja natuerlich haben sie ARM nur in ihren Traeumen in die Ecke druecken koennen.

PowerVRs Treiber sind ja im Embeddedmarkt auch nicht so beliebt, die Hersteller schreiben da ja sicher nicht aus Langeweile ihre eigenen Treiber. (...und sind ein wenig sauer, weil sie keine FOSS-Treiber schreiben dürfen um Code zu teilen)

Ehrliche Frage: welche Hersteller schreiben denn ihre eigenen Treiber?

Ronny145
2011-09-10, 22:50:10
Intel hat sowieso nie die richtige Einstellung fuer Grafik gehabt und dabei ist es ziemlich wurscht ob sie Grafik selber entwickeln, lizenzieren oder fertige GPU chips kaufen wuerden.


Geht das noch oberflächlicher? Die Wichtigkeit der GPU nimmt zu, auch bei Intel (ob Du es glaubst oder nicht). Es gehört sicher viel mehr dazu als nur die richtige Einstellung an den Tag zu legen. Eine Verschiebung aufgrund fehlender Zertifizierung wird Intel auch nicht Wurscht sein. Cedarview wird so oder so nicht groß durschlagen mit der geringen CPU Leistung, das mag sein aus der Perspektive betrachtet. Ich rede vom Nachfolger in vermutlich neuem Design. Da kann man gleich die Altlasten entfernen und auf eine hauseigene Grafik setzen inklusive Treiber in eigener Verantwortung. Ich glaube auch nicht, dass PowerVR 2013 noch leistungsmäßig Schritt halten kann mit Intels Grafik im anvisierten Atom Zielbereich.

mrt
2011-09-10, 22:54:54
Ehrliche Frage: welche Hersteller schreiben denn ihre eigenen Treiber? Ich weiß von TI und Samsung für Android und die hätten auch gerne FOSS-Treiber um Arbeit zu teilen und vor allem den DRM-Treiber in den Upstreamkernel zu bekommen und das geht nur (Achtung vereinfacht) wenn der DRM-Teil nur KMS-Interface hat (dann geht nur Modesetting aber keine 3D) oder wenn es einen FOSS-Userspacetreiber gibt.
Anpassen müsste man die PowerVR-Treiber für die unterschiedlichen SoCs sowieso.

Ailuros
2011-09-10, 23:12:28
Geht das noch oberflächlicher? Die Wichtigkeit der GPU nimmt zu, auch bei Intel (ob Du es glaubst oder nicht).

Eine gute Mitteilung fuer Intel selber. Was soll daran oberflaechlich sein? Nimm jegliche vergleichbare IGP oder integrierte Grafik von Intel und vergleich sie sowohl auf sw und hw Ebene mit konkurrierenden Produkten von NV und AMD und erzaehl mir warum Intel's Loesungen von der Grafik-Seite her nie besser waren.

Es gehört sicher viel mehr dazu als nur die richtige Einstellung an den Tag zu legen. Eine Verschiebung aufgrund fehlender Zertifizierung wird Intel auch nicht Wurscht sein.

Warum haben sie dann PowerVR dann nicht gleich nach GMA500 aufgegeben und nach einer alternativen Loesung gesucht? GMA500 wurde in knapp 90 Geraeten integriert und von Oaktrail sah man fast gar nichts nur ein paar verstreute Produkte.


Cedarview wird so oder so nicht groß durschlagen mit der geringen CPU Leistung, das mag sein aus der Perspektive betrachtet.

Die GPU Leistung ist im Vergleich zu AMD's Loesungen auch nichts besonders berauschendes. Intel beauftragte IMG fuer DX10.1 GPU IP und da dieses moeglich war haben sie es auch geliefert. Wer sonst ausser Intel hat bis jetzt den DX10.1 SGX545 lizenziert.

Cedarview oder trail oder wie das Ding am Ende heisst, wird ein Flop werden weil Intel generell immer noch nicht die richtige Perskeptive fuer den embedded Markt verstanden hat. Von smart-phone design wins von dem Zeug wollen wir wohl erstmal gar nicht reden wenn die angegebene TDP bei tablet/netbook designs hoeher sein sollte als versprochen.

Ich rede vom Nachfolger in vermutlich neuem Design. Da kann man gleich die Altlasten entfernen und auf eine hauseigene Grafik setzen inklusive Treiber in eigener Verantwortung. Ich glaube auch nicht, dass PowerVR 2013 noch leistungsmäßig Schritt halten kann mit Intels Grafik im anvisierten Atom Zielbereich.

http://www.stericsson.com/press_releases/NovaThor.jsp

Ich weiß von TI und Samsung für Android und die hätten auch gerne FOSS-Treiber um Arbeit zu teilen und vor allem den DRM-Treiber in den Upstreamkernel zu bekommen und das geht nur (Achtung vereinfacht) wenn der DRM-Teil nur KMS-Interface hat (dann geht nur Modesetting aber keine 3D) oder wenn es einen FOSS-Userspacetreiber gibt.
Anpassen müsste man die PowerVR-Treiber für die unterschiedlichen SoCs sowieso.

Es gibt wohl schon einen Unterschied zwischen einen Treiber anzupassen und einen ganzen Treiber selber zu schreiben.

Ronny145
2011-09-10, 23:23:01
Warum haben sie dann PowerVR dann nicht gleich nach GMA500 aufgegeben und nach einer alternativen Loesung gesucht?


Aufmerksamer lesen. Meine aufrichtige Spekulation dazu steht weiter oben. Die Frage gehört eher in die Glaskugel. Als ob Intel die Probleme vorher einplante. Dann wäre Cedarview von vornherein für Q4 geplant nicht Q3.

mrt
2011-09-10, 23:28:30
Es gibt wohl schon einen Unterschied zwischen einen Treiber anzupassen und einen ganzen Treiber selber zu schreiben.
Aber auf Android schon, von PowerVR gibts zB keinen DRM-Treiber (wegen GPL-Pflicht).

Ailuros
2011-09-10, 23:53:01
Aufmerksamer lesen. Meine aufrichtige Spekulation dazu steht weiter oben. Die Frage gehört eher in die Glaskugel. Als ob Intel die Probleme vorher einplante. Dann wäre Cedarview von vornherein für Q4 geplant nicht Q3.

Du hast uebrigens eine PM von mir.

Mein Punkt war dass wenn Intel nicht vor einiger Zeit zufrienden waere mit 3rd party GPU IP haetten sie vor langem diese aufgeben koennen.

Am Rand wie lange nach der erschienenen hw lieferte denn Intel selber volle DX10 Treiber fuer ihr eigenes GenX Zeug genau aus? Und nein ich versuche das ganze nicht von der eigentlichen Realitaet abzuleiten denn Intel's potentielle Partner wuerden Cedarview auch nicht ohne voll zertifizierten DX10.1 Treiber kaufen, eben weil das Ding als DX10.1 vermarktet wurde.

Die interne Philosophie bei Intel bezueglich Grafik ist dass wenn jemand sich ernsthaft mit 3D beschaeftigen will er so oder so zu einer standalone GPU greifen wird. Diese Einstellung allein ist das eigentliche Problem fuer Intel selber.

Aber auf Android schon, von PowerVR gibts zB keinen DRM-Treiber (wegen GPL-Pflicht).

Ok wusste ich nicht; danke fuer die Info.

Ronny145
2011-09-11, 00:42:07
Die interne Philosophie bei Intel bezueglich Grafik ist dass wenn jemand sich ernsthaft mit 3D beschaeftigen will er so oder so zu einer standalone GPU greifen wird. Diese Einstellung allein ist das eigentliche Problem fuer Intel selber.


Die Philosophie könnte man für jede derzeitig auf dem Markt befindliche iGPU anwenden. Für Enthusiast Gaming empfiehlt Intel eine dedizierte Karte. Casual und Mainstream ist der Fokus in diversen Folien zur SB IGP- Grafikeinordnung. Wenn wir unter ernsthaft 3D das gleiche verstehen, wird es ohne diskrete Karte in absehbarer Zeit nichts werden. Das soll (und kann) es auch gar nicht. iGPU ist maximal Mainstream Land und nichts für Enthusiasten. Die Einstellung ist sicherlich nicht das Problem, eher fehlt es an Know-how. iGPU wird auch bei Intel immer größere Gewichtung finden seitdem die GPU in der CPU sitzt, das kann man alles gar nicht mehr mit früheren Jahren vergleichen.

Ailuros
2011-09-11, 00:57:41
Die Philosophie könnte man für jede derzeitig auf dem Markt befindliche iGPU anwenden. Für Enthusiast Gaming empfiehlt Intel eine dedizierte Karte. Casual und Mainstream ist der Fokus in diversen Folien zur SB IGP- Grafikeinordnung. Wenn wir unter ernsthaft 3D das gleiche verstehen, wird es ohne diskrete Karte in absehbarer Zeit nichts werden.

Es hat aber nie NVIDIA bzw. AMD davon aufgehalten bessere 3D Leistung, mehr Faehigkeiten und auch bessere und stabilere Treiber zu haben in direkt konkurrierenden Produkten.

Das soll (und kann) es auch gar nicht. iGPU ist maximal Mainstream Land und nichts für Enthusiasten.

Ist aber keine Entschuldigung fuers obrige.

Die Einstellung ist sicherlich nicht das Problem, eher fehlt es an Know-how.

Dem kam ich zustimmen, aber wo ein Wille ist ist auch ein Weg. Und nein das Beispiel LRB zaehlt leider nicht. Es ist hauptsaechlich schief gelaufen weil die Herren im obrigen Management bzw. Marketing mit dem Kopf durch die Wand wollten obwohl die waschreinen engineers die x86 Idee erstmal nicht befuerwortet haben.

iGPU wird auch bei Intel immer größere Gewichtung finden seitdem die GPU in der CPU sitzt, das kann man alles gar nicht mehr mit früheren Jahren vergleichen.

Ich will ernsthaft sehen wie es auf allen Fronten was 3D betrifft (egal wie Bescheidung die Leistung auf A oder B sein mag) gegenueber AMD Fusion und in ein paar Jahren NV Denver aussehen wird. Fusion ist erhaeltlich mit DX11 und wird auch ziemlich bald auf bis zu tablet Hoehen nach unten skalieren. Intel's Antwort von der einen Seite ist dieses Cedarview Dingsda mit DX10.1 und insgesamt relativ laecherlicher Leistung gegenueber Fusion und bei low end PC/notebooks wird DX11 wohl auch auf sich warten lassen.

Nochmal das oede Bildchen mit dem 3dfurz Zeug:

http://www.umpcportal.com/wp-content/uploads/2011/08/wpid-3dmark_2006_atom-n2800_Zacate-E-450.jpeg

http://www.umpcportal.com/2011/08/amd-e-450-vs-intel-n2800-vs-intel-n570-at-blogeee-net/

Zugegeben E450 ist kein tablet/netbook Material aber 2876 Punkte bei 18W gegen N2800 mit 440 Punkten bei (angeblichen) 6.5W. Das erste bekommt ~160 Punkte/Watt und das zweite ~68 Punkte/Watt. Ein Unterschied von >Faktor 2x und wenn man den DX11 overhead fuer's E450 noch mitberechnet noch blamierender.

Es waere durchaus wuenschenswert wenn Intel wirklich Feuer unter ihren Hintern legen wuerde, aber momentan sehe ich noch keine besondere Indizien dafuer. Fuer den Endverbraucher der sich ein jegliches low end Geraet kauft ist es auch ziemlich wurscht; mir persoenlich aber nicht da Intel dank sehr hohem Marktanteil eine Stimme bei API-Definierungen hat und Du kannst Gift darauf nehmen dass Intel als erstes gegen vieles dagegen ist.

Ronny145
2011-09-11, 01:36:14
Es hat aber nie NVIDIA bzw. AMD davon aufgehalten bessere 3D Leistung, mehr Faehigkeiten und auch bessere und stabilere Treiber zu haben in direkt konkurrierenden Produkten.


Eine hochgradig versimpelte Sichtweise. Als ob das so einfach wäre.



Ich will ernsthaft sehen wie es auf allen Fronten was 3D betrifft (egal wie Bescheidung die Leistung auf A oder B sein mag) gegenueber AMD Fusion und in ein paar Jahren NV Denver aussehen wird. Fusion ist erhaeltlich mit DX11 und wird auch ziemlich bald auf bis zu tablet Hoehen nach unten skalieren. Intel's Antwort von der einen Seite ist dieses Cedarview Dingsda mit DX10.1 und insgesamt relativ laecherlicher Leistung gegenueber Fusion und bei low end PC/notebooks wird DX11 wohl auch auf sich warten lassen.

Atom wird erst mit einer neuen Architektur was reißen. SB Grafik wäre für Cedarview vermutlich zu groß. Ansonsten lehnst Du dich weit aus dem Fenster, da Gen 7 nicht mehr so weit entfernt liegt und noch keinerlei genauere Informationen bekannt sind. Trotz deiner Abneigung gegnüber Intel solltest Du abwarten wie das Gesamtpaket Intels erster DX11 Grafik aussieht.


Nochmal das oede Bildchen mit dem 3dfurz Zeug:



6.5W TDP gegen 18W TDP. Wundert mich ja schon, dass Du dir kein Llano rausgesucht hast. Das ist mittlwerweile nur noch Bashing was Du vom Stapel lässt.

Ailuros
2011-09-11, 02:45:32
Eine hochgradig versimpelte Sichtweise. Als ob das so einfach wäre.

Bei der Groesse von Intel und deren Resourcen ist es eben nicht so schwer.

Atom wird erst mit einer neuen Architektur was reißen. SB Grafik wäre für Cedarview vermutlich zu groß. Ansonsten lehnst Du dich weit aus dem Fenster, da Gen 7 nicht mehr so weit entfernt liegt und noch keinerlei genauere Informationen bekannt sind. Trotz deiner Abneigung gegnüber Intel solltest Du abwarten wie das Gesamtpaket Intels erster DX11 Grafik aussieht.

Ich sagte lediglich dass ich neugierig bin wie es aussehen wird. Es ist Intel's bisheriger track record lediglich gegen die Hoffnung dass es sich zum besseren wenden wird. Ein ziemlich grosser Haufen an jahrelangen Fakten gegen ein einfaches "vielleicht" oder besser "hoffentlich". Ich lass mich gerne angenehm ueberraschen aber bis zu dem Zeitpunkt ist jegliche Vorbehalte durchaus gerechtfertigt und hat nichts im geringsten mit Abneigung zu tun.

6.5W TDP gegen 18W TDP. Wundert mich ja schon, dass Du dir kein Llano rausgesucht hast. Das ist mittlwerweile nur noch Bashing was Du vom Stapel lässt.

Glaubst Du vielleicht dass die perf/W Relation um vieles schlechter ist bei einem Brazos/C50? Ein C50 (DX11/5W) liegt mehr oder weniger auf PS Vita GPU Leistungs-Nivaeu (DX9/5W) mit dem klitzekleinen Unterschied dass das letztere 4 SGX543 cores hat bei 200MHz und trotz der 640MHz Frequenz des 545 im Cedarview diesem um zumindest einen Faktor 3.0x den Hintern versohlt.

Uebrigens da ich in der Vergangenheit bei endlosen Debatten ueber AF Optimierungen und Filterqualitaet fuer NV und AMD teilgenommen habe, ist selbst das schlimmste Resultat der einen oder anderen Seite nie so miserabel gewesen wie hier:

http://techreport.com/articles.x/21099/11

Ich versuche zumindest zu argumentieren; bashing ist ganz was anderes. Aber ich bin natuerlich auch gerne ganz Augen ueber jegliche Wunder die uns ueber Nacht von Intel erwarten werden. Moment das klingt schon fast nach einer Drohung.

=Floi=
2011-09-11, 03:31:39
wann kommt denn mal eine neue architektur und wird diese alte krücke in rente geschickt?

Ronny145
2011-09-11, 10:52:14
Uebrigens da ich in der Vergangenheit bei endlosen Debatten ueber AF Optimierungen und Filterqualitaet fuer NV und AMD teilgenommen habe, ist selbst das schlimmste Resultat der einen oder anderen Seite nie so miserabel gewesen wie hier:
http://techreport.com/articles.x/21099/11



Eine tot optimierte AF Blume, sehr schön. AMDs AF flimmmert stärker, das ist in einigen Spielen das deutlich größere Übel, kann ich dir versichern, da ich beides austesten kann. Du solltest den Thread in Ailuros' Intel "OT" Bashthread umändern. Deine Signatur kommt schließlich nicht von ungefähr. Vielleicht könnte ein neutraler Moderator hier für Ordnung sorgen.

Chris2CB
2011-09-11, 17:09:09
Eine tot optimierte AF Blume, sehr schön. AMDs AF flimmmert stärker, das ist in einigen Spielen das deutlich größere Übel, kann ich dir versichern, da ich beides austesten kann. Du solltest den Thread in Ailuros' Intel "OT" Bashthread umändern. Deine Signatur kommt schließlich nicht von ungefähr. Vielleicht könnte ein neutraler Moderator hier für Ordnung sorgen.


Im Gegensatz zu Nvidia, ja da fällt das AF flimmern auf, im Gegensatz zu Intel wo es hinten und vorne an allem fehlt ist AMD qualitativ meilenweit voraus. Alleine schon die Treiberqualität von Intel ist Sagenumwoben.....wenn ich den neusten Treiber auf mein Netbook aufspiele kann ich die Helligkeit vom Display nicht mehr verändern. Well done Intel :(

Und wenn man den Thread hier so mit liest, fällt auf das User Ailuros fundiert und mit links für jeden nachlesbar scheibt, was für jeden Nutzer hier im Forum besser ist :)

Ailuros
2011-09-11, 20:33:27
Eine tot optimierte AF Blume, sehr schön. AMDs AF flimmmert stärker, das ist in einigen Spielen das deutlich größere Übel, kann ich dir versichern, da ich beides austesten kann.

AMDs AF ist meilenweit besser in Echtzeit heutzutage als das Zeug dass Intel heutzutage immer noch liefert. So miserabel war ATI's AF lediglich zu R200 Zeiten und das ist schon eine geraume Zeit her. Intel spart immer noch Logik und das natuerlich nicht nur fuer AF obwohl es heutzutage nicht mehr erlaubt sein sollte. Bei 45-gradigen Winkeln gibt es ueberhaupt kein AF mehr.

Teste von mir so lange wie Du willst herum; heutzutage ist solches Zeug eine Zumuntung egal woher es kommt.

Ich hab auch einiges mehr Intel/Grafik betreffend gepostet und nur dieses und/oder Cedarview Material steht zur Debatte; der Rest der gleich folgt eben nicht.

Du solltest den Thread in Ailuros' Intel "OT" Bashthread umändern. Deine Signatur kommt schließlich nicht von ungefähr. Vielleicht könnte ein neutraler Moderator hier für Ordnung sorgen.

Da Dir so oder so die Argumente ausgehen antwortest Du ohne sachlich zu bleiben nur eben mit der gleichen ausgelatschten Linie. Und nein ich oder jeglicher andere User stehen eben nicht zur Debatte sondern nur das eigentliche Thema. Kann sein dass Du beweisen kannst dass Intel bisher irgend etwas anstaendiges in Sachen Grafik geliefert hat, aber glaub auch bloss nicht dass es viele geben wird die es auch unterstuetzen werden. Neutral und objektiv laesst schon seit Jahren dass was Intel fuer Grafik liefert zu wuenschen uebrig im ganz groben Gegensatz zu CPUs.

Es hat niemand etwas gegen Deine Meinung und sie ist auch durchaus gewuenscht und erlaubt; gleiches gilt aber fuer mich egal ob Moderator oder nicht. Kann sein dass Du Dir wuenschst dass mir egal wer das Recht meiner Meinung entfernt, aber wenn es je soweit kommen wuerde gebe ich ohne weitere Gedanken die Modschaft auf weil mir meine Meinungsfreiheit eben wichtiger ist. Es gibt keine Regel in keinem Forum der diese verbietet so lange man sich nicht unangebracht ausdrueckt oder andere angreift.

In der Zwischenzeit wird das obrige nicht weiter oeffentlich diskuttiert und es bleibt bitte beim eigentlichen Thema.

fondness
2011-09-23, 13:45:14
Cedar Trail loses DirectX 10 support
http://www.fudzilla.com/processors/item/24170-cedar-trail-loses-directx-10-support

We have heard that the chipset is to blame for the delay of Cedar trail D and M, desktop and mobile platforms, but the surprising part now is that DirectX 10 is gone from the specification.

The new Atom continues to have full HD decode engine that can take care of MPEG2, VC1, AVC, H.264 codec as well as Blu-ray 2.0 but graphics support slipped back to DirectX 9. We don’t know the reason but we can only suspect that this can have something to do with the recent delay of new Atom 32nm introduction.

Shink
2011-09-23, 16:40:08
Scheiße. Was passiert als nächstes? Preiserhöhung? Deaktivierte Videobeschleunigung? Linux-Treiber vergessen und es kann mangels HW-Dokumentation auch kein freier gemacht werden?

€: Ist schon klar dass DX10.1-Anwendungen wohl ohnehin keiner ausführen will auf dem Cedarview - aber DX10.1-kompatibel ist eine GPU nun einmal nur dann wenn sie auch den vollen Umfang von DX9 und DX10.1 unterstützt. DX9-kompatibel heißt so gut wie gar nix...

AffenJack
2011-09-23, 17:35:53
Hui, sieht so aus als hätte es SGX mal so gehörig verkackt in diesem Fall. Denn ich glaube nicht, dass Intel zu blöde ist die IP ordentlich zu implementieren. Wird interessant sein zu hören woran es wohl liegt.

loewe
2011-09-23, 20:26:51
Nun lasst uns doch erst einmal abwarten, bis wir Cedar Trail gesehen haben.:smile:

Ronny145
2011-10-08, 23:29:34
Es gibt Beta Treiber für Cedarview. 8.15.8.1050 Beta 5 die aktuellste. Das mit Tungsten im semiaccurate Forum war wohl Quatsch. Gibt einige dlls die mit img anfangen, als Firma ist Imagination Technologies Limited eingetragen. Auch in der dll selber finden sich Imagination Technologies Einträge. In den GMA500 Treibern von Tungsten gab es das nicht.

http://s14.directupload.net/images/111008/2rctfosg.png

Fetza
2011-11-05, 18:35:36
Wird dx10.1 support jetzt eigentlich später noch nachgereicht, so wie ich lesen konnte, oder bleibt es beim dx9 support? Theoretisch finde ich cedartrail eigentlich sehr interessant, allerdings möchte ich gpgpu-support haben für adobe etc.

Ailuros
2011-11-07, 15:40:14
Es gibt Beta Treiber für Cedarview. 8.15.8.1050 Beta 5 die aktuellste. Das mit Tungsten im semiaccurate Forum war wohl Quatsch. Gibt einige dlls die mit img anfangen, als Firma ist Imagination Technologies Limited eingetragen. Auch in der dll selber finden sich Imagination Technologies Einträge. In den GMA500 Treibern von Tungsten gab es das nicht.

http://s14.directupload.net/images/111008/2rctfosg.png

In Intel's whitepapers steht DX9/OGL3.0 drin. Beide Treiber duerften von IMG kommen. OGL3.0 ist schon ein ganzes Stueck hoeher als DX9, aber ich kenn mich mit OGL nicht so gut aus um zu wissen ob man 3.1 oder 3.2 braucht um aufs theoretische DX10.1 Niveau zu kommen. Ist ja auch ziemlich wurscht denn mit OpenGL kann man so oder so generell wenig anfangen heutzutage.

Wird dx10.1 support jetzt eigentlich später noch nachgereicht, so wie ich lesen konnte, oder bleibt es beim dx9 support? Theoretisch finde ich cedartrail eigentlich sehr interessant, allerdings möchte ich gpgpu-support haben für adobe etc.

Fuer win8 IMHO schon; ob es zu dem Zeitpunkt ueberhaupt noch irgend eine Wichtigkeit haben wird, steht wohl in den Sternen.

Ronny145
2011-11-07, 15:46:11
Die Directx Treiber WDDM HAL sind auch mit Imagination Technologies versehen. DX10 ist rausgeflogen, klar das nur DX9 im Whitepaper steht. Vielleicht wird es nachgeliefert wenn Imagination die Treiber in den Griff bekommt, aber darauf würde ich eher nicht spekulieren.

Fetza
2011-11-07, 16:25:01
Fuer win8 IMHO schon; ob es zu dem Zeitpunkt ueberhaupt noch irgend eine Wichtigkeit haben wird, steht wohl in den Sternen.

Naja, aber bei einer eher schwachen cpu, wäre ein gpgpu feature doch um so wichtiger. Warum sollte es zum release von windows 8 nichtmehr wichtig sein?

Die Directx Treiber WDDM HAL sind auch mit Imagination Technologies versehen. DX10 ist rausgeflogen, klar das nur DX9 im Whitepaper steht. Vielleicht wird es nachgeliefert wenn Imagination die Treiber in den Griff bekommt, aber darauf würde ich eher nicht spekulieren.

Ist das bei denen normal, das die ihre eigenen produkte nicht im griff haben? ;(

Ailuros
2011-11-07, 21:38:10
Die Directx Treiber WDDM HAL sind auch mit Imagination Technologies versehen. DX10 ist rausgeflogen, klar das nur DX9 im Whitepaper steht. Vielleicht wird es nachgeliefert wenn Imagination die Treiber in den Griff bekommt, aber darauf würde ich eher nicht spekulieren.

Es gibt keinen anderen Ausweg fuer IMG oder fuer jegliche Firma die sich im embedded Bereich bewegt als win8 voll zu unterstuetzen. Im Gegenfall waere Cedarview nicht die einzige Platform die im Stich gelassen wird, sondern ziemlich alles was ihre kommende Generation betrifft da Rogue zwischen DX10 und DX11 rangiert.

Naja, aber bei einer eher schwachen cpu, wäre ein gpgpu feature doch um so wichtiger. Warum sollte es zum release von windows 8 nichtmehr wichtig sein?

So stark ist die GPU nun auch wieder nicht. Poulsbo/SGX535 wurde ja schon vor einiger Zeit OpenCL1.0 embedded zertifiziert, aber fuer win8 duerfte dieses nicht besonders viel helfen. Warum es nicht mehr so wichtig sein sollte? Weil zu dem Zeitpunkt noch mehr konkurrierende auf dem Markt sein werden u.a. vielleicht sogar von Intel selber. Nachladen wird Intel theoretisch schon koennen, aber die Suppe ist so oder so leider schon verpatzt.

fondness
2011-11-08, 09:14:52
Demnach wurde die Entwicklung eines Updates für DirectX 10.1 gestoppt, auch die Arbeiten an einem 64-Bit-Treiber für Windows 7 wurden angeblich zu Gunsten von Windows 8 eingestellt. Angesichts der aktuellen Verbreitung des Betriebssystem Windows 7 gerade auch in der 64-Bit-Version macht die eigentlich neue Atom-Plattform damit aber zwei Schritte zurück und siedelt sich bei der Treiberunterstützung zum Start noch vor dem Vorgänger an. Aktuell heißt es weiter, dass nicht einmal zum offiziellen Start der Plattform ein von Microsoft signierter WHQL-Treiber für die Grafikeinheit zur Verfügung stehen wird

http://www.computerbase.de/news/2011-11/intel-cedar-trail-ein-schritt-vor-zwei-schritte-zurueck/

LOL, wer soll das beta-Zeug denn kaufen?

Ronny145
2011-11-08, 12:46:08
Wenn Imagination noch nicht einmal DX9 Treiber hinbekommt, ist es völlig verständlich das DX10 Treiber kein Sinn machen. Richtig neu ist an der news nur, dass es zum Start keinen WHQL Treiber geben wird. Wundert mich nicht. Ich sehe auch kaum wie sie das Zeug diesen Monat verkaufen können. Notebook Hersteller lassen sich auf diesen Treibermist bestimmt nicht ein. Wie gesagt, Intel muss zusehen eine eigene iGPU unterzubringen. Für Cedarview ist es zu spät. Das ist so oder so bereits ein Fail.

Ronny145
2011-11-24, 00:58:16
It's surprising how much trouble Intel seems to have with its Atom graphics drivers for the mobile Cedar Trail Atom N2600 and N2800 processors, as the company has been forced to push back the launch a second time.
http://vr-zone.com/articles/intel-s-cedar-trail-mobile-atom-pushed-back-again/14051.html#ixzz1eZlyZ9ku


Mit November wird das nichts wie ich mir dachte. Welch ein Fail...

AnarchX
2011-12-20, 15:23:30
Kein BluRay 2.0 für den D2500: http://www.fudzilla.com/processors/item/25274-atom-d2500-doesn%E2%80%99t-support-blu-ray-20

Ailuros
2011-12-20, 15:29:51
Kein BluRay 2.0 für den D2500: http://www.fudzilla.com/processors/item/25274-atom-d2500-doesn%E2%80%99t-support-blu-ray-20

Kann durchaus sein dass es stimmt aber dass es mit der GPU selber etwas zu tun hat will ich bezweifeln. Ausser Cedar trail hat keine video decoding hw welches ziemlich merkwuerdig waere.

Ronny145
2011-12-20, 16:41:49
Aktueller Status:

Derzeit sind keine Grafiktreiber verfügbar für die folgenden Mainboards:

Intel® PC-Mainboard DN2800MT
Intel® PC-Mainboard D2700MUD
Intel® PC-Mainboard D2700DC
Intel® PC-Mainboard D2500HN
Intel® PC-Mainboard D2500CC


Noch keine finalen Treiber in Sicht.

dildo4u
2011-12-28, 17:26:51
Nächste Atom-Generation mit Quad-Core-Prozessoren

http://www.computerbase.de/news/2011-12/naechste-atom-generation-mit-quad-core-prozessoren/


Intel stellt neue Atom-Plattform offiziell vor Ohne DX10.1 Treiber.

http://pics.computerbase.de/3/8/8/0/2/1_m.png

http://pics.computerbase.de/3/8/8/0/2/3_m.png

http://www.computerbase.de/news/2011-12/intel-stellt-neue-atom-plattform-offiziell-vor/

y33H@
2011-12-28, 21:09:58
Schon traurig ... naja, vll mit 22 nm neue Kerne und DX11-GPU.

boxleitnerb
2011-12-28, 21:13:29
Vor allem immer noch derselbe Chipsatz mit so wenig SATA-Anschlüssen. Für Fileserver/HTPCs sind 1-2 Anschlüsse zu wenig.

JFZ
2011-12-30, 19:18:51
Vor allem immer noch derselbe Chipsatz mit so wenig SATA-Anschlüssen. Für Fileserver/HTPCs sind 1-2 Anschlüsse zu wenig.

Das stimmt. 4 SATA wären perfekt.


Wie sieht es denn mit dem DVI/HDMI-Anschluss aus? Kann der FullHD digital ausgeben oder ist der noch limitiert?
Und wie stehen die Chancen, dass es zumindest für einen Mediaserver ausreicht? Braucht es noch sinnvollerweise einen ION oder geht es mit denen eventuell direkt so?

Ronny145
2012-01-10, 13:40:53
The PowerVR SGX 545 comes with all Cedar Trail Atom CPUs by default, however it looks like due to driver issues the integrated graphics on the very first Cedar Trail systems will be disabled.

Zotac's ZBOX ID80 is the first Cedar Trail nettop we've seen announced and it ships with Cedar Trail graphics disabled. In its stead Zotac is using a GeForce GT 520M from NVIDIA. I'm hearing that fixed drivers for Cedar Trail, enabling integrated graphics, will be available sometime in February...
http://www.anandtech.com/show/5328/zotacs-cedar-trail-zbox-id80-uses-discrete-gpu

Wobei es auf der Intel Seite einen 32 Bit PV Treiber (http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&DwnldID=20711&ProdId=3383&lang=deu&OSVersion=Windows%207*%2C%2032%20Bit&DownloadType=Treiber) gibt, gleichbedeutend mit final bei Intel normalerweise. Der 3dmark06 score ist mit dem Treiber schlechter als hier mal spekuliert wurde. Der nächste Atom kommt offenbar mit Intel eigener GPU.

Ronny145
2012-01-15, 17:35:23
Intels Atom-Unfall
Erste Messungen am Intel Atom D2700 (http://www.heise.de/ct/artikel/Intels-Atom-Unfall-1407356.html)

http://s14.directupload.net/images/120115/bn4gf542.gif

Doch um Nachkommastellen muss man sich speziell bei den Grafik-Benchmarks sowieso nicht streiten, weil die PowerVR-GPU ständig ruckelt und lahmt – beispielsweise schon beim Verschieben von Fenstern auf dem Windows-Desktop. :freak: HD-Videos von YouTube spielte unser Testsystem immerhin ab und anders als der alte Atom auch in 1080p-Auflösung – allerdings ruckelte die Wiedergabe sichtbar.

AnarchX
2012-01-15, 17:37:08
Die 503 Punkte im 3DMark 2006 sehen doch gar nicht so schlecht aus. :D

Shink
2012-01-15, 18:21:36
Intels Atom-Unfall - geiler Titel für das erste Review.

And what about Linux? Mir doch egal wie viele 3DMarks das Teil hat...

Nakai
2012-01-15, 18:45:10
AMDs E-350 ist noch im 40nm gefertigt, während Intels neuer ATOM in 32nm daherkommt.

AMDs E-350 verbraucht unter Vollast etwa 20% mehr, aber unter Idle deutlich weniger...ein Produkt, was ein Jahr alt ist.

Wie sehen eigentlich die AMD Nachfolger für das untere Mobilesegment aus? Wurden die nicht gecancelt?


mfg

dildo4u
2012-01-15, 18:49:51
Jo die wurden gestrichen in dem Bereich kann AMD 2012 Däumchen drehen Samara steht für 2013 an.

http://www.donanimhaber.com/islemci/haberleri/Ozel-Haber-AMDnin-2012-icin-hazirladigi-tablet-odakli-Hondo-islemci-ailesinin-detaylari.htm

RLZ
2012-01-15, 19:09:28
Intels Atom-Unfall
Erste Messungen am Intel Atom D2700 (http://www.heise.de/ct/artikel/Intels-Atom-Unfall-1407356.html)

http://s14.directupload.net/images/120115/bn4gf542.gif
Es war nichts anderes zu erwarten. Selbst als HTPC ist ein Atom nach meiner Erfahrung nur zu gebrauchen, wenn man sowas wie XBMC nutzt. Unter Windows ist das ein einziger Krampf.
Mir ist absolut unklar welchen Markt Intel mit dem neuen Atom bedienen will. HTPCs sind Nische und Netbooks sterben dank Tablets aus.

Hugo78
2012-01-15, 19:18:35
Jo die wurden gestrichen in dem Bereich kann AMD 2012 Däumchen drehen Samara steht für 2013 an.


Wobei wenn die Celeron Ableger der 22nm Ivys noch mal sparsamer werden als die der SB jetzt schon sind, dann kann man nicht von Däumchen drehen reden.
Intel könnte sie dann die Desktop Atome auch sparen.

Auch vom Preis her.
Ein Celeron G530 bekommt man ab 35€, die S1155 Mobos gehen ab 40€ los.
Billiger ist eine E350 Plattform auch nicht.

Natürlich spielt der Formfaktor auch eine Rolle, aber ITX sollte auch mit IVY gehen.


Die Preisklasse wäre eine andere, aber wenn der Preis nicht so wichtig ist, oder man die extra CPU Leistung mitnehmen möchte...

Bucklew
2012-01-15, 19:19:55
Es war nichts anderes zu erwarten. Selbst als HTPC ist ein Atom nach meiner Erfahrung nur zu gebrauchen, wenn man sowas wie XBMC nutzt. Unter Windows ist das ein einziger Krampf.
Vorallem wo es für HTPCs inzwischen auch zahlreiche SoCs gibt. Wer nimmt da noch nen 20W Atom mit Windows und Treiberproblemen?

dildo4u
2012-01-15, 19:26:26
Der Preis ist sehr wichtig weil man gegen sau billige ARM SOC's antritt,Tabelts sind das Einzige was in dem Bereich ne Zukunft hat.Alles was man damit machen will HD Video,Mobile Games und Surfen wird nicht mehr Power brauchen als 4 Core Arms jetzt schon bieten.Der Markt für 500€ Plus Tabelts wird sehr sehr klein sein wenn sich die Menge um 300 abspielt.(z.b Asus Memo 370T mit Tegra 3 für 250$)

Undertaker
2012-01-15, 20:31:31
AMDs E-350 ist noch im 40nm gefertigt, während Intels neuer ATOM in 32nm daherkommt.

AMDs E-350 verbraucht unter Vollast etwa 20% mehr, aber unter Idle deutlich weniger...ein Produkt, was ein Jahr alt ist.


Stichwort mieser Desktop-Chipsatz. Das idle-load Delta von gerade einmal 4W deutet an, wie wenig der Atom eigentlich verbraucht - nur war der Hersteller hier wohl zu ****, dieses Potential auch auszunutzen. In einem Netbook werden wir sicher auch 4-5W Leistungsaufnahmen im Idle sehen.
Ich stimme aber Hugo78 zu: Ein IB Celeron wird wohl meist die bessere Wahl sein.

Shink
2012-01-15, 21:00:47
Wobei wenn die Celeron Ableger der 22nm Ivys noch mal sparsamer werden als die der SB jetzt schon sind, dann kann man nicht von Däumchen drehen reden.
Intel könnte sie dann die Desktop Atome auch sparen.

Auch vom Preis her.
Naja, Atom kann man billiger herstellen. Also könnten sie für Intel durchaus lohnenswert sein. Wenn sie es nicht sind ist man selbst schuld - man muss jedenfalls weniger Silizium verprassen.

disap.ed
2012-01-16, 10:28:55
Jo die wurden gestrichen in dem Bereich kann AMD 2012 Däumchen drehen Samara steht für 2013 an.

http://www.donanimhaber.com/islemci/haberleri/Ozel-Haber-AMDnin-2012-icin-hazirladigi-tablet-odakli-Hondo-islemci-ailesinin-detaylari.htm

Was interessant ist, dass kein Wort über die CPU verloren wird. Könnte man mit Samara auf den ARM-Zug aufspringen? Vor allem da man ja nun einen 17W-Trinity anbieten wird ist die Luft für die Brazos-Plattform schon arg dünn, ein 5-10 Watt Markt ist ja eigentlich nicht da. Andererseits wollte man ja schon mit Brazos-T @40nm unter die 5W kommen, wäre schon interessant wo man hier mit 28nm hinkommen könnte.

ndrs
2012-01-16, 10:43:04
Vor allem da man ja nun einen 17W-Trinity anbieten wird ist die Luft für die Brazos-Plattform schon arg dünn
Soll AMD den >200mm^2-Trinity für den Preis eines <90mm^2-Ontario anbieten? Das sind zwei vollkommen unterschiedliche Märkte.

ein 5-10 Watt Markt ist ja eigentlich nicht da.
Und wer kauft dann die hier (http://geizhals.de/?cat=nb&xf=1482_AMD~2647_10#xf_top)?

disap.ed
2012-01-16, 12:56:34
Soll AMD den >200mm^2-Trinity für den Preis eines <90mm^2-Ontario anbieten? Das sind zwei vollkommen unterschiedliche Märkte.

Da hast du recht, aber das heißt ja nicht dass man auf Trinity-Basis nicht auch einen abgespeckten Die auflegen könnte (1 CPU-Modul, 2 SIMD-Einheiten).


Und wer kauft dann die hier (http://geizhals.de/?cat=nb&xf=1482_AMD~2647_10#xf_top)?

Das, mein Herr, frage ich mich auch :biggrin:

Shink
2012-02-08, 14:19:52
Mh...
"Intel is planning to drop their use of Imagination Technologies PowerVR graphics within future-generation SoCs."
http://www.phoronix.com/scan.php?page=news_item&px=MTA1NDU

Macht wohl den Cedarview zum Rohrkrepierer weil Intel die derzeit schrottigen Treiber auch in den nächsten Jahren nicht mehr großartig weiterentwickelt. Oder sehe ich das falsch?

Ronny145
2012-02-08, 14:33:25
Mh...
"Intel is planning to drop their use of Imagination Technologies PowerVR graphics within future-generation SoCs."
http://www.phoronix.com/scan.php?page=news_item&px=MTA1NDU

Schau mal hier: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=520629

Keine Überraschung mehr. Eine weitere Bestätigung immerhin, werde es gleich im Thread posten.


Macht wohl den Cedarview zum Rohrkrepierer weil Intel die derzeit schrottigen Treiber auch in den nächsten Jahren nicht mehr großartig weiterentwickelt. Oder sehe ich das falsch?

Rohrkrepierer ist er schon längst imo. Gibt ja noch nichtmal verfügbare Geräte auf dem Markt. Intel entwickelt da nichts weiter, Treiberentwicklung ist Sache von Imagination. Das ist ja auch der Vorteil, dass eine Intel GPU automatisch Treiber von Intel bekommt. Davon abgesehen ist die CPU einfach viel zu langsam im Atom. Die Leistung ist vielleicht im Smartphone konkurrenzfähig, im Netbook oder Notebook reicht das nicht mehr.

Shink
2012-02-08, 17:08:13
Davon abgesehen ist die CPU einfach viel zu langsam im Atom. Die Leistung ist vielleicht im Smartphone konkurrenzfähig, im Netbook oder Notebook reicht das nicht mehr.
Naja; Videobeschleunigung und komplette DX9-Unterstützung wären schon ein Vorteil gegenüber den "alten" Atoms - zumal die neuen ja auch weniger Saft ziehen. Wenn da bei den Treibern aber nichts mehr zu erwarten ist...

Shink
2012-02-09, 16:48:55
Das Acer D270 mit Cedarview ist lieferbar ab Lager bei Amazon.

Und, wer ist so mutig und sagt mir wie gut der Grafiktreiber ist?