PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Warum Intel Atom?


=Floi=
2009-02-20, 07:58:40
Ja, warum?
Das teil ist von der rechenleistung miserabelst und eigentlich garnicht für netbooks und nettops geeignet.
In mobilen geräten kann ich ihn mir vorstellen, aber nicht hier.
warum hat sich intel für solch eine archtektur und strategie entschieden? Das ist im ganzen gesehen wohl der schlechteste prozessor der letzten jahre.
Er ist billig und an sich stromsparend, aber wenn nicht mal die mindestleistung für anwendungen gegeben ist, dann ist das ganze doch am ziel vorbei entwickelt. Intel atom 330 ist von der idee nett, ändert aber nichts am hauptproblem. (windows vista, flash, multimedia)

SavageX
2009-02-20, 08:12:22
Der Atom bietet für die Anwendungen, die ein Großteil der Anwender mobil mit sich führt, schlicht genug Leistung (Browser, Email, Kalender, bisschen Video gucken).

Warum will man Windows Vista auf seinem Netbook haben, wo es doch Win XP und Linux gibt? Vista ist eher Teil des Problems, nicht der Lösung - und Windows 7 schlägt sich wohl wacker auch auf Netbooks.

Flash läuft doch? Wenn Youtube geht, ist doch alles in Butter? Adblock drauf, Flashblock drauf - dann sabotieren auch nicht dutzende Flash-Dinger das normale Surfen.

Mit einem passenden Chipsatz bewältigt auch der Atom auch HD Videocontent, SD macht der sowieso mit links. Was willst Du mit dem Teil machen - Videoschnitt?

Wenn die Rechenleistung nicht passt, dann greift man halt zum Subnotebook mit stärkerem Wumms. Das ist schlicht eine Sache des Anwendungsprofils.

GeneralHanno
2009-02-20, 11:17:56
das hauptaugenmerk liegt beim atom auf billig. die CPU kostet unter 50€, während ein ordentlicher mobilprozessor mind. 250€ kostet.

und was die kritikpunkte fehlende multimedialeistung und überproportional hoher stromverbrauch angeht (ja ein ULV prozzi holt WESENTLICH mehr leistung pro watt heraus!). da sehe ich das problem weniger beim atom selber, sondern an dem chipsatz!
ein moderner intelligenter chipsatz mit videobeschleuniger und wenig stromverbrauch würde den atom mind. doppelt so gut dastehen lassen.

AnarchX
2009-02-20, 11:21:15
ein moderner intelligenter chipsatz mit videobeschleuniger und wenig stromverbrauch würde den atom mind. doppelt so gut dastehen lassen.
Mit Poulsbo(US15W, mit SGX-IGP) hat man ja einen solchen, wenn den Intel nicht überzeugt wäre, dass es besser sei selbst den Treiber zu schreiben.;D

Aber wie schon erwähnt Atom ist hauptsächlich in der Herstellung sehr billig und im Ausgangszustand eine doch sehr ordentliche Pro-Watt-Leistung.

eraser-x
2009-02-20, 11:31:55
so schlecht rennt vista wenn man bischen optik abstellt aber garnicht mal auf einem netbook also würde auch soweit tu

früher haben leute auch xp mit 256 mb gequält usw usw
das ist heute nicht anders neues drum rum eben


mfg

iDiot
2009-02-20, 13:35:37
Hm, also mit der Optik gibts da kaum Probs, da das Aero eh von der GPU beschleunigt wird.

Bei den Netbooks limitieren RAM und langsame HDD... der Atom kommt mit Vista ohne Probleme hin,imho besser als XP.

http://www.notebookreview.com/default.asp?newsID=4505

Frankyboy
2009-02-20, 14:23:40
Bei den Netbooks limitieren RAM und langsame HDD... der Atom kommt mit Vista ohne Probleme hin,imho besser als XP.Sehe da auch kein Problem - egal ob mit dem DualCore oder SingleCore Atom. Die CPUs scheinen wie für Vista gemacht. Selbst die Akkulaufzeit ist unter Vista besser. Habe da auch nur positive Erfahrungen gesammelt. :)

GeneralHanno
2009-02-20, 14:32:14
gut möglich das vista wesentlich besser die 2 virtuellen kerne auslasten kann als xp ...

san.salvador
2009-02-20, 15:14:18
Ja, warum?
Das teil ist von der rechenleistung miserabelst und eigentlich garnicht für netbooks und nettops geeignet.
In mobilen geräten kann ich ihn mir vorstellen, aber nicht hier.
warum hat sich intel für solch eine archtektur und strategie entschieden? Das ist im ganzen gesehen wohl der schlechteste prozessor der letzten jahre.
Er ist billig und an sich stromsparend, aber wenn nicht mal die mindestleistung für anwendungen gegeben ist, dann ist das ganze doch am ziel vorbei entwickelt. Intel atom 330 ist von der idee nett, ändert aber nichts am hauptproblem. (windows vista, flash, multimedia)
Sorry, aber für mich ist das einfach ein billiger Flame eines Ahnungslosen.

S940
2009-02-20, 15:37:50
Gibt nur 2 Gründe.
a) Billig:
Dank der geringen Ausmaße von weniger als 25 Quadratmillimeter kann Intel aus einer 300-mm-Wafer bis zu 2.500 Chips herstellen. So kommen auch die günstigen Preise für die Plattform zustande.
http://www.silicon.de/hardware/server-desktops/0,39038998,39187849,00/intel+schaltet+auf+_atom_antrieb.htm
b) vielen reicht die Leistung, v.a. auch unter Vista, das perfekt von HTh profitiert.

Damit wäre eigentlich alles gesagt.

ciao

Alex

Spasstiger
2009-02-20, 19:29:00
Auch wenn der Atom eine Krücke ist, wird er doch vom Markt sehr gut angenommen. Und da er zudem für Intel so billig zu fertigen ist wie kaum ein Prozessor zuvor, ist das eine Riesenerfolgsgeschichte für Intel. Sie hätten auf die Schnauze fallen können, aber offenbar haben die Verantwortlichen hier die richtigen Entscheidungen getroffen.
Wer deutlich mehr Performance haben will ohne eine wesentlich höhere Leistungsaufnahme, muss halt zu einem teuren Core 2 Duo ULV greifen.

aylano
2009-02-20, 19:49:43
Ja, warum?
Das teil ist von der rechenleistung miserabelst und eigentlich garnicht für netbooks und nettops geeignet.
In mobilen geräten kann ich ihn mir vorstellen, aber nicht hier.
warum hat sich intel für solch eine archtektur und strategie entschieden? Das ist im ganzen gesehen wohl der schlechteste prozessor der letzten jahre.
Er ist billig und an sich stromsparend, aber wenn nicht mal die mindestleistung für anwendungen gegeben ist, dann ist das ganze doch am ziel vorbei entwickelt. Intel atom 330 ist von der idee nett, ändert aber nichts am hauptproblem. (windows vista, flash, multimedia)
Der Atom war doch für MID gedacht, wo Intel damit einsteigen wollte.
Deshalb kann er ja nur Internet-Zeug, für das die Low-End-Performance reicht.

Aber mit dem 45nm-Atom wollte man sich ja nur ins MID herantasten und hat bisher AFAIK einen gefunden, der den ATOM jetzt/bald im zuerstgedachten MID-Bereich anbieten wird.

Intel wollte doch erst mit dem 32nm-Atom so richtig loslegen.
Also, erst so ab 2010 sollte es so richtig losgehen, da der 45nm-Atom für MIDs zu viel strom verbrauchte.

Dass der Atom auch als Netbook benutzbar war, wurde Intel ja selber überrascht, wodurch sie ja bis fast Ende 2008 lieferschwierigkeiten mit Atomkernen hatte (und zuvor schnell noch einen Uralt-Chip einfügten.)
Trotz-N-Serie mit 1,35 Volt-Spannung.

Die Z-Serie trödelt eher langsam in den Markt. Wahrscheinlich in der Geschwindigkeit in der Atom zuerst gedacht war.

Gibt nur 2 Gründe.
a) Billig:
Zitat:
Dank der geringen Ausmaße von weniger als 25 Quadratmillimeter kann Intel aus einer 300-mm-Wafer bis zu 2.500 Chips herstellen. So kommen auch die günstigen Preise für die Plattform zustande.
Dagegen spricht eindeutig der 130nm-Chipsatz, der wahrscheinlich noch auf 200mm-Wafer gemacht wird.

Die Kleine größe war IMO nicht aus Kostengründen, sondern aus Gründen des Stromverbrauchs. Sonst hätte man höchstwahrscheinlich noch den L2-Cache weglassen können bzw. zumindestens halbieren oder vierteln können.
Denn ein Atom-Kern braucht mit 512 kb doch nicht mehr L2-Cache als ein Nehalem-Kern mit 256kb in High-End-CPUs.

Leonidas
2009-02-20, 20:19:58
Ja, warum?
Das teil ist von der rechenleistung miserabelst und eigentlich garnicht für netbooks und nettops geeignet.


Von Intel wurde der Atom auch eigentlich für MIDs entworfen. Die kauft nur niemand, die Netbook-Welle konnte keiner voraussehen.

Sonyfreak
2009-02-20, 21:28:09
Denn ein Atom-Kern braucht mit 512 kb doch nicht mehr L2-Cache als ein Nehalem-Kern mit 256kb in High-End-CPUs.Nehalem hat ja noch 8MB L3 Speicher als dritte Cachestufe zur Verfügung. Das kann man daher nicht so wirklich vergleichen denke ich mal.

mfg.

Sonyfreak

=Floi=
2009-02-20, 21:32:19
Sorry, aber für mich ist das einfach ein billiger Flame eines Ahnungslosen.
Sorry, aber für mich ist das einfach ein billiger Flame eines Ahnungslosen. ;D :P


die frage ist ja auch, warum man ihn für nettops und netbooks freigibt. Durch den 45nm prozess könnte man auch eine celeron ähnliche (guter kern und wenig cache) cpu ebenfalls günstig und sparsam fertigen. Ein altes design würde ebenso ausreichen. Für MIDs und entwicklungsländer mag die cpu ja geeignet sein, aber bei aktuellen anwendungen zeigen sich doch oft die grenzen des chips. Die numal gegeben sind.

GeneralHanno
2009-02-20, 21:38:40
ohne einen einiger maßen großen L2 würde der atom verrecken, da er an einem 133MHz FSB hängt ;)
der nehalem braucht das nicht ... :biggrin:

die aufgabe vom atom ist es ein "schlankes" BS am leben zu erhalten und nicht komplexe rechnungen durchzuführen. wer rechenpower braucht kann auf centrino + C2D/Q zurückgreifen.

AnarchX
2009-02-20, 21:46:00
die frage ist ja auch, warum man ihn für nettops und netbooks freigibt. Durch den 45nm prozess könnte man auch eine celeron ähnliche (guter kern und wenig cache) cpu ebenfalls günstig und sparsam fertigen.
Um einen Core 2 so sparsam zu bekommen, muss man imo doch schon sehr selektieren, was die CPU wieder teurer macht.

Ein Single-Core mit 1 MiB L2-Cache dürfte @45nm wohl auch noch ein Stück über 30mm² liegen.

Aber oberhalb von Atom und deinen Ansprüchen entsprechend wird Intel vielleicht noch "Agent Smith" (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=443845) positionieren.

aylano
2009-02-20, 22:31:08
Nehalem hat ja noch 8MB L3 Speicher als dritte Cachestufe zur Verfügung. Das kann man daher nicht so wirklich vergleichen denke ich mal.

mfg.

Sonyfreak
Exakt vergleichen kann man sowieso nie.


ohne einen einiger maßen großen L2 würde der atom verrecken, da er an einem 133MHz FSB hängt
der nehalem braucht das nicht ...
Der Atom hat die Leistung von CPUs, die es vor 3-4 (oder so) in Low-End gab.
Da gabs auch welche, die nur 128 kb-L2-Speicher ohne L3 hatten.

Und wenn man den L2-Chache reduziert hätte, dann wäre das beim Atom nicht die einzige Maßnahmen gewesen per Platz-Optimierungen die Leistung zu reduzieren.

Also, warum nicht auch beim Atom?
Ich denke eben, dass der Platz nicht das primärste Ziel war, sondern einfach der niedere Stromverbrauch.

Durch den 45nm prozess könnte man auch eine celeron ähnliche (guter kern und wenig cache) cpu ebenfalls günstig und sparsam fertigen.
Interessante Frage.
Die Frage ist auch, ob sie auch die Fabriken dazu hätten.
4Quartale nach der 65nm-Einführung hatte Intel noch 50% in 90nm gefertigt.
5Quartale danach waren es noch ca. 22%.
Aber im Unterschied zu damals hatten sie schon nach 4Quartalen einen Celeron in 65n gehabt, wenn nicht früher.

Oder Intel wechselt nicht so schnell, da sich die jetzigen 65nm-CPUs auch noch "super" (trotz Wirtschaftskrise) verkaufen.

=Floi=
2009-02-20, 23:15:26
ich denke mit den teuren prozessoren werden die anlagen abbezahlt und danach werden dann die produkte mit einer kleineren marge kostengünstig darauf gefertigt. Beim celeron spielen auch andere anforderungen eine rolle.

128kb cache würden doch auch reichen und bei einer stärkeren recheneinheit würden bestimmte programme eher profitieren. Es hat sich ja schon beim core2 gezeigt, dass ein pentium E2XXX bei bestimmten (!) anwendungen problemlos mit den teureren modellen (bei gleichem takt) mithalten kann.

Hvoralek
2009-02-20, 23:21:16
Denn ein Atom-Kern braucht mit 512 kb doch nicht mehr L2-Cache als ein Nehalem-Kern mit 256kb in High-End-CPUs.Atom ist ja auch ein In- Order- Prozessor. Da sind 512 KiB sogar sehr wenig.

Deinorius
2009-02-21, 01:23:35
Was soll diese ganze lächerliche Diskussion? Überall im Internet kommt diese Frage immer wieder auf und es nervt!

Wer skeptisch ist, soll sich doch mal gefälligst vor ein Netbook stellen/setzen und mal damit arbeiten (bitte auf die mind.10"-Modelle beschränken) und sehen, ob der Atom wirklich eine Krücke ist. Wobei man natürlich auch darauf achten sollte, die richtigen Programme anzuwenden. Wehe jemand startet ein halbwegs aktuelles Spiel oder Photoshop. Im Computerbase-Forum wollte mir einer Photoshop-Rendern als normales Arbeiten andrehen (als ob Laien überhaupt Photoshop kennen würden).

Es ist alles eine Frage der Notwendigkeit. Über 80-90 % aller PC-Käufer (grob geschätzt) kaufen sich einen PC, der für ihre Belange überdimensioniert ist. Hab das schon viel zu oft erlebt, besonders da mich keiner von denen vorher gefragt hat. ;)
Da bin ich ja schon dankbar für die Nettops/Netbooks, die mal in die andere Richtung gehen. Ausreichende Leistung für einen niedrigeren Preis.
Wer's nicht glaubt, soll, wie schon gesagt, sich vor so ein Gerät setzen und damit mal arbeiten. Ich habs gemacht und werde mir sicher ein Samsung NC10 (oder sogar NC20) kaufen, denn die Leistung reicht locker, selbst für 720p HD-Videos (nur die max. Bitrate müsste ich ermitteln). Dann bin ich damit wirklich mobil und kann alles machen was ich mobil auch tun will, ohne jetzt einen Haufen Geld rausschmeißen zu müssen, das ich besser in meinen StandPC reinstecken kann.

aylano
2009-02-21, 08:36:55
Atom ist ja auch ein In- Order- Prozessor. Da sind 512 KiB sogar sehr wenig.
Warum braucht eine In-Order-Prozessor mehr L2-Cache???
Ich dachte, ein In-order-Prozessor arbeitet die Befehle nacheinander statt hintereinander (Out-of-Order-Prozessor) ab. Was soll das mit dem L2-Cache zu tun haben?

Was soll diese ganze lächerliche Diskussion? Überall im Internet kommt diese Frage immer wieder auf und es nervt!
Die Frage ist meiner Meinung nach schon berechtigt, weil der Atom eben bei Videos seine Tücken hat. Nun ja, und im Internet sind Videos üblich und teils muss man eben auf Manche Videos verzichten bzw. man hat das Gefühl, die Videos laufen Teils am Limit.
Aber generell ist das schon ein geiles Ding. Ideal wäre es IMO, wenn so ein Netbook nur mehr 600 gramm hat, so wie mein Taschenrechner.

Ich denke, der Atom ist nicht so das Problem, sondern bei aufwendigeren Programme eher der 4Gb-Hauptspeicher. Genaueres werde ich in paar Wochen wissen.

Um zum Thema zurückzukommen.
Der Atom war eigentlich fast nur im MID-Bereich gedacht, welcher erst im Jahre 2010 per 32nm so richtig durchstarten soll.
Aber wenn man die Barcelona-Messe ansieht, dann ist heuer irgendwie der 1080p-Trend in der nächsten Smartphone-Generation.
Gerade der Atom + Chipsatz tut sich da schwer. Entweder der Next-Gen-Atom & Co beherschen dann auch 1080p, oder Intel hat den Atom im MID-Bereich auch noch recht tollpatschig hinentworfen.

Ich bin schon gespannt, wie sich Intel per Atom im MID-Bereich überhaupt behaupten kann. Leicht wird es nicht gegen Konkurrenten, die dort schon jahrelang Erfahrungen hat.

Tiamat
2009-02-21, 09:16:14
Ich war ja selbst ne zeitlang am überlegen, ob ich mir son Netbook als 2. Rechner hole, zum Programmieren und übliche Alltagstätigkeiten.

Aber ich habs mir mittlerweile anders überlegt, die Akkulaufzeit und die kleinen Abmaße der Netbooks sind zwar n Argument, doch ohne ne gescheite CPU macht das Arbeiten auch kein Spaß.

Bei uns in der Fakultät merk ich des immer wieder, wenn ich mal das Pech habe, an nem älteren Rechner zu sitzen. Da is halt nix mit geschmeidig mehrere Sachen gleichzeitig machen, das stockt und dauert und NERVT.

Und die älteren sind immerhin P4 Rechner. Wenn man halt schon die ganze Zeit Dual-Core gewohnt ist, dann is sowas n recht derber Schritt in die Vergangenheit. Bevor ich da 400-500€ in sowas investiere, leg ich lieber noch n bisl drauf und hol mir n gescheites Notebook.

Einer aus unserer Fakultät hat sich das MSI Wind zugelegt und programmiert da mit. Zum Tippen reicht das wohl, aber wehe man drückt auf den Compilier-Button. Nach eigener Aussage reicht die Leistung des Geräts nicht für YouTube Videos. Die würden größtenteils ruckeln oder wären hart an der Grenze zum Ruckeln.

Deinorius
2009-02-21, 09:23:05
Die Frage ist meiner Meinung nach schon berechtigt, weil der Atom eben bei Videos seine Tücken hat. Nun ja, und im Internet sind Videos üblich und teils muss man eben auf Manche Videos verzichten bzw. man hat das Gefühl, die Videos laufen Teils am Limit.


Da gibt es nur das Problem, dass in diesem Thread die Sinnhaftigkeit des Atom als ganzes in Frage gestellt wird. Darum gehts mir. Will man sich fragen, ob der Atom HD-Videos dekodieren soll, hier (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=447717) ist der richtige Thread. Das Thema über die Sinnhaftigkeit von Atom ist für mich bestenfalls nur noch Flame und nicht mehr.

@Tiamat
Ich nehme an, du hast mal selber mit einem Netbook gearbeitet, um diese Meinung zu erhalten, hoffe ich.
Und dein Freund mit dem MSI Wind sollte sich mal fragen, wie er darauf kommt, dass Youtube-Videos nicht flüssig laufen. Denn alle kann er nicht meinen, ich hab nie stockende Youtube-Videos gesehen.

Tiamat
2009-02-21, 09:39:21
Nene, das mit den Videos hab ich net überprüft, ich bezweifel nur, dass jemand 400€ hinblättert und dann eine unwahre Aussage über sein eigenes Gerät macht :)
ich bin mit dem Wind mal ins Web und hab ne Methode in Eclipse geschrieben, bis auf das Delay war das schon in Ordnung.
Wie gesagt, da ich mit dem Lappy dann auf vernünftig arbeiten will und da wären definitiv mehrere größere Anwendungen dabei, brauch ich eins mit Dual-Core CPU.

GeneralHanno
2009-02-21, 10:20:17
srr aber einige haben einfach falsche erwartungen an den atom. was soll man denn bitte von einer in-order-architektur erwarten ??? also infomieren -> nachdenken -> kaufen!

BlackBirdSR
2009-02-21, 11:12:00
Warum braucht eine In-Order-Prozessor mehr L2-Cache???
Ich dachte, ein In-order-Prozessor arbeitet die Befehle nacheinander statt hintereinander (Out-of-Order-Prozessor) ab. Was soll das mit dem L2-Cache zu tun haben?



Wenn ein L2-Cache-Miss auftritt, muss die CPU über 100 Takte warten, bevor auch nur ein neuer Arbeitsschritt angefangen werden kann! Gerade für In-Order CPUs ist die Vermeidung von Speicherzugriffen wichtig. Daher bringt bei Atom SMT auch so viel.

Insgesamt finde ich: Für den Verbrauch im Durchschnitt 50% Leistung eines K7 zu erhalten, ist ganz ordentlich!

Hvoralek
2009-02-21, 11:18:18
Bei uns in der Fakultät merk ich des immer wieder, wenn ich mal das Pech habe, an nem älteren Rechner zu sitzen. Da is halt nix mit geschmeidig mehrere Sachen gleichzeitig machen, das stockt und dauert und NERVT.

Und die älteren sind immerhin P4 Rechner. Wenn man halt schon die ganze Zeit Dual-Core gewohnt ist, dann is sowas n recht derber Schritt in die Vergangenheit.Sind das P4s mit oder ohne HT?


Warum braucht eine In-Order-Prozessor mehr L2-Cache???
Ich dachte, ein In-order-Prozessor arbeitet die Befehle nacheinander statt hintereinander (Out-of-Order-Prozessor) ab. Was soll das mit dem L2-Cache zu tun haben?"Nacheinander statt hintereinander"? Ein In- Order- Prozessor muss Befehle in der Reihenfolge bearbeiten, in der sie kommen. Ein Out- Of- Order- Prozessor kann dagegen im Grundsatz auch Befehle vorziehen, die im eigentlich erst später anstehen.

Ein Vorteil ist das v.a. dann, wenn für den ersten Befehl in der Reihe nicht alle erforderlichen Daten in Registern oder wenigstens Cache liegen. Ein In- Order- Prozessor muss dann eben diese Daten aus dem RAM holen. Das bedeutet, dass er ungefähr 100 Takte lang leerläuft. Ein OOO wird hingegen meist irgendeinen Befehl finden, für den die erforderlichen Daten vorhanden sind, sodass er den vorziehen und in der Zwischenzeit bearbeiten kann. Cache Misses sind für einen IO also i.d.R. weit schlimmer als für einen OOO.

Es gibt i.W. zwei Ansätze, dagegen anzuarbeiten. Zum einen einfach riesige Caches. Schau Dir z.B. Montecito an, der in 90nm mit zwei Kernen insgesamt über 26 MiB L2- und L3- Cache verfügte. So viel hat bis heute kein Intel- OOO- Chip in 65 oder 45nm, und das mit z.T. doppelt oder dreimal so vielen Kernen. Der andere Ansatz ist massives SMT. Die Idee dahinter ist, mit vielen Threads die Chance zu erhöhen, dass für den nächsten Befehl von zumindest irgendeinem davon die Daten vorliegen. Das findet man bei Atom ja im Ansatz. Konsequenter z.B. Sun mit dem Niagra 2, der acht Threads pro Kern parallel bearbeiten kann.

/edit: Mist, ich sollte nicht so lange faseln. Naja, doppelt hält besser :biggrin:


srr aber einige haben einfach falsche erwartungen an den atom. was soll man denn bitte von einer in-order-architektur erwarten ??? also infomieren -> nachdenken -> kaufen!Es geht nicht darum, was man davon erwarten kann, sondern ob die Teile einen Sinn haben. Wenn etwas schlecht ist, wird es nicht dadurch besser, dass es erwartungsgemäß schlecht ist.

GeneralHanno
2009-02-21, 11:34:31
ich würde sagen man verwendet den atom für anwendungen bei denen man vorher weis wie viel rechenleistung sie brauchen. eigentlich ähnlich wie eine ARM prozessor, nur dass atom eben x86 unterstütz ;)

beos
2009-02-21, 11:50:52
Ich finde das wirklich Faszinierende beim Intel Atom ist das Markting.

Nimm eine stromsparende Low End CPU - verbaue sie mit einem veralteten stromhungrigen Chipsatz der Pre-PAL-Videos flüssig darstellen kann und verkaufe dies als TOP Mobil System im Multimediazeitalter.

Und das Tolle - jeder glaubt es - wenn jemand eine Gehaltserhöhung verdient hat - dann die Jungs beim Intel Markting :biggrin:


Habe den Atom mit einem Eee PC 904 ausprobiert und wahr eher enttäuscht - das System ist eher etwas für "Ich benutzte meinen Flashlosen Browser und tippse ein paar Briefe im Wordpad" Menschen - denn bei Nutzung von Flash und gar eine Nutzung von OOffice fühlte es sich wie eine Schnecke an.

Aber es soll ja Leute geben, denen das reicht - und die wollen ja auch stylische Mobilrechner zum Kaufen haben ;)

_DrillSarge]I[
2009-02-21, 13:57:48
Nimm eine stromsparende Low End CPU - verbaue sie mit einem veralteten stromhungrigen Chipsatz der Pre-PAL-Videos flüssig darstellen kann und verkaufe dies als TOP Mobil System im Multimediazeitalter.

der chipsatz hatz gar nix mit der videodarstellung(-sfähigkeit) zu tun :|.
niemand vermarktet ein netbook als "TOP Mobil System im Multimediazeitalter". die werden als surf/tipp-(zweit-)geräte vermarktet.

eine einfache frage: was gibt es denn für konkurrenzprodukte, mit ähnlichen leistungsdaten und ähnlichem preis? ;)

Spasstiger
2009-02-21, 16:19:10
I[;7120266']eine einfache frage: was gibt es denn für konkurrenzprodukte, mit ähnlichen leistungsdaten und ähnlichem preis? ;)
So ein Bundle aus einem Single-Core-Atom und dem veralteten 945er-Chipsatz kostet auch seine 70$. Den Preisvorteil gibt Intel nur begrenzt an seine Kunden weiter.
Bei AMD gibts für das Geld schon einen K8-basierenden Dualcore-Prozessor + einen aktuellen Chipsatz (780G) mit funktionierender HD-Video-Beschleunigung.
Die Performance ist dabei wohl wesentlich besser. Und der 780G ist auch nicht wirklich gefräßiger als der 945 GSE. Im idle ist der 780G sogar sparsamer. Und ein Athlon 64 X2 würde untertaktet und mit geringerer Spannung die mittlere Gesamtleistungsaufnahme eine Netbooks auch nicht drastisch erhöhen, dabei aber dennoch eine deutlich höhere Maximalleistung bieten.

GeneralHanno
2009-02-21, 16:30:06
in einem mini-PC fürs wohnzimmer, surf-PC o.ä. wurde ich auch immer auf eine K8 plattform setzen. bei netbook führt kein weg an atom vorbei.

ich find übrigens lustig wie nvidia mit ION und via mit NANO intels ATOM namenstechnisch kopieren wollen.

AnarchX
2009-02-21, 16:30:31
Bei AMD gibts für das Geld schon einen K8-basierenden Dualcore-Prozessor + einen aktuellen Chipsatz (780G) mit funktionierender HD-Video-Beschleunigung.

Wo gibt es für $70 ein 780G-Mini-ITX-Board + Dualcore-CPU?

_DrillSarge]I[
2009-02-21, 16:30:47
So ein Bundle aus einem Single-Core-Atom und dem veralteten 945er-Chipsatz kostet auch seine 70$. Den Preisvorteil gibt Intel nur begrenzt an seine Kunden weiter.
Bei AMD gibts für das Geld schon einen K8-basierenden Dualcore-Prozessor + einen aktuellen Chipsatz (780G) mit funktionierender HD-Video-Beschleunigung.
Die Performance ist dabei wohl wesentlich besser. Und der 780G ist auch nicht wirklich gefräßiger als der 945 GSE. Im idle ist der 780G sogar sparsamer. Und ein Athlon 64 X2 würde untertaktet und mit geringerer Spannung die mittlere Gesamtleistungsaufnahme eine Netbooks auch nicht drastisch erhöhen, dabei aber dennoch eine deutlich höhere Maximalleistung bieten.
bau das ganze mal in ein netbook ;).
die tdp von atom n270 + 945gse + ich7m beträgt ~8w und ich glaube nicht, dass ein athlon64 x2 (!) und der 780g auch nur in die nähe davon kommen.
vom preis und kühlungsproblemen mal ganz abgesehen.

Spasstiger
2009-02-21, 16:34:49
Wo gibt es für $70 ein 780G-Mini-ITX-Board + Dualcore-CPU?
Gibts bei Intel für 70$ ein komplettes Board? Ich dachte, der Preis gilt alleine für die Chips.

/EDIT: Ich rede nicht von den Essential-Series-Boards, sondern von den Preisen, die Asus, MSI und Co. zahlen, wenn sie bei Intel eine Atom-Plattform kaufen.

_DrillSarge]I[
2009-02-21, 16:35:59
Gibts bei Intel für 70$ ein komplettes Board? Ich dachte, der Preis gilt alleine für die Chips.
http://geizhals.at/a338313.html

AnarchX
2009-02-21, 16:36:29
I[;7120598']bau das ganze mal in ein netbook ;).
die tdp von atom n270 + 945gse + ich7m beträgt ~8w und ich glaube nicht, dass ein athlon64 x2 (!) und der 780g auch nur in die nähe davon kommen
Mit ICH7 sind es 11.3W für Intels Netbook-Plattform.

AMDs Netbook (ausgerichtet auf das obere Ende) ist ja Yukon:
http://www.pcgameshardware.de/aid,672083/AMD-Neo-Mobilprozessor-fuer-ultraflache-Notebooks-vorgestellt/Notebook-Netbook-Handy/News/
... der 1.6GHz K8 Singlecore besitzt hier schon eine TDP von 15W.

_DrillSarge]I[
2009-02-21, 16:38:45
Mit ICH7 sind es 11.3W für Intels Netbook-Plattform.
ich dachte n270 (2,5w) + 945gse (4w) + ich7-m (1,5w). :confused:
kann mich auch irren

AnarchX
2009-02-21, 16:41:53
I[;7120622']ich dachte n270 (2,5w) + 945gse (4w) + ich7-m (1,5w). :confused:
kann mich auch irren
Valid Processor Combinations

Intel® Atom™ Processor N270 (512K Cache, 1.60 GHz, 533 MHz FSB)
Mobile Intel® 945GSE Express Chipset with 82801GBM I/O Controller Hub (ICH7M) Yes No 1 11.8 Watts $83
http://ark.intel.com/chipset.aspx?familyID=35553

Hier gibt es übrigens auch den Preis für die Nettop Variante:
http://ark.intel.com/chipset.aspx?familyID=28994
-> Valid Processor Combinations
Mit Atom 230 liegt der Preis unter $60 für die drei Chips.

Spasstiger
2009-02-21, 16:42:21
I[;7120615']http://geizhals.at/a338313.html
Siehe mein /EDIT.
Ich beziehe mich in dieser Diskussion ausschließlich auf OEM-Hardware und nicht auf Retail-Produkte.

P.S.: Gibts irgendwo einen Vergleich von einem auf Atom-Niveau untertakteten Subnotebook mit verringerter Spannung gegen ein Netbook? Ich vermute, dass in der Leistungsaufnahme gar nicht so der große Unterschied besteht, wenn überhaupt.

_DrillSarge]I[
2009-02-21, 16:44:44
Siehe mein /EDIT.
Ich beziehe mich in dieser Diskussion ausschließlich auf OEM-Hardware und nicht auf Retail-Produkte.
ich glaube, dass wird dort im dutzend eher billiger, vor allem wenn sie sich an diese "netbook-vorgaben" halten.
bei ms bekommen sie ja so auch windows billiger.

P.S.: Gibts irgendwo einen Vergleich von einem auf Atom-Niveau untertakteten Subnotebook mit verringerter Spannung gegen ein Netbook? Ich vermute, dass in der Leistungsaufnahme gar nicht so der große Unterschied besteht, wenn überhaupt.
solche subnotebooks gibt es, aber die kosten 2000€ ;).
diese diskussion darum gabs ja schon öfter und sicher ist es mit core2-ulv prozessoren usw. machbbar, nur ist dann der preis entscheidend höher.

Spasstiger
2009-02-21, 16:49:55
I[;7120641']solche subnotebooks gibt es, aber die kosten 2000€ ;).
Ich meinte ja auch nicht ein Subnotebook mit ULV-Prozessor, sondern ein Standard-Subnotebook, das manuell untertaktet und auf eine geringere Spannung gesetzt wird.

Sowas z.B.:
http://www.notebooksbilliger.de/fsc+esprimo+mobile+u9200+ultramobil+zum+kleinen+preis

12", Pentium Dual-Core (Core-2-Mikroarchitektur), 390€.
Stellt sich bloß die Frage, ob das Bios auch manuelle Spannungsänderungen zulässt.

I[;7120641']ich glaube, dass wird dort im dutzend eher billiger, vor allem wenn sie sich an diese "netbook-vorgaben" halten.
bei ms bekommen sie ja so auch windows billiger.
Soweit ich weiß, liegt der offizielle Stückpreis für die Kombo aus einem Atom N270, einem 945GSE und dem ICH7M bei einer Abnahme von 1000 Stück in der Gegend von 70$. Was Asus, MSI und Co. zahlen, weiß ich natürlich nicht.

_DrillSarge]I[
2009-02-21, 16:53:17
Ich meinte ja auch nicht ein Subnotebook mit ULV-Prozessor, sondern ein Standard-Subnotebook, das manuell untertaktet und auf eine geringere Spannung gesetzt wird.
das glaube ich nicht, da die komponenten nicht so "weit runter" gehen werden, wie bei einem darauf ausgelegten modell. es können ja kleinste änderungen an den restlichen komponenten (mobo etc.) riesige unterschiede in der laufzeit erzeugen. sieht man ja an den, beinahe innerlich baugleichen, netbooks. diese haben zT riesige laufzeitunterschiede obwohl dieselbe hardware darin arbeitet. (nein, nicht weil ihre akkukapaztität so großartig unterschiedlich ist)

beos
2009-02-21, 17:47:46
I[;7120266']der chipsatz hatz gar nix mit der videodarstellung(-sfähigkeit) zu tun :|.
niemand vermarktet ein netbook als "TOP Mobil System im Multimediazeitalter". die werden als surf/tipp-(zweit-)geräte vermarktet.

Hat er - da in allen heutigen Chipsatzen mit integrierter Grafik Videobeschleunigerfunktionen eingebaut sind. ;)


eine einfache frage: was gibt es denn für konkurrenzprodukte, mit ähnlichen leistungsdaten und ähnlichem preis? ;)

Nein - deswegen sagte ich ja auch - wer sowas will soll es kaufen :)

beos
2009-02-21, 17:50:38
I[;7120669']das glaube ich nicht, da die komponenten nicht so "weit runter" gehen werden, wie bei einem darauf ausgelegten modell. es können ja kleinste änderungen an den restlichen komponenten (mobo etc.) riesige unterschiede in der laufzeit erzeugen. sieht man ja an den, beinahe innerlich baugleichen, netbooks. diese haben zT riesige laufzeitunterschiede obwohl dieselbe hardware darin arbeitet. (nein, nicht weil ihre akkukapaztität so großartig unterschiedlich ist)


Ist war bei Tomshardware - aber ich fand den Test ganz interessant (besonders die Idleverlustleistungen des 4850e)

http://media.bestofmicro.com/V/1/115165/original/chart_idle.png

Deinorius
2009-02-21, 19:29:47
Nene, das mit den Videos hab ich net überprüft, ich bezweifel nur, dass jemand 400€ hinblättert und dann eine unwahre Aussage über sein eigenes Gerät macht :)


Tjo, ich kann nur über meine Erfahrungen reden und die beziehen sich auf ein Samsung Modell. Möglicherweise gibt es ja auch zwischen den Herstellern nicht nur hinsichtlich der Akkulaufzeit Unterschiede.

Wie gesagt, da ich mit dem Lappy dann auf vernünftig arbeiten will und da wären definitiv mehrere größere Anwendungen dabei, brauch ich eins mit Dual-Core CPU.


Ist bei mir auch nicht viel anders. Aber der Preis obsiegt hier und ganz nebenbei gibt es auf dem Markt auch kein für mich passendes Subnotebook, das auch preislich nicht zu hoch angesetzt ist, aber dennoch Mobilität bietet. Da warte ich lieber und gebe nur 400 € für etwas aus, das mir eh reicht.

Aber es soll ja Leute geben, denen das reicht - und die wollen ja auch stylische Mobilrechner zum Kaufen haben ;)


Stylisch reicht nicht aus, auch wenn das sicher mitunter zutrifft. Der Preis ist hier einfach die Kirsche auf der Torte. Stylische Subnotebooks gibt es genug auf dem Markt, aber nur die wenigsten sind auch bereit wirklich diese immensen Summen auszugeben.

Hat er - da in allen heutigen Chipsatzen mit integrierter Grafik Videobeschleunigerfunktionen eingebaut sind. ;)


Also alle kann man auch nicht sagen. Erstens gibt es noch genug IGPs auf dem Markt, die keine UVDs besitzen, welche ebenfalls mit einbezogen gehören und ohne UVD gibts kaum Unterschiede.
Ich kann hier nur aus meiner Erfahrung und gewissen Reviews erzählen, dass der 945GSE sehr wohl für einfache Videos bis 720p ausreicht.

paul.muad.dib
2009-02-21, 23:02:09
Weil die Leistung schlicht ausreicht. Der Atom ist die logische Antwort darauf, dass den Leistungssteigerungen bei Hardware außerhalb von Spielen und (Semi-) Professionellen anwendungen schon lange keine entsprechenden Leistungsanforderungen gegenüberstehen.

Ich stelle bei meinem Notebook mit Mobile Sempron manchmal fix 800 Mhz Takt ein, wenn ich ältere Spiele spiele und ein Hochlaufen des Lüfters vermeiden will.

Häufig vergesse ich danach, wieder das dynamische Takten einzustellen, weil die Leistung für Office und Internet fast immer ausreicht.

albix64
2009-02-21, 23:44:49
@beos: Ein in 45nm und noch etwas optimierter Athlon 64 2000+ würde sicher abgehen. =)

Topic:
Ich finde den Atom sinnvoll, für Netbooks ist er genau das richtige und auf Atom-MIDs/UMPCs freue ich mich schon. :)

MfG

stickedy
2009-02-22, 00:56:53
Nun ja, das interessante am Atom ist ja vor allem die Tatsache, dass Intel damit zu einem In-Order-Design zurückkehrt ausgerechnet zu dem Zeitpunkt wo der letzte und jahrelange Verfechter von In-Order Designs, Centaur, auch zu einem Out-of-Order-Design wechselt. Das ist schon paradox...

Und erfolgreich ist der Atom ja wohl vor allem deshalb, weil er im richtigen Moment - dem Beginn des Netbook-Irsinns (meiner Meinung nach ist ein Netbook für gut 75% aller Käufer ein Fehlkauf) - auf den Markt kam. Der Atom hat das ja nicht ausgelöst, das war ja Asus mit einem Celeron, sondern ist wohl einfach momentan die günstigste Möglichkeit von Intel ein Netbook zusammen zu bauen. Denn weder vom Stromverbrauch, geschweige denn von der Rechenleistung ist der Atom weder eine Offenbarung noch eine Notwendigkeit für ein 08/15-Netbook, jede andere Kombination, die günstiger wäre, würde es genauso tun. Intel hat da nur passend reagiert und die Preise entsprechend angesetzt...

beos
2009-02-22, 02:05:07
[...]


Also alle kann man auch nicht sagen. Erstens gibt es noch genug IGPs auf dem Markt, die keine UVDs besitzen, welche ebenfalls mit einbezogen gehören und ohne UVD gibts kaum Unterschiede.
Ich kann hier nur aus meiner Erfahrung und gewissen Reviews erzählen, dass der 945GSE sehr wohl für einfache Videos bis 720p ausreicht.

Welche IGP's haben denn heute keine Beschleunigerfunktion für Video ?

beos
2009-02-22, 02:44:18
[...]

Stylisch reicht nicht aus, auch wenn das sicher mitunter zutrifft. Der Preis ist hier einfach die Kirsche auf der Torte. Stylische Subnotebooks gibt es genug auf dem Markt, aber nur die wenigsten sind auch bereit wirklich diese immensen Summen auszugeben.



Du kannst Dir natürlich auch einen Porsche 911 mit 2 Takt Rasenmähermoter kaufen - sieht stylisch aus und der Preis ist bestimmt einfach die Kirsche auf der Torte...aber irgendwie ist es einfach ne "scheiß Karre" weil ein Fahrrad Dich an der Ampel abhängt :biggrin:

albix64
2009-02-22, 11:04:54
@stickedy: Intel wird schon seinen Grund für das In-Order-Design haben. Wahrscheinlich sind solche CPUs billiger zu produzieren oder haben mehr Potenzial stromsparender zu sein als Out-Order-Chips (Intel möchte schließlich sicher mal in den Mobilmarkt einsteigen)

Acid-Beatz
2009-02-22, 11:18:17
Soweit ich mich erinnern kann, spart eine In-Order Architektur durch ihreren einfacheren Aufbau einiges an Transistoren und als netter Nebeneffekt braucht das Ganze dann auch noch weniger Strom!
HT wiederum schafft es die Pipeline besser auszunutzen und somit die Effizienz zu steigern!

Bis auf den Chipsatz ein guter Wurf würd ich meinen!

Gast
2009-02-22, 12:20:31
Weil die Leistung schlicht ausreicht.

gerade das bezweifle ich stark.

da mein aktuelles notebook leider kaputt wurde musste ich kurzfristig auf ein altes aus der ersten centrino-generation mit einem Pentium-M und 1,3GHz ausweichen. dieser dürfte wohl kaum langsamer als ein 1,6GHz-atom sein, und gerade das surfen, eigentlich die "hauptbeschäftigung" für netbooks ist einfach ein graus.

_DrillSarge]I[
2009-02-22, 12:27:00
gerade das bezweifle ich stark.

da mein aktuelles notebook leider kaputt wurde musste ich kurzfristig auf ein altes aus der ersten centrino-generation mit einem Pentium-M und 1,3GHz ausweichen. dieser dürfte wohl kaum langsamer als ein 1,6GHz-atom sein, und gerade das surfen, eigentlich die "hauptbeschäftigung" für netbooks ist einfach ein graus.
surfen geht auf netbooks wunderbar, wenn man seiten wie http://www.brutallegendgame.com/ auslässt :biggrin:

wenn man noch kein netbook genutzt hat, einfach mal keine aussage darüber machen.

S940
2009-02-22, 12:36:02
Soweit ich mich erinnern kann, spart eine In-Order Architektur durch ihreren einfacheren Aufbau einiges an Transistoren und als netter Nebeneffekt braucht das Ganze dann auch noch weniger Strom!
HT wiederum schafft es die Pipeline besser auszunutzen und somit die Effizienz zu steigern!

Bis auf den Chipsatz ein guter Wurf würd ich meinen!
Seh ich auch so. InOrder spart in der Tat. OoO Chips verbraten durch spekulative Abarbeitung einiges an Strom für nichts (dann wenn die Spekulation falsch war). Um diese Trefferquote hoch zu halten betreibt man nen irrsinnigen Transistoren & Logikaufwand ... das spart man sich beim Atom und stopft die entstehenden Lücken in den FUs mit nem 2ten Thread per SMT.

Deswegen bringt SMT beim Atom auch soviel (an die ~50%) in einigen Anwendungen.
Mir gefällt das ... mit nem besseren Chipsatz und etwas mehr FSB (800/1066) plus einem DDR3 Riegel, wäre das ne perfekte Office Kombination. Aber die aktuelle mit 945GSE in der eebox ist auch gut genug.

Dagegen spricht eindeutig der 130nm-Chipsatz, der wahrscheinlich noch auf 200mm-Wafer gemacht wird.Nö der spricht nicht dagegen, der 130nm Chipsatz ist das Billigste, was Intel herstellen kann, die FABs sind schon lange abbezahlt, wenn man den Chipsatz nicht hätte, müßte man das Teil wohl schließen.

Bei FABs ist das wie bei Kernkraftwerken, Bau & Konstruktion frißt Kapital ohne Ende, je länger dann sowas durchhält & benützt werden kann, desto besser rechnet sich die Anfangsinvestition.

ciao

Alex

Acid-Beatz
2009-02-22, 13:00:19
Eine kleine Zwischenfrage: Sind eigentlich spezielle stromsparende Chipsätze für den Atom geplant?

Ansonsten noch ne kleine Anmerkung: Wenn sich wer nen Porsche 911 kaufen würde und sich dann beschwert, dass er nicht geländetauglich ist, dann würden ihn hier vermutlich 99% auslachen! Aber genau in die Richtung zielt das ganze Gerede über den Atom hier!

S940
2009-02-22, 13:20:13
Eine kleine Zwischenfrage: Sind eigentlich spezielle stromsparende Chipsätze für den Atom geplant?
Gibt schon, nennt sich US15L:
http://ark.intel.com/chipset.aspx?familyID=35446

Aber das bundelt Intel bisher nur mit den teuren Z Serien Atoms.

ciao

Alex

Gast
2009-02-22, 13:39:46
Kommt jetzt nun der GN40 für den Billig-Atom oder nicht?

Deinorius
2009-02-22, 14:32:45
Denn weder vom Stromverbrauch, geschweige denn von der Rechenleistung ist der Atom weder eine Offenbarung noch eine Notwendigkeit für ein 08/15-Netbook, jede andere Kombination, die günstiger wäre, würde es genauso tun.


Welche Kombination, die natürlich x86-fähig ist, wäre bitte eine Alternative? Außerdem ist die günstige Herstellung vom Atom auch ein Punkt, obwohl Intel den nicht unbedingt sooo billig verkauft, wie möglich wäre.
Welche IGP's haben denn heute keine Beschleunigerfunktion für Video ?


Da ich mich auch auf IGPs beziehe, welche noch zu einem guten Teil immer noch verkauft werden, sage ich frei heraus, G31. Wenn du jetzt nur jene hernimmst, welche die neueste Entwicklung darstellen... wäre ich mir jetzt auch nicht sicher. Da dafür anscheinend nicht viel nötig ist, sieht man beim Poulsbo. Der Poulsbo mit besserer Grafik wär' mir eh viel lieber. Verbraucht ja nur die Hälfte.

Du kannst Dir natürlich auch einen Porsche 911 mit 2 Takt Rasenmähermoter kaufen - sieht stylisch aus und der Preis ist bestimmt einfach die Kirsche auf der Torte...aber irgendwie ist es einfach ne "scheiß Karre" weil ein Fahrrad Dich an der Ampel abhängt :biggrin:


Lustiger aber bescheuerter Vergleich. :P (You fail. ;D)
Was hat das überhaupt mit meiner Aussage zu tun? Ich habe eigentlich gesagt, dass Style nicht alles ist.

I[;7122129']surfen geht auf netbooks wunderbar, wenn man seiten wie http://www.brutallegendgame.com/ auslässt :biggrin:


Du hast recht. Meinen Celeron-M 1,73 GHz reizt die Seite völlig aus. Aber das sind Ausnahmen.

Deswegen bringt SMT beim Atom auch soviel (an die ~50%) in einigen Anwendungen.


Also gerade wegen dieser Tatsache würde es mich wahnsinnig interessieren, wie sich eine CPU anstellen würde, die aus, sagen wir einfach mal, 50 Atom-Cores besteht und gemeinsam (oder zumindest meherere Cores) einen größeren Cache nutzen könnten. Hyperthreading ist mal deaktiviert, was 2 W TDP pro Core und insgesamt bis zu 100 W TDP ausmacht (oder gar weniger) bzw. 125 W mit Hyperthreading. Wenn man jetzt eine Software hernimmt, die zu 100 % multithreading fähig ist, dann würde mich da der Vergleich mit einem Core i7 erst recht interessieren. Das Blöde an dem Vergleich ist nur die Die-Size. Auf einen Core i7 passen 12 Atoms Für 50 Atoms braucht man 4 Core i7 CPUs. Das erstere wäre ein Vergleich bei gleicher TDP, das zweite bei gleicher Die-Size. Klingt verrückt, aber interessant.
Intel entwickelt ja derzeit deren 100 Core-CPU. Die basiert ja darauf, dass jeder Core einfacher gebaut ist, aber es bleibt dort doch weiterhin bei OoO, oder?

Hvoralek
2009-02-22, 14:33:03
da mein aktuelles notebook leider kaputt wurde musste ich kurzfristig auf ein altes aus der ersten centrino-generation mit einem Pentium-M und 1,3GHz ausweichen. dieser dürfte wohl kaum langsamer als ein 1,6GHz-atom sein, und gerade das surfen, eigentlich die "hauptbeschäftigung" für netbooks ist einfach ein graus.Banias ist ein Einkerner ohne SMT. Der hakt also, sobald man mehrere Dinge gleichzeitig tut. Bei normalen Arbeitsabläufen dürfte sich ein Atom "runder" anfühlen.

_DrillSarge]I[
2009-02-22, 14:35:50
Banias ist ein Einkerner ohne SMT. Der hakt also, sobald man mehrere Dinge gleichzeitig tut. Bei normalen Arbeitsabläufen dürfte sich ein Atom "runder" anfühlen.
ich hab im laptop einen dothan pentium-m (1.6ghz), der klatscht den atom aber dermaßen an die wand :biggrin:, dürfte der banias auch tun.
verglichen mit dem atom ist ein pentium-m aber ein riesiges, stromvernichtendes monster.

Acid-Beatz
2009-02-22, 15:44:29
I[;7122384']ich hab im laptop einen dothan pentium-m (1.6ghz), der klatscht den atom aber dermaßen an die wand :biggrin:, dürfte der banias auch tun.
verglichen mit dem atom ist ein pentium-m aber ein riesiges, stromvernichtendes monster.

Ja sicher klatscht er ihn an die Wand aber wie gesagt, der Punkt is der, dass der Atom nie dazu gedacht war ein leistungsfähiges Produkt zu sein! Der Atom sollte einfach "nur" Strom sparen, billig zu produzieren sein und zum Internet surfen reichen!
Den Hype hat Intel selber gar nicht vorhersehen können und gewollt war er sicher auch nicht!
Intel hat ja mittlerweile das Problem, dass die Atoms von "unten" an den höherpreisigen Produkten kratzen und damit nen Preisrutsch verursacht haben!

Also ... wer den Atom nicht mag sollte trotzdem nicht rumnörgeln und sich freuen, dass die performanteren Notebooks billiger zu haben sind!

P.S: Meines Wissens nach hat der Atom etwa die halbe Performance eines Banias ... vor paar Jahren hat man für die ULV Banias in entsprechenden Segmenten noch 1500€ aufwärts gezahlt!!!

beos
2009-02-22, 16:44:06
Da ich mich auch auf IGPs beziehe, welche noch zu einem guten Teil immer noch verkauft werden, sage ich frei heraus, G31. Wenn du jetzt nur jene hernimmst, welche die neueste Entwicklung darstellen... wäre ich mir jetzt auch nicht sicher. Da dafür anscheinend nicht viel nötig ist, sieht man beim Poulsbo. Der Poulsbo mit besserer Grafik wär' mir eh viel lieber. Verbraucht ja nur die Hälfte.



The GMCH provides an integrated graphics device (IGD) delivering cost competitive 3D, 2D and video capabilities. The GMCH contains an extensive set of instructions for 3D operations, 2D operations, motion compensation, overlay, and display control. The GMCH’s video engines support video conferencing and other video applications. The GMCH uses a UMA configuration with DVMT for graphics memory....

Quelle: http://www.intel.com/Assets/PDF/datasheet/317495.pdf

_DrillSarge]I[
2009-02-22, 16:49:24
motion compensation, overlay, and display control.
Quelle: http://www.intel.com/Assets/PDF/datasheet/317495.pdf
:confused: wo ist die videobeschleunigung? ;)
sogar eine radeon64 (die erste radeon) kann mehr.

beos
2009-02-22, 17:08:53
I[;7122675']:confused: wo ist die videobeschleunigung? ;)
sogar eine radeon64 (die erste radeon) kann mehr.

Motion Compensation ist ein sehr wichtiger Teil des MPEG1 + 2 Video Decodingprozesses. Der IGP unterstützt dies in Hardware -> ergo Videobeschleunigung :smile:

_DrillSarge]I[
2009-02-22, 17:18:03
Motion Compensation ist ein sehr wichtiger Teil des MPEG1 + 2 Video Decodingprozesses. Der IGP unterstützt dies in Hardware -> ergo Videobeschleunigung :smile:
sehr rudimentär ;).
das ist ja ein g31, in netbooks arbeitet ja ein 945gme und der ist ja nochmal eine ganze ecke "mieser".

beos
2009-02-22, 17:30:32
I[;7122729']sehr rudimentär ;).
das ist ja ein g31, in netbooks arbeitet ja ein 945gme und der ist ja nochmal eine ganze ecke "mieser".

Hat auch Hardware MC.

Alle modernen Videocodec's die auf MPEG4 setzen benutzen aber keine MC. Vom Flashvideo bis Quicktime...
Das kann der Chipsatz nicht beschleunigen - und der Atom ist einfach zu langsam um die Videos flüssig darzustellen.

Deswegen auch meine Kritik :)


http://download.intel.com/design/processor/datashts/309219.pdf

[...]
• Video Capture via x1 concurrent PCIe port
• Concurrent operation of x1 PCIe and SDVO
• 4x pixel rate HWMC
[...]

Deinorius
2009-02-22, 18:09:03
motion compensation, overlay, and display control


Pass nur auf, dass niemand sonst deinen Begriff "Videobeschleunigung" mit der UVD verwechselt. Der Begriff ist zwar im Grunde nicht falsch, aber leicht missverständlich.

Das kann der Chipsatz nicht beschleunigen - und der Atom ist einfach zu langsam um die Videos flüssig darzustellen.


Falsch, falsch, falsch. 1080p geht sicher nicht. Aber wie oft hab ich das schon geschrieben, 720p H.264 kann der Atom sehr wohl darstellen. Einfach DivX7 oder CoreAVC (oder vielleicht sogar ffdshow-MT - keine Garantie) verwenden und es geht ohne Probleme. Ich spreche nur aus Erfahrung, während viele andere ständig Vorurteile von sich geben.
Youtube-Videos gehen auch (auch wenn ich sicher nicht für alle Videos sprechen kann).

beos
2009-02-22, 18:46:20
Pass nur auf, dass niemand sonst deinen Begriff "Videobeschleunigung" mit der UVD verwechselt. Der Begriff ist zwar im Grunde nicht falsch, aber leicht missverständlich.

Ich weiß nicht, was ein Videoprozessor von AMD mit einem Intel Chipsatz zu tun haben soll :confused:



Falsch, falsch, falsch. 1080p geht sicher nicht. Aber wie oft hab ich das schon geschrieben, 720p H.264 kann der Atom sehr wohl darstellen. Einfach DivX7 oder CoreAVC (oder vielleicht sogar ffdshow-MT - keine Garantie) verwenden und es geht ohne Probleme. Ich spreche nur aus Erfahrung, während viele andere ständig Vorurteile von sich geben.
Youtube-Videos gehen auch (auch wenn ich sicher nicht für alle Videos sprechen kann).

Hatte ja ein Asus 904 zum Testen da ... bei mir lief es leider nicht flüssig.

Teste doch bitte mal dieses Vid:

http://www.flashvideofactory.com/test/DEMO720_Heima_H264_500K.html

Deinorius
2009-02-22, 18:58:14
Ich weiß nicht, was ein Videoprozessor von AMD mit einem Intel Chipsatz zu tun haben soll :confused:


Verzeih, ich hab vergessen, dass das bei nvidia VP2 heißt. Wie Intel das nennt, weiß ich jetzt nicht. Ich rede also allgemein von der Einheit, die AVC, VC-1 und MPEG-2 vollständig dekodieren kann.

Teste doch bitte mal dieses Vid:

http://www.flashvideofactory.com/test/DEMO720_Heima_H264_500K.html Mach ich, sobald ich wieder vor diesem Netbook sitze. Ich melde mich dann wieder.

Aber ich sage schon vorweg. Unterscheide stark, womit du die Videos ansiehst. Der Adobe Flash Player ist nicht effizienteste und ich zweifle da eher, aber mal sehen, ob es dank der niedrigen Bitrate doch geht. Deswegen erwähne ich immer CoreAVC, DivX7 (bzw. ffdshow-MT), denn damit geht es auf alle Fälle.

beos
2009-02-22, 19:15:00
Verzeih, ich hab vergessen, dass das bei nvidia VP2 heißt. Wie Intel das nennt, weiß ich jetzt nicht. Ich rede also allgemein von der Einheit, die AVC, VC-1 und MPEG-2 vollständig dekodieren kann.


Ach so !
Diese Beschleunigerfunktion kann doch aber nur angesprochen werden, wenn
das entsprechende Programm es unterstützt - oder ?


Mach ich, sobald ich wieder vor diesem Netbook sitze. Ich melde mich dann wieder.

Super - welches Book hast Du denn ? :)


Aber ich sage schon vorweg. Unterscheide stark, womit du die Videos ansiehst. Der Adobe Flash Player ist nicht effizienteste und ich zweifle da eher, aber mal sehen, ob es dank der niedrigen Bitrate doch geht. Deswegen erwähne ich immer CoreAVC, DivX7 (bzw. ffdshow-MT), denn damit geht es auf alle Fälle.

Dann man denn mit den genannten Decodern auch Flash Vids im Browser anschauern ?

Deinorius
2009-02-22, 19:56:39
Samsung NC10 und finde es toll, wie gut das Display ist und wie hell es sein kann. Dazu die hohe Akkulaufzeit...

Ach so !
Diese Beschleunigerfunktion kann doch aber nur angesprochen werden, wenn
das entsprechende Programm es unterstützt - oder ?


Richtig, aber es gibt ja Media Player Classic Home Cinema, also ist das das geringste Problem. Zumindest für Videos, die nicht auf einer Blu-Ray liegen.
Dann man denn mit den genannten Decodern auch Flash Vids im Browser anschauern ?


Leider nicht. Im Normalfall reichts aus. Aber diverse Filme sollte man besser runterladen und von einer anderen Software abspielen lassen. Der Flash Player ist wie gesagt nicht der effizienteste, leider. Bei Quicktime kann man sich leicht abhelfen. Ich lade die Videos immer mit dem Alternative Codec runter, der die Datei automatisch in .hdmov umbenennt, womit man dann diese besseren Decoder verwenden kann. Außerdem ist der Quicktime-Decoder Mist. Die Videos sehen dann immer Scheiße aus.

Gast
2009-02-22, 19:58:50
I[;7122129']surfen geht auf netbooks wunderbar,

wenn man immer nur eine seite offen hat vielleicht, aber wer macht das heute noch?

wenn du mal 10 seiten offen hast und ein paar davon auch noch flash benutzen sieht es mit dem netbook garnicht mehr gut aus.

Gast
2009-02-22, 20:03:03
Seh ich auch so. InOrder spart in der Tat. OoO Chips verbraten durch spekulative Abarbeitung einiges an Strom für nichts (dann wenn die Spekulation falsch war). Um diese Trefferquote hoch zu halten betreibt man nen irrsinnigen Transistoren & Logikaufwand ... das spart man sich beim Atom und stopft die entstehenden Lücken in den FUs mit nem 2ten Thread per SMT.

OOOE macht keine spekulative abarbeitung (außer branch-predition, die man aber in-order genauso macht), der vorteil von OOOE ist lediglich, dass man bei pipeline-stalls einen anderen befehl vorziehen und bearbeiten, was insgesamt sogar eher sparsamer sein dürfte, da die berechnungen schneller fertig sind und die CPU damit schneller wieder in den stromsparmodus schalten kann.

beos
2009-02-22, 20:21:24
Samsung NC10 und finde es toll, wie gut das Display ist und wie hell es sein kann. Dazu die hohe Akkulaufzeit...


Richtig, aber es gibt ja Media Player Classic Home Cinema, also ist das das geringste Problem. Zumindest für Videos, die nicht auf einer Blu-Ray liegen.


Leider nicht. Im Normalfall reichts aus. Aber diverse Filme sollte man besser runterladen und von einer anderen Software abspielen lassen. Der Flash Player ist wie gesagt nicht der effizienteste, leider. Bei Quicktime kann man sich leicht abhelfen. Ich lade die Videos immer mit dem Alternative Codec runter, der die Datei automatisch in .hdmov umbenennt, womit man dann diese besseren Decoder verwenden kann. Außerdem ist der Quicktime-Decoder Mist. Die Videos sehen dann immer Scheiße aus.

Ich wollte Dich mit meinen Fragen in eine Richtung "stupsen" ;)

Der primäre Einsatz-Zweck eines Netbooks ist doch Arbeiten und Surfen. Beim Surfen trifft man - ob man Werbung oder Videos anschaut - zwangsläuftig auf das Fashformat für das man ein Browserplugin braucht. Und dann bleibt nur das von Adobe - das wohl schlecht performt.

Deinorius
2009-02-22, 20:27:31
Dachte ich mir schon. :D
Sicher ist das ein Problem bei dem man nur hoffen kann, dass sich Adobe da mal etwas anstrengt. Immerhin gibt es den Flash Player mittlerweile auch für iPhone (oder allgemein Handys?). Erst vor einigen min war ich auf der Teaser-Seite von Mass Effect 2 und das hat meinen Celeron-M 1,73 ganz schön beansprucht.
Aber alle die für Netbooks sind, sagen ja auch, dass man ein Netbook auch eher als Zweitgerät kauft, immerhin ist dir sicher aufgefallen, dass ich grad net mit dem Netbook surfe.

Der Atom ist sicher nicht optimal, aber wenn man sich mal den Subnotebook-Markt ansieht... entweder es passt nicht, ist schirch (ich rede hier von urschirch) oder zu teuer. Da bin ich doch für die Netbooks dankbar, dass es sie gibt. Bei dem Preis kann man sich ja auch nicht so sehr beschweren.

Der Atom reicht, solange man auch weiß, wofür man ihn kauft. Ich weiß es. ;)

Gast
2009-02-22, 20:29:01
Falsch, falsch, falsch. 1080p geht sicher nicht. Aber wie oft hab ich das schon geschrieben, 720p H.264 kann der Atom sehr wohl darstellen.

kann ich kaum glauben, selbst ein PentiumDualcore-Processor mit 1,6GHz (im prinzip ein CoreDuo) ist bei 720p ohne hardwareunterstützung schon am limit mit 720p.

Deinorius
2009-02-22, 20:48:02
Mit welcher Software? Das ist immer wichtig. Quicktime, Flash, ffdshow (ohne MT) kannst natürlich vergessen. Aber ich hab ja auch immer geschrieben, dass man das mit CoreAVC und/oder DivX7 machen sollte. Bei diversen Reviews hab ich auch gelesen, dass 720p H.264 geht.

Es geht nicht ums glauben, sondern darum, was Tatsache ist.

beos
2009-02-22, 21:20:55
Dachte ich mir schon. :D
Sicher ist das ein Problem bei dem man nur hoffen kann, dass sich Adobe da mal etwas anstrengt. Immerhin gibt es den Flash Player mittlerweile auch für iPhone (oder allgemein Handys?). Erst vor einigen min war ich auf der Teaser-Seite von Mass Effect 2 und das hat meinen Celeron-M 1,73 ganz schön beansprucht.
Aber alle die für Netbooks sind, sagen ja auch, dass man ein Netbook auch eher als Zweitgerät kauft, immerhin ist dir sicher aufgefallen, dass ich grad net mit dem Netbook surfe.

Der Atom ist sicher nicht optimal, aber wenn man sich mal den Subnotebook-Markt ansieht... entweder es passt nicht, ist schirch (ich rede hier von urschirch) oder zu teuer. Da bin ich doch für die Netbooks dankbar, dass es sie gibt. Bei dem Preis kann man sich ja auch nicht so sehr beschweren.

Der Atom reicht, solange man auch weiß, wofür man ihn kauft. Ich weiß es. ;)

Gute Zusammenfassung - Deinorius :)

Freue mich trotzdem auf Deinen Post, ob das Video flüssig lief.

Sonyfreak
2009-02-23, 00:25:21
P.S.: Gibts irgendwo einen Vergleich von einem auf Atom-Niveau untertakteten Subnotebook mit verringerter Spannung gegen ein Netbook? Ich vermute, dass in der Leistungsaufnahme gar nicht so der große Unterschied besteht, wenn überhaupt.Der T5200 meines 12" Subnotebooks läuft problemlos mit 0,85V. Wenn Interesse besteht, könnte ich da mal nachmessen. :)

mfg.

Sonyfreak

Hakim
2009-02-23, 01:22:17
zwei sachen wollte ich nur kurz loswerden.

- Windows Vista läuft bei mir von eindruck her sogar einen tick besser wie Win xp (2gb Ram), ist zwar eine vlite bearbeitete Version aber dennoch läuft alles rund und ordentlich.

- Das mit den Videos ruckeln kann ich nicht zustimmen, dabei war ich auf Dutzenden Videosites oder schaue des öfteren Filme auf den Kleinen. ABER: Ich habs jetzt zum ersten mal ein leichtes stocken beim Abspielen von der Tagesschau Wiederholung bemerkt wo ich den kleinen an einen 22er Moni angeschlossen hatte und im Vollbild das video abspielte.

betasilie
2009-02-23, 03:14:38
die frage ist ja auch, warum man ihn für nettops und netbooks freigibt. Durch den 45nm prozess könnte man auch eine celeron ähnliche (guter kern und wenig cache) cpu ebenfalls günstig und sparsam fertigen. Ein altes design würde ebenso ausreichen. Für MIDs und entwicklungsländer mag die cpu ja geeignet sein, aber bei aktuellen anwendungen zeigen sich doch oft die grenzen des chips. Die numal gegeben sind.
Seltsam, dass das fast alle Leute anders sehen.

Auf einem Netbook will ich nur ein OS haben und einfachste Anwednungen laufen lassen ... und es soll bezahlbar sein und gute Akkulaufzeiten haben. Atom ist dafür prima geeigent. MIt genug RAm läuft auch Vista gut und Videos ohnehin.

Eine teurere CPU, die mehr Leistung, weniger Laufzeit bietet und erheblich teurer ist, magst Du dir wünschen, aber die wenigsten anderen Kunden, die ein ultra kleines Netbook haben wollen.

Gegen den Atom ist garnichts zu sagen. Die Frage ist, ob es Alternativen geben sollte. Und da stellt sich die Frage, sind genug Kunden für solche teuren Netbooks da? Wenn einer der Hersteller das so sehen würde, hätten wir schon Netbooks mit dicker CPU.

Gast
2009-02-23, 04:09:30
Ja, warum?Weil sie sowas wie den VIA Nano nicht gebacken bekammen.

Wuzel
2009-02-23, 07:51:12
Seltsam, dass das fast alle Leute anders sehen.

Auf einem Netbook will ich nur ein OS haben und einfachste Anwednungen laufen lassen ... und es soll bezahlbar sein und gute Akkulaufzeiten haben. Atom ist dafür prima geeigent. MIt genug RAm läuft auch Vista gut und Videos ohnehin.

Eine teurere CPU, die mehr Leistung, weniger Laufzeit bietet und erheblich teurer ist, magst Du dir wünschen, aber die wenigsten anderen Kunden, die ein ultra kleines Netbook haben wollen.

Gegen den Atom ist garnichts zu sagen. Die Frage ist, ob es Alternativen geben sollte. Und da stellt sich die Frage, sind genug Kunden für solche teuren Netbooks da? Wenn einer der Hersteller das so sehen würde, hätten wir schon Netbooks mit dicker CPU.

Wenn du nur ein OS und einfache Anwendungen willst, ist so etwas wie ein Beagle Board dem Atom gnadenloss überlegen...
Selbst mit der aktuellen Rev1 geht sogar 720p - auch über DVI-D ;)
Das gesamt System zieht dann auch noch mal gut die hälfte weniger Saft.
Warum die Hersteller ihre 'Netbooks' mit der Atom Plattform zupflastern ist mir eh schleierhaft.

Hier scheint wohl x86/Windows der Faktor zu sein - Sinn oder unsinn dahingestellt.

Und bei dem aktuellen Hype um den Mist, werden wohl die alternativ Konzepte absaufen - Intel hat sich schon etwas dabei gedacht ;)

Edit: link zum Beagle - http://beagleboard.org/hardware

Deinorius
2009-02-23, 09:34:26
Selbst mit der aktuellen Rev1 geht sogar 720p - auch über DVI-D ;)


Wenn du bitte die Freundlichkeit hättest, dir diesen Thread, genauer meine Beiträge, nochmal durchzulesen, könntest du vielleicht draufkommen, wieso das Abspielen von 720p kein Alleinstellungsmerkmal ist.

Hier scheint wohl x86/Windows der Faktor zu sein - Sinn oder unsinn dahingestellt.


Sicher doch, haufenweise Software vorhanden und allen voran Windows, womit auch die Laien vertraut sind.

Und bei dem aktuellen Hype um den Mist, werden wohl die alternativ Konzepte absaufen - Intel hat sich schon etwas dabei gedacht ;)


Auch wenn das Beagle Board durchaus interessant ist, bist du sicher, dass der Atom nicht leistungsmäßig schlechter ist? Bloß weil der 720p darstellen kann, heißt das nichts, denn das übernimmt anscheinend die IGP.

beos
2009-02-23, 10:17:23
zwei sachen wollte ich nur kurz loswerden.

- Windows Vista läuft bei mir von eindruck her sogar einen tick besser wie Win xp (2gb Ram), ist zwar eine vlite bearbeitete Version aber dennoch läuft alles rund und ordentlich.


Ich wiß nicht, ob Du das einfach so vergleichen kannst - da Du ein "vlite Vista" gegen ein "normales xp" stelltst..


- Das mit den Videos ruckeln kann ich nicht zustimmen, dabei war ich auf Dutzenden Videosites oder schaue des öfteren Filme auf den Kleinen. ABER: Ich habs jetzt zum ersten mal ein leichtes stocken beim Abspielen von der Tagesschau Wiederholung bemerkt wo ich den kleinen an einen 22er Moni angeschlossen hatte und im Vollbild das video abspielte.

Die Tagesschau Streams sind Windows Media 8 mit 384 x 216 codiert und Du bemerkst ein leichtes Ruckeln...? Wie sieht es denn mit höher aufgelösten Flashvideos aus?

reunion
2009-02-23, 11:17:58
Nun ja, das interessante am Atom ist ja vor allem die Tatsache, dass Intel damit zu einem In-Order-Design zurückkehrt ausgerechnet zu dem Zeitpunkt wo der letzte und jahrelange Verfechter von In-Order Designs, Centaur, auch zu einem Out-of-Order-Design wechselt. Das ist schon paradox...


Ein In-Order-Design ist nun mal um Welten effizienter wenn es um Leistung/mm² oder Leistung/Watt geht. Problem ist nur das man Code nicht beliebig parallelisieren kann.

Aquaschaf
2009-02-23, 11:22:30
Ein In-Order-Design ist nun mal um Welten effizienter wenn es um Leistung/mm² oder Leistung/Watt geht

Das wage ich sehr zu bezweifeln. Wäre es so, dann wären auch die "großen" CPUs in-order.

BlackBirdSR
2009-02-23, 12:14:30
Das wage ich sehr zu bezweifeln. Wäre es so, dann wären auch die "großen" CPUs in-order.

Itanium -> kein Out of Order Execution

Xbox360 MPU -> kein Out of Order Execution

PS3 MPU -> kein Out of Order Execution

Power6 -> kein Out of Order Execution

Sun Ultrasparc T2 -> Kein Out of Order Execution

Warum auch? Wann immer das Anwendungsgebiet und die Peripherie eine fast optimale Anpassung liefern und sich das Verhältnis hin zu vielen Threads und weniger Power/Core verschiebt, desto mehr SInn macht InOrder.

Aquaschaf
2009-02-23, 12:36:11
Itanium -> kein Out of Order Execution

Xbox360 MPU -> kein Out of Order Execution

PS3 MPU -> kein Out of Order Execution

Power6 -> kein Out of Order Execution

Sun Ultrasparc T2 -> Kein Out of Order Execution

Warum auch? Wann immer das Anwendungsgebiet und die Peripherie eine fast optimale Anpassung liefern und sich das Verhältnis hin zu vielen Threads und weniger Power/Core verschiebt, desto mehr SInn macht InOrder.

Die CPU von XBox360 und PS3 lasse ich nicht als Beispiel gelten. In deren Anwendungsdomäne wäre OOO vorteilhaft.

Itanium, T2 oder Power6: wenn es um Server oder irgendwelche Formen von Großrechnern geht auf die man eine relativ geringe Anzahl von Anwendungen anpassen kann die dann auch oft noch pro Speicherzugriff viel rechnen, dann ist das was anderes.

Ich will nur ausdrücken dass man nicht allgemeingültig sagen kann dass in-order effizienter als out-of-order ist.

BlackBirdSR
2009-02-23, 13:02:34
Ich will nur ausdrücken dass man nicht allgemeingültig sagen kann dass in-order effizienter als out-of-order ist.

Nachdem der Aufwand für OOOe dermaßen hoch ist und die Leistungsteigerung exponentiell steigende Komplexität erfodert, würde ich das schon sagen. Wenn es natürlich massig Fälle gibt, wo es anders sein kann.

EIn InOrder Corei7 ist natürlich nicht denkbar. Ein 80W InOrder Atom2 mit der Leistung eines Corei7 wohl auch nicht.
Also dann wohl so: Für geringe Verlustleistungen ist InOrder effizienter als OOOe. :)

reunion
2009-02-23, 13:22:07
Das wage ich sehr zu bezweifeln. Wäre es so, dann wären auch die "großen" CPUs in-order.

Ein IO-Design ist wesentlich effizienter wenn man genügend parallelisierbaren Code hätte. Da das bei vielen Anwendungen nicht der Fall ist benötigt man OOO-Kerne.

Deinorius
2009-02-23, 13:28:03
Also kein Wunder, dass einige Server-CPUs InOrder sind. Da gibts ja genug parallelisierbaren Code.

Sonyfreak
2009-02-23, 14:14:17
Der T5200 meines 12" Subnotebooks läuft problemlos mit 0,85V. Wenn Interesse besteht, könnte ich da mal nachmessen. :)Mit WLAN und mittlerer Displayhelligkeit braucht das Gerät etwa 19W am Desktop.

mfg.

Sonyfreak

Tiamat
2009-02-23, 14:17:07
Wow dieses Beagle-Bord is ja wirklich interessant.
126€ beim deutschen Reseller..
Wobei man bei den 720p Videos net vergessen darf, dass der Ti Omap über entsprechende Dsps verfügt, die diesen Job verrichten.

Hakim
2009-02-23, 14:32:35
Ich wiß nicht, ob Du das einfach so vergleichen kannst - da Du ein "vlite Vista" gegen ein "normales xp" stelltst..



Die Tagesschau Streams sind Windows Media 8 mit 384 x 216 codiert und Du bemerkst ein leichtes Ruckeln...? Wie sieht es denn mit höher aufgelösten Flashvideos aus?

Vielleicht hast du recht mit Vista lite, ich hab aber größtenteils nur Sprachpakete und so sachen wie einige treiber rausgeholt die ich nicht brauche, am relevantesten war aber denk ich die Sidebar.

bezüglich Tagesschau. Also ich schau sehr oft filme auf dem ding, und viele haben auch eine ordentliche Auflösung, da hatte ich nie probs. Aber vor einigen tagen ist mir das bei der Tagesschau kurz aufgefallen. Evt lief auch was im Hintergrund ka. Vorhin liefen die HD Videos bei youtube beim 22er Vollbild einwandfrei.

betasilie
2009-02-23, 15:32:35
Die CPU von XBox360 und PS3 lasse ich nicht als Beispiel gelten. In deren Anwendungsdomäne wäre OOO vorteilhaft.
Seltsam nur, dass das die Hersteller anders sehen und die echten Konsolenstudios auch.

Das Thema ist das aber ohnehin nicht.

_DrillSarge]I[
2009-02-23, 15:35:31
Seltsam nur, dass das die Hersteller anders sehen und die echten Konsolenstudios auch.

Das Thema ist das aber ohnehin nicht.
???
jeder halbwegs aktuelle mehrkernprozessor von amd/intel wäre in dem anwendungsbereich, der xbox360 cpu haushoch überlegen.
viele entwickler sehen als die beiden hauptvorteile des pcs ram und cpu-power.

reunion
2009-02-23, 15:42:24
OOO wäre natürlich schneller, dafür aber wesentlich teurer und stromschluckender.

BlackBirdSR
2009-02-23, 15:44:44
Seltsam nur, dass das die Hersteller anders sehen und die echten Konsolenstudios auch.

Das Thema ist das aber ohnehin nicht.

Naja ich denke, da sind sich sehr viele Leute einig:
Die PPU und die 3-Kern-CPU der XBox360 (die ja weitgehend identisch sind), sind relativ schwach auf der Brust. Eine aktuelle x86 OOOe-CPU hätte damals wohl auf die Schnelle mehr Leistung freisetzen können. Inzwischen hat man ja auch das gut im Griff.

Dass der PPC-Kern in den beiden Konsolen InOrder und relativ simpel aufgebaut ist, liegt ja auch an IBM. Auf der einen Seite heißt es, dass Sony bei IBM anfragt und man sich dort gerade an ein laufendes Projekt erinnert, aus dem dann die CPU wird. Auf der anderen Seite hört man, dass IBM ohne Kenntnis von Sony, Microsoft in einem genialen Schachzug mal eben schnell den gleichen Kern untergeschoben hat.

Kein x86 zu wählen kann ich indes verstehen: Hacker kennen sich bestens damit aus und es gibt eine Vielzahl Möglichkeiten, in die Konsole einzudringen. War es nicht gar A20.-Gate, welches in der alten XBox Ausführung von Code ermöglichte?

betasilie
2009-02-23, 15:46:03
I[;7124681']???
jeder halbwegs aktuelle mehrkernprozessor von amd/intel wäre in dem anwendungsbereich, der xbox360 cpu haushoch überlegen.
viele entwickler sehen als die beiden hauptvorteile des pcs ram und cpu-power.
Von wann ist denn die Xbox CPU? Wieviel Jahre ist sie alt? Und reden wir von einer Konsole oder einem PC?

Eine Konsole hat immer realtiv günstige Bausteine drin und trotzdem sind neue Konsole anfangs sehr teuer, und das, obwohl sie subventioniert werden.

Und was hat bitte IE* mit CPU Power zu tun? IE* hat was mit Anpassung von Software zu tun und auf Konsolen ist das durchaus kein Problem, gerade eben für die echten Konsolen-Studios, die schon immer für Konsolen entwickelt haben.

Wenn ich mir anschaue, wie gut GTA, Mirros Edge und viele andere Games auf den Konsolen laufen und wie "schlecht" auf dem PC mit seinen viel leistungsstärkeren OOO-CPUs, ist es lächerlich zu behaupten, dass die Konsolen CPUs den besseren Entwicklern größere Kopfschmerzen bereiten. ... Im Gegenteil, von so einer effizienten Anpassung kann ein PC nur träumen.

OOO ist auf einem System, wie dem PC, unumgänglich, aber auf Systemen, wie sie Blackbird schon genannt hat, durchaus sinnvoll oder zumindest erträglich.


*edited

_DrillSarge]I[
2009-02-23, 15:50:12
Von wann ist denn die Xbox CPU? Wieviel Jahre ist sie alt? Und reden wir von einer Konsole oder einem PC?
klar spielt da das alter eine rolle

Eine Konsole hat immer realtiv günstige Bausteine drin und trotzdem sind neue Konsole anfangs sehr teuer, obwohl sie subventioniert werden.
das stimmt, aber sag das mal sony ;D

Und was hat bitte OOO mit CPU Power zu tun? OOO hat was mit Anpassung von Software zu tun und auf Konsolen ist das durchaus kein Problem, gerade eben für die echten Konsolen-Studios, die schon immer für Konsolen entwickelt haben.
:confused:

Wenn ich mir anschaue, wie gut GTA, Mirros Edge und viele andere Games auf den Konsolen laufen und wie "schlecht" auf dem PC, ist es lächerlich zu behaupten, dass die Konsolen CPUs den besseren Entwicklern größere Kopfschmerzen bereiten.
toll, nur bieten die titel auf dem pc wesentlich mehr details bei höherer auflösung. solche vergleiche funken nie.

OOO ist auf einem System, wie dem PC, unumgänglich, aber auf Systemen, wie sie Balckbird schon genannt hat, durchaus sinnvoll oder zumindest erträglich.
ja, es ist durchaus ein logischer schritt, ändert jedoch nix daran, dass es durchaus bessere lösungen gäbe.

BlackBirdSR
2009-02-23, 15:53:30
OOO ist auf einem System, wie dem PC, unumgänglich, .

Out of Order Execution hat doch mit Software nichts zu tun. Das ist doch gerade der Clou an der Sache, dass die CPU intern einen großen Teil der Arbeit selbst übernimmt.

Das kostet leider Unmengen an Transistoren und Verlustleistung. Gerade darum ist Atom ja so winzig und bekommt 2 Kerne unf 4 Threads unter 8W gebacken.

betasilie
2009-02-23, 15:58:10
Naja ich denke, da sind sich sehr viele Leute einig:
Die PPU und die 3-Kern-CPU der XBox360 (die ja weitgehend identisch sind), sind relativ schwach auf der Brust. Eine aktuelle x86 OOOe-CPU hätte damals wohl auf die Schnelle mehr Leistung freisetzen können. Inzwischen hat man ja auch das gut im Griff.

Dass der PPC-Kern in den beiden Konsolen InOrder und relativ simpel aufgebaut ist, liegt ja auch an IBM. Auf der einen Seite heißt es, dass Sony bei IBM anfragt und man sich dort gerade an ein laufendes Projekt erinnert, aus dem dann die CPU wird. Auf der anderen Seite hört man, dass IBM ohne Kenntnis von Sony, Microsoft in einem genialen Schachzug mal eben schnell den gleichen Kern untergeschoben hat.

Kein x86 zu wählen kann ich indes verstehen: Hacker kennen sich bestens damit aus und es gibt eine Vielzahl Möglichkeiten, in die Konsole einzudringen. War es nicht gar A20.-Gate, welches in der alten XBox Ausführung von Code ermöglichte?
Das ganze hat ja auch primär etwas mit dem wirtschaftlichen Konzept zu tun.

Eine OOO CPU wäre in mehrfacher Hinsicht erheblich teurer für die Konsolenhersteller und eine OOO-Architektur unter Lizenz selber porduzieren zu lassen, nahezu unmöglich gewesen. Konnsolen müssen günstig sein, und wenn dann die CPUs keine OOOE bietet, dann ist das kein Beinbruch, sondern bedeutet etwas mehr Entwicklungsarbeit. Und eben dieses Mehr an Entwicklungsarbeit rechnet sich auf Konsolen allemal, wenn man sich die Verkaufszahlen anschaut. Und die Verkaufszahlen sind eben hoch, weil die Plattform günstig, und somit weit verbeitet ist.

Es geht doch einfach darum, dass IE CPUs nach gewisser Einarbeitszeit kein Beinbruch sind im Konsolensektor und OOOE CPUs einfach in keinster Hinsicht in das wirtschaftliche Konszept einer Konsole gepasst haben. Witzig finde ich in dem Kontext, dass so einige Foren-Fuzzis scheinbar mehr über fehlendes OOOE jammern, als die Entwickler. ;)


Aber klar, die Leistung der XBOX-CPU ist schon recht niedrig, auch im Vergelich zu damaligen CPUs, aber um so beeindruckender, was die Entwickler so alles auf der Xbox möglich machen.

betasilie
2009-02-23, 16:00:29
Out of Order Execution hat doch mit Software nichts zu tun. Das ist doch gerade der Clou an der Sache, dass die CPU intern einen großen Teil der Arbeit selbst übernimmt.

Das kostet leider Unmengen an Transistoren und Verlustleistung. Gerade darum ist Atom ja so winzig und bekommt 2 Kerne unf 4 Threads unter 8W gebacken.
Aber deswegen ist doch OOO auf einem PC unumgänglich, weil wenn jede Software für jeden CPU Typ von Hand angepasst werden würde, wär das doch ein schlechter Witz. ... Ich glaube Du hast mich falsch verstanden. :)

BlackBirdSR
2009-02-23, 16:05:16
Aber deswegen ist doch OOO auf einem PC unumgänglich, weil wenn jede Software für jeden CPU Typ von Hand angepasst werden würde, wär das doch ein schlechter Witz. ... Ich glaube Du hast mich falsch verstanden. :)

Warum sollte die Software an jeden CPU-Typ angepasst werden müssen?
Ob InOrder oder OOOe, das ist nach aussen hin nicht transparent und kann dem Programmierer recht egal sein.

Atom läuft genau so mit dem gleichen Code, wie sie Core2 oder K8 bekommen. Natürlich ließe sich noch etwas mehr über direkte Optimierung rausholen, aber das gilt für Core2 oder K10 nicht weniger.
Atom wartet halt länger, vertuscht dies so gut wie es geht über Taktrate und SMT

betasilie
2009-02-23, 16:21:35
Warum sollte die Software an jeden CPU-Typ angepasst werden müssen?
Ob InOrder oder OOOe, das ist nach aussen hin nicht transparent und kann dem Programmierer recht egal sein.

Atom läuft genau so mit dem gleichen Code, wie sie Core2 oder K8 bekommen. Natürlich ließe sich noch etwas mehr über direkte Optimierung rausholen, aber das gilt für Core2 oder K10 nicht weniger.
Atom wartet halt länger, vertuscht dies so gut wie es geht über Taktrate und SMT
Ja, natürlich funktioniert eine IE CPU, wie der Atom, mit einem PC-OS. Aber eben langsam, durch die ganzen in-order stalls.

Auf den Konsolen werden eben diese Stalls durch entsprechende Anpassungen des Codes minimiert, was auf einem PC illusorisch wäre und eben nicht notwendig ist, weil es im Desktop- und Laptopbereich nur OOO CPUs gibt. Bei den Netbooks ist das anders, aber die Leistung einer Atom CPU reicht ja trotzdem für die wichtigsten Anwendungen.

Acid-Beatz
2009-02-23, 18:12:53
Der Punkt is doch der, dass eine Konsole einfach fest definierte Hardware darstellt!
Ich weiß als Programmierer genau für was ich optimieren muss! Von diesem Standpunkt aus ist eine In-Order Architektur absolut kein Nachteil weil man einfach den Compilern die Hauptarbeit überlässt!
Wenn ich den Fall eben nicht habe, wie es zum Beispiel bei den x86 PCs der Fall ist, dann muss es hald hinterher der Prozessor mit Out-of-Order selber wieder hinbiegen!
Ausserdem sind Konsolen meines Wissens nach um einiges anders aufgebaut wie PCs, die CPU dient quasi nur als "Wasserträger" für die GPU!

So und jetz noch was zum eigentlichen Thema:
Ich bin mir sicher wenn Intel spezielle Compiler für die Atoms anbieten würde, dann könnte man in vielen Anwendungen noch so einiges an Leistung herausholen!

BlackBirdSR
2009-02-23, 18:53:40
So und jetz noch was zum eigentlichen Thema:
Ich bin mir sicher wenn Intel spezielle Compiler für die Atoms anbieten würde, dann könnte man in vielen Anwendungen noch so einiges an Leistung herausholen!

Also Intels neuerster Compiler mit Atom Optimierungen hat bei c't in Spec gerademal lächerlich 2-5% gebracht. Ist natürlich dir Frage, inwiefern Intel überhaupt bessere Ergebnisse sehen will.

betasilie
2009-02-23, 19:05:26
Also Intels neuerster Compiler mit Atom Optimierungen hat bei c't in Spec gerademal lächerlich 2-5% gebracht. Ist natürlich dir Frage, inwiefern Intel überhaupt bessere Ergebnisse sehen will.
Kann man schlecht vergleichen. Erstens ist der Entwicklungsaufwand um Welten geringer, als von Sony oder MS, wenn die Compiler für ihre Konsolen entwickeln, zum anderen besteht halt die Frage, wie Du selber anmekrst, ob Intel wirklich ein Interesse daran hat.

In-Order vs. Out-of-Order ist bei Konsolen weniger ein Problem. Da man dort nur für eben genau ein System compiliert kann der Compiler die beste Reihenfolge erzeugen. Beim PC müssen die neuen CPUs auch mit Programmen klar kommen die schon kompiliert wurden als es diese noch gar nicht gab. Da zudem die Programme auf verschiedenen CPUs laufen müssen kommt es bei der Codeerzeugung zu Kompromissen. Aus diesem Grund braucht man hier Out-of-Order CPUs die sich den Code selbst passenden umsortieren können. Es macht also durchaus Sinn für Konsolen In-Order CPUs zu nutzen um sich die Transitoren zu sparen.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3121827&postcount=3

Und die bekannten Entwickler im Konsolensektor beschweren sich seltsamer Weise auch nie über die in-order CPUs der Konsolen.

BlackBirdSR
2009-02-23, 19:15:41
Kann man schlecht vergleichen. Erstens ist der Entwicklungsaufwand um Welten geringer, als von Sony oder MS, wenn die Compiler für ihre Konsolen entwickeln, zum anderen besteht halt die Frage, wie Du selber anmekrst, ob Intel wirklich ein Interesse daran hat.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=3121827&postcount=3

Und die bekannten Entwickler im Konsolensektor beschweren sich seltsamer Weise auch nie über die in-order CPUs der Konsolen.

Es sagt doch niemand etwas von "beschweren"?!
Eine Out-of-Order-Execution CPU hätte zu Beginn schneller mehr Performance freigesetzt (hab ich oben schon stehen). Dass man dieses Problem nun gut im Griff hat, steht auch oben ;)

Es ist auch keine Frage, dass gerade x86 und der PC-Markt ein Paradebeispiel dafür sind, dass man lieber die CPU die Arbeit machen lässt, weil ja sowieso schon keiner genug Zeit hat, um auch nur einen anständigen Betatest durchzuführen ;). Das soll aber nicht heißen, dass In-Order CPUs prinzipiell nicht geeignet wären. Trotz allem erreicht Atom eine vergleichbar hohe Leistung. Insbesondere mit SMT im Rücken, liegt die Performance pro Watt weit über dem, was andere CPUs erreichen können. Zu den Kosten und der Die Fäche sowieso schon 3x.

Ich sage das aus gutem Grund, denn es braucht nicht viel passieren und wir finden uns wieder in der Zeit zurückversetzt: Plötzlich setzt man bei Intel nicht mehr auf Monsterkerne, sondern nutzt intensiv all die neuen Entwicklungen der letzten Jahre, vereinfacht dafür aber seine Kernkomponenten. Immenses Multithreading und steigende Taktraten gleichen das wieder aus. Ob es so weit kommt, liegt wohl am Prozessfortschritt und den Launen der Architekten ;)

Gast
2009-02-23, 19:49:24
Out of Order Execution hat doch mit Software nichts zu tun.

das hat im prinzip nur mit der software zu tun. wenn die software die befehle bereits in optimaler reihenfolge vorliegen hat, kann OOOE rein garnichts mehr bringen.

wenn die befehle eben nicht optimal vorliegen bringt OOOE eben sehr viel.

OOOE verschiebt die optimierung im prinzip nur von der software/compiler zur hardware.

Gast
2009-02-23, 19:55:12
der Atom kommt mit Vista ohne Probleme hin,imho besser als XPScherzkeks, wo siehst du das?

Gast
2009-02-23, 19:56:33
Auch wenn der Atom eine Krücke ist, wird er doch vom Markt sehr gut angenommenVielleicht weil es bis jetzt keine Alternativen gibt und der Markt da ist? Mal sehen was NV und Via aus dem Nano jetzt machen.

Gast
2009-02-23, 20:03:27
Und die bekannten Entwickler im Konsolensektor beschweren sich seltsamer Weise auch nie über die in-order CPUs der Konsolen.Auf der PS3 geht es auch nicht grundsätzlich darum Programme aus der PS1 auszuführen. Auf dem Windowsdesktop schon. Auf dem Linuxdesktop genauso. Denn weder MSVC noch GCC machen sich viel aus in-order. Selbst Intel kann nicht zeigen wie wesentlich besser das mit paar Flags rennen kann.
Der Kompiler für die Konsolen sind dagegen höchstspezialisierte Werkzeuge für eine einzige Architektur.

Ich denke aber all das ist auch für dich nichts als nur Grundwissen zum Thema...

betasilie
2009-02-23, 21:20:05
Es sagt doch niemand etwas von "beschweren"?!
Eine Out-of-Order-Execution CPU hätte zu Beginn schneller mehr Performance freigesetzt (hab ich oben schon stehen). Dass man dieses Problem nun gut im Griff hat, steht auch oben ;)

Es ist auch keine Frage, dass gerade x86 und der PC-Markt ein Paradebeispiel dafür sind, dass man lieber die CPU die Arbeit machen lässt, weil ja sowieso schon keiner genug Zeit hat, um auch nur einen anständigen Betatest durchzuführen ;). Das soll aber nicht heißen, dass In-Order CPUs prinzipiell nicht geeignet wären. Trotz allem erreicht Atom eine vergleichbar hohe Leistung. Insbesondere mit SMT im Rücken, liegt die Performance pro Watt weit über dem, was andere CPUs erreichen können. Zu den Kosten und der Die Fäche sowieso schon 3x.

Ich sage das aus gutem Grund, denn es braucht nicht viel passieren und wir finden uns wieder in der Zeit zurückversetzt: Plötzlich setzt man bei Intel nicht mehr auf Monsterkerne, sondern nutzt intensiv all die neuen Entwicklungen der letzten Jahre, vereinfacht dafür aber seine Kernkomponenten. Immenses Multithreading und steigende Taktraten gleichen das wieder aus. Ob es so weit kommt, liegt wohl am Prozessfortschritt und den Launen der Architekten ;)
Das ist genau der Punkt - wir sind einer Meinung. Ich denke es gab nur irgendwann ein Missverständnis im Laufe der Diskussion. ;)

Auf der PS3 geht es auch nicht grundsätzlich darum Programme aus der PS1 auszuführen. Auf dem Windowsdesktop schon. Auf dem Linuxdesktop genauso. Denn weder MSVC noch GCC machen sich viel aus in-order. Selbst Intel kann nicht zeigen wie wesentlich besser das mit paar Flags rennen kann.
Der Kompiler für die Konsolen sind dagegen höchstspezialisierte Werkzeuge für eine einzige Architektur.

Ich denke aber all das ist auch für dich nichts als nur Grundwissen zum Thema...
Genau deswegen sind OOOe CPUs auf dem PC zu favorisieren, aber Ausnahmen bestätigen die Regel. Und der Atom ist ein sehr gutes Beispiel für so eine Ausnahme, weil in diesem Niedrigleistungssegment bringt der Atom eben unglaublich viel Leistung, dafür dass er so wenig verbraucht und so wenig Abwärme erzeugt. ... Und die absolute Leistung ist zumindest ausreichend für den Anwendungsbereich der meisten Netbook-User, insbesondere mit HD-Content-Beschleunigung.

Und was die Konsolen angeht ging es eher darum, dass ein paar Postings vorher mal wieder jemand die in-order-Architektur der Konsolen-CPUs als suboptimal darstellen wollte, was eben nicht zutrifft.

Aquaschaf
2009-02-23, 23:09:43
Und was die Konsolen angeht ging es eher darum, dass ein paar Postings vorher mal wieder jemand die in-order-Architektur der Konsolen-CPUs als suboptimal darstellen wollte, was eben nicht zutrifft.

Ich denke nicht dass das so eindeutig ist. Zwar ist das eine fixe Plattform, aber eine mit relativ begrenzter Halbwertszeit. D.h. wenn die Compiler anfangs noch suboptimal sind ist das absolut durchaus ein Nachteil.

S940
2009-02-24, 00:29:53
EIn InOrder Corei7 ist natürlich nicht denkbar. Ein 80W InOrder Atom2 mit der Leistung eines Corei7 wohl auch nicht.
Also dann wohl so: Für geringe Verlustleistungen ist InOrder effizienter als OOOe. :)
Die Sache ist halt die ... OoO braucht man für brutale single thread Leistung. Seitdem Intel mit P4/HT die multithreaded Programmierung forciert, wird das unwichtiger. Zumindest für nen 2ten Thread findet man immer was ;-)

Weitere Vorteil von inOrder ist aber auch, dass der der Frequentspielraum steigt, siehe IBM Power6. Ohne inOrder hätten sie die 5 GHz nicht erreicht.

Wäre mal interessant, wie da das single-thread Leistungsverhältnis wäre, von sagen wir mal:
4 GHz OOO gegen
5 GHz inOrder.

Was meinst Du, wieviel Leistung gewinnt man durch (gutes OOO) ? Reicht das für die ~25% mehr Takt ?

Würde mal pi*Daumen schätzen, dass das knapp werden würde. Deswegen schließe ich mal nicht aus, dass es nicht doch nen "in order i7" geben würde.

ciao

Alex

Gast
2009-02-24, 02:26:31
@S940
Solange der Kode nicht aus einem exakt passenden Stream für die ALUs besteht, ist nichts mit in order. Wozu wilde Theorien aufstellen, wenn man das am Itanium2 wunderbar nachverfolgen kann?

Was meinst du wie lange eine "brutale" Einzelthread-Leistung noch von größter Relevanz sein wird? Ich denke vor 2012 brauchen wir darüber garnicht reden. Selbst wenn ich gute 2 Threads habe, sind es immernoch 2x 1 Thread ;)

70% meiner Anwendungen sind entweder Freeware oder Software. Wie läuft die SPEC2006 die für den Power5 kompiliert wurde auf einem Power6?

Was macht eigentlich eine M9000 mit 64 2.5Ghz Cores mit einer p595 mit 64 5 Ghz Cores in SPECint2006 Rates? Richtig. Versägt es.
Baseline 2088 zu 1837 (Power6 bester Wert unter RedHat). Rate sieht nicht viel anders aus.

Leider habe ich hier weder Apache noch einen SAP-Server am laufen.

Riesen Kino. Kenn ich aber schon. Von Netburst.
Man was haben wir hier damals von den noch nicht befreiten speedup-Perlen dieser Architektur gelesen. Und wie sinnvoll und überlegen manche Aussagen darüber klangen. Da konnte man garnicht mehr kontern.
Und wo ist das Zeug jetzt? Kleiner Teil wurde recycled, der Rest liegt im Mülleimer.

Solange der zu verarebeitende Datenaufkommen architekturbedingt nicht als ein ununterbrochener Stream an bestens passenden Ops zu machen ist, wie bei GPUs, ist in-order bei 230V witzlos. Wie dieser Thread langsam.

Vor 2020 brauchen wir damit nicht rechnen :uup: in-order i7 :lol: Und selbst 2020 eher mit Mischwesen aus CPU und GPU. in-order mit 320 2 Ghz ALUs und einem Kode der dazu paßt und insgesamt nicht mehr als 100W verbrät, gerne. Sonst danke.

Gast
2009-02-24, 02:27:07
70% meiner Anwendungen sind entweder Freeware oder Software.Oder Shareware.

reunion
2009-02-24, 07:27:28
Was meinst Du, wieviel Leistung gewinnt man durch (gutes OOO) ? Reicht das für die ~25% mehr Takt ?

25%?! Gutes OOO sollte ggü. IO locker 100% mehr "pro-mhz"-Leistung bringen IMHO.

robbitop@work
2009-02-24, 09:01:39
Wäre mal interessant, wie da das single-thread Leistungsverhältnis wäre, von sagen wir mal:
4 GHz OOO gegen
5 GHz inOrder.

Was meinst Du, wieviel Leistung gewinnt man durch (gutes OOO) ? Reicht das für die ~25% mehr Takt ?

25 % wird wohl nicht reichen. Die Differenz zwischen OOO CPUs wie der Core Architektur und IE CPUs wie dem C7 oder dem Atom liegt sofern es um normierte Leistung pro Kern und Takt geht um Welten auseinander. Mit Compiler- und Codeoptimierung kann man da sicher etwas abfangen. Aber in ähnliche IPC Regionen kommt man wohl nur, sofern man "danbkbarere" Anwendungsgebiete hat. Natürlich je nach Anwendungsfall. Spiele bspw. haben viel Abhängigkeiten im Code. Und perfekt sortieren lässt er sich auch nicht. Und auch da läßt sich nur begrenzt optimieren. Datenbanken, Videoencoding, Wetter und Strömungssimulation ect sind dort natürlich viel dankbarer.

S940
2009-02-24, 10:52:42
Was macht eigentlich eine M9000 mit 64 2.5Ghz Cores mit einer p595 mit 64 5 Ghz Cores in SPECint2006 Rates? Richtig. Versägt es.
Baseline 2088 zu 1837 (Power6 bester Wert unter RedHat). Rate sieht nicht viel anders aus.
Öhhhm ... ich glaub da hast Du Dich etwas in der Spalte verguckt.
Ne M8900 mit der Leistung finde ich bei Spec, aber die hat 256 Kerne und nicht 64 .. kleiner Unterschied :wink:
Im Rate Test hätte eine OoO CPU gegen eine dicken, höhergetakteten in-order CPU mit SMT eh keine Chance, behaupte ich zumindest einmal. Selbst der mickrige Atom gewinnt 30-50% durch SMT. Keine Ahnung wie das explizit jetzt bei SPec ausschauen würde, aber da bremst dann sowieso der lächerliche FSB533. Also wenn Atom bei Rate versagt würde ich mich auch nicht wundern.

Hier noch die Spec Links, zuerst mal keine Rate Werte, ging ja um single-thread Leistung:


CPU Name: SPARC64 VII
CPU Characteristics:
CPU MHz: 2520
FPU: Integrated
CPU(s) enabled: 4 cores, 1 chip, 4 cores/chip, 2 threads/core
CPU(s) orderable: 1 chip

SPECint®2006 = 12.6
SPECint_base2006 = 11.5

SPECfp®2006 = 13.6
SPECfp_base2006 = 13.0

http://www.spec.org/cpu2006/results/res2008q4/cpu2006-20081023-05677.html
CPU Name: POWER6
CPU MHz: 5000
FPU: Integrated
CPU(s) enabled: 1 core, 1 chip, 2 cores/chip

SPECfp®2006 = 24.9
SPECfp_base2006 = 20.1


SPECint®2006 = 21.6 (bei 4,7 GHz)
SPECint_base2006 = 17.8 (bei 4,7 GHz)

http://www.spec.org/cpu2006/results/res2008q2/cpu2006-20080407-04057.html
http://www.spec.org/cpu2006/results/res2007q3/cpu2006-20070712-01429.html

Also ich weiss ja nicht, wer da wen versägt ... Rate schaut natürlich erst recht nicht besser aus (ich nehm mal das 128 Kern System, das hat anscheinend neuere QuadCore CPUs, nicht das es heißt die alten dual Core Chips sind eh schlecht):
CPU Name: SPARC64 VII
CPU Characteristics:
CPU MHz: 2520
FPU: Integrated
CPU(s) enabled: 128 cores, 32 chips, 4 cores/chip, 2 threads/core

SPECfp®_rate2006 = 1110
SPECfp_rate_base2006 = 1060

SPECint®_rate2006 = 1240
SPECint_rate_base2006 = 1140

http://www.spec.org/cpu2006/results/res2008q3/cpu2006-20080711-04761.html
http://www.spec.org/cpu2006/results/res2008q3/cpu2006-20080711-04762.html


Hardware
CPU Name: POWER6
CPU MHz: 5000
FPU: Integrated
CPU(s) enabled: 64 cores, 32 chips, 2 cores/chip, 2 threads/core

SPECfp®_rate2006 = 2110
SPECfp_rate_base2006 = 1820


SPECint®_rate2006 = 2080
SPECint_rate_base2006 = 1820

http://www.spec.org/cpu2006/results/res2008q2/cpu2006-20080407-04058.html

Also in Rate ist der doppelt so hoch getaktete Power6 mit halb so vielen Kernen trotzdem noch doppelt so schnell wie das Sparc VII System.

Das Bespiel ist aber eh schlecht gewählt, immerhin läuft der Power6 gleich mit doppelter Taktfrequenz ... und ich nahm nur ~1 GHz Unterschied an. Da gibts immerhin noch Werte von nem 3,5 GHz Power6:

CPU Name: POWER6
CPU MHz: 3500
FPU: Integrated
CPU(s) enabled: 1 core, 1 chip, 2 cores/chip
SPECfp®2006 = 16.5
SPECfp_base2006 = 13.6


SPECint®2006 = 16.2
SPECint_base2006 = 13.3


http://www.spec.org/cpu2006/results/res2008q2/cpu2006-20080331-03954.html
http://www.spec.org/cpu2006/results/res2008q2/cpu2006-20080331-03953.html

Reicht also auch noch für den Sparc VII @2,5 GHz.

Da wäre meine Vermutung eher bestätigt, allerdings ist das prozentual gesehen natürlich natürlich ein höherer Mehrtakt als bei 4/5 GHz. Und es sind 2 sehr verschiedene Architekturen ..

@reunion:
100% OMG ... Hast Du da nen Link ? Ich kann mich dunkel an so 20-30% erinnern, das stand mal in ner uralten ct, als damals die PentiumPro, Cyrix2, AMD K5 aufkamen und OoO gerade chic wurde. Ist lange her, kann mich da gerne irren, aber gleich 100% .. das hätte ich mir eigentlich merken sollen :)

@robbitop:
25 % wird wohl nicht reichen. Die Differenz zwischen OOO CPUs wie der Core Architektur und IE CPUs wie dem C7 oder dem Atom liegt sofern es um normierte Leistung pro Kern und Takt geht um Welten auseinander.
Das bezweifle ich natürlich auch nicht, aber der Atom ist ja eher ein schlechtes Beispiel. Gib dem mal die gleiche Anzahl Funktionseinheiten, ähnlich große Caches, QPI und wenigstens nen dual-channel IMC, dann sehen wir weiter :)

Natürlich wird das trotzdem nie für die IPC Krone reichen aber davon ging ich ja auch gar nicht aus, ich spekuliere ja explizit mit einem *höheren* Takt der inOrder CPUs, um den IPC Vorteil der OoO CPUs wettzumachen.

ciao

Alex

Coda
2009-02-24, 10:58:22
Zumindest für nen 2ten Thread findet man immer was ;-)
Nein tut man nicht.

S940
2009-02-24, 11:05:10
Nein tut man nicht.
Ok, die Vermutung kam von nem Spieleartikel, gilt sicherlich nicht allgemein, aber die Wahrscheinlichkeit, das inOrder single-thread bremst ist mittlerweile doch gering. Bestes Beispiel ist der Atom. Das Teil @2 GHz und es würde (für 08/15 Aufgaben) wirklich reichen.

In Servern zählt der Durchsatz -> SMT -> single thread Leistung total egal
Bei dicken Berechnungen im HPC Bereich wird eh alles in Matrizen zerlegt -> Threads ohne Ende.

Wo also ist single-thread Leistung noch wichtig ?
Word ? Firefox ? (ur)alte legacy Programme ?

ciao

Alex

BlackBirdSR
2009-02-24, 11:16:45
Wo also ist single-thread Leistung noch wichtig ?
Word ? Firefox ? (ur)alte legacy Programme ?

ciao

Alex

Ist das dein Ernst?

Auch wenn ich 2 oder 4 Threads füttern könnte, müssen diese noch immer schnell genug ablaufen. Egal ob Encoding, Spielen oder Rendering.

@S940
2009-02-24, 11:46:46
Bei unoptimiertem Code wird man das niemals wettmachen können. Selbst stark optimierte Spiele auf geschlossenen Plattformen dämpfen das Problem zwar ein wenig aber auch hier wird man das nie wettmachen können.
Bei synthetischen Anwendungen oder eben deutlich gutmütigeren (z.T. eben auch professionellen) sieht das natürlich anders aus. Je nach Anwendungsfall. Die >100% sind bei obigem Anwendungsfall keinesfalls übertrieben.

Der Grund warum MS/Sony keine OOO CPU verwenden ist eben dass sie selbst fertigen lassen wollen und nur eine Lizenz erwerben wollten. Die CPU IHVs hauen ihre OOO CPUs nicht per Lizenz raus. Dafür steckt denen wohl zu viel know how drin. Vieleicht wurde es auch einfach nur zu teuer.
Mit SMT, mehreren Kernen und hohen Frequenzen und SPEs behilft man sich. Da kann man sicher auch einiges wieder wettmachen. Ich behaupte aber, dass eine K8/10 oder eine Core-Arch CPU eine höhere Endleistung erbracht hätte. Dann aber wohl in der BOM teurer gewesen wäre. So hat man die Kosten eben auf den Entwickler geschoben und eine gewisse Leistungseinbuße hingenommen.

S940
2009-02-24, 12:18:10
Ist das dein Ernst?
Jupp :)
Auch wenn ich 2 oder 4 Threads füttern könnte, müssen diese noch immer schnell genug ablaufen. Egal ob Encoding, Spielen oder Rendering.
Sicherlich korrekt, aber da musst Du mal den Siliziumflächenverbrauch mit einbeziehen.
Erstmal zum Thema Spiele:
Ich gebe dem hypothetischen inOrder Core ja ~1GHz mehr Takt, nicht vergessen :)

Ausserdem interessiert bei heutigen 22 Zöllern mit 1680 und aufwärts bei Spielen doch nurmehr die Grafikkarte bzw. Caches. Ist ein i7 965 wirklich schneller als ein älterer Intel C2Q 9770 mit gleichem Takt ? Die i7 verlieren besonders bei höherern Auflösungen an Leistung, bei "lustigen" 800x600 Spielebenches ziehen sie alles ab, und in der Realität gibts dann teilweise sogar weniger Leistung. Ich hab da den kleinen L2 in Verdacht und/oder SMT in Verdacht. Mal Abwarten, was die Untersuchen des FarCry2 "Bugs" ans Licht bringt (da bricht der i7 bei 1680x und höher ein und ist nur noch schneller als alte AMD K8 X2 ;-)

Encoding, Rendering & Co:
Rechne mal nach, wieviel Atom Kernchen Du für nen i7 rechnen lassen könntest :cool:

i7: 263mm2
Atom: 25,96mm²

Für einen i7 kannst Du also ~10 Atoms rechnen lassen. Nehmen wir mal Faktor 8 wg. QPI & IMC & XBAR für einen imaginären 8core native Atom an, dann wird das schon arg eng für Nehalem. Hängt dann v.a. natürlich auch vom erreichbaren Takt an. Der sollte aber mit inOrder besser sein ... ergo das wird sehr eng werden, wenn man den "inOrder i7". Auf ~4 GHz brächte.

Ist aber selbstverständlich ziemlich viel Spekulation.

Im allgemeinen kann man festhalten, dass Dir single-Thread Leistung beim encoden/rendern herzlich egal sein kann. Was zählt ist wieder Durchsatz. Was bringen mir 4 schnelle threads, wenn 8 langsame insgesamt schneller rechnen.
Paradebeispiel im Moment gerade die Sun Kisten. Die haben zwar nur 1 FPU pro Kern, aber selbst die 8 FPUs / CPU rechnen ganz gut:

SPECfp®_rate2006 = 62.3
SPECfp_rate_base2006 = 57.9
http://www.spec.org/cpu2006/results/res2007q4/cpu2006-20071009-02237.html

Ein i7 920 ist sicherlich schneller:

SPECfp®_rate2006 = 78.9
SPECfp_rate_base2006 = 76.0
http://www.spec.org/cpu2006/results/res2008q4/cpu2006-20081024-05718.html
Aber da haben wir jetzt das "Paradoxon", dass die OoO CPU 1,2 GHz höher getaktet ist =) Ist in dem Fall halt auch 65nm gegen 45nm :(

Der i7 schägt sich zwar gegen den Power6 sehr gut im single-thread base Test:

SPECfp®2006 = 33.6
SPECfp_base2006 = 31.7

http://www.spec.org/cpu2006/results/res2008q4/cpu2006-20081024-05709.html

Also u.a. schneller, als der 5 GHz p6, aber die Intel Leute testen da mit
Auto Parallel: YesDa sind also dann doch wieder mehrere Threads unterwegs ... Vergleichbarkeit = 0
Toll :(

Edit:
Keine Ahnung wer der obige S940_Gast war, ich wars nicht.

ciao

Alex

Aquaschaf
2009-02-24, 12:39:32
i7: 263mm2
Atom: 25,96mm²

Für einen i7 kannst Du also ~10 Atoms rechnen lassen. Nehmen wir mal Faktor 8 wg. QPI & IMC & XBAR für einen imaginären 8core native Atom an, dann wird das schon arg eng für Nehalem. Hängt dann v.a. natürlich auch vom erreichbaren Takt an. Der sollte aber mit inOrder besser sein ... ergo das wird sehr eng werden, wenn man den "inOrder i7". Auf ~4 GHz brächte.

Den "Reibungsverlust" durch Parallelisierung bitte nicht vergessen. Als Beispiel kommen die vom MIT mit ziemlich geschickten Methoden mit der 16 Core Raw-Architektur bei Stream-Algorithmen die sich gut parallelisieren lassen "nur" auf einen Speedup von etwa 11. Und bei mehr Cores wird das ja schlechter.

robbitop@work
2009-02-24, 12:47:20
Encoding, Rendering & Co:
Rechne mal nach, wieviel Atom Kernchen Du für nen i7 rechnen lassen könntest :cool:

i7: 263mm2
Atom: 25,96mm²

Für einen i7 kannst Du also ~10 Atoms rechnen lassen. Nehmen wir mal Faktor 8 wg. QPI & IMC & XBAR für einen imaginären 8core native Atom an, dann wird das schon arg eng für Nehalem. Hängt dann v.a. natürlich auch vom erreichbaren Takt an. Der sollte aber mit inOrder besser sein ... ergo das wird sehr eng werden, wenn man den "inOrder i7". Auf ~4 GHz brächte.

Das sind ja auch sehr dankbare Fälle. Dort nutzen einem die aufwändige Kontroll/Steuerlogik herzlich wenig. Genau deshalb ist das ja ein Markt für GPGPU. Also hoch parallele kleine billigkerne ohne so aufwändige Kontroll/Steuerlogik.

reunion
2009-02-24, 12:51:51
Man sollte bei so einem kleinen Die auch den Verschnitt nicht vergessen. Ein Atom benötigt 25mm², davon ist aber ein nicht kleiner Teil Verschnitt am Rand. Ein nativer Atom-Octo-Core benötigt wohl kaum mehr als 20mm² pro Kern.

Wuzel
2009-02-24, 13:13:41
Jupp :)

Sicherlich korrekt, aber da musst Du mal den Siliziumflächenverbrauch mit einbeziehen.
Erstmal zum Thema Spiele:
Ich gebe dem hypothetischen inOrder Core ja ~1GHz mehr Takt, nicht vergessen :)

Ausserdem interessiert bei heutigen 22 Zöllern mit 1680 und aufwärts bei Spielen doch nurmehr die Grafikkarte bzw. Caches. Ist ein i7 965 wirklich schneller als ein älterer Intel C2Q 9770 mit gleichem Takt ? Die i7 verlieren besonders bei höherern Auflösungen an Leistung, bei "lustigen" 800x600 Spielebenches ziehen sie alles ab, und in der Realität gibts dann teilweise sogar weniger Leistung. Ich hab da den kleinen L2 in Verdacht und/oder SMT in Verdacht. Mal Abwarten, was die Untersuchen des FarCry2 "Bugs" ans Licht bringt (da bricht der i7 bei 1680x und höher ein und ist nur noch schneller als alte AMD K8 X2 ;-)



Schau mal wieviele Page faults/misses du bei deinen 'Extrem' Setttings hast ;)
Ist halt so ein Problem der x86 Arch, die Speicherverwaltung sowie der Zugriff an sich ist zu komplex. Kommt eine recht hohe Datenmenge auf, verhungert quasi die CPU, aber dafür können die Recheneinheiten per se nichts und auch der L2 hat damit selten etwas zu tun.

Würde man den ganzen Käse weglassen und im Prinzip ein primitives (Software)System wie in alten DOS Zeiten oben drauf packen, müsstest du dich anschnallen - so derb zieht dann deine Box weg ;)

Im Prinzip eigentlich der Weg, den auch Konsolen gehen ;) Da brauchst dann keine Monster CPU für ordentliche Power mehr....

S940
2009-02-24, 13:19:29
Schau mal wieviele Page faults/misses du bei deinen 'Extrem' Setttings hast ;)
Ist halt so ein Problem der x86 Arch, die Speicherverwaltung sowie der Zugriff an sich ist zu komplex. Kommt eine recht hohe Datenmenge auf, verhungert quasi die CPU, aber dafür können die Recheneinheiten per se nichts und auch der L2 hat damit selten etwas zu tun.Naja die Totzeit kann man dann durch SMT ausnützten. Sicherlich wichtig für IPC, aber bei dem hypothetischen Atom 8 Kerner mit (mind.) 2fach SMT, nicht so gravierend.

Oder überseh ich was ?

ciao

Alex

Aquaschaf
2009-02-24, 13:26:01
Ist halt so ein Problem der x86 Arch, die Speicherverwaltung sowie der Zugriff an sich ist zu komplex. Kommt eine recht hohe Datenmenge auf, verhungert quasi die CPU, aber dafür können die Recheneinheiten per se nichts und auch der L2 hat damit selten etwas zu tun.

Und was soll der von-Neumann-Flaschenhals speziell mit x86 zu tun haben?

BlackBirdSR
2009-02-24, 13:57:33
Naja die Totzeit kann man dann durch SMT ausnützten. Sicherlich wichtig für IPC, aber bei dem hypothetischen Atom 8 Kerner mit (mind.) 2fach SMT, nicht so gravierend.

Oder überseh ich was ?

ciao

Alex

Ja, dass du in der Regel nicht mehr als 2 Threads sättigen kannst.
Da kannst du auch noch einmal ein Ghz für die InOrder CPU drauflegen und deren Verlustleistungscharakteristik zerstören.

S940
2009-02-24, 14:19:49
Ja, dass du in der Regel nicht mehr als 2 Threads sättigen kannst.
Wieso fährt dann Sun gleich 8 Threads / Kern auf ? Gilt das wirklich nur für x86 ??

BlackBirdSR
2009-02-24, 14:21:53
Wieso fährt dann Sun gleich 8 Threads / Kern auf ?

Der Post war auf Spiele und sonstige alltägliche Probleme bezogen. In dem Post ging es auch um FarCry2 oder Extreme Settings etc.

HPC ist natürlich etwas anderes. Aber das braucht uns eher nicht zu interessieren. Darüber könnten wir wohl Romane-lang diskutieren und kaum einer würde damit in Verbindung kommen.

Ich ging davon aus, dass es jetzt um Atom-Ähnliche µArchitekturen bei Desktop-Anwendungen geht.

Gast
2009-02-24, 15:22:18
Wieso fährt dann Sun gleich 8 Threads / Kern auf ?Sun fährt 8 Threads pro Kern, weil auf diese Systemen für ~10 Anwendungsfälle gedacht sind bei welchen sowas auch volle Kanne zieht.
Es sind Anwendungen die schon vor 10 Jahren davon einen Nutzen ziehen konnten/könnten und es in 10 Jahren weiterhin tun werden.

Zuhause kann man damit dagegen kaum etwas anfangen. Diese "10" Spezialfälle interessieren niemanden auf dem Desktop.

Niagara und Victoria sind wunderbare Stücke Silizium, die aber für den Desktop vollkommen unbrauchbar sind.

2 Threads gehen gut, 4 Threads gehen gelegentlich noch sehr brauchbar. Das wars aber auf dem Desktop.

Intel hätte gerne einen Sockel mit 8 in-order Kernen und 16 threads bei 4Ghz, weil ihnen spätestens beim 32nm Prozess anscheinend langsam die Ideen ausgehen.
Wobei das mit den Ideen für den Desktop schon beim ersten Quad aufgehört hat, denn großartige Unterstützung und Ideen für die Softwareentwickler haben sie bis jetzt auch nicht.

Am liebsten wäre es denen wohl, wenn wir jeden Prozess in einer eigenen VM laufen lassen würden. Dann hätte man die Kerne gut auslasten können :crazy2:
Zum Glück gibt es wenigstens Dauervirenscanner. Von Symantec :uup:

AMD wie Intel drücken mittlerweile Hardware in den Markt die bei dem User nur noch rumgammelt.
Ob das dann ein Q9990 wäre oder ein in-order i7 spielt keine Rolle. Außer, man müßte für in-order sehr viel umkrempeln und viel höher takten, damit es nicht noch mehr rumgammelt als ein Q9990 es jetzt getan hätte.

Das gab es schonmal. Netburst. Bringt den Markt in Bewegung, nutzt dem User aber nichts, außer der Dumme gibt sein Geld dafür aus.

Es freut mich, daß Coda, Blackbird und paar andere Geeks bei diesem Thema so bodenständig und realitätsnah bleiben. Fantasieren und träumen kann man den anderen überlassen.

ps: Das mit der SPEC schau ich mir heute abend nochmal an. Bin ja nicht blind ;)

S940
2009-02-24, 15:48:06
Der Post war auf Spiele und sonstige alltägliche Probleme bezogen. In dem Post ging es auch um FarCry2 oder Extreme Settings etc.Achso das war auf die Spiele bezogen ok. Ja sagen wir, das da nur ~2 Threads gehen (GTA4, schafft immerhin 3, mit was auch immer ^^), aber recht viel mehr erstmal nicht.
In dem Fall meinst Du also, dass 1 GHz mehr nicht reichen würden ?
Ok, kann man behaupten, ich bin dagegen mit der obigen GPU Begründung. Ein in-order Doppelkern @4 GHz sollte reichen, so langsam kann der gar nicht sein. Aber beweisen kanns natürlich keiner von uns beiden. Ausser irgendeiner portiert mal Doom / Quake auf nen p6 :biggrin: (aber da fehlen dann wieder die Grafiktreiber ^^)

HPC ist natürlich etwas anderes. Aber das braucht uns eher nicht zu interessieren. Darüber könnten wir wohl Romane-lang diskutieren und kaum einer würde damit in Verbindung kommen.

Ich ging davon aus, dass es jetzt um Atom-Ähnliche µArchitekturen bei Desktop-Anwendungen geht.
Hatte es halt mit einbezogen, da Encoden angesprochen wurde. Ist für mich jetzt nicht so die typische Desktopanwendung. Unter Desktop verstehe ich eher Office. Encoden etc. sortiere ich unter (Multi)Media oder gar Workstation ein. Aber das mag jeder so halten wie er will, solange das klar ist, gibts auch keine Mißverständnisse :)

@Gast:
Sun fährt 8 Threads pro Kern, weil auf diese Systemen für ~10 Anwendungsfälle gedacht sind bei welchen sowas auch volle Kanne zieht.
Es sind Anwendungen die schon vor 10 Jahren davon einen Nutzen ziehen konnten/könnten und es in 10 Jahren weiterhin tun werden.
In dem Post gings aber halt um die "~10 Anwendungsfälle" wie Du es bezeichnest, der Rest im Posting ist richtig, aber nix Neues.

Nur noch auf das bezogen:
AMD wie Intel drücken mittlerweile Hardware in den Markt die bei dem User nur noch rumgammelt.
Ob das dann ein Q9990 wäre oder ein in-order i7 spielt keine Rolle. Außer, man müßte für in-order sehr viel umkrempeln und viel höher takten, damit es nicht noch mehr rumgammelt als ein Q9990 es jetzt getan hätte.
Eben deswegen ist der Atom ja gut, der reicht für den täglichen Office Krams, und mit SMT "gammeln" auch nicht soviele Transistoren vor sich hin :)

Der imaginäre "Mehrkern Atom" war nur ne Idee, dass man was basteln könnte, was in Multithreadumgebungen durchaus Konkurrenzfähig zu nem echten i7 wäre. Man könnte den Faden sogar noch weiterspinnen und dem Fantasiechip den bereits realisierten Turbomodus des i7 gönnen, 2-4 Kerne @4 GHz für den normalen Spielekrams, und die andren 4 Kerne auf idle, zuschalten der 4 weiteren Kerne falls nötig.

Aber was Ähnliches bekommt man heute auch schon. Einfach nen Core2Duo und dazu ne nv / ATi GPU, und die dann (en)codieren lassen ;-)
Bin deswegen auch Fusion Fan .. 4 dicke Cores für die singlethread Tasks und ne Horde "dummer" Shader die die parallellisierbare Arbeit erledigen.

ciao

Alex

BlackBirdSR
2009-02-24, 16:31:55
Nur um es mal so in die RUnde zu werfen:
In den meisten Benchmarks und Anwendungen erreicht ein 1.6GHz Atom für Single-Thread ca. 45-50% der Leistung eines 1.6GHz Pentium-M Dothan 2MB-L2.

Für reine Gleitkommaleistung (keine Benchmarks, Programme, sondern nur pure Ausführung) sind es ca. 25%.

S940
2009-02-24, 17:03:15
In den meisten Benchmarks und Anwendungen erreicht ein 1.6GHz Atom für Single-Thread ca. 45-50% der Leistung eines 1.6GHz Pentium-M Dothan 2MB-L2.
Naja, das sollte dann doch mit 1 GHz mehr und ebenfalls 2 MB Cache gut ausgehen.
Vergleich mal mit nem C2D der nur 512 kB Cache hat, die brechen da stark ein.
Für reine Gleitkommaleistung (keine Benchmarks, Programme, sondern nur pure Ausführung) sind es ca. 25%.
Hmm reine Gleitkommaleistung ... die FPU ist sicherlich nicht die beste beim Atom, aber ab und an holt da SMT wieder die Kohlen aus dem Feuer:
http://www.planet3dnow.de/vbulletin/showthread.php?t=343607&garpg=8

Frage ist auch in dem Fall, wieviel da der 2M Cache helfen würde ...

ciao

Alex

Gast
2009-02-24, 17:14:51
Ok, kann man behaupten, ich bin dagegen mit der obigen GPU Begründung. Ein in-order Doppelkern @4 GHz sollte reichen, so langsam kann der gar nicht sein.Dann laß den mal einen Q6600 wegstecken. Was fährst du aber gegen einen E8600 auf? Und gegen einen i7 der bei WinRAR schonmal sein Potenzial offenbart? 8Ghz?

Du schuldest mir noch die Theorie ;) wie ein Power5 Kode auf einem Power6 läuft. SPEC kompiliert man selber.

Sonst paßt dein Abschluß mit dem was schon früher gesagt wurde. Schöne OoO Leistung und sonst 640 Shader-Fachidioten. Auf 640 Threads kommt Intel noch lange nicht ;) Es sei denn sie bauen eine vereinfachte GPU in die CPU ein. Womit ich aber noch lange nicht auf gute Threadleistung verzichten kann und gute oder weit bessere GPUs gibts schon in PCIe-Slots und IGPs.
Sowas braucht niemand, aber Intel weiß momentan eben nicht was man sonst machen könnte, um ab 32nm noch mit dem gleichen Tempo CPUs verkaufen zu können.

Das wirklich "schlimme" daran ist, 90% der Leute daheim sind oder wären mit einem E8600 mehr als satt. Hier versucht man also langsam lahmeres in-order einzuführen. Unwissenden kann man es über die Ghz verkaufen und sonst packt man einen immer besser werdenden GPU-Part dabei. Hier kann man noch etliche Jahre schön weiterentwickeln und die User mit mehr Leistung ködern.

Eigentlich einer Marktverarsche.

Gast
2009-02-24, 17:17:18
Ja, hilft aber nur gegen den Dothan =)

Frage ist auch in dem Fall, wieviel da der 2M Cache helfen würde ...Die Frage ist was so eine CPU dann kostet, mit wieviel Ghz der L2 an eine 4 oder 5 Ghz CPU sinnvoll angebunden werden kann und wieviel Watt dabei anschliessend draufgehen.

Acid-Beatz
2009-02-24, 17:19:32
Nur um es mal so in die RUnde zu werfen:
In den meisten Benchmarks und Anwendungen erreicht ein 1.6GHz Atom für Single-Thread ca. 45-50% der Leistung eines 1.6GHz Pentium-M Dothan 2MB-L2.

Für reine Gleitkommaleistung (keine Benchmarks, Programme, sondern nur pure Ausführung) sind es ca. 25%.

So hab ich das auch in Erinnerung und irgendwo auch schon mal gepostet!

Gast
2009-02-24, 17:26:27
Nur um es mal so in die RUnde zu werfen:
In den meisten Benchmarks und Anwendungen erreicht ein 1.6GHz Atom für Single-Thread ca. 45-50% der Leistung eines 1.6GHz Pentium-M Dothan 2MB-L2.

Für reine Gleitkommaleistung (keine Benchmarks, Programme, sondern nur pure Ausführung) sind es ca. 25%.

mein 1,7GHz Pentium-M Banias 1MB-L2 läuft beim normalen desktop arbeiten
und surfen bei max 1,2-1,4GHz, bei 1GHz hat man schon des öfteren kleine
performanceprobleme auf einigen websites, zb youtube
bei <=1GHz macht nicht wirklich laune beim surfen, ausser man beschränkt sich
auf no-javascript/flash, dann reichen aber auch in 90% aller fälle 600MHz

so mal als vergleich da ich auch mal mit einer atom-cpu geliebäugelt habe

Acid-Beatz
2009-02-24, 17:34:12
Dann laß den mal einen Q6600 wegstecken. Was fährst du aber gegen einen E8600 auf? Und gegen einen i7 der bei WinRAR schonmal sein Potenzial offenbart? 8Ghz?

Du schuldest mir noch die Theorie ;) wie ein Power5 Kode auf einem Power6 läuft. SPEC kompiliert man selber.

Sonst paßt dein Abschluß mit dem was schon früher gesagt wurde. Schöne OoO Leistung und sonst 640 Shader-Fachidioten. Auf 640 Threads kommt Intel noch lange nicht ;) Es sei denn sie bauen eine vereinfachte GPU in die CPU ein. Womit ich aber noch lange nicht auf gute Threadleistung verzichten kann und gute oder weit bessere GPUs gibts schon in PCIe-Slots und IGPs.
Sowas braucht niemand, aber Intel weiß momentan eben nicht was man sonst machen könnte, um ab 32nm noch mit dem gleichen Tempo CPUs verkaufen zu können.

Das wirklich "schlimme" daran ist, 90% der Leute daheim sind oder wären mit einem E8600 mehr als satt. Hier versucht man also langsam lahmeres in-order einzuführen. Unwissenden kann man es über die Ghz verkaufen und sonst packt man einen immer besser werdenden GPU-Part dabei. Hier kann man noch etliche Jahre schön weiterentwickeln und die User mit mehr Leistung ködern.

Eigentlich einer Marktverarsche.

Also ich denk mal kaum, dass Intel jetzt wieder auf viele MHz respektive GHz setzt um seine Prozessoren zu verkaufen!
Man denke nur an die Pentium 4 Zeiten zurück wo Intel vorne und hinten Probleme mit Verlustleistung und Abwärme hatte!
Dann kam die Core Architektur welche besagte Pentium 4 mehr als "verheizten"!
Trotzdem musste Intel damals das Denken wieder von den hohen GHz Zahlen auf eine Prozessornummer lenken um sich nicht selber schlecht dastehen zu lassen!
Die Zukunft zeigt wohl eher auf Multicores mit entsprechenden Erweiterungen, sprich Kryptoeinheit, GPU, und so weiter!

Gast
2009-02-24, 19:20:49
Also ich denk mal kaum, dass Intel jetzt wieder auf viele MHz respektive GHz setzt um seine Prozessoren zu verkaufen!Bei in-order hast du auch keine andere Möglichkeit um OoO einzuholen. Und du kannst damit wieder die Deppen fangen.

Was die Zukunft bringt steht hier schon mehrmals geschrieben. Alleine, es fehlen Ideen und Werkzeuge um das vernünftig zu programmieren. Multicores sind keine Zukunft. Sie sind Realität.

BlackBirdSR
2009-02-24, 20:21:59
Naja, das sollte dann doch mit 1 GHz mehr und ebenfalls 2 MB Cache gut ausgehen.
Vergleich mal mit nem C2D der nur 512 kB Cache hat, die brechen da stark ein.



Liegt aber daran, dass mehr als nur die Cachegröße wegfällt. War schon bei den ersten Celerons so, ist heute noch so.

S940
2009-02-24, 21:28:46
Liegt aber daran, dass mehr als nur die Cachegröße wegfällt. War schon bei den ersten Celerons so, ist heute noch so.
Öhm .. was soll das sein ?
Siehst Du was, was ich nicht sehe:
http://www.bilder-space.de/upload/24.02snphnFsmseyDaFS.jpg
Ist alles gleich, ausser Cache, Preis und TCase ;-)


Gute Übersicht der Leistung gibts bei digit-life:
Auszug:
http://www.ixbt.com/cpu/images/intel-pentium-e5200/results.xls

7zip:
E1400: 4:19
E2180: 3:50
E4400: 3:28

bei encoding ist durch die Bank nicht allzuviel Unterschied:
xvid
E1400: 9:29
E2180: 9:20
E4400: 9:18

Flac:
E1400: 1:26
E2180: 1:24
E4400: 1:24

Böse wirds dann aber beim ACDsee & Spielen (sind die worst cases):
ACDsee:
E1400: 19:23
E2180: 12:48
E4400: 11:20

CoD4:
E1400: 73 fps
E2180: 92 fps
E4400: 99 fps

Company of Heros:
E1400: 37 fps
E2180: 49 fps
E4400: 54 fps

Compile mit VS ist auch nicht besser:
E1400: 63:48
E2180: 48:40
E4400: 41:54

Wo auch immer man schaut, egal bei welchem Programm, die 512er Version verliert überproportional an Leistung. Am besten sind noch die Encodingwerte. Da schlägt wohl der Prefetcher zu 100% zu, sodass die Caches nicht soviel Unterschied machen.

Aber ansonsten: Bis 1MB L2 gehts gerade noch, 512 ist einfach indiskutabel.

Nun hat Atom nur zwar nur 1 Kern, aber immerhin 2 logische Threads. Also wenigstens 1 MB wären schon nett. Und ein 800er FSB wäre für den Atom direkt raketengleich ;-)

Übrigens auch der Grund, weswegen ich mich über die i7 Performanceprobleme bei Spielen nicht wundere. 256kb Cache pro Kern und 2 Threads finde ich arg putzig ... :)
Ich wundere mich eher, dass er sich noch so gut schlägt :D

@Gast:
Was interessiert mich die p5 / p6 Compilate, hier gehts um x86 inorder vs. i7. Natürlich ist ein extra inOrder Compilat performanter, aber der i7 ist auch erst mit SSE4.2 bei der vollen Leistung ...

ciao

Alex

BlackBirdSR
2009-02-24, 22:05:43
Schau mal unter Assoziativität nach ;)

GeneralHanno
2009-02-24, 22:16:22
halber cache beudeutet halbe "bandbreite" (s.o. Assoziativität)

AnarchX
2009-02-24, 22:30:31
Da hat ja Atom immerhin eine 8-fache, also soviel wie ein 2MiB Core2.

S940
2009-02-24, 22:31:11
Schau mal unter Assoziativität nach ;)
Stimmt da könnte noch was sein, nur wo steht das bei Intel ?
Naja egal ich glaubs Dir, wenn Dus sagst.
Wie siehts da mit dem Atom L2 aus ?

und Kurz OT: Hast Du ne Idee, wieso der kleinere 4 MB L3 bei den 800er Phenom2 ne höhere Assoziativität hat, als das 900er 6 MB Modell ?

Edit:
@AnarchX: Thx 4 Info.
Soll das heißen die kleineren Modelle haben weniger als 8fach ? Auwei :(

Edit:
Google ist wie immer unser Freund:
http://wwww.pcgameshardware.de/aid,663616/Intel-Core-2-Sieben-CPUs-im-Cache-Test/CPU/Test/?page=2

Wieder was gelernt .. 2fach assoziativ beim 512kB Modell ... *lach*

ciao

Alex

Gast
2009-02-24, 23:15:05
halber cache beudeutet halbe "bandbreite" (s.o. Assoziativität)

Hallo,

mir ist gerade unklar, was die Assozitivität mit der Bandbreite des Cachs zu tun?

Das ist doch nur eine Art der Speicherzuordnung.

Ansonsten, hat jemand einen entsprechenden Link?

Danke

=Floi=
2009-02-24, 23:23:54
und genau das ist es ja, was ich oben schon mal gemeint habe. Ich sehe den celeron 1400 nicht als langsam, sondern als gleichwertig! Für genau diese programme bringt er die gleiche leistung wie die teureren modelle und genau hier würde der vorteil eines solchen prozessors liegen. Die architektur ist eben sehr gut und die kommt dann selbst mit nur 512kb cache zur geltung.

die Assozitivität ist die anbindung. Intel teilt das sozusagen in blöcke mit je 8 leitungen auf.
Je mehr leitungen, desto mehr durchsatz zum cache ist möglich.

Aquaschaf
2009-02-24, 23:57:52
die Assozitivität ist die anbindung. Intel teilt das sozusagen in blöcke mit je 8 leitungen auf.
Je mehr leitungen, desto mehr durchsatz zum cache ist möglich.

Besser ausgedrückt: je größer die Assoziativität, desto mehr wird der vorhandene Cache-Speicher tatsächlich ausgenutzt.

stickedy
2009-02-25, 00:15:57
Besser ausgedrückt: je größer die Assoziativität, desto mehr wird der vorhandene Cache-Speicher tatsächlich ausgenutzt.
Würd ich nicht so ausdrücken, das ist verwirrend. Ich würd eher sagen je höher die Assoziativität, desto effektiver arbeitet der Cache"mechanismus".

Welche Kombination, die natürlich x86-fähig ist, wäre bitte eine Alternative? Außerdem ist die günstige Herstellung vom Atom auch ein Punkt, obwohl Intel den nicht unbedingt sooo billig verkauft, wie möglich wäre.
Na, das was im Eee-PC 900 werkelt, ein Celeron M. Der ist mit seinen 900 MHz genauso schnell wie der Atom N270... Die TDP des Celeron 353 liegt mit 5 W zwar doppelt so hoch wie des Atom N270 (2,5 W TDP), allerdings muss dabei bedenken, dass der Celeron M 353 ja noch in 90 nm gefertigt wird, während der Atom N270 ja in 45 nm gefertigt wird! Da ist also zumindest theoretisch ein gewaltiges Einsparungspotential vorhanden beim Celeron M. Ein Core Solo (Yonah, 65 nm) kommt bei 1,33 GHz auch nur auf 5,5 W TDP (bzw. der Core 2 Solo bei 1,2 GHz)... Das beide Prozessoren dem Atom haushoch überlegen sind brauchen wir ja nun wirklich nicht zu diskutieren ;)

Klar, ein Atom ist günstiger zu produzieren, das ist unbestreitbar, aber er ist absolut keine Notwendigkeit für dieses Marktsegment.

Deinorius
2009-02-25, 00:56:36
Doch ist er. Du hast das Argument selber gegeben. Er ist günstiger zu produzieren, was das schlagkräftigste Argument für dieses Segment ist (inkl. Mobilität). Was nicht heißt, dass man dennoch ein paar Netbooks mit einem Core 2 Solo anbieten könnte, bei welchen natürlich der Preis höher wäre. Wer dann unbedingt will, kann sich ja einen kaufen.
Ich bin durchaus für mehr Wahlfreiheit. Aber das Problem sind die Hersteller, die sich nicht trauen.

Gast
2009-02-25, 01:00:57
@Gast:
Was interessiert mich die p5 / p6 Compilate, hier gehts um x86 inorder vs. i7.Was interessiert uns dann überhaupt der Power? Wer hat den nochmals ins Feld geführt hier?

Natürlich ist ein extra inOrder Compilat performanter, aber der i7 ist auch erst mit SSE4.2 bei der vollen Leistung ...SSE hat damit mal garnichts zu tun.

S940
2009-02-25, 01:27:27
Doch ist er. Du hast das Argument selber gegeben. Er ist günstiger zu produzieren, was das schlagkräftigste Argument für dieses Segment ist (inkl. Mobilität).
Die Frage ist dann in dem Fall, ob der nagelneue 45nm Prozess in einen der wenigen FABs wirklich billiger ist, als 65nm in eine der zahlreichen alten Fabs.

Mit 45nm könnte Intel auch nen i7 herstellen, da gäbe es mehr Geld dafür, selbst wenn man berücksichtigt, dass man für ~10 Atom nur einen i7 bekommt ^^
(Ausgenommen natürlich die teure Atom Z-Serie)

SSE hat damit mal garnichts zu tun.
Äh ja, darum gings auch gar nicht ;-)
Das sollte nur ein Beispiel sein, dass man eh neu compilieren muss, wenn man einen neuen Kern 100% ausnützen will. InOrder hin, SSE 4.2 her. 4.2 mag im Moment noch unwichtig sein, aber warte mal auf die 32nm Vertreter mit der ersten AVX Extension ...

Was interessiert uns dann überhaupt der Power? Wer hat den nochmals ins Feld geführt hier?
Ich, als high-end inOrder Vertreter, aber das war der p6, p5 interessiert mich nicht die Bohne.

ciao

Alex

stickedy
2009-02-25, 01:37:59
Doch ist er. Du hast das Argument selber gegeben. Er ist günstiger zu produzieren, was das schlagkräftigste Argument für dieses Segment ist (inkl. Mobilität). Was nicht heißt, dass man dennoch ein paar Netbooks mit einem Core 2 Solo anbieten könnte, bei welchen natürlich der Preis höher wäre. Wer dann unbedingt will, kann sich ja einen kaufen.
Das ist aber hauptsächlich eine marktpolitische Entscheidung von Intel, kein Grund ihn zu nutzen bzw. ihn extra zu entwickeln (darum ging es mir hauptsächlich). Ein auf 45 nm geshrinkter Celeron M 353 dürfte nur marginal größer sein als ein Atom, die Verlustleistung dürfte dann auch in ähnlichen Regionen liegen. Noch dazu muss man ja auch die Entwicklungskosten des Atom mit einberechnen, das muss ja auch erstmal wieder reingeholz werden, während ein Die-Shrink vergleichweise günstig ist.

Es gibt jedenfalls keinen wirklichen Grund statt einem hochgetaktet In-Order-Prozessor keinen niedrig getakteten Out-Of-Order-Prozessor zu nutzen. Also natürlich gibt es Gründe, sonst würde es Intel nicht machen, aber es sind keine zwingenden, keine Notwendigkeit.

Gast
2009-02-25, 02:17:36
Äh ja, darum gings auch gar nicht ;-)
Das sollte nur ein Beispiel sein, dass man eh neu compilieren muss, wenn man einen neuen Kern 100% ausnützen will.Darum ging es ebenfalls nicht. Es ging darum was man alles unternehmen muß, um eine Architektur als sinnvoll zu bezeichnen die aus bestehendem Kode 50% der Lestung hervorbringt, aus der eine andere 90% schöpft.
100% stehen nicht zur Debatte. Genausowenig wie eine Neukompilierung. Bis jetzt.

Ich, als high-end inOrder Vertreter, aber das war der p6, p5 interessiert mich nicht die Bohne.Den Istzustand kann man dabei aber nicht ignorieren. Wir reden hier über reale existierende Sachen.

S940
2009-02-25, 11:17:30
Darum ging es ebenfalls nicht. Es ging darum was man alles unternehmen muß, um eine Architektur als sinnvoll zu bezeichnen die aus bestehendem Kode 50% der Lestung hervorbringt, aus der eine andere 90% schöpft.
100% stehen nicht zur Debatte. Genausowenig wie eine Neukompilierung. Bis jetzt.Tja, 50% wären ziemlich mager ... aber hast Du da ne Quelle ?
Den Istzustand kann man dabei aber nicht ignorieren. Wir reden hier über reale existierende Sachen.
Hmmm "Istzustand" jo darum gings mir, es gibt mit dem p6 gerade jetzt nen performanten, hochgetakteten inOrder-SMT Core.

Was interessiert mich die p5 Vergangenheit, das ist kein Istzustand ;-)

Schau mal Intel mit Ihrem Itanium an, die haben Anno 1999 oder wann das war, prognostiziert, dass alle Welt ab ~2005 mit Itanium unterwegs sein würde.

Tja manchmal ist es halt schon wirklich blöd, wenn man sich nicht um die Vergangenheit schert. Aber beim p5 - p6 Problem finde ich das mal nicht so krass.

Prinzipiell wird ja Larrabee so ein inOrder SMT Core, wie oben beschrieben. Nachteil ist nur, dass das Teil wohl zuviele Kerne bekommt. Da wird der Takt wg. thermischer Grenzen nur wieder um die 3GHz liegen, das wird für ne ausreichende single-thread Leistung nur schwer reichen.

Wenn AMD den Fusion nicht verbockt, haben sie da ne schöne Chance mit Ihrem "x86 Cell", mal schauen, wie die Geschichte ausgeht.

Aber wir werden langsam stark OT ;-)

ciao

Alex

Deinorius
2009-02-25, 11:30:41
Es gibt jedenfalls keinen wirklichen Grund statt einem hochgetaktet In-Order-Prozessor einen langsameren Out-Of-Order-Prozessor zu nutzen. Also natürlich gibt es Gründe, sonst würde es Intel nicht machen, aber es sind keine zwingenden, keine Notwendigkeit.


Hmm... ich hab mal nachgerechnet. Ein Core 2 Solo mit 3M Cache bräuchte wohl 40 mm², mit 1M Cache wärens wohl nur noch gerundete 32 mm². Jo, da kann man sich schon fragen, wieso Intel extra den Atom entwickelt hat. Vielleicht bringen die 7 mm² wirklich so viel, dass es sich auszahlt. Wer könnte das besser wissen als Intel selber.

Ich frag mich nur, ob das genauso vorteilhaft für die Akkulaufzeit wäre. Wie weit gehen die Core-M CPUs runter? 600 MHz wenn ich mich nicht irre, wenn der FSB auf 100 MHz runtergeregelt wird. Bei diesen CPUs, die sich mit dem Atom anlegen sollten, wäre eine noch niedrigere Taktfrequenz noch besser.
Im Grunde bleibe ich bei meiner Meinung. Die Akkulaufzeit dürfte wohl der große Grund sein und der ist ja auch sehr wichtig. Nichts destotrotz wären etwas teurere Netbooks mit so einem Core 2 Solo 1M und niedriger Taktfrequenz sicher nicht uninteressant.
Ein Core i2 (also Core i7 mit einem Core), mit niedrigem Takt aber Hyperthreading, wo auch der Memory-Controller dabei ist, wäre auch interessant, bräuchte aber wohl locker 60 mm². Aber vielleicht spart man sich dabei genug vom Chipsatz.

GeneralHanno
2009-02-25, 12:13:28
naja im grunde sind die aktuellen atom CPUs noch "beta-ware". richtig los gehen tut's erst 2010 mit den 32nm ablegern. dann wird man auch in (niedrige) TDP und package regionen vorstoßen, die so mit ein OOO CPU nicht machbar wären (zumindest für so niedrige preise!). langfristig soll der atom dem ARM in handys und co konkurenz machen.

edit: noch ein link dazu
http://www.mini-notebook-laptop.com/intel-plant-neue-netbook-prozessoren-medfield-und-pineview/

S940
2009-02-25, 13:26:19
naja im grunde sind die aktuellen atom CPUs noch "beta-ware". richtig los gehen tut's erst 2010 mit den 32nm ablegern. dann wird man auch in (niedrige) TDP und package regionen vorstoßen, die so mit ein OOO CPU nicht machbar wären (zumindest für so niedrige preise!). langfristig soll der atom dem ARM in handys und co konkurenz machen.

edit: noch ein link dazu
http://www.mini-notebook-laptop.com/intel-plant-neue-netbook-prozessoren-medfield-und-pineview/

Ich weiss nicht .. je kleiner die Strukturen werden, desto geringer wird der Nachteil der OoO Transistoren.

Ausserdem ist ARM im Handy & Co Markt genau das, was x86 im PC Markt ist, der unangefochtene Platzhirsch.
Da gibts schon Infrastruktur, Bibliotheken, Designs etc. pp. en masse.

Das wird kein Spaziergang für Intel, das wird ne uphill battle.

Meiner Meinung nach könnten sie sich das sparen, wer will schon Win, Viren und Bluescreen auf nem Handy ;-)

Sinnvoller wäre da eher Netbooks mit ARM Design, manche Netbooks kommen eh mit Linux, also wieso nicht.

Das dachte sich wohl auch ARM und bastelt schon daran:
http://blog.laptopmag.com/look-out-intel-arm-to-enter-netbook-mid-categories

Am Ende vielleicht sogar mit Windows CE ^^
Fertige 32nm Test Chips gibts auch schon:
http://www.arm.com/news/24401.html


Wenn Intel da mal keine schlafende Hunde geweckt hat ;D

ciao

Alex

GeneralHanno
2009-02-25, 14:33:41
logisch das AMR wesentlich etablierter (und vermutlich auch besser) ist. dennoch sind "kleine unterhaltungsgeräte" ein wachstumsmarkt und intel will eben auch nur geld verdienen ;)

S940
2009-02-25, 15:37:32
logisch das AMR wesentlich etablierter (und vermutlich auch besser) ist. dennoch sind "kleine unterhaltungsgeräte" ein wachstumsmarkt und intel will eben auch nur geld verdienen ;)
Ob da halt viel verdient sein wird ...

Der ARM Vorteil ist, dass die nur die Technik entwerfen. Als Kunde suchst Du Dir dann die benötigten Komponenten zusammen und schneiderst Dir dann Deinen ARM Chip nach Maß wie Du ihn gerade brauchst. Bei Intel bekommt man wieder nur einen Atom mit nem komischen Chipsatz, oder in 32nm dann irgendwie ein Chipkonglomerat das vermutlich irgendwie alles kann, aber nichts richtig gut :)

Warten wirs ab wies ausgeht, ich glaube nicht das sie Platzhirsch ARM großartig bedrängen können.

ciao

Alex

GeneralHanno
2009-02-25, 15:47:30
1. was zum thema "sparsame" OoO-CPUs:
http://www.hartware.de/news_46439.html

2. zum thema ARM:
gerade für spezialisierte "geschlossene" systeme ist ARM im vorteil, weil man das design nach seinen wünschen anpassen kann, aber für "offene" systeme ist eine X86 cpu sicherlich vorteilhaft ...

S940
2009-02-25, 16:41:05
1. was zum thema "sparsame" OoO-CPUs:
http://www.hartware.de/news_46439.html
Naja ... das ist nichts Neues, das sind handverlesene Chips, die ULV gibts schon lange. Erkennungszeichen immer der "gute" Preis:
$289 und ()..) $262.
Als stromsparendes OoO Beispiel könntest Du da eigentlich gleich die ARM Chips nehmen :D
2. zum thema ARM:
gerade für spezialisierte "geschlossene" systeme ist ARM im vorteil, weil man das design nach seinen wünschen anpassen kann, aber für "offene" systeme ist eine X86 cpu sicherlich vorteilhaft ...
Naja wie offen ist ein Handy ? Da braucht man bestimmt keinen MicroPCIe Steckplatz zum Graikkarten nachrüsten :biggrin:

ciao

Alex

GeneralHanno
2009-02-25, 16:56:51
mit "offen" meinte ich softwareseitig ... sprich programme die man auch "von seinem laptop kennt" aufs handy laden (in 2 jahren haben die ja alle touchscreen usw). da ist eine x86 cpu natürlich vorteilhaft.

Gast
2009-02-25, 19:42:01
Was meinst Du, wieviel Leistung gewinnt man durch (gutes OOO) ? Reicht das für die ~25% mehr Takt ?

das kann man nicht generalisieren.

OOO kann in einem fall 0% in einem anderen fall ein vielfaches an leistung bringen. auch mit der taktfrequenz wäre ich vorsichtig, eine IO-cpu lässt sich nicht zwangsläufig höher takten. wenn der kritische pfad innerhalb der rechenpipeline liegt kann man die IO-cpu überhaupt nicht höher takten.

um dann höhere taktfrequenzen zu erreichen müsste man die rechenpipeline verlängern. dummerweise ist das aber gerade bei in-order-cpus für die leistung besonders negativ, wogegen man mit OOOE zumindest in den meisten fällen den leistungsverlust/takt ausgleichen kann und dafür die cpu trotzdem höher takten kann.

Gast
2009-02-25, 20:11:18
mit "offen" meinte ich softwareseitig ... sprich programme die man auch "von seinem laptop kennt" aufs handy laden (in 2 jahren haben die ja alle touchscreen usw). da ist eine x86 cpu natürlich vorteilhaft.

x86 läuft mittlerweile auch auf ner ARM-cpu ;)

Wuzel
2009-02-25, 20:28:18
naja im grunde sind die aktuellen atom CPUs noch "beta-ware". richtig los gehen tut's erst 2010 mit den 32nm ablegern. dann wird man auch in (niedrige) TDP und package regionen vorstoßen, die so mit ein OOO CPU nicht machbar wären (zumindest für so niedrige preise!). langfristig soll der atom dem ARM in handys und co konkurenz machen.

edit: noch ein link dazu
http://www.mini-notebook-laptop.com/intel-plant-neue-netbook-prozessoren-medfield-und-pineview/

Welchen 'ARM' ?
Ti OMAP - http://en.wikipedia.org/wiki/OMAP ?

Gegen die ist (im Moment) kein Kraut gewachsen, biss Intel den Atom soweit hat wirds wohl noch dauern.
Klar, die nächsten Atoms werden dann zumindest schon einmal den Grafik Chip 'On Package' ('On die' ist es ja wohl nicht - bitte um Korrektur) haben, aber im gesamten immer noch weniger Leistung bei höherem Stromverbrauch.
Und die Betonung liegt 'im gesamten' - nur das zählt in der Klasse.

Und jetzt bitte mal die neuen OMAP (4430/40) anschauen.
Die haben einen 720Mhz Dualcore, Grafik Chip (SGX540) mit 3D und Video Beschleunigung(Biss 1080p !!!), Soundchip und und und - 'On Die' (!!).
Leistungsaufnahme soll so bei 9 - 14Watt liegen - unter Last ;)

Dagegen sieht die Atom Plattform richtig 'alt' aus :D

Headman
2009-02-25, 23:24:14
Und jetzt bitte mal die neuen OMAP (4430/40) anschauen.
Die haben einen 720Mhz Dualcore, Grafik Chip (SGX540) mit 3D und Video Beschleunigung(Biss 1080p !!!), Soundchip und und und - 'On Die' (!!).
Leistungsaufnahme soll so bei 9 - 14Watt liegen - unter Last ;)

Dagegen sieht die Atom Plattform richtig 'alt' aus :D

Hast du eine Quelle für die 9-14 Watt?

Klingt imho ein bisschen viel, der OMAP3530 lässt sich ja mit kompletter Platine (Speicher, SD-Card etc.) über die 2,5 Watt des USB Ports betreiben.

S940
2009-02-26, 01:20:32
eine IO-cpu lässt sich nicht zwangsläufig höher takten. wenn der kritische pfad innerhalb der rechenpipeline liegt kann man die IO-cpu überhaupt nicht höher takten.
Naja, hab da nur ein IBM Paper im Hinterkopf, da hieß es, dass die geplanten 5 GHz ohne inOrder nicht möglich gewesen wären. Von daher leite ich mal ab, dass inOrder automatisch schneller sind, zumindest, wenn mans darauf anlegt.

Die kritischen Pfade werden ohne Sprungvorhersage wohl unkritischer ;-)

ciao

Alex

robbitop@work
2009-02-26, 10:21:20
ur das zählt in der Klasse.

Und jetzt bitte mal die neuen OMAP (4430/40) anschauen.
Die haben einen 720Mhz Dualcore, Grafik Chip (SGX540) mit 3D und Video Beschleunigung(Biss 1080p !!!), Soundchip und und und - 'On Die' (!!).
Leistungsaufnahme soll so bei 9 - 14Watt liegen - unter Last ;)

Dagegen sieht die Atom Plattform richtig 'alt' aus :D

9-14 W für einen embedded/PDA Chipset? Der müßte eher << 1 W TDP liegen.

Aprospros OoO. Der Cortex A9 von ARM besitzt ebenfalls OoO.


...
Designed around the most advanced, highefficiency,
dynamic length, multi-issue superscalar, out-of-order, speculating 8-stage pipeline, the Cortex-
A9 processors deliver unprecedented levels of performance and power efficiency with the functionality
required for leading edge products across the broad
http://www.arm.com/pdfs/ARMCortexA-9Processors.pdf

Coda
2009-02-26, 10:38:09
Die kritischen Pfade werden ohne Sprungvorhersage wohl unkritischer ;-)
Sprungvorhersage ist eine ganz andere Pipeline-Stage. Der Gast hat schon recht.

Allerdings kann man immer die Latenz von Instructions erhöhen wenn sie sonst limitieren würden.

Wuzel
2009-02-26, 10:50:41
9-14 W für einen embedded/PDA Chipset? Der müßte eher << 1 W TDP liegen.

Aprospros OoO. Der Cortex A9 von ARM besitzt ebenfalls OoO.


http://www.arm.com/pdfs/ARMCortexA-9Processors.pdf

'Soll so' - ich selbst habe kein Dev Board aus der 4er Reihe hier rumliegen. Das habe ich so gelesen. Um 1W herum ist allerdings mehr als unrealistisch für die 4er. Für 'sparsame' Anwendungen wie Handys/Smartphones und Co ist ja (noch) die 3er Serie da. Der grosse 4er soll dann auch mit 1Ghz laufen ;) - kaum vorstellbar das der Riesen Oschi unter 5W läuft. Lass mich dann aber gerne Überraschen :D
Auch soll eine neue Low Power Serie entstehen, momentan wird an allen Ecken und enden herumspekuliert ;)

S940
2009-02-26, 12:05:34
Sprungvorhersage ist eine ganz andere Pipeline-Stage. Der Gast hat schon recht.
Also gehören sie nicht zum kritischen Pfad ?
Dacht mir, dass die ganzen spekulativen Ausführungen den kritischen Pfad sicher nicht verienfachen.

ciao

Alex

Headman
2009-02-26, 14:30:25
Hab grad mal eine (etwas ältere) Pressemitteilung ausgegraben:
CORTEX-A9 PROCESSOR BENEFITS
The Cortex-A9 processors are the first synthesizable ARM processors capable of delivering more than 8000 aggregate DMIPS for demanding high performance, consumer and enterprise applications while also providing a significant performance increase over today’s handsets when implemented within the very tight 250mW mobile power budget. For 2000 DMIPS of performance when designed in a TSMC 65 nanometer (nm) generic process the core logic costs less than 1.5 mm2 of silicon. This scalable performance from 2000-8000 DMIPs is 4-16x what is found in today’s high end phones or set top boxes and will allow end users to instantly view complex, multimedia enabled web pages and make the most of Web 2.0 applications, enjoy photorealistic graphics and gaming, open complex attachments quickly or edit media files.

http://www.arm.com/news/18688.html

Dann werden wir nächstes Jahr wohl out of order CPUs in Handys sehen.
Mal schauen wie der A9 sich gegen den in-order Atom schlägt.

Wuzel
2009-02-26, 16:49:14
Hab grad mal eine (etwas ältere) Pressemitteilung ausgegraben:


http://www.arm.com/news/18688.html

Dann werden wir nächstes Jahr wohl out of order CPUs in Handys sehen.
Mal schauen wie der A9 sich gegen den in-order Atom schlägt.

Wie gesagt, schau dir die 4er Omaps an. Das sind Cortex A9 ;)
Werden dann in 45nm gefertigt.
Die jetzigen Samples sind aber - allem nach was man so mitbekommt - alles andere als sparsam (im verhältniss) - wenn soetwas jemals in ein Smartphone kommt, dann aller Voraussicht nach mit weniger Takt oder eventuell sogar Single core.
Oder Ti bastelt da noch was, was 'kleiner' ist.
WUXGA im Handy ist schon nen bissel arg heftig :D Von anderen Prozessoren oder SOC ausser die von TI hab ich noch nichts gehört. Nec hängt in letzter Zeit auch noch hinterher.

Aber 250mW Pro Core ... da waren die aber arg optimistisch ;) Obwohl der Core an sich alleine könnte sogar hinkommen - jedenfalls bei ~600Mhz ;)

robbitop@work
2009-02-26, 16:58:24
'Soll so' - ich selbst habe kein Dev Board aus der 4er Reihe hier rumliegen. Das habe ich so gelesen. Um 1W herum ist allerdings mehr als unrealistisch für die 4er. Für 'sparsame' Anwendungen wie Handys/Smartphones und Co ist ja (noch) die 3er Serie da. Der grosse 4er soll dann auch mit 1Ghz laufen ;) - kaum vorstellbar das der Riesen Oschi unter 5W läuft. Lass mich dann aber gerne Überraschen :D
Auch soll eine neue Low Power Serie entstehen, momentan wird an allen Ecken und enden herumspekuliert ;)
Riesenoschi? CortexA9 als auch SGX540 sind handheld Designs. Hinzu kam ja noch der Shrink auf 45 nm.
1x A9 kommt auf ca 250 mW. SGX kommt auch in dem Bereich. Das heißt bei 2x A9 + SGX540 ist man immernoch unter einem W.


Die jetzigen Samples sind aber - allem nach was man so mitbekommt - alles andere als sparsam (im verhältniss) - wenn soetwas jemals in ein Smartphone kommt, dann aller Voraussicht nach mit weniger Takt oder eventuell sogar Single core.
Massenproduktion fängt AFAIK erst 2010 an vom OMAP4. Woher hast du diese Dinge denn mitbekommen, wenn man fragen darf? Ein solcher SoC darf gar nicht soviel ziehen. Das Ding ist für den embedded Markt.


Oder Ti bastelt da noch was, was 'kleiner' ist.
Meinst du OMAP3 @45 nm?


Aber 250mW Pro Core ... da waren die aber arg optimistisch ;) Obwohl der Core an sich alleine könnte sogar hinkommen - jedenfalls bei ~600Mhz ;)
Woher beziehst du denn deine Erfahrungen?

robbitop@work
2009-02-26, 17:05:22
...For those still with us after being blasted with resolutions, the predictably titled OMAP 4 aims to bring 1080p support, 20 megapixel imaging and "approximately a week of audio play time" to mobiles and MIDs that house it
Also alles Geräte zwischen 1" bis 6" (mobiles und MID). Da darf die typische Leistungsaufnahme gar nicht über 1 W steigen. Sonst ist ratzbatz der Akku leer.

Texas Instruments nennt auf der Homepage unter der Kategorie OMAP4 auch MID und Smartphones.

Vieleicht sind die Dev-Samples einfach nur falsch oder schlecht ausgelegt. Ein 15 W TDP Chipsatz macht wenig Sinn dann auf ARM/SGX IP zurückzugreifen. Da kann man ja auch auf x86 Technik und Leistungsfähigereres zurückgreifen.

dildo4u
2009-02-26, 17:09:05
Warum Intel Atom?

"Yields are currently over a thousand die per wafer for Atom, and Otellini is very happy with Atom margins."

http://www.dailytech.com/Intels+CEO+Paul+Otellini+Talks+Tech+Strategy+and+Future+Directions+Part+1/article14416.htm

:eek:

http://regmedia.co.uk/2008/04/03/intel_atom.png

Wuzel
2009-02-26, 17:13:29
Riesenoschi? CortexA9 als auch SGX540 sind handheld Designs. Hinzu kam ja noch der Shrink auf 45 nm.
1x A9 kommt auf ca 250 mW. SGX kommt auch in dem Bereich. Das heißt bei 2x A9 + SGX540 ist man immernoch unter einem W.


Massenproduktion fängt AFAIK erst 2010 an vom OMAP4. Woher hast du diese Dinge denn mitbekommen, wenn man fragen darf? Ein solcher SoC darf gar nicht soviel ziehen. Das Ding ist für den embedded Markt.


Meinst du OMAP3 @45 nm?


Woher beziehst du denn deine Erfahrungen?

Die 4er Plattform soll biss spätestens Ende diesen Jahres verfügbar sein, Dev Bretter tröpfeln schon umher. Und viel Begeisterung hört man in Sachen Energieverbrauch nicht.
Der A9 wird als 'Application Processor' und nicht 'Embedded Processor' geführt.
Wurde/wird der A8 auch, aber den hat man recht schnell in den Griff bekommen und sogar unter die 300mW Marke bekommen.
Man wird sehen, momentan ist dort alles noch etwas 'luftig', eventuell ist die fertigung noch nicht alzu optimiert.
Aber 250mW ?? Das schafft man gerade so mit einem A8 bei ~600Mhz, wie soll das den gehen?

PS: Die jetzigen 4er wird man so wohl kaum in einem Handy sehen. Wie gesagt WUXGA, 1080p de wie en coding, hdmi in/out, Richtung 1gHz Takt. Wenn dann kommen da noch kleinere angerollt.

robbitop
2009-02-26, 18:44:01
Die 4er Plattform soll biss spätestens Ende diesen Jahres verfügbar sein, Dev Bretter tröpfeln schon umher. Und viel Begeisterung hört man in Sachen Energieverbrauch nicht.
Wo hört man das denn?

Der A9 wird als 'Application Processor' und nicht 'Embedded Processor' geführt.
In Handys wird auch wohl kein Cortex Ax landen. Aber in MIDs definitiv. Dazu müssen entsprechende TDPs her.


Man wird sehen, momentan ist dort alles noch etwas 'luftig', eventuell ist die fertigung noch nicht alzu optimiert.
Das vermute ich auch. Leaks, zu hohe Versorgungsspannungen oder man packt die 1 GHz nur mit Biegen und Brechen. Der Cortex A9 ist nicht soviel komplexer als der Cortex A8. Dementsprechend müsste der Shrink die Verdopplung bei CPU und GPU beinahe abfangen können. Um Größenordnungen darf der Verbauch nicht höher sein. Wird er auch mMn in Massenprodukten nicht sein. Ein OMAP SoC sollte zumindest im typischen Lastfall unter 1 W bleiben.

S940
2009-02-26, 21:52:58
"Yields are currently over a thousand die per wafer for Atom, ...."
Das wäre verdammt sch...lecht, auf nen 300mm Wafer passen über 2000 Atom DIEs, ich glaub es waren sogar ~2500.

Also die Aussage mit "1000" guten pro Wafer ist entweder stark untertrieben oder wirklich schlecht.

Ich nehme mal an, ersteres.

ciao

Alex

BlackBirdSR
2009-02-26, 22:21:31
Das wäre verdammt sch...lecht, auf nen 300mm Wafer passen über 2000 Atom DIEs, ich glaub es waren sogar ~2500.

Also die Aussage mit "1000" guten pro Wafer ist entweder stark untertrieben oder wirklich schlecht.

Ich nehme mal an, ersteres.

ciao

Alex

Es gibt auch genug Aussagen, wo Intel von 2500-2700 Atoms spricht, die man auch tatsächlich verkaufen kann. Soll um die 30.000$ liegen.
Der Wert 1000 ergibt dann keinen Sinn.

=Floi=
2009-02-26, 22:24:47
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=446821&highlight=quadrat

2549 stück kommen theoretisch aus einem 300mm wafer!
was liegt bei 30k$? Der gewinn pro wafer?

edit
bei performnace/$ ist der prozessor wohl ungeschlagen.

Tiamat
2009-02-26, 22:29:08
Hey,
habe grad eine ziemlich krasse Aussage vom Intel CEO Otellini gelesen, die ich so kaum glauben kann :D

Zu Netbooks sagte Otellini ganz allgemein, dass sie nicht als Notebook-Ersatz gedacht seien und der Atom-Prozessor nur halb so schnell sei wie der langsamste Celeron. Windows 7 werde auf Netbooks eine Enttäuschung sein, denn die dafür vorgesehene Starter-Editon erlaube nur drei gleichzeitig laufende Anwendungen..

Das riecht meiner Meinung nach EXTREM danach, dass man inzwischen wohl davor Angst hat, dass sich der Notebookmarkt in Richtung Netbook verschiebt.
Genau diese Arroganz wird demnächst wieder zu einem Intel-Debakel führen.

Welcome ARM sag ich nur ;D

http://www.gamestar.de/hardware/news/vermischtes/1954055/nvidia_verteidigt_nur_den_status_quo.html

Deinorius
2009-02-26, 22:37:33
Ein OS, wo man nur 3 Anwendungen gleichzeitig starten kann... Das haben die schon vorher versucht und es hat meines Wissens nach nicht funktioniert. Die WinXP Starter wurde in den angebetenen Ländern abgelehnt.

Dass man auf Netbooks kein normales Win7 HomePremium anbieten kann, ist klar. Das Netbook würde viel zu teuer werden. Immerhin hat man sich an die derzeitigen Preise gewöhnt und die kamen ja nur von 5 $ für WinXP.
Da bleib ich doch lieber bei WinXP.

Die können natürlich wieder mehr Netbooks mit Linux oder gar keinem OS verkaufen. :D

S940
2009-02-28, 14:12:44
Kleiner Artikel zu den ARM-Intel Zwitter notebooks:
http://www.eetimes.eu/213402554

ciao

Alex

ESAD
2009-02-28, 17:40:09
Ein OS, wo man nur 3 Anwendungen gleichzeitig starten kann... Das haben die schon vorher versucht und es hat meines Wissens nach nicht funktioniert. Die WinXP Starter wurde in den angebetenen Ländern abgelehnt.

Dass man auf Netbooks kein normales Win7 HomePremium anbieten kann, ist klar. Das Netbook würde viel zu teuer werden. Immerhin hat man sich an die derzeitigen Preise gewöhnt und die kamen ja nur von 5 $ für WinXP.
Da bleib ich doch lieber bei WinXP.

Die können natürlich wieder mehr Netbooks mit Linux oder gar keinem OS verkaufen. :D

wurde aber auch nur abgelehnt weil sich windows xp noch so leicht kopieren lässt. naja wie als wenn vista sooo viel schwerer wäre. teilweise kriegt man z.b. im irak !7! windows xp auf einen rechner vorinstalliert und wenn eines den geist aufgibt weil man nicht pacht oder auch sonst irgendwie nimmt man einfach das nächste.

beos
2009-02-28, 17:50:03
@Deinorius

Hattest Du Zeit mal das von mir verlinkte 720er Flash Video auf dem Netbook zu testen?

Spasstiger
2009-02-28, 20:58:53
Warum Intel Atom?

"Yields are currently over a thousand die per wafer for Atom, and Otellini is very happy with Atom margins."
Das bedeutet allerdings eine ziemlich geringe Yieldrate von nur ~40%, wenn der Atom auf 300-mm-Wafern gefertigt wird. Vermutlich ist er auch deshalb nicht so günstig wie man es erwarten könnte. 70$ für einen Prozessor + Chipsatz auf dem Leistungsniveau eines 5-6 Jahre alten Notebooks finde ich jetzt nicht unbedingt günstig.

Deinorius
2009-03-01, 11:04:37
@Deinorius

Hattest Du Zeit mal das von mir verlinkte 720er Flash Video auf dem Netbook zu testen?


Hui, hab ich ganz vergessen. Habs mir angesehen und dein Link wird wie erwartet nicht ruckelfrei abgespielt.
Ich hab aber auch mal diesen Link (http://masseffect.bioware.com/teaser/index.html) ausprobiert. Die Seite ist Flash und obwohl diese meinen Celeron-M auch ausreizt, wird sie auf dem Atom ohne weiteres wiedergegeben (man sollte aber nicht unbedingt noch andere Dinge tun). Zumindest das sollte gehen. Also Flash-Videos, die auf H.264 basieren, sollte man besser runterladen und mit besseren Filtern dekodieren lassen.

Headman
2009-03-02, 00:00:15
In Handys wird auch wohl kein Cortex Ax landen. Aber in MIDs definitiv. Dazu müssen entsprechende TDPs her.


Im Palm Pre ist zumindest schonmal ein Cortex A8 (TIOmap 3430).
http://mobilitytoday.com/news/009209/palm_pre_processor

Tiamat
2009-03-02, 01:05:09
Im Toshiba Smartphone Tg01 steckt auch ein Cortex A8 von
Qualcomm ( Snapdragon ) mit 1Ghz Taktrate.

Hier übrigens ein gutes Pdf zum Cortex A8
Cortex A8 (http://www.iee-cambridge.org.uk/arc/seminar05/slides/RichardGrisenthwaite.pdf)

Scheint ja langsam loszugehen, erst Smartphones, dann Netbooks.

Xmas
2009-03-02, 01:39:08
Scorpion (CPU-Kern im Snapdragon) ist kein Cortex-A8.

Tiamat
2009-03-02, 01:48:08
Laut bdti schon :
http://www.dspdesignline.com/showArticle.jhtml?articleID=204700527

robbitop@work
2009-03-02, 08:50:06
Qualcomm braut offenbar ihr eigenes ARM-Süppchen. Die haben eine eigene ARM CPU basierend auf dem ARM7 Befehlssatz (so wie auch der CortexA8) gebaut. Inwiefern die IPCs einander entsprechen, weiß ich jedoch nicht. Ich würde eher darauf tippen, dass die Dinger von Qualcomm langsamer sind.

Xmas
2009-03-02, 15:44:39
Laut bdti schon :
http://www.dspdesignline.com/showArticle.jhtml?articleID=204700527
Dort steht doch explizit dass es kein Cortex-A8 ist: "The Scorpion core (shown in Figure 1) is similar to ARM's Cortex-A8"

S940
2009-03-02, 16:05:03
Dort steht doch explizit dass es kein Cortex-A8 ist: "The Scorpion core (shown in Figure 1) is similar to ARM's Cortex-A8"
:confused:

Xmas
2009-03-02, 16:53:04
"similar" heißt "ähnlich". Ähnlich ist nicht gleich.

Tiamat
2009-03-02, 17:14:37
Jedenfalls ist der Scorpion ein ARMv7 kompatibler Prozessor, der sämtliche Komponenten des Cortex A8 nutzt. Einiges wurden in Eigenregie ein wenig verändert, er ist jedoch keine andere Architektur.

Coda
2009-03-02, 17:20:03
Das les ich da aber auch anders raus.

reunion
2009-03-02, 19:02:52
Etwas das durchaus für Beachtung sorgen sollte: TSMC Set to Make Atom System-on-Chip Microprocessors for Intel (http://www.xbitlabs.com/news/other/display/20090302090548_Intel_and_TSMC_Announce_Strategic_Partnership.html)

Das erste mal das Intel einen Chip extern fertigen lässt. Und man geht noch weiter und spricht vom Beginn einer strategischen Langzeitbeziehung, könnte also bedeuten das auch Larrabee bei TSMC gefertigt wird.

Coda
2009-03-02, 19:03:55
Wenn dann geht es wohl eher darum, dass man Atom auch als IP rausgeben kann und externe bei TSMC fertigen. Ähnlich wie bei ARM halt.

Ich sehe keinen Grund warum Intel gerade bei Larrabee seinen Fertigungsvorteil nicht ausspielen sollte.

Tiamat
2009-03-02, 20:13:46
In dem Bericht steht sogar, dass Intel die Atom Cores für Kunden anpassbar anbieten will! So wie das bei Embedded Cpus schon die ganze Zeit der Fall ist.

Das kann man quasi als professionellen Einzug in den Embedded Bereich bezeichen. Also alle Achtung, die Jungs mischen wirklich überall mit :D

AnarchX
2009-03-02, 20:30:53
Das kann man quasi als professionellen Einzug in den Embedded Bereich bezeichen. Also alle Achtung, die Jungs mischen wirklich überall mit :D
Vor einiger Zeit gab es ja schonmal eine Meldung, dass x86 mit Atom auch in der Robotik eine Rolle spielen könnte:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=429743

reunion
2009-03-02, 20:32:49
Sieht nicht so aus:
http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3522

Acid-Beatz
2009-03-02, 22:08:01
Irgendwie hab ich das Gefühl, dass man in dem Thread hier auf nix vernünftiges mehr kommt!
Wenn man aber einfach den Markt für sich sprechen lässt, dann hat der Atom wohl durchaus seine Daseinsberechtigung!
Hugh, ich habe gesprochen :)

Mike12
2009-03-03, 13:49:45
In Handys wird auch wohl kein Cortex Ax landen. Aber in MIDs definitiv. Dazu müssen entsprechende TDPs her.
Cortex-A8 und allgemein ARMv7 Smartphones kommen dieses Jahr auf den Markt. Bekannt sind bisher für Q2/09 Palm Pre (OMAP3) und Toshiba TG01 (Snapdragon). Bis Ende des Jahres werden da noch einige hinzukommen.

Mit Cortex-A9 in Smartphones ist meiner Meinung nach im H1/2011 zu rechnen. Im zweiten Halbjahr 2010 soll offiziell die Massenproduktion von TI's OMAP4 (Dual-core Cortex-A9) beginnen, andere Cortex-A9 basierte SoCs dürften in einem ähnlichen Zeitraum erscheinen. Spätestens im H1/2012 mit der 32nm Variante dürften Cortex-A9 (und verwandte Designs) Standard in allen High-End Smartphones sein. Also analog zur jetzigen Situation mit dem A8, alles einfach nur zwei Jahre später (s. z.B. OMAP3 Smartphone Start H1/2009, 45nm Variante 36xx in 2010).

S940
2009-03-03, 14:08:36
32nm in 2012 ?
Laut ARM soll das 2010 über die Bühne gehen:
According to Bruce, the first system-on-a-chip products using the 32nm technology will appear next year. Explaining the advantages of the technology, he said a slight improvement in power consumption would be apparent, compared with current mobile-chip designs.
http://news.zdnet.co.uk/communications/0,1000000085,39616106,00.htm
ciao

Alex

robbitop@work
2009-03-03, 14:12:25
Im Handheldmarkt scheint die Time-to-Market ja relativ hoch zu sein.

Gast
2009-03-03, 14:15:17
Im Handheldmarkt scheint die Time-to-Market ja relativ hoch zu sein.
Ich vermute, dass das der Grund für evtl. die "P.A.Semi-Aktion" bei Apple ist.

Gast
2009-03-03, 16:08:42
BlackbirdSR, wolltest du nicht mal einen Artikel über die dem Atom zugrundeliegende Mikroarchitektur schreiben? Kann man diesen in nächster Zeit erwarten oder weißt du selbst noch nicht, wann du die nötige Zeit findest? Will dich auf keinen Fall hetzen, fände einen solchen Artikel nur recht interessant. ;)

BlackBirdSR
2009-03-03, 17:01:32
BlackbirdSR, wolltest du nicht mal einen Artikel über die dem Atom zugrundeliegende Mikroarchitektur schreiben? Kann man diesen in nächster Zeit erwarten oder weißt du selbst noch nicht, wann du die nötige Zeit findest? Will dich auf keinen Fall hetzen, fände einen solchen Artikel nur recht interessant. ;)

Ja ist auch noch in der Pipeline. Benchmarks auf seiten des Atoms sind fertig und jetzt muss nur noch das Diplom in der Tasche stecken (Stichtag 31-. März)

Kannst mit ca. 50% der Leistung eines K7 pro Thread rechnen und wesentlich schlechterer reiner Gleitkommaleistung. SIMD und SMT gleichen das aber erstaunlich gut aus.
64Bit kann das Teil zwar, hat aber miserable Latenzen. Die Benchmarks scheint das allerdings nicht zu stören, die verlieren bei x64 kaum an Leistung. Eventuell ein Verdienst der AMD64-Verbesserungen und deren Auswirkungen auf InOrder (16 GPRs).
Leistungsaufnahme der CPU ist exzellent, das Gesamtsystem mit 40-50W dann aber relativ miserabel.

So viel zu den langweiligen Details des Atom :)

Mike12
2009-03-03, 18:08:57
32nm in 2012 ?
Laut ARM soll das 2010 über die Bühne gehen
Ich habe von Smartphones geschrieben und deren Verfügbarkeit. Nach Beginn der Massenproduktion des SoC dauert das gewöhnlich 6-12 Monate bis Smartphones mit dem SoC beim Endkunden ankommen.

Am Beispiel von TI's OMAP4 (einzige konkrete Ankündigung für Cortex-A9):
Massenproduktion beginnt offiziell im zweiten Halbjahr 2010, in 45nm. Nach dem Start der Massenproduktion wird ja nicht schon ein paar Monate später schon wieder auf 32nm umgestellt. D.h. frühestens Mitte 2011 (6-12 Monate später) OMAP4 Massenproduktion in 32nm. Mit Smartphones für die Endkunden würde ich daher nicht vor Weihnachten 2011 rechnen, eher H1/2012.

The OMAP 4 platform, built in 45-nanometer (nm) process technology [...]
TI's OMAP 4 platform and development tools are expected to sample in the second half of 2009, with production expected by the second half of 2010. [...]
http://focus.ti.com/pr/docs/preldetail.tsp?sectionId=594&prelId=sc09021

Natürlich kann ein 32nm SoC von Qualcomm etc. schon früher seinen Weg in ein Smartphone finden. Allerdings gibt es dafür IMHO noch keine OMAP4-vergleichbaren offiziellen Details von potentiellen Herstellern.

Für Netbooks könnte 32nm natürlich schon deutlich früher relevant werden, aber um Netbooks ging es in meinem Beitrag auch nicht.

S940
2009-03-03, 20:55:45
Ich habe von Smartphones geschrieben und deren Verfügbarkeit. Hmm, für mich bezieht sich da das 32nm in:
Spätestens im H1/2012 mit der 32nm Variante dürften Cortex-A9 ...
nur auf 2012, Smartphones kommen später im Nebensatz, aber ich will hier mal nicht die Erbsenklauberei anfangen :)
Jetzt ist auf alle Fälle klar was gemeint war :)

@BlackBirdSR:
Gibts nen höhern Stromverbrauch im 64bit Modus ?
Oder könnte man das bisschen wegen den ganzen andren Sachen eh nicht messen ?


Danke & ciao

Alex

Gast
2009-03-07, 13:32:22
Schönes Board: http://www.heise.de/newsticker/Mini-Mainboard-mit-Atom-Prozessor--/meldung/134158

dildo4u
2009-04-09, 13:29:06
Intel Atom erreicht 2 GHz: Z550 und Z515 vorgestellt - Ausblick auf Moorestown

http://www.pcgameshardware.de/aid,681139/Intel-Atom-erreicht-2-GHz-Z550-und-Z515-vorgestellt-Ausblick-auf-Moorestown-Update/CPU/News/

BlackBirdSR
2009-04-09, 13:33:47
Average Power von ein paar Hundert mW sind natürlich schon ein Ding :)

Spasstiger
2009-04-09, 13:39:45
Average Power von ein paar Hundert mW sind natürlich schon ein Ding :)
Da wäre selbst eine 32-Core-Variante noch sparsam. Und wenn 32 Cores bei der Software einen Speedup von sagen wir Faktor 20 bringen könnte, wäre man sogar auf Core-i7-Performanceniveau.

BlackBirdSR
2009-04-09, 13:43:16
Da wäre selbst eine 32-Core-Variante noch sparsam. Und wenn 32 Cores bei der Software einen Speedup von sagen wir Faktor 20 bringen könnte, wäre man sogar auf Core-i7-Performanceniveau.

hmm, bei so einer Software, musst du dann aber wieder von höherer Last ausgehen. Dann sind es vielleicht 1W bei 70°C.
Mit mehr Kernen auf einem DIE, steigen dann die Leckströme wieder an, etc. etc. Ich glaube nicht, dass wir so schnell Workstations mit Atoms sehen werden *g* Dafür gibt es dich Larrabee ;)

Technisch interessant sind die sehr niedrigen Leckströme des Atom.

Spasstiger
2009-04-09, 13:48:28
Mit mehr Kernen auf einem DIE, steigen dann die Leckströme wieder an, etc. etc.
Also wäre z.B. ein Quadcore-Z-Atom schon wieder weit Energie-ineffizienter als ein Singlecore-Z-Atom, weil die Leckströme stark ansteigen?
Mit einem Quadcore-Z-Atom für 100€ könnte man sogar Notebook-Nutzer zufriedenstellen. Aber dieses Marktsegment ist natürlich bereits durch den Core 2 Duo besetzt.

Zool
2009-04-13, 08:39:42
Da wäre selbst eine 32-Core-Variante noch sparsam. Und wenn 32 Cores bei der Software einen Speedup von sagen wir Faktor 20 bringen könnte, wäre man sogar auf Core-i7-Performanceniveau.

Aber nur mit entsprechender Software, die wirklich mit gut skaliert (z.B. Maxon Cinema, Prime95 und Co).
Bei nur mäßig parallelisierten Andwendungen wie die aktuellen Games, wird die in-order-Technik vom Atom immer deutlich abgehängt.

BlackBirdSR
2009-04-13, 09:06:27
Aber nur mit entsprechender Software, die wirklich mit gut skaliert (z.B. Maxon Cinema, Prime95 und Co).
Bei nur mäßig parallelisierten Andwendungen wie die aktuellen Games, wird die in-order-Technik vom Atom immer deutlich abgehängt.

Das Ding ist im Vergleich auch viel zu sehr auf Integer-Performance getrimmt. Selbst in dieser entsprechenden Software, sind Gleitkommaleistung und Durchsatz viel zu niedrig.

Ich glaube nicht, dass wir Atom noch für "Höheres" sehen werden.

Gast
2009-04-16, 20:42:53
In the blue corner is Intel, obviously with a stronghold in the desktop and notebook PC market. They have AMD to contend with there but I’m afraid I don’t see how AMD can survive and I predict they will fall by the wayside. But that type of chip is too big and power-hungry, not to mention expensive, for other markets and so they have come out with Atom, which is a low-end embeddable x86 processor. However, it is still burdened with the x86 instruction set, which means that it requires a large and power-consuming instruction decode unit.

http://www.edn.com/blog/920000692/post/370042437.html

BlackBirdSR
2009-04-16, 23:34:35
Gleiche Quelle:


1. The claim that the instruction decoder on the Atom is huge is nothing more than a straw man. While this sort of claim might have been somewhat accurate 20 years ago, instruction decoders are tiny compared to the rest of a processor with today’s designs. Atom’s decoder is almost nothing compared to other parts of the processor, which mostly consists of caches by this point (like all modern processors used as CPUs). I have no special knowledge because I don’t work for Intel, but there’s a die photo of Intel’s Atom processor in the April 7, 2008 article on the Atom by Tom Halfhill (“Intel’s Tiny Atom”) in The Microprocessor Report. The die photo outlines the processor’s main blocks, including the FEC (front-end cluster), which includes the instruction decoder, branch predictor, I cache, prefetch buffers, and instruction TLB. The entire FEC consumes about 10% of the die (that’s a quick eyeball estimate) and the instruction decoder is a small portion of that 10%. The very visible, regular features of the I cache, prefetch buffers, and TLB constitute most of the area devoted to the FEC. Put the instruction decoder down as consuming a mere 1-2% of the Atom’s real estate.

Gast
2009-04-22, 11:04:25
unterstützt die Z-Serie kein SMT?

Hvoralek
2009-04-22, 13:30:19
unterstützt die Z-Serie kein SMT?Doch, tut sie. Das einzige, was ihr fehlt, ist afaik EM64T.