PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD - Bobcat Core - Ontario APU - Low-Power-CPU


Seiten : 1 [2] 3 4

Coda
2010-09-05, 20:34:56
Das ist aber ein Blockdiagram, das muss nicht die rellen Größenverhältnisse widerspiegeln.

Ich gehe aber auch schwer von 80 ALUs aus.

Gast
2010-09-05, 20:43:18
Dein Ansatz ist aber erheblich unrealistischer als der von SavageX. Denn ein Cedar hat bereits ein Speicherinterface, eine PCI-Express-Anbindung und somit den platzfressenden Bereich des Uncore an Bord. Somit kann Ontario sehr wohl von der Fläche einfach Cedar + die beiden mickrigen Bobcat-Cores+L2 sein (oder sogar weniger als die Summe).
Denn auch bei Cedar sind die SPs noch das Kleinste. 80SPs und 4 TMUs messen in 55nm so ungefähr 10,5mm² (bei RV770). In 40nm wahrscheinlich also etwa 6mm². 40SPs mit 4 TMUs kosten so etwa 4-4,5mm². Das ist also etwa die Größe eines Bobcat-Core ohne L2. Der ganze andere Kram frißt den Platz, da hast Du vollkommen Recht. Deswegen kann es schon sehr gut hinkommen, daß Ontario/Zacate praktisch eine sehr ähnliche Größe wie Cedar aufweist, da man genauso padlimitiert ist. Dafür ist die Frage 40/80 SPs fast irrelevant.

Oh Mann, mit RV770 darfst du Davidzo aber nicht kommen. Die GPU kann ja nur DX10.1 ;) ;)

Ich poste hier ein einfach mal meine alte Rechnung von vor 3 Seiten, die er damals auch schon ignoriert hat :


Warum? Es passt sogar perfekt.
Siehe: http://de.wikipedia.org/wiki/ATI-Radeon-HD-5000-Serie

Redwood hat 104 mm² und 627 Mio Transistoren. => 63/104 x 627 = 380 Mio Transistoren.

Zu den 80SPs:

Unterschied zw. Redwood und Juniper: 104mm² + 400SPs/20TMUs; 166mm² + 800SPs/40TMUs. Für 400SPs/20TMUs sind also max. 62mm² notwendig (wenn man die anderen Unterschiede,wie ROPs mal unter den Tisch fallen lässt).

80/400 x 62mm² = 12,4mm²

80SPs/4TMUs gehen sich also locker aus


Die 4 zusätzlichen TMUs und die andere Organisation von Cedar kosten natürlich noch ein wenig Platz aber bestimmt nicht mehr als 25% (reine Schätzung).

Gast
2010-09-05, 20:44:33
Das ist aber ein Blockdiagram, das muss nicht die rellen Größenverhältnisse widerspiegeln.

Ich gehe aber auch schwer von 80 ALUs aus.


Ich weiß, aber das Blockbild passt sehr gut zu dem Die-Shot auf der letzten Seite. Die Shader konnte ich aber auf die Schnelle nicht ausmachen.

Gestrandet
2010-09-05, 21:21:13
Ich gehe von 480 SP aus. Da weiß ich wenigstens, dass ich enttäuscht sein werde ;)
Aber mal ernsthaft: 40 oder 80, ist das nicht im Prinzip wurscht, wird von der zusätzlichen theoretischen Leistung überhaupt noch was in der Praxis ankommen oder ist das Ding dann anderweitig so flaschenbehalst, dass man den Unterschied gar nicht merkt?
Und die CPU-Performance die mancherorts kolpoertiert wird, die kauf ich bei den Winzkernen nicht ab. OOO hin oder her, ich denke die IPC wird ca. 50 bis 75% über einem Atom aufschlagen und die Taktraten werden eher niedriger sein, so 1.2-1.4GHz für das LP Model. So weit meine uninteressante Schätzung (gleiches Recht für alle^^).
Ich bin mir aber ziemelich sicher, dass ich richtig liege, ich habe über 30 Jahre Erfahrung in der Branche.

Gast
2010-09-05, 22:10:07
Und die CPU-Performance die mancherorts kolpoertiert wird, die kauf ich bei den Winzkernen nicht ab. OOO hin oder her, ich denke die IPC wird ca. 50 bis 75% über einem Atom aufschlagen und die Taktraten werden eher niedriger sein, so 1.2-1.4GHz für das LP Model. So weit meine uninteressante Schätzung (gleiches Recht für alle^^).


Du meinst sicher die BOINC Benchmarks, oder?

Link: http://www.hardware-infos.com/news.php?news=3644

Schöne Tabelle mit Vergleichen zum ATOM D510, Athlon X2 250u und Phenom X4 965

Vielleicht handelt es sich ja nicht um einen Ontario sondern um einen Zacate? ;)

=Floi=
2010-09-06, 05:14:11
eine verdopplung der rechnenleistung spielt schon eine rolle! (40 vs 80 sps) 8 TMUs wären in der praxis wohl sinnvoller. (weil alte und einfache games davon mehr profitieren würden) Ich bin gespannt, wie amd den software pool umsetzen wird, weil damit ja auch andere bereiche erheblich davon profitieren dürften.


AMDs packdichte ist aber unglaublich gut und das vor allem in vergleich zu intel. faktor ~2 kann ich noch immer nicht glauben. Bei intel sitzen ja auch keine "deppen" und wo ist dann der vorteil von intels fertigung?!
Ich kan nauch nicht glauben, dass amd hier so viel mm² in die gpu stecken wird, weil es einfach weniger sinn macht. Beim atom kommt es auch mehr auf die cpu an und bei der gpu verbaut man leider erfolgreich einfach irgendeinen krüppel, welcher windows und 2d darstellen kann. Das hat bisher auch gereicht. Wenn amd die gpu auf das nötigste verkleinern würde, dann könnte man das teil sicherlich nochmal halbieren!


amd läuft gefahr, dass sie sich mit solch leistungsfähigen kleinen SoCs selbst kanibalisieren! Das wollte intel mit dem schwachen atom sicherlich verhindern.

Gast
2010-09-06, 09:59:39
Wie hoch wird ungefähr die Leistung einer Zacate CPU sein?
So schnell oder gar schneller als bsp. ein Intel E6750?

Ich würde mir gern einen Office und HTPC zusammenbauen, nur fand ich bisher die Leistung eines Intel Atom zu gering und es waren keine digitalen Anschlussmöglichkeiten für mehrere Monitore vorhanden.

Gast
2010-09-06, 10:05:04
Mehr oder weniger die Leistung eines Athlon 64 Dual-Core mit dem gleichen Takt.
Ein E6750 wird da noch deutlich schneller sein.

Zacate wird wohl beim Preis punkten, ein Preis deutlich unter 100€ für eine Zacate APU auf einem Mini-ITX Board aufgelötet sollte im Bereich des Möglichen liegen.

roidal
2010-09-06, 10:56:20
Gibt es inzwischen eigentlich schon Informationen wie AMD das Bild der Integrierten Grafik-einheit auf den Bildschirm bringen wird? Werden die DVI/VGA-Kontroller direkt auf dem CPU-die sein oder in den Chipsatz ausgelagert werden?

aylano
2010-09-06, 11:26:39
Mich stört sie jetzt schon. 6 Watt - das ist einfach zuviel, was macht AMD da? Ich hoffe dass es da noch eine mobile variante mit nicht mehr als 3 Watt von gibt, sonst zerstört das doch die schöne Energiebilanz beim 9Watt Ontario...

Es gibt mehrere Southbridge-Varianten.
In den Netbooks kommt AFAIK die 3Watt-Version, aber da ist auch einiges Deaktiviert. (wie USB 3.0)
Die 6 Watt-Variante hat alles aktiviert (auch 2xUSB 3.0) und wird wahrscheinlich eher ab Mainstream-Notebooks (oder etwas höher) verkauft.

Die Frage ist eben, wie viel Strom die 3 Watt-TDP (oder 6 WattTDP)-Southbridges im Idle an Strom verbrauchen.
Die ARM-Tablets konkurrenz kann wahrscheinlich mit Power-Gating alles nichtgebrauchte abschalten.

Aber gut, fürs erste (Netbook) reicht die Southbridge noch. Später muss was deutlich besseres (USB 3.0 oder weniger Stromverbrauch) her, wenn man in den Tablet-Markt einsteigen will.
Das wichtigste war die Fertigstellung von 40nm-Ontario Ende 2010, sodass AMD nicht nur gegen 45- statt 32nm-Atom über lange Zeit antreten kann, sondern sich auch auf die 2. Generation @ 28nm voll konzentrieren können.

Ailuros
2010-09-06, 11:42:48
Gibt's irgendwo einen Die-Shot von einem SGX?

Ich kann Dich hoechstens privat zu einem Block-Diagramm vom 540 verlinken. Vereinfacht ist ein 540 (4 ALUs, 2 TMUs) von den "pipelines" her ein 530 (2 ALUs, 1TMU) * 2. Fuer das was Du moeglicherweise auf dem die-shot sehen willst, hab ich leider nichts zur Verfuegung. Ich weiss lediglich dass ein 543 unter 65nm nach IMG auf 8mm2 kommt; dabei aber mit YUV & colour space dedizierte Logik, 2*Mal so viel z/stencil Einheiten und (u.a.) zumindest 2*Mal so fette ALUs als beim 540.

Dein Ansatz ist aber erheblich unrealistischer als der von SavageX. Denn ein Cedar hat bereits ein Speicherinterface, eine PCI-Express-Anbindung und somit den platzfressenden Bereich des Uncore an Bord. Somit kann Ontario sehr wohl von der Fläche einfach Cedar + die beiden mickrigen Bobcat-Cores+L2 sein (oder sogar weniger als die Summe).
Denn auch bei Cedar sind die SPs noch das Kleinste. 80SPs und 4 TMUs messen in 55nm so ungefähr 10,5mm² (bei RV770). In 40nm wahrscheinlich also etwa 6mm². 40SPs mit 4 TMUs kosten so etwa 4-4,5mm². Das ist also etwa die Größe eines Bobcat-Core ohne L2. Der ganze andere Kram frißt den Platz, da hast Du vollkommen Recht. Deswegen kann es schon sehr gut hinkommen, daß Ontario/Zacate praktisch eine sehr ähnliche Größe wie Cedar aufweist, da man genauso padlimitiert ist. Dafür ist die Frage 40/80 SPs fast irrelevant.

Wenn die GPU etwas unter 5mm2 unter 40nm messen sollte (theoretisch 40SPs/4TMUs) dann versteh ich bei bestem Willen nicht warum AMD vorruebergehend nichts im smart-phone Markt mit Ontario anrichten will. Die GPU im Tegra2 ist nach meinen eigenen Schaetzungen (inklusive cache Firlefanz fuer die GPU) knapp ueber 9mm2@40nm und dazu fuer lediglich 2 (FP24) PS, 2 VS, 2 TMUs bei stinknormaler OGL_ES2.0 Komplianz.

AnarchX
2010-09-06, 11:52:24
Von Lincroft mit SGX535@400MHz gibt es doch Die-Shots:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7343275#post7343275
http://www.laptopspirit.fr/wp-content/uploads/new/intel-atom-roadmap-5.jpg

Ailuros
2010-09-06, 12:01:41
Von Lincroft mit SGX535@400MHz gibt es doch Die-Shots:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7343275#post7343275
http://www.laptopspirit.fr/wp-content/uploads/new/intel-atom-roadmap-5.jpg

Intel ist auch der einzige Semi der den 535 so hoch getaktet hat. Unter Intel's 45nm bei 400MHz, wobei ich bezweifle dass irgend jemand anders unter 40nm bis jetzt ueber 250MHz steigen konnte.

http://forum.beyond3d.com/showpost.php?p=1374119&postcount=14

S940
2010-09-06, 12:12:15
Wenn die GPU etwas unter 5mm2 unter 40nm messen sollte (theoretisch 40SPs/4TMUs) dann versteh ich bei bestem Willen nicht warum AMD vorruebergehend nichts im smart-phone Markt mit Ontario anrichten will.
Einfach:
Stromverbrauch. Die Fläche ist dafür doch kein Kriterium ;)

Gast
2010-09-06, 12:30:29
Von Lincroft mit SGX535@400MHz gibt es doch Die-Shots:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7343275#post7343275
http://www.laptopspirit.fr/wp-content/uploads/new/intel-atom-roadmap-5.jpg

Hmmm...

der SGX Shot errinnert mich sogar ein wenig an das alte ARM-PDF über den MBX. Der hatte auch die ganzen Caches am Rand.

Ailuros
2010-09-06, 12:31:12
Einfach:
Stromverbrauch. Die Fläche ist dafür doch kein Kriterium ;)

Ein "direktes" Kriterium sicher nicht; ein indirektes aber schon. Anders: selbst wenn die Ontario GPU 80SP/4TMUs schwer sein sollte sehe ich immer noch keinen Grund warum es nicht fuer smart-phones gehen sollte.

Erstens ist die alberne SP-Zaehlerei ein Nebenprodukt vom ATI/NVIDIA Marketing-Bullshit und zweitens sehe ich nicht ein warum man einen SoC nicht auf logischere Ebenen takten kann, damit eben genau der Stromverbrauch in fuer smart-phones toleranten Bereichen halten kann.

Ich weiss zwar nicht wo AMD die Ontario GPU takten wird, aber bei </=400MHz sehe ich kein Problem als Laie.

aylano
2010-09-06, 13:12:57
Wenn die GPU etwas unter 5mm2 unter 40nm messen sollte (theoretisch 40SPs/4TMUs) dann versteh ich bei bestem Willen nicht warum AMD vorruebergehend nichts im smart-phone Markt mit Ontario anrichten will.
Extrem lange Einführungen sind üblich bei AMD.

Wie lange hat AMD gebraucht um das Wort Netbook in den Mund zu nehmen, wenn man schon ewig eine 8 Watt-CPU im Embedded-Markt hatte.

Oder wie lange hat es gebraucht, bis Neo 1.Gen kommt, obwohl es alles davor schon gab.

Oder wie lange hat es gebraucht 15, 25 und 45 Watt-CPUs einzuführen.

Wenn AMD was einführt, dann heutzutage nurmehr richtig gscheit.

Deinorius
2010-09-06, 13:16:46
Ich weiss zwar nicht wo AMD die Ontario GPU takten wird, aber bei </=400MHz sehe ich kein Problem als Laie.


Wenn es kein vollwertiger SoC mit integrierter Southbridge ist, bringts doch auch nix.

Ailuros
2010-09-06, 13:28:28
Extrem lange Einführungen sind üblich bei AMD.

Och Intel versucht auch schon ueber ein halbes Jahrzehnt vergebens in den smart-phone Markt einzundringen. Der Grund warum es bei Intel bis jetzt hapert ist der zu hohe Stromverbrauch. Intel erzaehlt aber mittlerweile fast jedem dass sie es mit der 32nm Generation endlich ernst meinen. Ihre Co-Operation mit NOKIA koennte hier helfen, aber das Ganze klingt bis jetzt mehr als nur merkwuerdig waehrend andere wie Samsung oder Apple konstant Markt-anteile dazugewinnen.

Qualcolmm verkauft mit dem Adreno Zeug (ehemaliger AMD Z4x0) alles andere als schlecht; nur hapert es wiederrum hier meistens an der Leistung.

Wenn AMD was einführt, dann heutzutage nurmehr richtig gscheit.

Das oben erwaehnte Z4x0 Ding ist das vorige ATI Imageon2 Zeug. Nicht gerade "high end" Material wenn es zu smartphones kommt, ergo wuerde theoretisch ein Fenster fuer AMD fuer higher end Material offen bleiben und hw seitig sieht Ontario definitiv danach aus. Im extremsten Fall koennte ich mir vorstellen dass als AMD die handheld Sparte an Qualcolmm verkaufte es irgend eine merkwuerdige interne "Ehren-Abmachung" zwischen den beiden Firmen gab dass AMD Qualcolmm fuer einige Jahre einatmen laesst. Obwohl zu weit an der Nase gezogen, koennte ich es eventuell sogar glauben.

Wenn es kein vollwertiger SoC mit integrierter Southbridge ist, bringts doch auch nix.

Wie soll ich das jetzt verstehen? Dass alle anderen zukuenftigen SoCs nicht "vollwertig" sein werden?

Coda
2010-09-06, 17:48:30
Ein System on a Chip beinhaltet auch die Southbridge, sonst ist es eigentlich keines.

Gast
2010-09-06, 17:50:36
Wobei doch das Pin-Out solcher echten SoCs mit sinkender Die-Size immer mehr Probleme macht und man sich mit IO-Hubs behelfen muss.

mrt
2010-09-06, 18:26:38
Im Grunde fehlen Ontario und Atom nur Storagecontroller um als SOC durchzugehn.
Auf den "echten" SOCs kann man allerdings auch noch viel Fläche für mehr CPU- und Grafikleistung investieren. So schnell wird man da keine I/O-Hubs benötigen.

Gipsel
2010-09-06, 22:13:58
Wenn die GPU etwas unter 5mm2 unter 40nm messen sollte (theoretisch 40SPs/4TMUs) ...
Das ist eben nicht die komplette GPU. Das SIMD-Array mit den TMUs ist so winzig. Den Platz frißt der ganze andere aufgezählte Kram. Mein Punkt war ja, daß es für die Die-Size kaum eine Rolle spielt, ob man 40 oder 80 SPs verbaut (man also nicht wirklich sagen kann: "in 77mm² passen 80SPs, aber in 74mm² nicht mehr"), da die SPs selber ziemlich mickrig sind.

davidzo
2010-09-06, 23:06:20
Das ist eben nicht die komplette GPU. Das SIMD-Array mit den TMUs ist so winzig. Den Platz frißt der ganze andere aufgezählte Kram. Mein Punkt war ja, daß es für die Die-Size kaum eine Rolle spielt, ob man 40 oder 80 SPs verbaut (man also nicht wirklich sagen kann: "in 77mm² passen 80SPs, aber in 74mm² nicht mehr"), da die SPs selber ziemlich mickrig sind.

von dem ganzen anderen kram hat Ontario als APU aber eben eher mehr als eine normale GPU, nämlich CPUcores, caches und eine Crossbar. Wie kommst du darauf dass man PCIeteile weglassen könnte, irgendwie muss die GPU schließlich intern auch verdrahtet sein? sicherlich wird man für HT, PCIe etc. weniger links und busbreite benutzen als man es sonst tut, aber insgesamt sind in Ontario eben noch viel mehr dinge außer den TMUs und Alus drin als etwa in Cedar.

Wenn daher Ontario nicht wirklich größer als Cedar ist, müssen dann die TMU/alu dedizierten coreteile eher kleiner sein, da der restchip ja mehr diespace verbraucht.
woanders kann man ja schlecht kürzen und bei den alus macht es nunmal kaum einen Unterschied ob man nun 40/4tmu oder 80sp/xTMU besitzt.+
Den 32nm Atom schlägt man auch mit 40sp/4TMU komfortabel und gegen sandybridge kann man schon aufgrund der CPUpower wirklich nicht antreten, trotz dass 80sp/8TMU ja anscheinend 12 EUs ganz gut paroli bieten könnten wenn die CPUpower da wäre.


Im Grunde fehlen Ontario und Atom nur Storagecontroller um als SOC durchzugehn.
Auf den "echten" SOCs kann man allerdings auch noch viel Fläche für mehr CPU- und Grafikleistung investieren. So schnell wird man da keine I/O-Hubs benötigen.

Jo, finde es auch schade dass dieser bei Ontario fehlt. Ein Flashcontroller sowie 1-2 sata2 oder 3 ports sollten doch nicht soviel diespace kosten? mit 4-8 USBcontrollern könnte man sich dann die SB komplett schenken. etwaige addons ala NIC oder USB3 hängt man dann ja per PCIe an und wenn davon nicht genug da sind helfen PCIehubs ja aus.
Man kann davon ausgehen dass ein Storagecontroller und sothbridgefunktionalität einfach zuviele pads gebraucht hätte. die SB für Ontario wird sicherlich nicht in 40nm kommen und wenn, dann ist ein großteil des dies für die pads reserviert. ein vollwertiges Ontario SOC hätte das DIE und das Package deutlich gesprengt.

Gipsel
2010-09-07, 01:09:54
von dem ganzen anderen kram hat Ontario als APU aber eben eher mehr als eine normale GPU, nämlich CPUcores, caches und eine Crossbar. Wie kommst du darauf dass man PCIeteile weglassen könnte, irgendwie muss die GPU schließlich intern auch verdrahtet sein? sicherlich wird man für HT, PCIe etc. weniger links und busbreite benutzen als man es sonst tut, aber insgesamt sind in Ontario eben noch viel mehr dinge außer den TMUs und Alus drin als etwa in Cedar.
Na dann machen wir doch mal eine Liste mit Unterschieden von Cedar zu Ontario:

1. die Cores selber
Bobcat-Cores sind sehr klein (~4,6mm² pro Kern), der L2-Cache noch kleiner (~3mm²), macht für zwei Kerne zusammen gerade 15 oder 16mm² (in etwa das, was Ontario wohl größer ist als Cedar).

2. Crossbar/Northbridge
Irgend eine Crossbar muß wohl tatsächlich noch da hin, aber die kann man ja klein und sparsam halten, in dem man z.B. die internen Busbreiten gegenüber dem K10 halbiert (spart auch Strom ;)). Der Rest der Northbridge ist bei Cedar ja mehr oder weniger schon vorhanden (Speicherinterface, Anbindung an Außenwelt über PCI-Express). Sowas wie L3-Controller oder so gibt es ja nicht.

3. externe Schnittstellen
Man spart wirklich am PCI-Express (ich habe übrigens nie vom kompletten Weglassen geredet, vielmehr habe ich sogar darauf hingewiesen, daß das PCI-Express-Interface auf dem Die-Shot zu identifizieren ist), da Ontario weniger Lanes hat, als Cedar. Da kommen schon ein paar mm² zusammen (I/O ist wie gesagt im Verhältnis riesig), da paßt eine rudimentäre Crossbar vielleicht schon rein. HT gibts schon mal gleich überhaupt nicht (genau wie bei Cedar).

Ein interner Bus ist übrigens immer deutlich sparsamer von der Fläche als ein externer mit gleicher Bandbreite, da man ganz andere Ströme treiben muß. Schau Dir doch mal die riesigen Strukturen von externen Interfaces an! Da werden auch sehr sehr große Transistoren verbaut, damit die den Job überhaupt schaffen. Sowas entfällt natürlich bei einem rein internen Bus.

So, was bleibt dann unter dem Strich?

Wenn daher Ontario nicht wirklich größer als Cedar ist, müssen dann die TMU/alu dedizierten coreteile eher kleiner sein, da der restchip ja mehr diespace verbraucht.
Hmm, was soll denn am "Restchip" mehr Platz als bei Cedar brauchen? Wie gesagt PCI-Express wird sogar kleiner.
woanders kann man ja schlecht kürzen und bei den alus macht es nunmal kaum einen Unterschied ob man nun 40/4tmu oder 80sp/xTMU besitzt.
Ist das nicht die perfekte Begründung, warum man gleich 80SPs einbauen kann? Dann gibt es wenigstens einen überzeugenden Vorteil auch gegen die irgendwann vielleicht kommende 32nm Version des Atom.

davidzo
2010-09-07, 01:54:38
Ist das nicht die perfekte Begründung, warum man gleich 80SPs einbauen kann? Dann gibt es wenigstens einen überzeugenden Vorteil auch gegen die irgendwann vielleicht kommende 32nm Version des Atom.
das bezog sich auf etwas anderes, aber wenn du den text dahinter abschneidest klingt es natürlich anders. leistungsmäßig macht es keinen unterschied, was ich dadrunter auch schön erklärt habe.

sicher wäre es eine möglichkeit die anzahl der alus und tmus zu erhöhen, wenn die sowieso kaum diespace kosten. allerdings sehe ich das in diesem transistorbudget einfach nicht und ich bezweifle mal stark das amd dichter packt als bei cedar, eher umgekehrt denn man braucht einen geringeren energieverbrauch und mehr pads für die cpu.
das mit den 4.6mm² für einen bobcat core ist verdammt optimistisch und dem stimme ich nicht ganz zu.
im übrigen darfst du nicht vergessen, dass die Interconnects, ob spezielle Crossbar oder PCIe nicht nur einseitige Interfaces sind, sondern punkt zu punkt verbindungen. wird der Grafikchip etwa über PCIe 8x intern gekoppelt, so fällt transistoraufwand für 16 lanes an, von acht zu acht punkt zu punkt.
Wenn die SB nicht über HT angebunden wird, so tritt an diese stelle PCIe. Da man aber daneben wohl auch noch PCIe für Erweiterungen anbietet (man munkelt von 4 lanes) wäre ich jetzt schon bei diespace für insgesamt 20 lanes...
- imo macht es aber mehr sinn die sb über HT anzubinden, da afaik der transistoraufwand für ht-links sehr gering ist und für USB und SATA2 ein einzelner 800mhz HTlink locker ausreicht, sowie die latenzen verbessert. vermutlich ist HT jedoch auch ein Feature das bisher die Qualitäten der AMD CPUs im Mobilbereich schmälert, da es den idle strombedarf erhöht. Das könnte ein argument für PCIe als SB Anbindung sein.

Gipsel
2010-09-07, 02:32:31
das bezog sich auf etwas anderes, aber wenn du den text dahinter abschneidest klingt es natürlich anders. leistungsmäßig macht es keinen unterschied, was ich dadrunter auch schön erklärt habe.Worauf ich mich bezog. Und natürlich macht es einen Unterschied für die Leistungsfähigkeit.
allerdings sehe ich das in diesem transistorbudget einfach nicht
Aha, Du kennst es also? Ich (und die meisten anderen, nicht bei AMD arbeitenden Leute) nämlich nicht.
und ich bezweifle mal stark das amd dichter packt als bei cedar, eher umgekehrt denn man braucht einen geringeren energieverbrauch und mehr pads für die cpu.
Was hat der Energieverbrauch mit der Packdichte zu tun? Und für eine stromsparende CPU benötigt man nicht viele Pads zur Stromversorgung (externe Anbindung gibt es ja sowieso schon).
das mit den 4.6mm² für einen bobcat core ist verdammt optimistisch und dem stimme ich nicht ganz zu.Hast Du eine alternative Deutung der bisher bekannten Dinge?
im übrigen darfst du nicht vergessen, dass die Interconnects, ob spezielle Crossbar oder PCIe nicht nur einseitige Interfaces sind, sondern punkt zu punkt verbindungen. wird der Grafikchip etwa über PCIe 8x intern gekoppelt, so fällt transistoraufwand für 16 lanes an, von acht zu acht punkt zu punkt.
Was zur Hölle ...?
Interne Anbindungen sind überhaupt nicht mit externen PCI-Express-Interfaces (oder auch allen anderen) zu vergleichen. Das ist keine andere Liga, das ist ein komplett anderes Spiel. Oder glaubst Du auch, ein interner 128Bit Bus würde so übermäßig viel Platz fressen, wie ein 128Bit DDR2/3-DRAM-Controller benötigt?
Wenn die SB nicht über HT angebunden wird, so tritt an diese stelle PCIe. Da man aber daneben wohl auch noch PCIe für Erweiterungen anbietet (man munkelt von 4 lanes) wäre ich jetzt schon bei diespace für insgesamt 20 lanes...
???
Ein PCI-Express x4 Interface benötigt soviel Platz wie ein x4-Interface nunmal benötigt, genau so wie ein x8-Interface soviel Platz wie ein x8-Interface benötigt. Cedar hat aber x16. Mit der Breite ist die die Anzahl der einzelnen Lanes exakt definiert (es gibt immer Links in beide Richtungen). Ontario/Zacate spart da definitiv. Was Du da über den Platzbedarf der einzelnen Lanes fabulierst ist schlicht Blödsinn.

Coda
2010-09-07, 03:00:47
Wie groß ist ein Bobcat-Core eigentlich im Vergleich zu einem Atom-Core?

Öh wollt ihr mir ernsthaft erzählen, dass AMD einen OoO-Bobcat in 4,5mm² 40nm TSMC packt während Intel in 45nm 9,7mm² für einen In-Order Atom braucht? No way.

Ich glaub immer noch nicht, dass die Struktur oben die Cores beinhaltet.

Ailuros
2010-09-07, 08:32:01
Das ist eben nicht die komplette GPU. Das SIMD-Array mit den TMUs ist so winzig. Den Platz frißt der ganze andere aufgezählte Kram. Mein Punkt war ja, daß es für die Die-Size kaum eine Rolle spielt, ob man 40 oder 80 SPs verbaut (man also nicht wirklich sagen kann: "in 77mm² passen 80SPs, aber in 74mm² nicht mehr"), da die SPs selber ziemlich mickrig sind.

Gut; dann formuliere ich es anders: wenn der insgesamte GPU Block im Ontario SoC nicht mehr als 9-10mm2 unter 40nm einnimmt, dann sehe ich aus technischer Perspektive keinen Grund warum so ein Ding unter Bedinungen nicht fuer smartphones geeignet waere.

Nochmal ich schaetze Intel's GMA600@400MHz bei ~8.6mm2 ein und die Tegra2 GPU@240MHz irgendwo bei ~9.5mm2. Ontario hat dann zusaetzlich auch noch DX11.

Henroldus
2010-09-07, 08:34:20
Gut; dann formuliere ich es anders: wenn der insgesamte GPU Block im Ontario SoC nicht mehr als 9-10mm2 unter 40nm einnimmt, dann sehe ich aus technischer Perspektive keinen Grund warum so ein Ding unter Bedinungen nicht fuer smartphones geeignet waere.

Nochmal ich schaetze Intel's GMA600@400MHz bei ~8.6mm2 ein und die Tegra2 GPU@240MHz irgendwo bei ~9.5mm2. Ontario hat dann zusaetzlich auch noch DX11.
was hat denn die Frequenz mit der DIE-Size zu tun :confused:

Gast
2010-09-07, 08:49:13
woanders kann man ja schlecht kürzen und bei den alus macht es nunmal kaum einen Unterschied ob man nun 40/4tmu oder 80sp/xTMU besitzt.+
Den 32nm Atom schlägt man auch mit 40sp/4TMU komfortabel und gegen sandybridge kann man schon aufgrund der CPUpower wirklich nicht antreten, trotz dass 80sp/8TMU ja anscheinend 12 EUs ganz gut paroli bieten könnten wenn die CPUpower da wäre.


Vielleicht liegt es ja daran, das man 80SPs braucht:

http://www.anandtech.com/show/2931/4

Ich habe das ganze aber nur am Rande bei Beyond3D verfolgt. Den Thread finde ich aber nicht mehr.

Ailuros
2010-09-07, 08:50:23
was hat denn die Frequenz mit der DIE-Size zu tun :confused:

Direkt gar nichts; nur dass die T2 GPU fuer ihre Frequenz verdammt gross ist und ein SGX535 wie im GMA600 bei niedrigerer Frequenz auch um einiges kleiner ist. Nur Intel hat den letzteren auf 400MHz gejagt.


woanders kann man ja schlecht kürzen und bei den alus macht es nunmal kaum einen Unterschied ob man nun 40/4tmu oder 80sp/xTMU besitzt.+
Den 32nm Atom schlägt man auch mit 40sp/4TMU komfortabel und gegen sandybridge kann man schon aufgrund der CPUpower wirklich nicht antreten, trotz dass 80sp/8TMU ja anscheinend 12 EUs ganz gut paroli bieten könnten wenn die CPUpower da wäre.


Ich behalt mal das fettgedruckte fuer Referenz fuer's naechste Jahr. Ich stemple es aber trotz allem vorzeitig als komfortablen Bullshit ab ;)

Intel Medfield wird zumindest einen dual-core SGX54x GPU integriert haben und das heisst dann mit AMD/NV Marketing-BS: 40"SPs"/4 TMUs/32z/stencil (dual-core GPU skaliert bis zu 16 MP).

Gast
2010-09-07, 09:15:58
davidzo bezog sich wohl eher auf Cedarview @ 32nm für Nettop/-books, der wird wohl einen <=6 EU GenX IGP besitzen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=470611

S940
2010-09-07, 10:44:08
Ein "direktes" Kriterium sicher nicht; ein indirektes aber schon. Anders: selbst wenn die Ontario GPU 80SP/4TMUs schwer sein sollte sehe ich immer noch keinen Grund warum es nicht fuer smart-phones gehen sollte.
Das klappt nur, wenn die Packdichte bzw. die Transistorenanzahl gleich ist. Denn die Transistoren sind das, was Strom verbraucht.
Weiteres Problem ist ausserdem, dass das Takten auf 400 MHz nicht viel bringt, wenn man die Spannung nicht weiter senken kann. Genau das wird beim 9W Ontario aber vermutlich schon der Fall sein, der wird irgendwas um die 1V vcore haben, recht viel weiter runter kommt man dann nicht mehr.


Öh wollt ihr mir ernsthaft erzählen, dass AMD einen OoO-Bobcat in 4,5mm² 40nm TSMC packt während Intel in 45nm 9,7mm² für einen In-Order Atom braucht? No way.

Ich glaub immer noch nicht, dass die Struktur oben die Cores beinhaltet.Tja, warten wir, bis wir es wissen - dann bist DU entweder der große Held, oder der große ... ;-)

ciao

Alex

aylano
2010-09-07, 11:03:11
Wie groß ist ein Bobcat-Core eigentlich im Vergleich zu einem Atom-Core?

Öh wollt ihr mir ernsthaft erzählen, dass AMD einen OoO-Bobcat in 4,5mm² 40nm TSMC packt während Intel in 45nm 9,7mm² für einen In-Order Atom braucht? No way.

Ich glaub immer noch nicht, dass die Struktur oben die Cores beinhaltet.
Es wäre interessant zu wissen, warum ein In-Order-Atom in 45nm ganze 9,7 mm² braucht, während der K10.5 in 45nm mit 15mm² nur 50% mehr Fläche braucht.
Denn alleine die doppelte L1-Instruction-Cache und L1-Data-Cache machen schon zusätzliche 2-3 mm² aus.
Und beim Rest hat man dann auch nur mehr 2-3mm² eingespart.

Die Angabe von AMD bei Bobcat-Core war ja "less dann a half Aread".
Also, unter 15/2 = 7,5mm² @ 45nm

Gut; dann formuliere ich es anders: wenn der insgesamte GPU Block im Ontario SoC nicht mehr als 9-10mm2 unter 40nm einnimmt, dann sehe ich aus technischer Perspektive keinen Grund warum so ein Ding unter Bedinungen nicht fuer smartphones geeignet waere.

Nochmal ich schaetze Intel's GMA600@400MHz bei ~8.6mm2 ein und die Tegra2 GPU@240MHz irgendwo bei ~9.5mm2. Ontario hat dann zusaetzlich auch noch DX11.
Da wäre auch der Stromverbrauch des kleinen Ontario-GPU-Block (sowie der Konkurrenten) interessant.
Denn diese Architektur ist ja für ihre hohe Packdichte und deswegen der hohen Stromverbrauch-pro-mm² bekannt.

----
Mir fällt noch ein grund ein, warum AMD noch nicht in den Smartphone-Markt eintritt.

Neben einer von dir genannten Qualcomm-Abmachung (über eine 3-Jahres-??)Abstinenz sowie der mangelnden Ressourcen für einen Netbook-Tablet-Smartphone-Einführung, könnte die 5000er-Architektur auch ein winzig kleiner Grund sein.
Immerhin soll bei North-Island mit 4-Slot-VILW statt 5 die Priorität auf Performance-pro-Watt und Performance-pro-mm² liegen.

Also, mit mangelnden Ressourcen eine Step-by-step-Einführung, wo im ersten Schritt die generell die Bobcat-Architektur (in den Netbook-Markt) und im zweiten Schritt mit
- SoC bzw. Optimierten Southbridge
- 28nm-HPP
- North-Island-Architektur
- für Tablets-&-Smartphones angepasste/benötigte Stromspartechniken
auch in den Tablet-&-Smartphone eintritt.

Auch wenn dies sowohl technisch als auch von AMD möglich in der Umsetzbarkeit wäre, ist es IMO immer noch eine recht optimistische Betrachtung.
Denn damit wäre AMD wahrscheinlich zumindestens für den Tablet-Markt recht gut aufgestellt und damit hätte dann AMD das in einem Jahr geschafft, wass Intel in 3 Jahren schaffte.

davidzo
2010-09-07, 11:31:44
Intel Medfield wird zumindest einen dual-core SGX54x GPU integriert haben und das heisst dann mit AMD/NV Marketing-BS: 40"SPs"/4 TMUs/32z/stencil (dual-core GPU skaliert bis zu 16 MP).
Pineview, die Konkurrenz zu Ontario wird wohl eher etwas vergleichbares zu GMA X4500HD erhalten, keinen lizensierten PoverVR chip. Gerade in einem Markt wo es nicht um margen, sondern Stückzahlen geht wird intel alles tun um lizenzkosten an dritte zu vermeiden. medfield wird ein smartphoneSOC, sparsamer und teurer als Ontario.

davidzo bezog sich wohl eher auf Cedarview @ 32nm für Nettop/-books, der wird wohl einen <=6 EU GenX IGP besitzen: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=470611
Ersteres ist richtig, letzteres bezweifle ich. Intel ist nicht gerade bekannt dafür ihren letzten techlevel im gesamten lineup zu benutzen.
Wir haben für Pineview auch eine DX10 GPU zwischen GTMA x3100 und x4500 erwartet. Stattdessen gab es denselben uralten GMA950 mit höheren taktraten und umgelabelt in GMA3150.
Intel selbst spricht nur von einer zweifachen Leistung gegenüber GMA950 und mit ziemlicher Sicherheit kein DX11. Da würden selbst 4 EUs deutlich zu hoch ziehlen. In diesen Bereich passt eher etwas ala GMA X3500-X4500. Ob man den vaktuellen videoprozessor endlich einbaut ist auch noch nicht geklärt.
intel weiß dass die meisten kunden nach checklistfeatures kaufen und wird sich somit hüten den ATOM im featureset auf dieselbe stufe wie SB zu stellen, weil dass die Marge dann weiter kanibalisieren würde.


Die Angabe von AMD bei Bobcat-Core war ja "less dann a half Aread".
Also, unter 15/2 = 7,5mm² @ 45nm
Bitte nicht schon wieder diese 45nm diskussion. Das war eine marketingaussage, denen ist der Prozess egal, hauptsache weniger diespace. Daher bezog sich das mit sicherheit auf 15mm² (w/o cache) @45nm vs 7.5mm² (w/o cache) @40nm. Ich kann mir nicht vorstellen das die AMD Marketingabteilung die Gelegenheit ausgelassen hat die 27% Diespaceeinsparungen von 40nm gegenüber 45nm nicht auch noch auszuschlachten (man hätte dann von weniger als 1/3 gesprochen statt 1/2).

Gipsel
2010-09-07, 11:51:55
Bitte nicht schon wieder diese 45nm diskussion. Das war eine marketingaussage, denen ist der Prozess egal, hauptsache weniger diespace. Daher bezog sich das mit sicherheit auf 15mm² (w/o cache) @45nm vs 7.5mm² (w/o cache) @40nm. Ich kann mir nicht vorstellen das die AMD Marketingabteilung die Gelegenheit ausgelassen hat die 27% Diespaceeinsparungen von 40nm gegenüber 45nm nicht auch noch auszuschlachten (man hätte dann von weniger als 1/3 gesprochen statt 1/2).
Die haben das auch bei der Vorstellung der Bobcat-Architektur bei Hotchips erzählt, das war weniger Marketing. In dem Zusammenhang heißt es wohl, daß man sich auf den gleichen Prozeß bezieht. Aber lassen wir das, Du wirst es früh genug sehen ;)

S940
2010-09-07, 11:52:41
Es wäre interessant zu wissen, warum ein In-Order-Atom in 45nm ganze 9,7 mm² braucht, während der K10.5 in 45nm mit 15mm² nur 50% mehr Fläche braucht.
Denn alleine die doppelte L1-Instruction-Cache und L1-Data-Cache machen schon zusätzliche 2-3 mm² aus.
Und beim Rest hat man dann auch nur mehr 2-3mm² eingespart.
Das ist mal ein guter Punkt, so hab ich das noch gar nicht betrachtet - ja der K10.5 Kern ist schon recht kompakt.
Neben den halbierten Caches kannst Du dann auch noch die FPU Größe abziehen. Die Bobcat FPU hat ca. 40% Fläche der K8 FPU, die K10 FPU ist fast doppelt so groß wie die K8 FPU, ergo bleibt im Vergleich zw. Bobcat und K10 FPU irgendwas zw. 20 - 30% über. Dann noch die eine INT Pipe weniger plus 40nm .. das passt schon.

Da fragt man sich wirklich was Intel mit der Fläche anstellt ... :freak:

Gipsel
2010-09-07, 11:59:17
Es wäre interessant zu wissen, warum ein In-Order-Atom in 45nm ganze 9,7 mm² braucht, während der K10.5 in 45nm mit 15mm² nur 50% mehr Fläche braucht.
Genau! Den Punkt habe ich auch schon aufgeführt. Was kann AMD dafür, daß Intel seine Atoms nicht so dicht packt (aus welchen Gründen auch immer *)? Das ist kein Argument gegen die knapp 5mm² für einen Bobcat-Core@40nm.

*):
Ein Grund ist sicherlich, daß Intels 45nm Prozeß ein absoluter High-Performance-Prozeß ist, und deswegen für ein stromsparendes Design eventuell weniger gegeignet ist als der TSMC-Prozeß. Intel benutzt bei Atom übrigens sogar andere, größere SRAM-Zellen als bei den anderen Prozessoren um denen sozusagen nachträglich das Stromsparen beizubringen.
Ein weiterer wäre, daß Intel wohl nicht soviel Mühe darauf verwendet hat, den Atom noch kleiner zu machen. Es sieht so aus, als wenn da teilweise viel leerer Platz zwischen den Funktionblöcken gelassen wurde.

S940
2010-09-07, 12:05:55
Ein weiterer wäre, daß Intel wohl nicht soviel Mühe darauf verwendet hat, den Atom noch kleiner zu machen. Es sieht so aus, als wenn da teilweise viel leerer Platz zwischen den Funktionblöcken gelassen wurde.Das wirds wohl sein, solange man Intel nicht per Konkurrenz in den Allerwertesten tritt machen sie nicht viel.

Sieht so aus, als ob sie bei Atom auf der faulen Haut gelegen wären. Intern wird ja sogar auch noch der alte FSB verwendet, da wurde ganz sicher nicht viel Geld investiert, sondern die Einzelteile nur mal schnell zusammengeklatscht.

Ailuros
2010-09-07, 13:42:32
Pineview, die Konkurrenz zu Ontario wird wohl eher etwas vergleichbares zu GMA X4500HD erhalten, keinen lizensierten PoverVR chip. Gerade in einem Markt wo es nicht um margen, sondern Stückzahlen geht wird intel alles tun um lizenzkosten an dritte zu vermeiden. medfield wird ein smartphoneSOC, sparsamer und teurer als Ontario.

Intel hat es bis heute nicht geschafft in den smart-phone Markt einzundringen und es steht noch in den Sternen ob sie es mit der 32nm Generation schaffen werden. GMA500 wurde hauptsaechlich in netbooks (AtomZ), MIDs und Intel's CE Zeug integriert, es wird auch mit dem heutigen GMA600 nicht anders sein und ich sehe auch nicht ein was daran Medfield grandioses aendern wuerde. Intel wird lediglich versuchen Medfield stromsparender zu gestalten um auch im smart-phone Segment mitspielen zu koennen, aber jeglicher Erfolg steht wohl noch in den Sternen.

GenX wird natuerlich weiterleben, aber ich sehe nichts das Intel's bisherige Marktsegmentierung aendern wird. Dass Medfield teurer wird als Ontario ist wohl der Witz des Jahres aber ich lass es mal so stehen LOL :biggrin:

davidzo
2010-09-07, 13:49:34
ich mag ja den optimismus und isgesamt tendiere ich auch dazu dass AMD mit Bobcat sehr gute Karten hat, hier wird aber teilweise maßlos übertrieben mit den spekualtionen und der Himmel auf die Erde heruntergereimt. hier lehnen sich einige ziemlich weit aus dem fenster.

bobcat kleiner als ein k7, ja beinahe auf einem niveau mit via c7(inorder) und unterhalb vom billigen in order design atom. - das ist eine sehr riskante behauptung.

TSMC soll mit stinknormalem 40nm bulk plötzlich jahrelange intel forschung und optimierung im low power bereich schlagen können - diese Behauptung hat keine Grundlage und wirkt erstmal nur wie dreistes Wunschdenken.

Freut euch doch, dass Ontario auch ohne alle diese Wunschvorstellungen ausreichend schnell wird um intel überbieten zu können. Da braucht man keine wohlwollenden spekulationen zu machen, alleine die wenigen konservativen fakten bisher reichen aus um zu dieser Einschätzung zu kommen.



Intel hat es bis heute nicht geschafft in den smart-phone Markt einzundringen und es steht noch in den Sternen ob sie es mit der 32nm Generation schaffen werden. GMA500 wurde hauptsaechlich in netbooks (AtomZ), MIDs und Intel's CE Zeug integriert, es wird auch mit dem heutigen GMA600 nicht anders sein und ich sehe auch nicht ein was daran Medfield grandioses aendern wuerde. Intel wird lediglich versuchen Medfield stromsparender zu gestalten um auch im smart-phone Segment mitspielen zu koennen, aber jeglicher Erfolg steht wohl noch in den Sternen.

GenX wird natuerlich weiterleben, aber ich sehe nichts das Intel's bisherige Marktsegmentierung aendern wird. Dass Medfield teurer wird als Ontario ist wohl der Witz des Jahres aber ich lass es mal so stehen LOL :biggrin:

Mit ersterem stimmen wir im prinzip völlig
überein. Intel wird die Marktsegmentierung hier wohl kaum ändern.
Aber beim Preis des SOCs gehen unsere Meinungen völlig auseinander. Sowohl silverthorne als auch lincroft haben schon immer deutlich mehr gekostet als ihre netbook und desktop kollegen diamondville und pineview. ein Atom Z540 zum Beispiel wird mit 160$ gelistet - und das ist nichtmal ein SoC sondern nur eine CPU mit 47mio trannies. die aktuellen pineviews gehen zwischen 42$ und 63$ im desktop bzw. 55 und 75$ im mobilbereich übern tisch -komplett mit Chipsatz.
Das ist meiner Meinung nach auch der Hauptgrund weswegen intel derzeit mit ARM nicht konkurrieren kann. die Leistung mag stimmen, aber das im Gesamtpaket zahlt man ein vielfaches gegenüber einem viel günstigeren Cortex basierten gerät, welches noch dazu deutlich weniger akkulaufzeit bietet.
AMD hat bisher dem MID und Smartphonemarkt eine klare Absage erteilt, daher wird man hier eben nicht mit Lincroft oder Medfield konkurrieren.

Coda
2010-09-07, 14:31:30
Tja, warten wir, bis wir es wissen - dann bist DU entweder der große Held, oder der große ... ;-)
Muss sowas sein?

Ich beziehe mich nur auf das was ich weiß. Mag schon sein, dass Bobcat so klein ist, aber falls es so ist würde es mich nunmal extrem überraschen.

Wenn dann ist Intel wirklich unfähig gewesen bei Atom.

Intern wird ja sogar auch noch der alte FSB verwendet
Bei den SoCs? Nein wird er nicht. Das sieht man an Die Shots. Da fehlen das FSB PHY.

Gast
2010-09-07, 14:36:39
bobcat kleiner als ein k7, ja beinahe auf einem niveau mit via c7(inorder) und unterhalb vom billigen in order design atom. - das ist eine sehr riskante behauptung.


Sorry, aber diese Chips wären in 40nm alle deutlich kleiner, also bitte etwas mehr Niveau. Ich finde die Argumentation jedenfalls schlüssig. Ein K10 benötigt 15mm² in 45nm. Bobcat wird da deutlich zusammengestutzt sein und kommt außerdem in 40nm, was alleine schon 27% einspart. Ein K8 Kern wäre in 40nm rechnerisch nicht größer als die jetzt spekulierte Bobcat.

Warum Intel so große Kerne hat? Keine Ahnung, frag doch Intel. Hat mich schon immer gewundert warum ein Core2 oder Nehalem Kern derart mehr Fläche benötigt.

Coda
2010-09-07, 14:41:52
Ein K8-Kern ist nichtmal halb so groß wie ein K10-Kern? Das glaub ich jetzt nicht.

Bei K10 ist im wesentlichen nur die FPU etwas gewachsen, der Rest kaum.

Gast
2010-09-07, 14:45:12
Ein K8-Kern ist nichtmal halb so groß wie ein K10-Kern? Das glaub ich jetzt nicht.

Bei K10 ist im wesentlichen nur die FPU etwas gewachsen, der Rest kaum.

Wie schon gesagt, 40nm vs. 45nm.

Coda
2010-09-07, 14:50:22
Spielt keine Rolle. Intels Packdichte in 45nm ist genauso gut wie TSMC 40nm. Beim SRAM wohl sogar besser.

Deinorius
2010-09-07, 14:53:14
Bei den SoCs? Nein wird er nicht. Das sieht man an Die Shots. Da fehlen das FSB PHY.


Gehts um den Pineview? Der hat doch intern FSB laut Anand, was auch erklären würde, warum der nicht schneller geworden ist.
Der Xbox 360 Chip hat intern ja auch FSB laufen, wenn auch aus vernünftigeren Gründen.

Gast
2010-09-07, 14:53:23
Spielt keine Rolle. Intels Packdichte in 45nm ist genauso gut wie TSMC 40nm. Beim SRAM wohl sogar besser.

Was willst du jetzt mit Intels Packdichte? Deine Aussage war: "in K8-Kern ist nichtmal halb so groß wie ein K10-Kern? Das glaub ich jetzt nicht."

Und ich schrieb 40nm vs. 45nm. In 40nm hätte ein K8 Kern <5mm². EIn K10 hat in 45nm 15mm².

Coda
2010-09-07, 14:54:29
40nm TSMC ist wohl auch nicht besser als 45nm AMD

If you look at contacted gate pitch - this basically determines how tightly you can pack transistors that you have actually wired up to circuits - there is hardly any difference between Intel's 45nm process and what TSMC claims to be its 40nm process. That comes in at 160nm, with TSMC being very slightly wider at 162nm.

Und selbst wenn das Scaling linear wäre - was es ziemlich sicher nicht ist, dann wären das 20% Vorteil. Da ist ein K8 immer noch nicht halb so groß.

Gast
2010-09-07, 15:05:52
Und selbst wenn das Scaling linear wäre - was es ziemlich sicher nicht ist, dann wären das 20% Vorteil. Da ist ein K8 immer noch nicht halb so groß.

K8 Brisbane @ 65nm = 20,8mm²: http://chip-architect.com/news/2007_02_19_Various_Images.html

20,8 x 40²/65² = 7,877mm²

K10 @ 45nm = 15mm²

Und der Brisbane war ein schnell hingenudelter Shrink. Mit ordentlichen Optimierungen holt man da sicherlich noch was raus. Meinetwegen spart man noch die Hälfte des L1-Caches, das würde auch nochmal deutlich Fläche bringen. Möglich ist es allemal.

S940
2010-09-07, 15:06:22
Muss sowas sein?
Ja ich wollte Dir nur auf freundliche Weise mitteilen, dass Du einen Teil Deines gutes Rufes riskierst - und das alleine deswegen, weil Du einmal nicht nachdenkst, sondern sofort auf etwas arrogante Weise losschnautzt dass das ja gar nicht sein kann, Begründung dabei: PUNKT.

Falls Du jetzt beleidigt sein solltest, wäre das kurios, da es nicht beabsichtigt war :freak:

Ich beziehe mich nur auf das was ich weiß. Mag schon sein, dass Bobcat so klein ist, aber falls es so ist würde es mich nunmal extrem überraschen.Glaub ich Dir gerne, aber ab und an wäre mal etwas mehr Erklärung nicht schlecht. Nicht nur für alle anderen, die sich nicht so gut auskennen wie Du, sondern auch für Dich selbst zum Rekapitulieren Deines Gedankengangs. Mit dem K10 Argument sieht man ja jetzt, dass Bobcats Größe doch nicht so abwägig ist ...
Bei den SoCs? Nein wird er nicht. Das sieht man an Die Shots. Da fehlen das FSB PHY.Braucht man für nen internen FSB zw. internen Chipkomponenten PHYs ? ;-)

Coda
2010-09-07, 15:08:29
20,8 x 40²/65² = 7,877mm²
Das haut so aber nicht hin, weil es TSMC 40nm ist. Das geht viel eher in die Richtung ~10mm².

Ja ich wollte Dir nur auf freundliche Weise mitteilen, dass Du einen Teil Deines gutes Rufes riskierst - und das alleine deswegen, weil Du einmal nicht nachdenkst, sondern sofort auf etwas arrogante Weise losschnautzt dass das ja gar nicht sein kann, Begründung dabei: PUNKT.
Ich muss ja inzwischen auch zugeben, dass das Blockdiagramm von AMD eigentlich viel zu gut dort hinpasst.

Dagegen spricht halt, dass die Cores dann wirklich sehr klein wären und ich nicht wüsste wofür die vier großen Strukturen in der Mitte gut sein sollten. Vier ALU-Cluster sind's jedenfalls nicht, weil jeweils zwei davon anders aussehen.

Gast
2010-09-07, 15:18:40
Das haut so aber nicht hin, weil es TSMC 40nm ist. Das geht viel eher in die Richtung ~10mm².


Das werden wir dann schon sehen ob das hinhaut. Wie schon gesagt was Brisbane nur ein mieser Shrink, da war der K10 schon High-End. Windsor hatte @ 90nm nur 31mm².

Der L1-Cache benötigt beim K8 auch sehr viel Fläche. Ich sehe da genügend Potential.


Dagegen spricht halt, dass die Cores dann wirklich sehr klein wären und ich nicht wüsste wofür die vier großen Strukturen in der Mitte gut sein sollten. Vier ALU-Cluster sind's jedenfalls nicht, weil jeweils zwei davon anders aussehen.

Das kann doch alles mögliche sein. UVD, PCIe-Controller, Display-Controller, etc.

aylano
2010-09-07, 15:23:16
ich mag ja den optimismus und isgesamt tendiere ich auch dazu dass AMD mit Bobcat sehr gute Karten hat, hier wird aber teilweise maßlos übertrieben mit den spekualtionen und der Himmel auf die Erde heruntergereimt. hier lehnen sich einige ziemlich weit aus dem fenster.

bobcat kleiner als ein k7, ja beinahe auf einem niveau mit via c7(inorder) und unterhalb vom billigen in order design atom. - das ist eine sehr riskante behauptung.

TSMC soll mit stinknormalem 40nm bulk plötzlich jahrelange intel forschung und optimierung im low power bereich schlagen können - diese Behauptung hat keine Grundlage und wirkt erstmal nur wie dreistes Wunschdenken.

Freut euch doch, dass Ontario auch ohne alle diese Wunschvorstellungen ausreichend schnell wird um intel überbieten zu können. Da braucht man keine wohlwollenden spekulationen zu machen, alleine die wenigen konservativen fakten bisher reichen aus um zu dieser Einschätzung zu kommen.

Hinter den Behauptungen von so manchen Leuten steckt das Wissen über Core-Größen bzw. Teile-Größen vom Core
Wie z.B. Instruction-Cache und L1-Data-Cache, FPU usw usw.
Es ist ja schon einiges über Bobcat bekannt und daher lässt sich da schon einiges Einschätzen.


Der hohe Stromverbrauch ist beim Atom-Kern im Smartphone-Markt bekannt.
Jetzt überrascht mich das eben nicht, wenn der Atom-Kern nur 66% der Größe eines K10.5 hat.


Aber beim Preis des SOCs gehen unsere Meinungen völlig auseinander.
...
Das ist meiner Meinung nach auch der Hauptgrund weswegen intel derzeit mit ARM nicht konkurrieren kann. die Leistung mag stimmen, aber das im Gesamtpaket zahlt man ein vielfaches gegenüber einem viel günstigeren Cortex basierten gerät, welches noch dazu deutlich weniger akkulaufzeit bietet.

Der Preis spielt kaum eine Rolle, da die Produktionskosten des Atom verdammt niedrig sind bzw. deutlich niedriger als der offizielle Preis.

Heute liest man wieder, dass Tegra jetzt statt Intel in die LG-Tablets & Smartphones kommt. Und ich bezweifel, dass der Preis eine Rolle gespielt hat. Vorallem, da Nvidia üblich ja auch wenn möglich mit höheren/hohem Preis daherkommt.


AMD hat bisher dem MID und Smartphonemarkt eine klare Absage erteilt, daher wird man hier eben nicht mit Lincroft oder Medfield konkurrieren.
Die Absage bezog sich stark auf auf vorhandene Ressourcen.
40nm-Ontario ist ja kein Alles-Könner. Wenn er vielleicht (mit 28nm) in den Tablet(/Smartphone) Markt einsteigen will, dann muss er dafür auch optimiert werden.
So wie bei Netbooks könnte AMD dann auch in Zukunft "plötzlich" die Meinung ändern.


Eines darf man nicht vergessen.
Die 2xBobcat-Cores + L2 machen ca. 15mm² aus. Die 80 Shader + TMU machen auch so 10-15mm² aus.

So,dann bleiben immer noch 50mm² von den 75-80mm²-Onatrio@40nm übrig.
Von den fast 66% des Dies wissen wir nicht, wie AMD diese in Sachen Stromverbrauch & Feature-Performance für Netbook / Tablets entwickelt hat.

Bzw. sind die 66% wirklich für Tablets & Smartphone nötig oder könnte man für diesen Markt einiges Weggeben?
Ich glaube nicht und das wird dann in der 2. Gen von AMD weggegeben.

Coda
2010-09-07, 15:26:12
Das kann doch alles mögliche sein. UVD, PCIe-Controller, Display-Controller, etc.
Größer als ein Bobcat-Core :rolleyes:

Gast
2010-09-07, 15:29:09
Größer als ein Bobcat-Core :rolleyes:

Wie erklärst du dir denn sonst die 63mm² eines Cedars im selben Prozess? Da sind nur 80SPs drinnen und halt der ganze Multimedia-Schnickschnack.

Coda
2010-09-07, 15:42:32
Wie erklärst du dir denn sonst die 63mm² eines Cedars im selben Prozess? Da sind nur 80SPs drinnen und halt der ganze Multimedia-Schnickschnack.
Padlimitierung, GDDR5-Speichercontroller, 16-PCIe PHYs etc.

Ich will nicht ausschließen, dass es zur GPU gehört, aber ich kann's derzeit einfach nicht zuordnen.

robbitop
2010-09-07, 18:10:02
Ein Grund ist sicherlich, daß Intels 45nm Prozeß ein absoluter High-Performance-Prozeß ist, und deswegen für ein stromsparendes Design eventuell weniger gegeignet ist als der TSMC-Prozeß.
Moment. Intel hat 2x 45 nm Prozessse entwickelt. Einen HP und einen LP. Der Atom ist im LP Prozess gefertigt.

Additionally, Intel used a new high-K 45nm2 LP SoC process to support a multiple transistor design with a range of high-voltage I/Os.
Link: http://www.intel.com/pressroom/archive/releases/2010/20100504comp.htm

Es kann aber sein, dass unabhängig vom Prozess geringe Packdichten verwendet werden. Vieleicht war Atom (als Silverthrone) mal padlimitiert (und hat bei Pineview keinen Sinn gesehen, den Floorplan anzupassen), oder es ging um Hotspots oder sogar um Taktraten (hohe Packdichte ist oftmals nicht ideal für hohe Taktraten).

Coda
2010-09-07, 18:11:42
Atom verwendet auch großzügig 8T SRAM soweit ich weiß. Und zudem ist es ein SMT-Prozessor, braucht also auch deshalb mehr Transistoren.

Die Packdichte scheint bei Bobcat auch besser zu sein. Aber das Bobcat nur halb so groß ist wäre wirklich beachtlich. Und mein Gefühl sagt mir eigentlich auch, dass es eher unwahrscheinlich ist. Atom hat auch nicht gerade enorme Ausführungsresourcen und das Scheduling sollte eigentlich viel einfacher sein.

Auf das hier beziehe ich mich übrigens:
http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg

Wobei das Blockschaubild halt wirklich extrem gut passt. Da hat der gute Hans schon recht :usad:

robbitop
2010-09-07, 18:21:59
So oder so: es ist beachtlich, dass AMD 2x OoO Bobcatcores + eine D3D11 GPU in einen Kern mit 63sqmm hinbekommt! Wieviel Transistoren für was anfallen ist zwar interessant, schmälert die Leistung aber kaum. :)

Gast
2010-09-07, 18:35:59
hier eine nette Zusammenfassung, leider aber keine neuen Infos (aber wer will kann ja John Taylor direkt fragen)

http://blogs.amd.com/fusion/2010/09/06/direct-from-berlin-and-ifa-2010-guten-tag-kleine-fusion/

BlackBirdSR
2010-09-07, 18:44:45
Ja ich wollte Dir nur auf freundliche Weise mitteilen, dass Du einen Teil Deines gutes Rufes riskierst - und das alleine deswegen, weil Du einmal nicht nachdenkst, sondern sofort auf etwas arrogante Weise losschnautzt dass das ja gar nicht sein kann, Begründung dabei: PUNKT.

Falls Du jetzt beleidigt sein solltest, wäre das kurios, da es nicht beabsichtigt war :freak:


Halt dich etwas zurück, und gehs langsam an.

Ich habe zwar nicht genug Daten für die Detailberechnungen, aber für jeden Prozess existieren Sweet-Spots bezüglich der Die-Größe, Teststrukturen etc. Das ziehlt jetzt nicht nur auf die Anzahl an Chips pro Wafer ab, sondern auf viele weitere Faktoren, wie Beständigkeit gegen Punktdefekte, Redundanz, Tauglichkeit für ältere Messinstrumente (womit man den neueren Modellen keine Kapazität nimmt) etc. etc.
Dann kommt noch die Industrie ins Spiel und am Ende steht das Militär. Keine Ahnung, ob irgendjemand bei Intel nicht auf den Einsatz in Flug und Raumsystemen etc. hatte.

Also bleibts dabei: Es war absicht oder Intel hatte ein anderes Problem, dass die Größe des Chips bedingt hat.

Coda
2010-09-07, 18:50:30
Nein, er hat schon recht. Ich war am Anfang zu sehr davon überzeugt. Aber das sieht eben auch wirklich nach SRAM aus von der Struktur.

Gast
2010-09-07, 19:04:58
Ontario wird ja auch mit 40nm Bulk gefertigt, was gegenüber einen SOI-Prozess doch auch die Packdichte erhöhen sollte.

Gipsel
2010-09-07, 19:59:48
Moment. Intel hat 2x 45 nm Prozessse entwickelt. Einen HP und einen LP. Der Atom ist im LP Prozess gefertigt.
Nur weil Intel für Atom andere SRAM-Zellen benutzt und vielleicht an ein paar Prozeßknöpfen etwas gedreht hat, ist es kein anderer Prozeß. Atom wird genau so wie die anderen 45nm intel CPUs im P1266 Prozeß gefertigt, egal was irgendwer vom Marketing behauptet. TSMC bietet übrigens auch verschiedene SRAM-Zellen (und auch mehrere Optionen für's Tuning auf die konkrete Anwendung) für ihren 40G Prozeß an (für die anderen aber auch). Deswegen ist es auch nicht gleich jede Kombination davon ein anderer Prozeß.

Gipsel
2010-09-07, 20:02:42
So oder so: es ist beachtlich, dass AMD 2x OoO Bobcatcores + eine D3D11 GPU in einen Kern mit 63sqmm hinbekommt! Wieviel Transistoren für was anfallen ist zwar interessant, schmälert die Leistung aber kaum. :)
Ich glaube, daß sind eher ~10mm² mehr.

aylano
2010-09-07, 20:21:59
Aber das Bobcat nur halb so groß ist wäre wirklich beachtlich. Und mein Gefühl sagt mir eigentlich auch, dass es eher unwahrscheinlich ist. Atom hat auch nicht gerade enorme Ausführungsresourcen und das Scheduling sollte eigentlich viel einfacher sein.
...
Wobei das Blockschaubild halt wirklich extrem gut passt. Da hat der gute Hans schon recht :usad:
Eigentlich ist es sowieso schon interessant, warum der Dual-Core-Atom-Uncore-Teil um einige mm² geringer ist als der von Ontario.

Schließlich gelten AMD/ATIs-Chipsätze sowie AMD/ATI-GPUs als viel besser (Stromverbrauch? Performance? Diegröße? bzw. Performance-pro-mm²?) als die von Intel.

Wären im Ontario jetzt K10.5-Kerne statt Bobcat-Kerne, so würde die Dual-Core-Ontario-FLäche auch nur um 10mm² steigen.
Also, in eine 70-80mm² Die ist es von der Fläche her schon fast wurscht, ob da jetzt 10mm² oder 5mm² Kerne drinnen wären.

robbitop
2010-09-07, 20:36:52
Nur weil Intel für Atom andere SRAM-Zellen benutzt und vielleicht an ein paar Prozeßknöpfen etwas gedreht hat, ist es kein anderer Prozeß. Atom wird genau so wie die anderen 45nm intel CPUs im P1266 Prozeß gefertigt
Interessant! Hast du dafür ne Quelle? Ich meine nämlich, mich an Intels 45 nm Prozessroadmap bzw Ankündigung von 2x 45 nm Prozessen mit grundverschiedensten Chrarakteristika erinnern zu können. Eben einen HP und einen LP Prozess.
Vieleicht kann BlackBirdSR etwas dazu sagen?

Gipsel
2010-09-07, 20:48:48
Interessant! Hast du dafür ne Quelle? Ich meine nämlich, mich an Intels 45 nm Prozessroadmap bzw Ankündigung von 2x 45 nm Prozessen mit grundverschiedensten Chrarakteristika erinnern zu können. Eben einen HP und einen LP Prozess.
Vieleicht kann BlackBirdSR etwas dazu sagen?
Hmm, das wäre mir neu. Kann ja aber auch nicht alles wissen ;)
Blackbird?

Edit:
Schau mal in das 32nm Prozeß-Whitepaper von Intel (http://download.intel.com/pressroom/kits/32nm/westmere/Intel_32nm_overview.pdf) rein (das für 45nm habe ich auf die Schnelle nicht gefunden), da findet sich rückblickend über den P1266 Prozeß die Aussage, daß er erstens die Bezeichnung für Intels 45nm Prozeß ist (da werden nirgendwo mehrere erwähnt) und außerdem wird bei der Aufzählung der Erfolge auch der Atom genannt.

Coda
2010-09-07, 20:55:10
Selbst wenn Intel keinen expliziten LP-Prozess hat heißt es ja nicht, dass sie nicht trotzdem genauso energiesparende Chips bauen können wie TSMC.

Was die Prozesse angeht ist Intel TSMC eigentlich immer weit voraus.

Gast
2010-09-07, 21:08:33
anbei mal was anderes.

Ich weiß aber nicht, ob dieser Thread der richtige ist. Es würde auch in den Llano-, den Bulldozer- und sogar in den Tegra-Thread rein passen:

Samsung SoC in 32nm (aus dem Heise Newsticker):

http://www.heise.de/imgs/18/5/6/6/5/3/3/45-nm-32-nm.jpg-1902898740771ba5.jpeg

http://www.heise.de/newsticker/meldung/Erstes-32-Nanometer-ARM-SoC-als-Entwicklermuster-vorgefuehrt-1074569.html

BlackBirdSR
2010-09-07, 21:13:44
Hmm, das wäre mir neu. Kann ja aber auch nicht alles wissen ;)
Blackbird?

.
IMO ganz unspektakulär.

Der Grundlegende Prozess ist natürlich der Gleiche. Was Intel da vom Marketing erzählen lässt, ist im Endeffekt einfach eine andere Auslegung der Design Rules. Dicke einzelner Oxid/Gate-Schichten, Anzahl der IC-Layer und hier und da kann man natürlich auch am Ansprechverhalten drehen.

Die Tools bleiben gleich, die Art und Weise, wie die Tools arbeiten/abscheiden/entfernen weitgehend auch.

Eigentlich ist das auch nichts großartiges neues. Das betreiben so auch kleinere Buden wie Infineon oder große wie Samsung. Es gibt ein Technologie-Level und für verschiedene Produktkategorien eben unterschiedliche Design-Rules.


Edit: kurz gesucht:

Additionally, Intel used a new high-K 45nm2 LP SoC process to support a multiple transistor design with a range of high-voltage I/Os.

http://www.intel.com/pressroom/archive/releases/2010/20100504comp.htm

Coda
2010-09-07, 21:33:39
http://download.intel.com/technology/architecture-silicon/32nm/IDF_Fall_09.pdf

Es gibt einen P1266.8 mit "Low Leakage".

S940
2010-09-07, 22:30:13
http://download.intel.com/technology/architecture-silicon/32nm/IDF_Fall_09.pdf

Es gibt einen P1266.8 mit "Low Leakage".
Jo, ne kleine Übersicht davon gabs auch bei realworldtech:
http://www.realworldtech.com/page.cfm?ArticleID=RWT072109003617&p=7

Auf Seite 11 steht auch noch was zur SRAM density:
There is also a visible disparity between the MPU and ASIC oriented technologies for SRAM density. The ASIC processes tend to have denser SRAM arrays, likely because MPU oriented manufacturers like Intel and IBM optimize more for performance – presumably obtaining lower access times for their SRAMs at the cost of extra area per cell. Additionally, MPUs run at far higher frequencies - a low latency SRAM array at 3-6GHz is an entirely different story than a low latency array operating at 0.5-1GHz.

davidzo
2010-09-08, 01:14:02
Der Preis spielt kaum eine Rolle, da die Produktionskosten des Atom verdammt niedrig sind bzw. deutlich niedriger als der offizielle Preis.

Woher hast du denn den schwachsinn? Ein 1Ghz Samsung Prozessor wie er im i-pad verbaut ist kostet gerademal 14.46$. Als dieser Prozessor die Designwins für i-phone, ipad und diverse andere MIDs bekommen hat war moorestown die konkurrenz (kostete fast 10x so viel).
man kann die preisunterschiede der speziellen low poer versionen zu den normalversionen ganz gut an den erhältlichen mini-itxboards sehen. kostete die einfache netbookvariante mit 945GSE kaum mehr als die desktopvariante mit 945GC, so war der wirklich sparsame Poulsbo gut dreimal so teuer.
wenn nun schon die desktoplattform teurer ist als ein Atom merkt man wie deutlich intel am ziel vorbeischießt. sicher, das Ziel sind highend MIDs, highend Smartphones, aber derzeit verlangt man auch in diesen bereichen nunmal viel zuviel vom margenkuchen.

Heute liest man wieder, dass Tegra jetzt statt Intel in die LG-Tablets & Smartphones kommt. Und ich bezweifel, dass der Preis eine Rolle gespielt hat. Vorallem, da Nvidia üblich ja auch wenn möglich mit höheren/hohem Preis daherkommt.
tegra2 ist vielplatzsparender (49mm²) und in 40nm bulk auch viel billiger. denke nicht dass tegra2 ähnlich viel kostet wie lincroft (65nm in 45nm intel superLP)... ja, neben dem höheren preis hat natürlich auch der hohe stromverbrauch lincrofts und die nicht besonders umwerfende leistung eine rolle gespielt.

Die Absage bezog sich stark auf auf vorhandene Ressourcen.
40nm-Ontario ist ja kein Alles-Könner. Wenn er vielleicht (mit 28nm) in den Tablet(/Smartphone) Markt einsteigen will, dann muss er dafür auch optimiert werden.
So wie bei Netbooks könnte AMD dann auch in Zukunft "plötzlich" die Meinung ändern.
genau so plötzlich wie man seit vier jahren nun an bobcat arbeitet?
Nein, AMD hat gesagt dass sie derzeit keine strategie in dem marktsegment haben und erst recht nichts dergleichen auf der roadmap haben. Das könnte sich in zukunft ändern, aber in 28nm kommt das sicher nicht mehr, sowas wüsste man früher, AMD ist da nicht so flexibel und Schnell.


Eines darf man nicht vergessen.
Die 2xBobcat-Cores + L2 machen ca. 15mm² aus. Die 80 Shader + TMU machen auch so 10-15mm² aus.
du tust so als wären das fakten. das sind ersteinmal sehr vage schätzungen, auf so wackeligen beinen würde ich nicht weiter drauf spekulieren.

So,dann bleiben immer noch 50mm² von den 75-80mm²-Onatrio@40nm übrig.
Von den fast 66% des Dies wissen wir nicht, wie AMD diese in Sachen Stromverbrauch & Feature-Performance für Netbook / Tablets entwickelt hat.lol, was für eine milchmädchenrechnung. propus hat auch 65% diefläche die nicht von den kernen eingenommen wird nach der rechnung. und das ist ein quadcore mit wenig cache, eigentlich sollte hier die kernfläche deutlich überwiegen, der overhead durch uncore ist vergleichsweise kleiner als bei einem DC.


Wären im Ontario jetzt K10.5-Kerne statt Bobcat-Kerne, so würde die Dual-Core-Ontario-FLäche auch nur um 10mm² steigen.
Also, in eine 70-80mm² Die ist es von der Fläche her schon fast wurscht, ob da jetzt 10mm² oder 5mm² Kerne drinnen wären.
Ja, auf so seltsame erkenntnisse kommt man wenn man irgendwo mal was aufgeschnappt hat und damit seine milchmädchenrechnung macht. regor verbraucht in 45nm auch mal eben 120mm² diefläche, wie ist das mit deinen phantasien vereinbar?

aylano
2010-09-08, 04:26:11
Woher hast du denn den schwachsinn? Ein 1Ghz Samsung Prozessor wie er im i-pad verbaut ist kostet gerademal 14.46$. Als dieser Prozessor die Designwins für i-phone, ipad und diverse andere MIDs bekommen hat war moorestown die konkurrenz (kostete fast 10x so viel).

Wenn man den Unterschied zwischen Produktionskosten und Preis nicht versteht, dann braucht man eh nichts weiter dazu sagen.


tegra2 ist vielplatzsparender (49mm²) und in 40nm bulk auch viel billiger. denke nicht dass tegra2 ähnlich viel kostet wie lincroft (65nm in 45nm intel superLP)...
Ob der Chip jetzt 15 oder 20$ kostet, interessiert bei einem 400-500-600$ smartphone keinem.


genau so plötzlich wie man seit vier jahren nun an bobcat arbeitet?
Nein, AMD hat gesagt dass sie derzeit keine strategie in dem marktsegment haben und erst recht nichts dergleichen auf der roadmap haben. Das könnte sich in zukunft ändern, aber in 28nm kommt das sicher nicht mehr, sowas wüsste man früher, AMD ist da nicht so flexibel und Schnell.

Man kann gerne ignorieren, dass AMD jahrelang einen Bobcat in Entwicklung hatte und trotzdem das Wort Netbook verweigerte und erst kurz vor der Bobcat-Einführung das Wort "Netbook" in den Mund nimmt.
Welch zufall.

Außerdem betonte man extra, dass die Aussage eher nur Momentan gilt.
Also, damit deutete AMD schon mehr als deutlich auf einen Tablet-Markt in naher Zukunft (= so 1 Jahr) an.

Außerdem muss sich AMD nicht mit ATOM messen, da ATOM im Smartphone-Markt extrem versagt hat. Und im Tablet-Markt siehts auch nicht viel besser aus.


du tust so als wären das fakten. das sind ersteinmal sehr vage schätzungen, auf so wackeligen beinen würde ich nicht weiter drauf spekulieren.

Wenn die Zahlen ja so falsch sind, dann bitte widerlege sie doch.


lol, was für eine milchmädchenrechnung. propus hat auch 65% diefläche die nicht von den kernen eingenommen wird nach der rechnung. und das ist ein quadcore mit wenig cache, eigentlich sollte hier die kernfläche deutlich überwiegen, der overhead durch uncore ist vergleichsweise kleiner als bei einem DC.

Es sollte zum Denken anregen!
Aber wie man sieht, hast du die Milchmädchrechnung weder verstanden noch kannst du sie mit Propus nachrechnen.


Ja, auf so seltsame erkenntnisse kommt man wenn man irgendwo mal was aufgeschnappt hat und damit seine milchmädchenrechnung macht. regor verbraucht in 45nm auch mal eben 120mm² diefläche, wie ist das mit deinen phantasien vereinbar?
Für einen, der offensichtlich nicht viel Ahnung über Architekturen hat und sonst schwer mitkommt, machst du den Mund ganz schön auf.

Ich muss garnichts über Regor erzählen.
Tatsache ist, ein Ontario-80mm²-Die wird aus 2-Cores sowie iMC & iGPU & Co bestehen.
Wie groß die Core-Flächen sind, ist eigentlich wurscht, wenn AMD es schafft die beiden Cores sowie iGPU & iMC & Co in 80mm² reinzustopfen.

Nur hatten manche Leute die Corefläche etwas überschätzt.
Ich hatte nur zu bedenken gegeben, dass Ontario mit 2x K10.5 Kernen kaum (so 10mm²) größer wäre als mit 2x Bobcat.

Gast
2010-09-08, 07:22:13
..
Ob der Chip jetzt 15 oder 20$ kostet, interessiert bei einem 400-500-600$ smartphone keinem.
..


Hahaha, der war gut.

Dural
2010-09-08, 09:54:10
Tegra2 war doch mal 30.- Doller und wurde vor kurzem auf ca. 15.- Doller gesenkt, deswegen hat wohl auch LG zugeschlagen?!

30.- Doller waren wohl eindeutig zuviel... das sind immerhin schon ca. 1/4 der Herstellungskosten eines Handy!!!

Gast
2010-09-08, 11:18:44
Boinc Benchmark (single Thread):

http://www.abload.de/img/bobcatxm1z.jpg

http://www.xtremesystems.org/forums/showpost.php?p=4541915&postcount=134

Gast
2010-09-08, 12:07:39
Boinc Benchmark (single Thread):


Ich bin auf die finalen Taktraten gespannt und ob man die Mainboards mit Zacate APU übertakten können wird.
Ein Leistungsfähiger Office-PC/HTPC für unter 150Euro mit unter 30Watt idle Verbrauch, würde sich für mich nach ca. zwei Jahren durch den geringeren Stromverbrauch amortisieren.

aylano
2010-09-08, 12:10:50
Tegra2 war doch mal 30.- Doller und wurde vor kurzem auf ca. 15.- Doller gesenkt, deswegen hat wohl auch LG zugeschlagen?!

30.- Doller waren wohl eindeutig zuviel... das sind immerhin schon ca. 1/4 der Herstellungskosten eines Handy!!!
Du sagts es.
Mond-Preise eines Chips sagen nichts über die Herstellungskosten eines Chips aus.

Wobei ich das Problem von Tegra2 eher an der problematischen (Qualität & Wafer-Kapazitäten) 40nm-TSMC-Herstellung sah, warum er kaum von bedeutenden Herstellern angenommen wurde.
Dort sind hohe Chip-Mengen sowie Versorgungssicherheit sehr wichtig.

Es dürfte kein Zufall sein, dass gerade Mitte 2010 wo die 40nm-Fertigung (Qualität) schon recht vernünftig sein sollte, Nvidia den Auftrag für eine Zeit bekam, wo dazwischen noch die TSMC-Fab14 auf 40nm umgestellt wird.

Ich denke, LG war sowieso nicht rundum begeistert mit Intel. Denn so ein schneller Chipwechsel scheint mir doch recht ungewöhnlich.

Um einen Namen im ARM-Markt zu bekommen, benötigt man große bzw. bedeutende Aufträge. Und das dürfte Nvidia mit einer Starken Preissenkung (falls das oben stimmt) eben erreicht haben.

Ailuros
2010-09-08, 12:33:24
Tegra2 kostet heute je nach Abmachung zwischen $10 und $12, egal was eigentlich sonst seitens NV offiziell erwaehnt wird (die $30 sind eine andere Geschichte). Fruehe Projektionen fuer T2 sprachen von einem $250Mio Umsatz und heute liegt die Projektion auf lediglich $125Mio. Weniger als erwartet Vertraege und ein kleinerer als anfangs erwarterter Verkaufspreis.

Lasst die Geschichte mit LG/Intel zur Seite. Intel hat Mist gebaut und hat deshalb den Deal verloren, mehr braucht man nicht zu wissen.

***edit: ich hab uebrigens jemand nachgefragt wie gross der GPU-block auf Ontario ist und wenn der Herr recht hat ist selbst aylano verdammt optimistisch.

davidzo
2010-09-08, 13:03:22
Wenn man den Unterschied zwischen Produktionskosten und Preis nicht versteht, dann braucht man eh nichts weiter dazu sagen.
Produktionskosten des Chips? - Seit wann hat apple denn eine Fab?
Der wird von Samsung dazugekauft und umgelabelt, natürlich ist das der Preis.
Im übrigen habe ich das verwechselt, gerade nochmal nachgeguckt es kostete der im 3GS 14$, der A4 im iphone4 kostet lediglich 10.75$. Merkst du jetzt dass das andere welten sind als die intel verkaufspreise für atom und co?


Ob der Chip jetzt 15 oder 20$ kostet, interessiert bei einem 400-500-600$ smartphone keinem.
Lol, aber wenn du richtig nachliest ist zwischen intel und arm eher ein 10facher preisunterschied.
das ich-fon 4 hat eine BOM von 188$, der rest geht für die entwicklung, design und software drauf und ein nicht unerheblicher teil dann in apples portokasse. für den kunden macht es schon einen deutlichen unterschied wenn das display besser ist (iphone IPS panel 28,50$), weniger ob man nun einen nvidia oder poverVR chip mit A8 oder A9 unter der haube hat. 5$ mehrpreis bei einer völlig unerheblichen Komponente sind also ein deutliches gegenargument für den teureren prozessor, werden also viel eher in display und gehäuse und andere wichtigere smartphonemerkmale gesteckt. Intel war da nicht ansatzweise Konkurrenzfähig, dafür müssten highend smartphones nicht 600$(180$herstellung) kosten sondern 1000$(300$herstellung).


Außerdem betonte man extra, dass die Aussage eher nur Momentan gilt.
Also, damit deutete AMD schon mehr als deutlich auf einen Tablet-Markt in naher Zukunft (= so 1 Jahr) an.

Du liest und verstehst aber sdehr selektiv. Man betonte eher dass man nicht nur derzeit keinerlei pläne hat, sondern dass man auch kein Kreuzungspunkt aus eigener Technologie und Marktbedarf sieht. Das bedeutet dass man es für unrealistisch hält bobcat herunter zu skalieren, als auch den Smartphonemarkt viel zu stark umkämpft sieht als dass man dort konkurrieren könnte und wollte. zumindest nicht mit bobcat.

"I do not foresee that day [when AMD competes with ARM is] coming in the near term. First of all, when we consider which areas to approach, we look at markets, we look at the technology capabilities we have, and we try to find an intersection point that really represents really big opportunities,” said Dirk Meyer, chief executive officer and president of AMD, in an interview with the Fortune magazine.

“By far the biggest business opportunity we have got is in PCs and servers. The market for silicon processing content is bigger than the smartphone market,” he went on to saying.

“The other thing we really like about our core market is that there aren't that many competitors [...]. I would rather focus on the big market, where there's a small number of competitors," he explained.

Er entschuldigt sich also, dass man keinerlei interesse habe in diesen markt einzusteigen für den auch die bisherige technologie nicht ideal sei (technology capabilities we have).
Das wird garantiert nicht in einem jahr anders sein. Bobcat als Prozessordesign dagegen wurde im januar 2007 angeküpndigt, ob man da nun das wort netbook explizit erwähnt hat oder nicht, hat man dort schon den bereich von 1-10Watt festgelegt. so langsam sollte also was über einen miliwattbereich durchsickern, würde man wirklich planen bereits in einem jahr im smartphonebereich anzutreten.

Ich schätze die chancen AMD in den nächsten 2 Jahren wieder im smartphonebereich zu sehen auf unter 5% ein.

Wenn die Zahlen ja so falsch sind, dann bitte widerlege sie doch.
Ich hab dich aufgefordert zu erklären wieso regor dann im vergleich mehr als doppelt so groß ist, dem bist du ausgewichen. du vermeidest zu argumentieren.

Diverse Leute im Forum hier, die mehr Ahnung von Chips haben als du zweifeln diese zahlen an, lediglich gipsel und du sind da so verbohrt von überzeugt und erfinden ständig fantastischere gerüchte. Referenzen habe ich dir diverse gegeben, allen vorran der atom selber, dann der K7 und letzendlich der via C7 als einfachste Architektur die man sich vorstellen kann. letzterer hat kein 64bit, kein ooO und kein sse3 sowie eine verdammt schwache FPU gegen die der atom nocht sehr stark aussieht.
wenn du schon soviel ahnung hast von chips und architekturen, dann fordere ich dich auf endlich mal in transistoren zu sprechen, nur so kann man architekturen überhaupt vergleichen. stattdessen ziehst du dich immer wieder auf deine quadratmilimeter zurück und legst die these eben nahe dass hinter den großen worten eben doch keine architektur- und prozesskenntnisse stecken.

Ich muss garnichts über Regor erzählen.
Tatsache ist, ein Ontario-80mm²-Die wird aus 2-Cores sowie iMC & iGPU & Co bestehen.
Wie groß die Core-Flächen sind, ist eigentlich wurscht, wenn AMD es schafft die beiden Cores sowie iGPU & iMC & Co in 80mm² reinzustopfen.
Sicher würde es AMD schaffen ein 80mm² die mit GPU und IMC zu machen, wenn ich dich aber erinnern darf ist Ontario eher etwas bei 55mm², bedeutend kleiner als ein 63mm² cedar.
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8251211&postcount=241
Da haben wir den schönen zahlenbeweis, dass deine Fantasie eben doch über vier Seiten mit posts ganzschön mitgeht. Da gab es den Beweis, Ontario ist kleinber als Cedar, dann hieß es 73mm³ und mittlerweile bist du schon bei 80mm² weil du mittlerweile noch mehr TMUs und Alus und features in Ontario vermutest. Dieser optimismus ist zwar ganz niedlich, aber am boden der tatsachen muss man von den <63mm² ausgehen und da wird bestimmt kein 63mm² cedar mit 80sp/8TMUs reingehen. wenn man sehr optimistisch ist geht da ein Southern Islands derivat mit 64sp und 4 tmus rein, aber alle anzeichen deuten darauf hin das bobcat noch auf evergreen basiert.

Ich denke, LG war sowieso nicht rundum begeistert mit Intel. Denn so ein schneller Chipwechsel scheint mir doch recht ungewöhnlich.

LOL, einen chipwechsel kann man nicht mal eben machen. Da waren schlichtweg zwei ähnliche Geräte in der pipe, eventuell mit ein paar Synergien - und ein Gerät hat es eben nicht bis zur Marktreife geschafft und wurde gestrichen. Chipwechsel, du hast ja infantile vorstellungen ... rofl

Ailuros
2010-09-08, 13:20:50
Nur so nebenbei: es ist gewoehnlich dass Hersteller fuer grosse Semis Konzept-Geraete herstellen und das Resultat es nie zu einem echten finalen Produkt schafft. Aava mobile war genauso ein Konzept-Geraet wie LG GW990 fuer Intel's Moorestown.

Produktionskosten des Chips? - Seit wann hat apple denn eine Fab?
Der wird von Samsung dazugekauft und umgelabelt, natürlich ist das der Preis.
Im übrigen habe ich das verwechselt, gerade nochmal nachgeguckt es kostete der im 3GS 14$, der A4 im iphone4 kostet lediglich 10.75$. Merkst du jetzt dass das andere welten sind als die intel verkaufspreise für atom und co?

Zwar gibt es Unterschied zwischen dem SoC im 3GS und A4 aber ganz grob vereinfacht hat A4 hautpsaechlich eine schneller getaktete CPU und GPU. Beide haben A8 CPUs (3GS= 600MHz, 4= 800MHz, iPad= 1GHz) und SGX535 (3GS= 150MHz, 4= 200MHz, iPad= 250MHz). Kann sein dass ich mich irgendwo mit den Frequenzen verzettelt habe, aber die Relation der Frequenzen zwischen den diversen Geraeten duerfte schon stimmen.

davidzo
2010-09-08, 13:45:54
Zwar gibt es Unterschied zwischen dem SoC im 3GS und A4 aber ganz grob vereinfacht hat A4 hautpsaechlich eine schneller getaktete CPU und GPU. Beide haben A8 CPUs (3GS= 600MHz, 4= 800MHz, iPad= 1GHz) und SGX535 (3GS= 150MHz, 4= 200MHz, iPad= 250MHz). Kann sein dass ich mich irgendwo mit den Frequenzen verzettelt habe, aber die Relation der Frequenzen zwischen den diversen Geraeten duerfte schon stimmen.
Das ist schon richtig, allerdings profitiert man beim iphone4 von prozessverbesserungen die in die akkulaufzeit und auch aufgrund der fortschreitend zunehmenden stückzahl sinkt der preis. Der Preis für den 3GS prozessor (14$) war ja auch von 2009, da sieht man schön was nahezu derselbe prozessor ein jahr später 2010 nur noch kostet (10$).
weiß jemand ob der A4 im selben prozess gefertigt wird wie der prozessor im iphone3GS, möglicherweise ist mit der umlabelung auf Apple A4 ja auch ein prozesswechsel verbunden? Die Markierungen auf dem gehäuse sind jedenfalls unterschiedlich.



***edit: ich hab uebrigens jemand nachgefragt wie gross der GPU-block auf Ontario ist und wenn der Herr recht hat ist selbst aylano verdammt optimistisch.

Das ist dochmal ne Ansage. Ich nehme an du meinst damit dass der GPU-block verdammt wenig Fläche benötigt. Allerdings kann man davon ausgehen dass sie eben chip-ingenieurtypisch alle möglichen zusatzbereiche wie UVD, PCIe und SI nicht mitzählen.

Dem leite ich jetzt ab, dass Hans Dieshot Orakel ziemlicher Unsinn war, denn dort nimmt der GPU-block rund 80% des DIEs ein.

Bei einem winzigen GPU-Block sollte man seine Hoffnungen auf 80sp/8tmu mal schnell begraben, welche angesichts von weniger als 63mm² diefläche ohnehin extrem unrealistisch waren.

Ailuros
2010-09-08, 13:59:17
Das ist dochmal ne Ansage. Ich nehme an du meinst damit dass der GPU-block verdammt wenig Fläche benötigt. Allerdings kann man davon ausgehen dass sie eben chip-ingenieurtypisch alle möglichen zusatzbereiche wie UVD, PCIe und SI nicht mitzählen.

Nein ganz im Gegenteil. Ich bin der Meinung dass DX11 Nivaeu GPU Bloecke ziemlich viel Platz einnehmen werden und am meisten natuerlich die TMUs. Wie in einem vorigen Post schon erwaehnt nach IMG's eigenen Daten nimmt ein einzelner SGX543 core (4 ALUs, 2 TMUs) 8mm2 ein bei DX9.0 (ohne das Zeug dass DX11 fuer DX9 vorraussetzt) und deren SGX545 (4 ALUs - beim 543 doppelt so viele Instruktionen- 2 TMUs) 12.5mm2 ein mit DX10.1/OGL3.2. Und ja ich betonte dass der 4.5mm2 Unterschied nicht nur mit DX10.1 ausschliesslich zu tun hat, aber eine grobe Indizie ist es schon.


Bei einem winzigen GPU-Block sollte man seine Hoffnungen auf 80sp/8tmu mal schnell begraben.

Ich erwarte fuer Ontario nicht mehr als 4 TMUs. Wie ich schon in vorigen Posts sagte momentan haben wir das tablet/netbook Segment hoechstenfalls DX9.0 und 2 TMUs. Schon DX11 von sich selber duerfte fuer die TMUs alleine fuer einen gesunden Zusatz sorgen und das Ganze nochmal mal 2 (ergo 4 TMUs) klingt mir schon ziemlich am Rand. 8 bzw. 16 TMUs klingen mir dann eher nach low end PC/notebook Material.

***edit: wenn ich mich nicht irre 3GS=65nm, A4=45nm.

Coda
2010-09-08, 14:35:49
Nein ganz im Gegenteil. Ich bin der Meinung dass DX11 Nivaeu GPU Bloecke ziemlich viel Platz einnehmen werden und am meisten natuerlich die TMUs.
Wieso die TMUs? Da wurden zwei Kompressionsformate hinzugefügt und man hat die Adressierung um ein Bit erweitert. Hört sich für mich nach +10-20% Fläche oder so an.

Viel schlimmer dürfte das benötigte für CS sein, falls man es noch nicht hat (shared memory, etc.). Und Tesselation natürlich.

aylano
2010-09-08, 16:25:57
Produktionskosten des Chips? - Seit wann hat apple denn eine Fab?
Der wird von Samsung dazugekauft und umgelabelt, natürlich ist das der Preis.
Im übrigen habe ich das verwechselt, gerade nochmal nachgeguckt es kostete der im 3GS 14$, der A4 im iphone4 kostet lediglich 10.75$. Merkst du jetzt dass das andere welten sind als die intel verkaufspreise für atom und co?
Wenn man keine Ahnung hat, wie hoch die Produktionskosten vom Atom sind, kannst du es auch gleich in einem Satz schreiben.


Lol, aber wenn du richtig nachliest ist zwischen intel und arm eher ein 10facher preisunterschied.

Der Intel-Preis ist ein Naturgesetz, den man nicht nach bedarf ändern kann.
Interessant.
Vor allem, wenn Intel auch noch Rabatte gibt

Du liest und verstehst aber sehr selektiv. Man betonte eher dass man nicht nur derzeit keinerlei pläne hat, sondern dass man auch kein Kreuzungspunkt aus eigener Technologie und Marktbedarf sieht. Das bedeutet dass man es für unrealistisch hält bobcat herunter zu skalieren, als auch den Smartphonemarkt viel zu stark umkämpft sieht als dass man dort konkurrieren könnte und wollte. zumindest nicht mit bobcat.
Es wäre mir lieber, dass du die Netbook-Marketing-Aussagen von Früher & heute kommentierst und diese nicht bewusst ignorierst. Denn dann würdest du die aktuelle Marketing-Aussage über Ontario-smartphone besser verstehen.

Ich hab dich aufgefordert zu erklären wieso regor dann im vergleich mehr als doppelt so groß ist, dem bist du ausgewichen. du vermeidest zu argumentieren.
Das spricht ja gegen deine Aussagen, aber das macht ja nichts.

Weil, wie schaffte es AMD, die fast (90%) Leistung eines Regor sowie einer ganzen North-Bridge mit GPU & PCIe von 200mm² (120mm² + 80mm²? (GPU + PCIe) auf nur 80mm² 55mm² zu stopfen?;)

Du du da wegen paar mm² klar erkennst, ob das jetzt 40 Shader oder 80 Shader sind, ist lächerlich, weil man nicht weiß, was beim Cedar alles gestrichen wurde.
Es könnten sie eben trotzdem 80 Shader ausgehen, weil man sicher nicht nur die Bobcat-Kerne & IMC (& PCIe) optimiert hat.


Diverse Leute im Forum hier, die mehr Ahnung von Chips haben als du zweifeln diese zahlen an, lediglich gipsel und du sind da so verbohrt von überzeugt und erfinden ständig fantastischere gerüchte. Referenzen habe ich dir diverse gegeben, ...
Das erwähnen von K7 & Co nennst du Referenzen? Ist doch nicht den ernst.
Deine Aussagen sind so was von allgemein!


Sicher würde es AMD schaffen ein 80mm² die mit GPU und IMC zu machen, wenn ich dich aber erinnern darf ist Ontario eher etwas bei 55mm², bedeutend kleiner als ein 63mm² cedar.
Soll es mir recht sein, dass Ontario jetzt doch 55mm².
Es ist mir auch egal, ob da jetzt 40 oder 80 Shader drinnen ist.
Und nur weil es Ontario jetzt kleiner als RV810 ist, sollest du bedenken, dass auch beim RV810 einiges entfernt wurde. Eben weil Shader & Co garnicht so viel ausmachen.

Dieser optimismus ist zwar ganz niedlich, aber am boden der tatsachen muss man von den <63mm² ausgehen und da wird bestimmt kein 63mm² cedar mit 80sp/8TMUs reingehen. wenn man sehr optimistisch ist geht da ein Southern Islands derivat mit 64sp und 4 tmus rein, aber alle anzeichen deuten darauf hin das bobcat noch auf evergreen basiert.
Wenn du Texte richtig lesen könntest, dann hättest du erkannt, dass es mir scheiß egal ist ob da jetzt 40 oder 80 Shader & Co im Ontario drinnen sind.

Ich wollte nur zeigen, dass die Bobcat-Core-Größe bei 60 oder 80mm² ziemlich gering ist, sodass 2xK10.5 statt 2xBobcat-Kerne nur lächerliche +12mm² (so +15%) bedeutet.

Schließlich bezweifelst du ja auch die geringe Bobcat-Größe an.

***edit: ich hab uebrigens jemand nachgefragt wie gross der GPU-block auf Ontario ist und wenn der Herr recht hat ist selbst aylano verdammt optimistisch.
Tja, das musst du genauer erkären.
Ich hatte mal nebenbei!!!!!! (im grunde ist mir eh scheiß egal ob da jetzt 40 oder 80 drauf sind) erwähnt, dass 80 Shader & Co 15mm².

Shader & TMU ist ungleich GPU!!!!!!!!!!!!!!!!
Schließlich braucht man auch ein Front-End, Tesselation usw usw
.
Und wenn man will, dann kann man ja UVD 3.0 auch dazuzählen.

Den Vergleich mit 2x 5mm² (Bobcat-core) und 15mm² (Shader & Co) hatte ich deshalb bewusst gemacht, weil in den 66% (non-Core und non-Shader & TMU) eben die Front-End oder UVD 3.0 oder IMC oder was-auch-immer noch verbessert, verkleinert und stromsparender wurde.

Und genau über diese 66% wissen wir noch weniger als über den Core & Shader-Bereich.

Entweder, ist im Ontario ein vollständiger RV810 drinnen, oder eben nicht und hat eben auch Front-End verkleinert und vielleicht etwas entfernt, was nicht im Ontario gebraucht wird.

Coda
2010-09-08, 16:52:03
Wieso gehen eigentlich alle von RV8xx aus? Es könnte durchaus sein, dass das schon ein NI-Derivat ist und nur 4 Slot VLIW ALUs hat.

Das wären dann "nur" 64 ALUs und 8 TMUs.

w0mbat
2010-09-08, 16:55:56
naja, bobcat apu samples gibt es schon eine weile, ich denke dass da noch ein rv7xx rv8xx derivat drinnen ist.

Gast
2010-09-08, 16:56:56
Wieso gehen eigentlich alle von RV8xx aus?

Weil das von AMD schon mehrmals bestätigt wurde.

Gast
2010-09-08, 16:58:19
naja, bobcat apu samples gibt es schon eine weile, ich denke dass da noch ein rv7xx derivat drinnen ist.
In den Samples? Für den finalen Ontario ist eine DX11-GPU bestätigt.
Laut AMD-Blog soll wohl auch ein neuer UVD verbaut sein, also wohl UVD 3.0.
Also durchaus denkbar, dass Ontarios IGP auf NI basiert.

Coda
2010-09-08, 16:59:17
Weil das von AMD schon mehrmals bestätigt wurde.
Öh davon hab ich nichts mitbekommen. Wo habean sie das gesagt?

Triskaine
2010-09-08, 17:19:24
Aber das sieht eben auch wirklich nach SRAM aus von der Struktur.

Dazu ist mir soeben etwas eingefallen. Laut AMD verfügen die Bobcat Kerne über Power Gating. Um dieses umzusetzen werden höchstwahrscheinlich große Transistoren verwendet die an den stromversorgenden Bumps sitzen und diese bei Bedarf abkoppeln. Zusätzlich braucht man noch ein isolierende Schicht.

Da die bekannten Bobcat Die shots die oberste Metallisierungsebene zeigen, ist diese SRAM ähnliche Struktur wahrscheinlich einfach die Entkopplungschicht der Power Gating Transistoren.

Womit Hans's Zuordnung wieder perfekt passt.

EDIT:

Öh davon hab ich nichts mitbekommen. Wo haben sie das gesagt?

Hier (http://blogs.amd.com/fusion/2010/09/06/direct-from-berlin-and-ifa-2010-guten-tag-kleine-fusion/) sagt AMD:

DirectX11-capable GPU cores derived from the award-winning AMD Radeon™ discrete GPU.

Coda
2010-09-08, 18:02:02
Das sagt aber gar nichts aus. NI sind auch "Radeons".

aylano
2010-09-08, 18:46:06
Wieso gehen eigentlich alle von RV8xx aus? Es könnte durchaus sein, dass das schon ein NI-Derivat ist und nur 4 Slot VLIW ALUs hat.

Das wären dann "nur" 64 ALUs und 8 TMUs.
In den IGPs sind immer nur fast 1 Jahre alte Low-End (bzw. 2 Jahre alte Mainstream GPUs) reingekommen.
IMO aus Ressurcen- & Risiko-Gründen.

Dass es AMD im Ontario schafft mit Aktueller GPU-Technologie einzubauen, wäre schon eine sehr große Überraschung.

Beim RS880 wurde auch noch RV620 statt RV710 eingebaut sowie den aktuellen UVD 2.0 eingebaut.

Und so könnte es auch mit Ontario aussehen. RV810-GPU (=alte GPU-Generation) mit aktuellem UVD 3.0.

Also, wenn sie es jetzt auch noch schaffen würden, die aktuelle GPU-Technologie im iGPU einzubauen, dann wäre AMD in der Chip-Entwicklung verdammt stark, da sie mit ihrer GPU-Technologie auch schon rechtzeitig auf Fertigungsproblemen (mise 40nm sowie 32nm-Cancel) reagieren könnten.

Grundsätzlich eine gute/berechtigte Frage.

LieberAal
2010-09-08, 19:08:15
Uiuiui ... am Ende stecken im Ontario zwei Bulldozer Kerne und 128 NI Shader. Und die Boinc Scores wurden mit den klassischen 800MHz erzielt, zum Verkaufsstart kommt er aber mit > 2GHz ;)

y33H@
2010-09-08, 19:11:31
Ontario ist laut JF kein BD. Bobcat geht mehr Richtung Athlon II X2.

Ailuros
2010-09-08, 19:16:17
ROFL :P

Ok zurueck zum Thema: es steht nirgends in Stein gemetzelt dass AMD von oben nach unten bei Fusion entwickelt hat und doch nicht anders rum. Fusion ist kein gestriges Projekt und wurde schon einmal verzoegert, deshalb ist es auch ziemlich schwer die These momentan auszuschliessen dass sie nicht vielleicht doch mit Fusion quasi ein paar Erfahrungen fuer NI gesammelt haben.

Gast
2010-09-08, 21:08:29
wurden eigentlich schon die BOINC-Benchmarks diskutiert. Da gibt es jetzt nämlich neue Infos:

Quellen:

http://www.xtremesystems.org/forums/showpost.php?p=4541915&postcount=134
http://www.semiaccurate.com/forums/showpost.php?p=66100&postcount=163
http://citavia.blog.de/2010/09/05/more-facts-of-bulldozer-and-bobcat-9317278/


To be compared with the early, first silicon Bobcat numbers:

1) FP: 1,351 ... Int: 3,047
2) FP: 1,330 ... Int: 3,120




Zum Vergleich ein 65nm Conroe @ 1,6GHz:

For comparison Conroe(Core2 @ 65nm) @ 1.6Ghz gets int ~3290, fp ~1560.Bobcat is,according to BOINC, around 95% of 65nm C2D's perf. in integer and around 85% in fp calculations.


und hier noch ein Atom D510:

A better compare would be to the dual core + IGP Atom D510:
Intel(R) Atom(TM) CPU D510 @ 1.66GHz [Family 6 Model 28 Stepping 10]

FP: 610 ..... Int: 1,765
FP: 735 ..... Int: 1,898


Da BOINC AFAIK nur die Single-Core Performance misst, spielt die Anzahl der Cores übrigens keine Rolle. Der Conroe ist aber nicht die "frischeste" CPU der Konkurrenz. ;)

Offener Punkt: GHz des Ontario/Zacate

davidzo
2010-09-08, 21:09:13
Der Intel-Preis ist ein Naturgesetz, den man nicht nach bedarf ändern kann.
Interessant.
Vor allem, wenn Intel auch noch Rabatte gibt
Zick nicht so rum, du weißt genau was gemeint ist.
Klar gibts rabatte, sogar soweit dass nvidia offiziell jedem für ein tegra 30$ abknüpft während die großen OEMs die die margen machen kaum mehr als 10$ dafür zahlen.
Aber auch ein kräftiger Rabatt kriegt kein >100$ produkt anah an ein 10$ Produkt heran. Das war die Aussage und das solltest du langsam mal kapiert haben.

Denn dann würdest du die aktuelle Marketing-Aussage über Ontario-smartphone besser verstehen. Marketing? Das war Dirk Meyer persönlich, der wird sich hüten schritt zu erzählen. zumal die Analysten nur gehofft haben dass er positiv auf das Thema reagiert. das hätte die kurse nämlich nach iben gezogen, also dass er negativ reagiert hat ist daher ein klares indiz, marketingleute hätten sich vager ausgedrückt.



Weil, wie schaffte es AMD, die fast (90%) Leistung eines Regor sowie einer ganzen North-Bridge mit GPU & PCIe von 200mm² (120mm² + 80mm²? (GPU + PCIe) auf nur 80mm² 55mm² zu stopfen?;)
Einfach, weil weniger drin ist.
Du weißt doch wie das ist, Atom sollte Pentium M Leistung erreichen. Man hat das dann hier ganz begeistert auf die 2Ghz Dothans gemünzt.
Das man damit aber gerademal einen 800mhz Celeron M erreicht hat vorher auch niemand spekuliert. 90% of todays mainstream performance ist das ziel, nicht das Ergebnis, kapiert?


Das erwähnen von K7 & Co nennst du Referenzen? Ist doch nicht den ernst.
Deine Aussagen sind so was von allgemein!
Und du hast gar keine Referenzen, sondern verleugnest eben alle aktuellen ala rv810, propus, regor, pineview, da das ja alles aufgeblähjte Architekturen sind. Stellt man dir jedoch Architekturen vor die vom Tranbsistorcount her extrem effizient sind wird dir das zu allgemein.





Wenn du Texte richtig lesen könntest, dann hättest du erkannt, dass es mir scheiß egal ist ob da jetzt 40 oder 80 Shader & Co im Ontario drinnen sind.
Oh ne, das ist mir neu, muss ich wohl überlesen haben (referenz?). Bisher ging die ganze diskussion doch darum dass du immer mehr einheiten in ontario vermutest hast und ich das verneint habe.


Schließlich bezweifelst du ja auch die geringe Bobcat-Größe an.
Das klingt stark vereinfacht. Die 55mm² habe ich nie angezweifelt, sondern dir eben gerade nochmal bestätigt.
Ich zweifle die größe des Grafikchips an weil Ontario so klein ist und weil Bobcat so gute Leistung zeigt (vorrausgesetzt die BOINCwerte sind echt).



Ich hatte mal nebenbei!!!!!! (im grunde ist mir eh scheiß egal ob da jetzt 40 oder 80 drauf sind) erwähnt, dass 80 Shader & Co 15mm².
kann sein, aber überhaupt woher hast du das? wenn ich mich erinnere waren die alus bei rv770 doch deutlich ersichtlich. zeig mir das mal bitte im dieshot, was 80sp in 40nm verbrauchen.

Shader & TMU ist ungleich GPU!!!!!!!!!!!!!!!!
Schließlich braucht man auch ein Front-End, Tesselation usw usw
eben und der platzbedarf von front-end, tesselator usw. ist ohne eine stark veränderte architektur immer gleich. das einzige woran man drehen kann sind also shader&tmu.

Und genau über diese 66% wissen wir noch weniger als über den Core & Shader-Bereich.
doch ich weiß was dazu. da stecken SI, Caches und Crossbar drin. Da es sich um ein 64bit Interface handelt wie bei Cedar und 512kb cache pro Core wie bei propus (1/2 propus hat auch 64bit SI) lässt das schon ziemlich genaue aussagen zu.

Es wäre bedeutend einfacher, wenn du L1 und L2 zu den Cores rechnen würdest, wie man das beim atom ja auch macht, anstatt immer mit deinen quadratmilimetern herumzufuchteln.

Das SI kannst du zur GPU dazuzählen, ebenso UVD, frontend und PCIe lanes (4x für diskrete grafik + xx für SB), dann hat man eine bessere vergleichbarkeit mit diskreten GPUs.


Wieso gehen eigentlich alle von RV8xx aus? Es könnte durchaus sein, dass das schon ein NI-Derivat ist und nur 4 Slot VLIW ALUs hat.
Ich nehme an du meinst eigentlich SI, denn NI ist ja 28nm. solange wie bobcat angekündigt ist wäre es extrem unwahrscheinlich SI hier zu sehen. Die Integration braucht mehr vorlauf, daher ist man nicht so flexibel wie bei diskreten Grafikchips.Das mit dem Vorlauf sieht man gut an Llano, der ja eben kein Bd wird obwohl er etwa zeitgleich erscheinen sollte.

Das wären dann "nur" 64 ALUs und 8 TMUs.
Wohl eher 64ALUs 4 TMUs. Aber das wäre auch die optimistischte Variante die ich noch gerade so eben für realistisch halte.


Uiuiui ... am Ende stecken im Ontario zwei Bulldozer Kerne und 128 NI Shader. Und die Boinc Scores wurden mit den klassischen 800MHz erzielt, zum Verkaufsstart kommt er aber mit > 2GHz ;)
Nicht zwei Bulldozer Kerne, sonder zwei Bulldozer Module. und den VRAM kann man sich sowieso sparen weil der ja ondie sozusagen als übergroßer L3 angebunden wird. mit den neuen AMDtricks für 40nm bulk ist das alles kein problem.

Gast
2010-09-08, 21:15:17
wurden eigentlich schon die BOINC-Benchmarks diskutiert. Da gibt es jetzt nämlich neue Infos:



Edit: hier ein paar Tabellen mit Vergleichswerten:

http://www.xtremesystems.org/forums/showthread.php?t=134602&page=34

S940
2010-09-08, 21:19:57
wurden eigentlich schon die BOINC-Benchmarks diskutiert.
Ja vor ein paar Monaten:
http://citavia.blog.de/2010/06/29/llano-tri-core-and-ontario-dual-core-spotted-8884456/
The Ontario core's integer performance is comparable to an 1.3 GHz Phenom II core, while the (single precision) floating point performance even matches that of an 1.6 GHz Phenom II core.
Mittlerweile weis man, dass Boinc DP ist:
http://citavia.blog.de/2010/07/01/some-updates-regarding-ontario-boinc-and-bobcat-8899248/

aylano
2010-09-09, 00:38:28
Zick nicht so rum, du weißt genau was gemeint ist.
Klar gibts rabatte, sogar soweit dass nvidia offiziell jedem für ein tegra 30$ abknüpft während die großen OEMs die die margen machen kaum mehr als 10$ dafür zahlen.
Aber auch ein kräftiger Rabatt kriegt kein >100$ produkt anah an ein 10$ Produkt heran.

Sag bitte nicht Intel, dass sie einen um 4-10 fachen zu hohen Preis für Atom verlangen.
Die Atom-Ingenieure wundern sie eh schon die ganze Zeit, warum die Atoms im Smartphone-Markt keiner Kauft, aber im Netbook-Markt schon.

Nur zur Info. So ein Atom-Die kostet auch nur 5-10$
Also, den könnten sie auch um 10$ verkaufen wenn sie wollten.

Man sollte halt den Unterschied zwischen Preis und Produktionskosten kennen.
Nvidia und Intel sind für ihre Mond-Preise bekannt.
Leider gibts im ARM-Markt eine Starke sowie vielfältige Konkurrenz.
Und wie man sieht ist Nvidia von ihrem hohem Ross runtergekommen und hat dann den LG-Auftrag bekommen.


Marketing? Das war Dirk Meyer persönlich, der wird sich hüten schritt zu erzählen. zumal die Analysten nur gehofft haben dass er positiv auf das Thema reagiert. das hätte die kurse nämlich nach iben gezogen, also dass er negativ reagiert hat ist daher ein klares indiz, marketingleute hätten sich vager ausgedrückt.

Abgesehen vom schwer verständlichen Satz.

AMD sah keine Zukunft in Netbook Markt. Ein klares Indiz, dass Bobcat, der zu dieser Zeit schon lange in Entwicklung war, nicht im Netbook-Markt bestehen kann.
Komisch, dass die Realität anders aussieht.

kann sein, aber überhaupt woher hast du das? wenn ich mich erinnere waren die alus bei rv770 doch deutlich ersichtlich. zeig mir das mal bitte im dieshot, was 80sp in 40nm verbrauchen.
Tja, dass du es selber nicht herausfinden kannst, zeigt ja was ich die ganze Zeit sage.
Deine Aussagen sind nichts wert, weil du die größen nicht quantifizieren kannst.

80 Shader & 4 TMU machen sogar max. 12,5 mm² aus.

Man nehme RV840 mit 166mm², zieht RV830 mit 104 mm² ab und erhält 62mm² und 400 Shader & Co Differenz.
So machen 80 Shader & 4 TMU maximal 12,5 mm² aus.

Also, der Unterschied zwischen 40 und 80 Shader ist gerade mal so ca. 6 mm².

Und wenn man mit 2xBobcat+L2 (=15mm²) sowie 80 Shader (=12,5 mm²) zusammenzählt, hätte man mit 27,5mm² im 55mm² immer noch 50% uncore-Bereich für iMC, GPU-Restln (Front-End, Tesselation,...) sowie Crossbar? usw usw übrig bleibt.

Aber wir wissen nicht, wie viel da im Vergleich zu RV810 weggelassen bzw. optimiert wurde. Und wenn man sieht, wie stark schon Bobcat verkleinert werden konnte, ....

Wäre Ontario mit 55mm² wirklich nur mit 40 Shader ausgelastet, wäre ein 80 Shader-Ontario eben 61 mm² groß.
Dann würdest du das sicher auch stark anzweifeln, da ein RV810 mit 63mm² schonmal größer ist, wo dann noch ein 2-Bobcat-Cores + L2 sowie PCIe usw dazukommen würde. Also, unmöglich.

doch ich weiß was dazu. da stecken SI, Caches und Crossbar drin. Da es sich um ein 64bit Interface handelt wie bei Cedar und 512kb cache pro Core wie bei propus (1/2 propus hat auch 64bit SI) lässt das schon ziemlich genaue aussagen zu.
Seitenweise warten wir auf eine genaue Aussage von Dir;)
Nichtssagende qualitative Aussagen reichen da nicht.

Solange da nichts mehr kommt, ist für mich diese Diskussion beendet.

Gipsel
2010-09-09, 09:02:10
80 Shader & 4 TMU machen sogar max. 12,5 mm² aus.

Man nehme RV840 mit 166mm², zieht RV830 mit 104 mm² ab und erhält 62mm² und 400 Shader & Co Differenz.
So machen 80 Shader & 4 TMU maximal 12,5 mm² aus.

Also, der Unterschied zwischen 40 und 80 Shader ist gerade mal so ca. 6 mm².Redwood hat auch noch halbierte ROPs und weniger Cache im Vergleich zu Juniper, das ist also noch weniger. Wie gesagt, eine Evergreen SIMD-Engine mit 16 VLIW-Einheiten (80SPs) und 4 TMUs ist insgesamt nur rund 6,x mm² groß. Eine kleinere Variante mit 40SPs und 4 TMUs (wie in Cedar) so etwa 4,5mm². Darin nicht enthalten ist der dazugehörige Schedulerport (eigentlich je zwei) im UTDP.

Nur das alleine macht eben keine GPU. Die Diefläche fressenden Teile sind eben andere, oder warum hat Cedar bei nur 20% der verbauten Shader gut 60% der Fläche von Redwood (Speicherinterface auf 50%, TMUs, ROPs usw. jeweils noch stärker als das gekürzt)? Daß das kaum einer begreift, obwohl wir beide das jetzt schon mehrfach erwähnt haben, erschließt sich mir nicht.

@davidzo:
Wo hast Du eigentlich die 55mm² für Ontario her? Alles spricht für ~73-75mm². Dieses eine ominöse Foto von HWI kann man nicht als Beweis nutzen, daß Ontario kleiner als Cedar wäre, der Cedar liegt deutlich näher an der Kamera als der Ontario, das ist eine perspektivische Verzerrung. Die Fotos senkrecht von oben mit Euro-Münze daneben sagen ganz klar ~74mm² für Ontario. Außerdem hat AMD schon vor mehreren Monaten einen kompletten Ontario-Wafer gezeigt. Durch einfaches Auszählen der Dies darauf und der sehr gut bekannten Fläche eines Wafers kam man schon damals auf ~75mm² pro Die.

Gestrandet
2010-09-09, 11:20:16
Ich fasse den Stand der Ontario-Forschung mal zusammen:
Der Chip ist in seinem unaufhaltsamen Schrumpfungsprozess inzwischen bei 55 mm² angekommen, der Cache sind die gleichmäßigen Strukturen ganz oben auf dem Bild, auf dem man gar keine Strukturen erkennen kann, auf der Restfläche verstecken sich irgendwo zwei dicke x86 Kerne > K10 und natürlich hauptsächlich das Grafikzeugs, wobei alles außer den Shadern soviel Platz wegnimmt, dass für die Shader leider kein Platz mehr ist.
... OMG die n00bs bei AMD haben die Shader vergessen!!!1!elf

Stimmt das so? Dann kopier ich es rüber zu Wikipedia.

Gast
2010-09-09, 12:19:43
@davidzo:
Wo hast Du eigentlich die 55mm² für Ontario her? Alles spricht für ~73-75mm².

Ich persönlich gehe von 63-65 mm² aus. Die 74-77 mm² kann man sehr schön hier raus messen:

http://pics.computerbase.de/3/0/6/6/8/5.jpg

Link: http://www.computerbase.de/bildstrecke/30669/7/

ABER: dann würde das Die bis zum Rand des Package gehen. Bei GPUs ist es ja, soweit ich weiß so, das man pro Seite noch ca. 0,5mm abziehen muss da das Die ein wenig kleiner ist als das Package. Deshalb eben die 63-65 mm²

Gipsel
2010-09-09, 14:39:28
Ich persönlich gehe von 63-65 mm² aus. Die 74-77 mm² kann man sehr schön hier raus messen:

http://pics.computerbase.de/3/0/6/6/8/5.jpg

Link: http://www.computerbase.de/bildstrecke/30669/7/

ABER: dann würde das Die bis zum Rand des Package gehen. Bei GPUs ist es ja, soweit ich weiß so, das man pro Seite noch ca. 0,5mm abziehen muss da das Die ein wenig kleiner ist als das Package. Deshalb eben die 63-65 mm²
Was für ein Package? Das Stück Silizium, was man da sieht, ist das Die. Zwischen jedem Chip auf dem Wafer wird noch eine Padding-Area frei gelassen, irgendwie müssen die Dies ja noch auseinander gesägt werden ohne irgendwas zu beschädigen. Aber das ist deutlich weniger als 0,5 mm auf jeder Seite.

davidzo
2010-09-09, 14:51:28
omg, ich sehe du hast noch nie einen chip aufgeschliffen. das sind gut 0.5mm, allerdings verteilt sich der padbereich in den unteren schichten weiter als in den oberen.
Noch nie einen duron gesehen bei dem die ecken großzügig abgebrochen waren und der trotzdem noch lief wie die katz? Da waren dass mindestens 0.7mm...

rv830 hat übrigens dasselbe SI (2x64bit) wie RV840, daher kann man davon ausgehen dass die Entscheidung ihn über 100mm² groß zu machen eher von einer pad-limitierung herrührt.

S940
2010-09-09, 15:10:02
Ist doch jetzt egal, die Padding Area gehört auch zum DIE und es geht ja um die DIE Größe ;-)

Gast
2010-09-09, 15:33:53
Was für ein Package? Das Stück Silizium, was man da sieht, ist das Die. Zwischen jedem Chip auf dem Wafer wird noch eine Padding-Area frei gelassen, irgendwie müssen die Dies ja noch auseinander gesägt werden ohne irgendwas zu beschädigen. Aber das ist deutlich weniger als 0,5 mm auf jeder Seite.


OK, mein Fehler

Gipsel
2010-09-09, 16:05:39
omg, ich sehe du hast noch nie einen chip aufgeschliffen. das sind gut 0.5mm, allerdings verteilt sich der padbereich in den unteren schichten weiter als in den oberen.
Noch nie einen duron gesehen bei dem die ecken großzügig abgebrochen waren und der trotzdem noch lief wie die katz? Da waren dass mindestens 0.7mm...
Wann war das mit dem Duron?
Einfach mal nach einer Firma gesucht, die Tools zum Auseinandersägen von Wafern herstellt und das gefunden:

http://img832.imageshack.us/img832/2879/diekerf.png (http://img832.imageshack.us/i/diekerf.png/)

Zur Umrechnung: 1 mil = 25,4 µm

Das heißt, 4 mil sind gerade mal 0,1 mm. Also viel Platz benötigt man nicht zwischen den einzelnen Dies ;). Die Hersteller packen manchmal noch kleine Teststrukturen zwischen die einzelnen Dies (die beim Auseinandersägen dann meist zerstört werden), um Schwankungen des Prozesses erkennen zu können und ähnliches. Aber wie S940 schon richtig bemerkte, gehört das dann auch mit zum Die.

davidzo
2010-09-10, 00:13:24
ne der laserschnitt selber ist verdammt fein, das ist richtig. wieso sollte man da grobe werkzeuge verwenden wenn es auch feine gibt?
aber der innere abstand ist schon deutlich mehr. keine alte cpu herumliegen? sonst schleif doch mal n bisschen...

Coda
2010-09-10, 00:26:20
Der eigentlich Chip ist ja auch nur ein paar Nanometer dick und an der Unterseite des Dies bei Flip Chip. Wenn da ne Ecke wegbricht ohne dass die Unterseite beschädigt wird ist das klar egal.

Gipsel
2010-09-10, 10:24:47
ne der laserschnitt selber ist verdammt fein, das ist richtig. wieso sollte man da grobe werkzeuge verwenden wenn es auch feine gibt?
Wieso sollte man so viel Platz lassen, wenn es so feine Werkzeuge gibt? Kostet doch nur Platz und damit Geld! Wie gesagt, Ausnahme sind manchmal zwischen den einzelnen Chips platzierte kleine Teststrukturen, die die Prozeßüberwachung erleichtern und somit trotz des Platzverbrauches einen positiven Effekt auf die Kosten-/Nutzenrechnung haben.

Und da brauchst Du keinen Laser, das bekommt man auch mit richtigem mechanischem Sägen hin. Sehr feine, mit Diamanten/Bornitrid oder Ähnlichem besetzte Sägeblätter bzw. Drähte werden da benutzt. Zwischenzeitlich hat man wohl mal Wasserstrahlschneiden ausprobiert, ging aber wohl nicht ganz so gut. Nur bei recht kleinen Dies werden auch Laser eingesetzt, um die minimalen Abstand zwischen den Dies auf ~25µm runterzuprügeln. Bei den größeren CPUs lohnt das meist nicht (aufwendiger, kostet mehr) *). Da gibt es auch Lasercuts, aber die werden für was Anderes benutzt, nämlich Leitungen auf dem Die zu durchtrennen um Features zu deaktivieren. Aber selbst dafür kommt das fast wiederaus der Mode, e-fuses sind nämlich eigentlich bequemer.
aber der innere abstand ist schon deutlich mehr. keine alte cpu herumliegen? sonst schleif doch mal n bisschen...
Auslöten wäre da fast einfacher (siehe Coda, oder willst Du die komplette Waferdicke wegschleifen?). Ich kann Dir sagen, der Abstand zwischen den Dies ist üblicherweise <~0,2mm. Suche am besten eine Quelle, die was Anderes sagt, wenn Du es nicht glaubst.

*)
Je größer ein Die, desto weniger hat der Verschnitt zwischen den einzelnen Dies einen merklichen Einfluß. Deswegen sind sehr kleine Sachen (wie Dioden) der Treiber, um das weiter zu verkleinern:

http://images.pennnet.com/articles/ap/cap/cap_130411.gif


So, jetzt aber wieder back to topic!

Gast
2010-09-10, 16:55:33
ist das gut oder schlecht:

Here is the Everest snapshot for memory bandwidth for Ontario APU 1.6GHz with a single channel 64-bit DRAM controller running at 533MHz

http://softnology.biz/work/softnology_eOntario_1.6GHz.png

Link: http://www.xtremesystems.org/forums/showpost.php?p=4545137&postcount=37

Eggcake
2010-09-10, 17:07:51
Also die 86MB/s wären etwas gar tief oder nicht? :>

Undertaker
2010-09-10, 17:17:02
Selbst die Extremfälle herausgestrichen, die Werte sind irgendwie alle extrem mies. Ich würde das mal auf Probleme des Samples oder des Programmes schieben, so kommt er sicherlich nicht auf den Markt.

Gast
2010-09-10, 18:16:35
LOL L2 write 0 MB/s.
MMD;D

Gast
2010-09-11, 12:41:30
ist das gut oder schlecht:

Here is the Everest snapshot for memory bandwidth for Ontario APU 1.6GHz with a single channel 64-bit DRAM controller running at 533MHz

http://softnology.biz/work/softnology_eOntario_1.6GHz.png

Link: http://www.xtremesystems.org/forums/showpost.php?p=4545137&postcount=37

Der Benchmarkwert für read Memory (3028 mb/s) könnte stimmen.
Die write und copy Werte sind wahrscheinlich so niedrig, weil das Benchmarkprogramm noch nicht auf die neue Architektur ausgelegt ist.

Coda
2010-09-11, 12:56:36
Ich wüsste nicht was es da anzupassen gäbe. Sehr merkwürdig das ganze.

fdk
2010-09-11, 13:00:12
LOL L2 write 0 MB/s.
MMD;D

Wer braucht schon sram wenn er rom haben kann. ja ic hweiß ... lame pun. Aber mal ehrlich: wer hat den Zugang zu einer bobcat-apu und fängt dann an screenshots vom everest speicherbenchmark zu machen. ... Und scheinbar nur diese?

Eggcake
2010-09-11, 13:49:40
Joa. Also auch wenn es tatsächlich kein Fake wäre, so sind die meisten Werte sehr merkwürdig/offensichtlich fehlerhaft - von daher genausoviel Wert wie ein Fake ;)

Tiamat
2010-09-11, 14:48:50
Ich glaub hier geschieht folgendes. ( reine Spekulation )

Es gibt bei SSE die Befehle prefetch1 und prefetch2, um Anzukündigen, dass die nachfolgenden Daten in den L1 oder L2 Cache geladen werden sollen.
Manche Compiler kapseln das mit Befehlen mit Erweiterungen wie __builtin_prefetch(void *bla).

Hier versagt das ganze. Das heißt, dass ist vielleicht ein Ontario-Sample ohne SIMD Einheiten und Everest prüft nicht die CPUID nach den FeatureFlags, sondern setzt voraus, dass jeder neue x86 Prozessor zumindest SSE kann udn benutzt eben einfach diese Prefetch Befehle.

Was dafür spricht ist, dass es beim Cache auslesen durchaus mehrere Möglichkeiten dazu gibt und das funktioniert ja hier einwanfrei.

MR2
2010-09-11, 20:23:59
Also die 86MB/s wären etwas gar tief oder nicht? :>

Naja...ich dachte grad ich wäre im Amiga Forum und die hätten everest für OS4.1 PPC portiert;D

Coda
2010-09-11, 20:36:19
Hier versagt das ganze. Das heißt, dass ist vielleicht ein Ontario-Sample ohne SIMD Einheiten und Everest prüft nicht die CPUID nach den FeatureFlags, sondern setzt voraus, dass jeder neue x86 Prozessor zumindest SSE kann udn benutzt eben einfach diese Prefetch Befehle.
Dann wäre das Resultat aber eine Invalid Opcode Exception.

Tiamat
2010-09-11, 21:13:06
Stimmt, aber es könnte ja der Fall sein, dass Everest das explizite Prefetching nur über SIMD macht oder machen kann.
Und dann werden die Flags im EDX Register abgeprüft, alle relevanten Register sind 0, und somit wird nie wirklich der Code ausgeführt und am Ende einfach der mit 0 vorinitialisierte Wert als Resultat ausgespuckt.

Gast
2010-09-11, 21:26:55
so, weitere news vom gleichen Typ der den Everest Benchmark im xtremesystems-forum gepostet hat:

http://cbid.softnology.biz/work/softnology_eOntario_1.png

Die MHz sind schon einmal um einiges niedriger als bisher diskutiert. Es handelt sich aber auch um die embedded-Varianten.

Coda
2010-09-11, 21:37:21
Stimmt, aber es könnte ja der Fall sein, dass Everest das explizite Prefetching nur über SIMD macht oder machen kann.
Und dann werden die Flags im EDX Register abgeprüft, alle relevanten Register sind 0, und somit wird nie wirklich der Code ausgeführt und am Ende einfach der mit 0 vorinitialisierte Wert als Resultat ausgespuckt.
Was willst du eigentlich mit deinem Prefetching? Es geht um die schlechte Write Performance. Und da bringt das überhaupt nichts.

Undertaker
2010-09-11, 21:47:02
Die MHz sind schon einmal um einiges niedriger als bisher diskutiert. Es handelt sich aber auch um die embedded-Varianten.

Wir reden ja immernoch von einem Atom-Konkurrenten, den ULV-Bereich wird auch Llano locker abdecken können. Und in diesem Bereich sollten schon 1,6GHz locker reichen, um Intel mit mehr als Faktor zwei zu "bügeln". Bei noch mehr Leistung kanibalisiert man sich dann auch schnell das eigene ULV/LV Portfolio, das ist sicherlich nicht der Plan.

S940
2010-09-11, 22:18:57
Ich wüsste nicht was es da anzupassen gäbe. Sehr merkwürdig das ganze.
3Dnow! ?
Kann mich zumindest mal an Linux Sourcecode vor einigen Jahren erinnern, da gabs wohl extra malloc Versionen mit 3Dnow, war wohl schneller.
Vielleicht verwendet auch Everest 3dnow, weils eine AMD CPU ist, fällt dann aber auf die Nase, weils kein 3dnow! mehr gibt ?

Klar, sollte dann auch ne Exeption geben, aber Everest wäre nicht das erste Programm mit schlechtem exeption handling, v.a. wenns 3Dnow anhand der CPUID festlegt, und nicht anhand der feature flags ^^

ciao

Alex

Coda
2010-09-11, 22:24:45
Klar, sollte dann auch ne Exeption geben, aber Everest wäre nicht das erste Programm mit schlechtem exeption handling, v.a. wenns 3Dnow anhand der CPUID festlegt, und nicht anhand der feature flags ^^
Um Invalid Opcode zu fangen braucht man SEH. Da funktioniert kein einfaches catch(...). Ich glaube kaum, dass das dort eingebaut ist.

S940
2010-09-11, 22:41:19
Um Invalid Opcode zu fangen braucht man SEH. Da funktioniert kein einfaches catch(...). Ich glaube kaum, dass das dort eingebaut ist.
Hm ok, Danke, dann bleibts weiterhin nebulös .. :(

davidzo
2010-09-12, 10:39:16
mir fällt erst jetzt auf, dass nur 413 pins in der tat ziemlich heftig sind für eine prozessor mit IGP. Intel brauchte schon bei Diamondville 441Pins und liegt mit der aktuellen krückengrafik bei nicht weniger als 559 pins. - allein beim package ist ontario also schon viel sparsamer.

im embeddedbereich bietet intel prozessoren von 6.5W bis 13Watt an, zzgl. 2.4wat i/ohub. AMD liegt da doch leicht drüber, zieht aber mit der doppelten IPC leistungsmäßig mit den low power modellen wahrscheinlich in etwa gleich (800mhz@5Watt vs 1.66Ghz@5.5Watt), während die 18Watt modelle dann schon den embedded CULVs Konkurrenz machen.
http://www.abload.de/img/atom_bobcat6d2y.jpg (http://www.abload.de/image.php?img=atom_bobcat6d2y.jpg)

Wollen wir mal hoffen dass die southbridge die ganze rechnung nicht kaputt macht. Ich würde mir wirklich wünschen dass AMD da mehr optionen anbietet, die Hudson D1 mit 16 USb und 6 SATA halte ich für den netbookbereich nicht mehr sinnvoll, auch wenn sie im embeddebereich wo konnektivität gefragt ist vielleicht auch ganz gut ist.
Eine SB mit 4-6 USB anschlüssen, maximal 2 sata (vll. gar kein sata - ssd kann auch über PCIe oder usb3.0 angebunden werden), stattdessen GBe, WLAN-N, BT und eventuell esata sowie wireless display, die einen erheblichen mehrwert im ultraportablen bereich darstellen würden.

Gast
2010-09-12, 10:55:23
Wollen wir mal hoffen dass die southbridge die ganze rechnung nicht kaputt macht. Ich würde mir wirklich wünschen dass AMD da mehr optionen anbietet, die Hudson D1 mit 16 USb und 6 SATA halte ich für den netbookbereich nicht mehr sinnvoll, auch wenn sie im embeddebereich wo konnektivität gefragt ist vielleicht auch ganz gut ist.
Eine SB mit 4-6 USB anschlüssen, maximal 2 sata (vll. gar kein sata - ssd kann auch über PCIe oder usb3.0 angebunden werden), stattdessen GBe, WLAN-N, BT und eventuell esata sowie wireless display, die einen erheblichen mehrwert im ultraportablen bereich darstellen würden.

Naja;

http://softnology.biz/work/AMD-Fusion-NDA.png

Gast
2010-09-12, 11:00:49
Naja;

http://softnology.biz/work/AMD-Fusion-NDA.png

Kommt der Hudson eigentlich auch in 40nm? Das die Southbridge ein größeres Package mit mehr Pins benötigt spricht ja eher für einen alten Fertigungsprozess oder? Oder liegt das einfach an den vielen Anschlüssen?

davidzo
2010-09-12, 17:52:52
Kommt der Hudson eigentlich auch in 40nm? Das die Southbridge ein größeres Package mit mehr Pins benötigt spricht ja eher für einen alten Fertigungsprozess oder? Oder liegt das einfach an den vielen Anschlüssen?

nee, mehr pins bzw. ein größeres package braucht die schon wegen der konnektiviät.
ein altes verfahren wird auch eingestezt, aber nicht wegen den pins, sondern wegen den pads, vermutlich ist hudson d1 in 65nm gefertigt. intel verwendet für aktuelle i/o hubs ebenfalls den 65nm prozess.

Gast
2010-09-12, 18:00:59
nee, mehr pins bzw. ein größeres package braucht die schon wegen der konnektiviät.
ein altes verfahren wird auch eingestezt, aber nicht wegen den pins, sondern wegen den pads, vermutlich ist hudson d1 in 65nm gefertigt. intel verwendet für aktuelle chipsätze ebenfalls den 65nm prozess.

Sehr unwahrscheinlich. Schon die 7xx und 8xx Chipsatzserie kam in 55nm.

Triskaine
2010-09-12, 18:34:54
Sehr unwahrscheinlich. Schon die 7xx und 8xx Chipsatzserie kam in 55nm.

Die Northbridge dieser Chipsätze wird tatsächlich in 55 nm von TSMC gefertigt, die Southbridge speziell die SB7xx Serie wurde in 130 nm gefertigt, während die aktuelle SB8xx in 65 nm gefertigt wird, ebenso wie Intels PCH (Ibex Peak).

Deswegen ist es anzunehmen das die Hudson-SB ebenfalls in 65 nm sein wird, da die Anwendung eines State-of-the-Art Prozesses bei SB's weder sinnvoll noch möglich ist.

davidzo
2010-09-12, 22:56:28
Sehr unwahrscheinlich. Schon die 7xx und 8xx Chipsatzserie kam in 55nm.

hudson d1 ist kein chipsatz. der chipsatz ist in der APU, nicht vergessen...
im grunde ist hudson d1 ein I/o hub, genau wie bei intel, allerdings nimmt amd das wort nicht so gerne in den mund da intel es zuerst eingeführt hat.

davidzo
2010-09-14, 15:08:41
Vorrausgesetzt der ie9 skaliert in den beschleunigten Grafikbenchmarks wie ein DirectX spiel bzw. Benchmark ist Zacate etwas schneller als ein clarkdale@500mhz:
http://www.computerbase.de/news/hardware/prozessoren/amd/2010/september/amds-zacate-schlaegt-core-i5-520m-in-spielen/

Wenn Anandtech das 12EU modell hat, wovon wir ausgehen, dann ist SB 2 - 2,5x so schnell wie clarksdale welche zufällig in etwa so schnell ist wie 880GX. Das bezog sich jedoch auf die Desktop SKU mit 766mhz. Wenn Zacate also 2-30% schneller ist als ein 500mhz Clarkdale, spricht das für 880GX äquivalente Leistung, also 40sp/4tmu@500mhz. Das sollte sich nicht weit hinter den 6EU SKUs einordnen. Zacate wird also durchaus den CULV Sandybridges gefährlich.

Gipsel
2010-09-14, 18:04:14
Vorrausgesetzt der ie9 skaliert in den beschleunigten Grafikbenchmarks wie ein DirectX spiel bzw. Benchmark ist Zacate etwas schneller als ein clarkdale@500mhz
[..]
Wenn Zacate also 2-30% schneller ist als ein 500mhz Clarkdale, spricht das für 880GX äquivalente Leistung, also 40sp/4tmu@500mhz. Das sollte sich nicht weit hinter den 6EU SKUs einordnen. Zacate wird also durchaus den CULV Sandybridges gefährlich.
Wenn? Falls!
Hast Du das Video mit dem Vergleich von City of Heroes auf beiden Systemen gesehen? Das sieht eher nach Faktor 2 oder mehr höherer Grafikleistung bei Zacate aus.

S940
2010-09-15, 12:55:12
Wenn? Falls!
Hast Du das Video mit dem Vergleich von City of Heroes auf beiden Systemen gesehen? Das sieht eher nach Faktor 2 oder mehr höherer Grafikleistung bei Zacate aus.Jo; eher sogar mehr als 2x
Frame rates were 6-7 FPS on the Core i5 system's HD Graphics integrated graphics processor, while they rose into the high 30s on Zacate—with apparently higher image quality on the Zacate system, too.

Ausserdem noch interessant in dem Artikel:

80 Shader bestätigt ?
Zitat:
We don't yet know the specs of the graphics hardware in Zacate, but an AMD representative described it as a "discrete type" GPU. The APU will also include a video decode block similar to the UVD hardware in current Radeons—and perhaps closer to the UVD unit in the upcoming "Northern Islands" generation of Radeon graphics chips.
http://www.techreport.com/discussions.x/19630

Nachdem die kleinste diskrete Karte 80 Shader hat, müssen es eigentlich mind. 80 sein ... 40 Shader gabs nur bei den Chipsätzen...

YfOrU
2010-09-15, 17:25:55
Sehr intressant, einige neue Benchmarks :)

AMD's Zacate APU Performance Update

..At this point we had an issue. The IE9 benchmarks AMD was showing off weren’t an accurate comparison of the two architectures. While valid for the only driver revision supported on this particular Core i5 notebook, the scores weren’t valid for a Zacate vs. Core i5 architecture comparison. AMD wanted to make sure there was no confusion about the GPU performance potential of Zacate so it allowed us to install whatever we wanted on both systems to validate the GPU performance we had seen...

http://www.anandtech.com/show/3933/amds-zacate-apu-performance-update

Undertaker
2010-09-15, 17:33:11
Hmm, also das riecht doch eher wieder nach 40 Shadern... Auf 900MHz entspricht die GMA HD im i5 661 z.B. in Batman ziemlich genau dem 700MHz RV620 im 790/890GX. Wenn Zacate jetzt ~50% (11,3 zu 16,5fps) schneller als die 500MHz GMA ist, wäre das für 80 Shader eigentlich zu wenig.

Letztlich ist das allerdings eh mehr oder weniger irrelevant, Arrandale wird kein Gegner im Jahre 2011 werden.

YfOrU
2010-09-15, 17:36:28
Der Core i5 hat allerdings auch deutlich mehr Speicherbandbreite zur Verfügung (2 Channel). Zacate hat wohl nur die Hälfte. Eben wie der Atom auch und dafür ist die Leistung ordentlich. Immerhin ist die APU (im Vergleich zu i5) was Package und Chipgröße angeht in einer ganz anderen Liga.

Gast
2010-09-15, 17:38:12
Hmm, also das riecht doch eher wieder nach 40 Shadern... Auf 900MHz entspricht die GMA HD im i5 661 z.B. in Batman ziemlich genau dem 700MHz RV620 im 790/890GX. Wenn Zacate jetzt ~50% (11,3 zu 16,5fps) schneller als die 500MHz GMA ist, wäre das für 80 Shader eigentlich zu wenig.

Letztlich ist das allerdings eh mehr oder weniger irrelevant, Arrandale wird kein Gegner im Jahre 2011 werden.

Man sollte halt schon auch berücksichtigen das die zwei CPU Kernen plus GPU nur einen 64-bit Controller zur Verfügung haben.

Gast
2010-09-15, 17:39:38
Letztlich ist das allerdings eh mehr oder weniger irrelevant, Arrandale wird kein Gegner im Jahre 2011 werden.

Stimmt im Bereich 9-18W ist das eigentlich Atom. :lol:

Undertaker
2010-09-15, 17:43:13
Der Core i5 hat allerdings auch deutlich mehr Speicherbandbreite zur Verfügung (2 Channel). Zacate hat wohl nur die Hälfte. Eben wie der Atom auch und dafür ist die Leistung ordentlich. Immerhin ist die CPU (im Vergleich zu i5) was Package und Chipgröße angeht in einer ganz anderen Liga.

Und spielt sicherlich auch in einer anderen Preisklasse. ;) Ich denke mal, dass die 18W Zacate irgendwo im Bereich der ULV-Celeron/Pentium auf Sandy Bridge Basis spielen werden, so wie z.B. aktuell z.B. ein Athlon II Neo K625 und der Pentium U5400.
Für Netbooks wäre er eine Nummer zu groß (bzgl. TDP), das ist dann eher etwas für den 9W Ontario.

Soweit natürlich nur die reine Einordnung nach Verbrauch, was die(CPU-) Leistung betrifft alles noch im Bereich der Spekulation.

YfOrU
2010-09-15, 17:54:52
Und spielt sicherlich auch in einer anderen Preisklasse. ;) Ich denke mal, dass die 18W Zacate irgendwo im Bereich der ULV-Celeron/Pentium auf Sandy Bridge Basis spielen werden, so wie z.B. aktuell z.B. ein Athlon II Neo K625 und der Pentium U5400.

Vielleicht sogar noch etwas darunter, also zwischen Atom und den ULV SB Produkten. Als Gegenpart zu den mobilen SB Produkten könnte auch (Ontario) Edit: Liano in einer ULV Variante genutzt werden.

Auf jeden Fall werden zumindest Netbooks und die günstigeren Notebooks unter 500€ deutlich aufgewertet. Die Akkulaufzeit sollte damit ebenfalls einen deutlichen Sprung machen. Speicherinterface und Chipgröße lassen zumindest ein konsequent auf mobilen Einsatz entwickeltes Design erwarten.

Gast
2010-09-15, 17:55:34
Und spielt sicherlich auch in einer anderen Preisklasse. ;) Ich denke mal, dass die 18W Zacate irgendwo im Bereich der ULV-Celeron/Pentium auf Sandy Bridge Basis spielen werden, so wie z.B. aktuell z.B. ein Athlon II Neo K625 und der Pentium U5400.
Für Netbooks wäre er eine Nummer zu groß (bzgl. TDP), das ist dann eher etwas für den 9W Ontario.

Soweit natürlich nur die reine Einordnung nach Verbrauch, was die(CPU-) Leistung betrifft alles noch im Bereich der Spekulation.

Ich wage zu bezweifeln das ein SandyBridge auf 18W kommt und selbst wenn wird er in einer völlig anderen Preisklasse spielen.

Undertaker
2010-09-15, 18:01:52
Vielleicht sogar noch etwas darunter, also zwischen Atom und den ULV SB Produkten. Als Gegenpart zu den mobilen SB Produkten könnte auch Ontario in einer ULV Variante genutzt werden.

Ontario? Oder meinst du Llano? Den 1-Kerner Ontario mit 9W kann ich mir als SB-Kontrahenten kaum vorstellen - der wird im Bereich der Single- und Dualcore-Atom bleiben bzw. etwas darüber, imho.

Auf jeden Fall werden zumindest Netbooks und die günstigeren Notebooks unter 500€ deutlich aufgewertet. Die Akkulaufzeit sollte damit ebenfalls einen deutlichen Sprung machen. Speicherinterface und Chipgröße lassen zumindest ein konsequent auf mobilen Einsatz entwickeltes Design erwarten.

Das sicherlich. Im Netbookbereich ist die schon zu Beginn ärmliche Leistung seit zwei Jahren mehr oder minder stehengeblieben.

@Gast:

17W sind für die ULV-SB Modelle afair schon durchgesickert. Von der TDP also ganz klar Zacate-Bereich, wenn auch preislich sicherlich höher - deswegen meine Vermutung mit den Celeron/Pentium-Ablegern. ;)

Ronny145
2010-09-15, 18:10:10
ULV SB könnte Zacate abdecken. Die Teile werden dann aber wohl auch einen geringeren GPU Takt haben.

YfOrU
2010-09-15, 18:14:18
Gemeint war natürlich Liano. Danke :)

Bleibt zu hoffen das die OEMs die APU schnell und zahlreich einsetzen. Neben den Netbooks gibt es noch massig Potential. Gerade was die günstigen 15 Zoll Notebooks und klassischen Office Systeme betrifft. Beides wird gerne zur Resteverwertung genutzt und so sieht dann die Leistungsaufnahme und Lautstärke aus.

Gast
2010-09-15, 18:16:44
Bleibt zu hoffen das die OEMs die APU schnell und zahlreich einsetzen. Neben den Netbooks gibt es noch massig Potential. Gerade was die günstigen 15 Zoll Notebooks und klassischen Office Systeme betrifft.

Wenn AMD inzwischen überhaupt ausreichend Chips von TSMC bekommt...

Gast
2010-09-16, 09:31:40
Damit ist wohl UVD 3.0 für Zacate/Ontario bestätigt:

http://img715.imageshack.us/img715/2374/008snq.jpg (http://img715.imageshack.us/i/008snq.jpg/)

http://www.4gamer.net/games/101/G010100/20100916010/

Gast
2010-09-16, 10:34:35
Damit ist wohl UVD 3.0 für Zacate/Ontario bestätigt:

http://img715.imageshack.us/img715/2374/008snq.jpg (http://img715.imageshack.us/i/008snq.jpg/)

http://www.4gamer.net/games/101/G010100/20100916010/

nicht schlecht:

http://www.4gamer.net/games/101/G010100/20100916010/TN/008.jpg

Gast
2010-09-17, 07:55:34
fake?

http://white-rabbit50.at.webry.info/201008/article_1.html


・Llano
 4コア版
95W:3.6GHz+480sp(HD5570より上)
60W:3.0GHz+480sp(HD5570位)
45W:2.6GHz+400sp(HD5550位)
 2コア版
75W:3.8GHz+240sp(HD5550位)
65W:3.4GHz+240sp
35W:3.0GHz+160sp(HD5530位)
20W:2.6GHz+160sp

・Ontario
18W:2.2GHz+80sp(HD5450位)
10W:1.4GHz+40sp(890GX位)
5W:1.2GHz+40sp

・Bulldozer(8コア)
125W:3.6GHz
95W:3.4GHz
65W:3GHz


Bulldozer is a little slow. ;)

Deinorius
2010-09-17, 09:22:42
Wieso? Weil AMD keine 4 GHz anbietet? AMD sollte primär erstmal die Effizienz verbessern, also bessere Leistung/Takt. Die Liste sagt ziemlich wenig aus.

S940
2010-09-17, 11:39:56
fake?
Nö, nur ne Privatspekulation von nem Japaner, google translate sagt:
Speculate in the product line-up So


Bulldozer is a little slow. ;)
Na, das kann man ändern:
・Bulldozer(8コア)
125W:5.0GHz
95W:4.2GHz
65W:3.6GHz

Schnell genug jetzt ? :freak:

Ronny145
2010-09-17, 11:50:50
3 Ghz Llano mit ner 480 SP GPU und das ganze bei 60W TDP kann ich mir ehrlich gesagt nicht vorstellen.

Undertaker
2010-09-17, 12:01:05
Sind für Ontario nicht auch schon 1,6GHz Taktrate durchgesickert? :confused: Ohne verlässliche Quelle kann man wohl davon ausgehen, dass hier einfach wild ins Blaue spekuliert wurde - zumal ich auch etwas daran zweifle, dass AMD z.B. für Bulldozer ein 3/4 Jahr vor dem Launch bereits die Spezifikationen konkreter Modelle festgelegt hat.

aylano
2010-09-17, 13:01:37
3 Ghz Llano mit ner 480 SP GPU und das ganze bei 60W TDP kann ich mir ehrlich gesagt nicht vorstellen.
Im Desktop nicht, aber im Mobilen Markt als selektierte Performance-CPU (=Teuer und wenig Stück) kann ich es mir schon vorstellen.

Problem sehen ich weniger im Stromverbrauch sondern mehr in: ob 3,0 Ghz @ 1,1 Volt möglich sind.

Es ist jetzt schon 2,3 Ghz-Quad @ 45 Watt möglich.
Da fehlen "nur" +30%, was mit 32nm statt 45nm sowie Ultra-Low-K sowie HKMG möglich sein könnte/sollte

Ronny145
2010-09-17, 13:33:02
Im Desktop nicht, aber im Mobilen Markt als selektierte Performance-CPU (=Teuer und wenig Stück) kann ich es mir schon vorstellen.


Noch dazu ist seine Spekulation für den Quadcore. Quadcore mit 3 Ghz und noch einer GPU mit 480 Stream Prozessoren, und das bei 60W TDP, schon klar. Kann man wirklich vergessen.

Trap
2010-09-17, 14:34:14
Noch dazu ist seine Spekulation für den Quadcore. Quadcore mit 3 Ghz und noch einer GPU mit 480 Stream Prozessoren, und das bei 60W TDP, schon klar. Kann man wirklich vergessen.
Die 5670 verbraucht auch nur 33W laut http://www.xbitlabs.com/articles/video/display/radeon-hd5670-hd5570-hd5450_6.html , davon gehen noch ein paar Watt für den Speicher weg und ein paar für die Spannungswandler. Nehmen wir mal 25W. Eine Quad-CPU mit 45W und 2.4 Ghz gibt es auch schon.

Llano ist 32nm statt 45nm bei der CPU und 40nm bei der GPU, da ist das nicht völlig unmöglich.

aylano
2010-09-17, 15:14:53
@Trap
Ein HD 5650-Mobil verbraucht mit 450 Mhz-Chiptakt in 40nm nur 15Watt.

Also, die ganze Stromersparnis des Umstieges von 40nm-TMSC auf 32nm-HKMG-SOI-ULK könnte somit in der Erhöhung des CPU-Taktes verwendet werden.
(Dafür muss noch der PCIe-Controller rein, aber durch den Entfall des GPU-IMC sowie HT 3.1 wird das wahrscheinlich mehr als kompensiert.)

HOT
2010-09-17, 19:36:09
Die 5670 verbraucht auch nur 33W laut http://www.xbitlabs.com/articles/video/display/radeon-hd5670-hd5570-hd5450_6.html , davon gehen noch ein paar Watt für den Speicher weg und ein paar für die Spannungswandler. Nehmen wir mal 25W. Eine Quad-CPU mit 45W und 2.4 Ghz gibt es auch schon.

Llano ist 32nm statt 45nm bei der CPU und 40nm bei der GPU, da ist das nicht völlig unmöglich.

Na ja ob das mit der 5xxx-Serie vergleichbar ist, sei mal dahingestellt. 480 SP deutet eher auf SI-Technik hin, welche ja offenbar einiges weniger an Die-Fläche benötigt als das R600-Derivat HD5xxx.

Gast
2010-09-17, 19:41:27
480 SP deutet eher auf SI-Technik hin
Erklärung dazu? Wenn Gipsels Annahmen über SI/NI stimmen, dann sind es SIMD mit je 64SPs, wozu 480SPs überhaupt nicht passen. 512 oder 448SPs wäre da eher ein passende Zahl.
Und ob SI wirklich weniger Fläche benötigt, muss sich auch erst zeigen. Da bei den 64SPs SIMDs die Anzahl der TMUs und Caches steigt, welche auch keinen geringen Platzbedarf besitzen.

Aber es ist durchaus denkbar, dass Llano auf SI/NI basiert. Bobcat besitzt ja auch schon UVD 3.0.

Undertaker
2010-09-17, 19:48:32
Der RV8xx ist in 80er SP Schritten skalierbar, zudem wäre NI mit der längeren Entwicklungsdauer einer CPU wohl auch zu knapp. Egal ob 400 oder 480 SPs, das wird zu 95% ein Evergreen-Derivat.

Gast
2010-09-17, 19:53:55
Der RV8xx ist in 80er SP Schritten skalierbar, zudem wäre NI mit der längeren Entwicklungsdauer einer CPU wohl auch zu knapp. Egal ob 400 oder 480 SPs, das wird zu 95% ein Evergreen-Derivat.

AMD Folien haben schon UVD 3 bestätigt, es ist also definitiv mehr als ein Evergreen.

Undertaker
2010-09-18, 16:11:43
Eine HD4200 IGP im 880G/890GX basiert auch noch auf der RV600er Generation, bekam aber den neuen UVD 2 spendiert. ;)

Gipsel
2010-09-19, 16:58:16
Es gab ja mal eine Diskussion darüber, wie groß die eigentlichen Shader bei ATI-GPUs sind. Aus den bekannten Daten des RV770 hatte ich ja schon mal etwas extrapoliert (6-6,5mm² für ein Evergreen-SIMD mit 80 SPs). Jetzt hat mal jemand einen Cypress-Die auseinandergebröselt und sowas wie einen "Amateur-Dieshot" gemacht. Das Ergebnis kann man bei B3D begutachten (http://forum.beyond3d.com/showthread.php?p=1473790#post1473790):
So, about 37% of the die is the shader cores, I reckon (122mm²).

Gast
2010-09-20, 09:45:33
Frage:

auf Planet3dNow wird gerade diskutiert, ob andere Hersteller wie Samsung etc.. auch Bobcat-CPUs herstellen dürfen, da AMD ja den Core als IP verkaufen will/kann/darf?

IMHO geht das. Zumindest wenn ich mich an die AMD Präsentationen richtig erinnere.

Mal eine Frage:

Wenn ja, darf dann auch Nvidia solche Bobcat-CPUs benutzen? :freak:

Gast
2010-09-20, 09:50:33
Das Bobcat-Design ist synthetisierbar, dementsprechend auch in anderen Fabs fertigbar. Daraus ist es auch denkbar, dass AMD, ähnlich wie Intel mit dem Atom-Design, es auch als Lizenz verkauft.

Aber lohnen dürfte sich das für Nvidia wohl eher weniger, mit den zusätzlichen Lizenzkosten könnte man mit einem eigenen Bobcat-SoC wohl kaum gegen die von AMD konkurrieren.

Naitsabes
2010-09-20, 14:53:58
Daraus ist es auch denkbar, dass AMD, ähnlich wie Intel mit dem Atom-Design, es auch als Lizenz verkauft.
Aber AMD darf die x86 Lizenz doch nicht weitergeben...
x86_64 hingegen wäre kein problem, bringt ohne x86 aber, naja, "wenig" :rolleyes:

HOT
2010-09-20, 15:01:54
Bei 480/240SP ist es ein SI, bei 400/200SP ein Evergreen - so einfach ist das. Die Organisationen lassen sich nicht auf Evergreen bzw. SI/NI übertragen. Mit anderen Worten: Wenn der Prozessor 2 Shadercluster mit jeweils 240 SP besitzt, kann es definitiv kein Evergreen sein - und genau so siehts um Moment aus. Es werden wohl tatsächlich die neuen 4D-Einheiten Einzug in den Llano finden (MMn haben die da sogar ihren Ursprung weil schlicht eine neue Grafikarchitektur notwendig war, die weniger Die-Fläche belegt als R600-Abkömmling Evergreen benötigt. Weil 32nm-Bulk gecancelt wurde und 28nm nicht früher kommt, fand die neue Architektur eben ihren Einzug auch als 40nm-Bulk-Variante. MMn wurde NI schlicht als 32nm-Bulk- und SOI-fähiges entwickelt und wurde für 40nm heraufskaliert, weil 32nm-Bulk eben weder bei GF noch bei TSMC verfügbar ist. Was wir im Llano sehen ist schlicht die 32nm-SOI-NI-Variante).

Aber AMD darf die x86 Lizenz doch nicht weitergeben...
x86_64 hingegen wäre kein problem, bringt ohne x86 aber, naja, "wenig" :rolleyes:
Es wären allerdings noch andere Linzenzmodelle denkbar; Z.B. könnte NV einen x86er entwickeln und von IBM unter dessen Namen fertigen lassen. Das wäre dann ein IBM/NV-Prozessor. Der kann auch bei GF im Auftrag von IBM gefertigt werden, weil die Fremdfertigungsbeschränkung bei x86-Chips dank AMD offenbar rausgefallen ist. Allerdings müsste man sich um Erweiterungen bemühen. IBM darf zwar x86er fertigen, ist aber sicherlich nicht mit den Erweiterungen aktuell. An AMD64 und SSE3 ranzukommen ist sicher weniger ein Problem, anders sieht es mit SSE4a, SSSE3, SSE4 und AVX aus.

Gast
2010-09-28, 07:59:51
link: http://blogs.amd.com/fusion/2010/09/27/part-the-clouds-ii-cloudy-with-a-chance-of-high-definition/


“Very fast coding” refers to video transcoding, both encoding and decoding. “Ontario” and “Zacate” will contain a new version of the AMD Unified Video Decoder (UVD), allowing them to encode and transcode incredibly quickly, helping consumers prepare their videos to be played on virtually any device they want. Fast encoding, the process through which a video is prepared to be shown, is also exciting because it is the process by which video is wirelessly sent to displays.

SB ist also nicht alleine mit einer Encoding Engine. Mal sehen, vielleicht ist ein kleiner Zacate ja schneller beim encoden bzw. transcoden von Video als ein SB. Zu ATi/AMD habe ich zumindest mehr Vertrauen, wenn es um Video oder Grafikleistung geht als zu Intel.

Deinorius
2010-09-28, 10:23:27
Dabei dürfte es sich sicher nur um die übliche Encoding-Engine wie bei den anderen ATI Grafikchips handeln. AMD hat da sogar den Vorteil, dass es dafür ja schon Software gibt, auch wenn diese Mist ist.

davidzo
2010-09-28, 23:25:19
Dabei dürfte es sich sicher nur um die übliche Encoding-Engine wie bei den anderen ATI Grafikchips handeln. AMD hat da sogar den Vorteil, dass es dafür ja schon Software gibt, auch wenn diese Mist ist.

zumindest die software zum transcoding, aber das ist keine netbooktypische anwendung und spielt daher keine rolle.
das das dekodieren von hdstreams angeht und das filtern von videos, hat amd über jahre hinweg die qualität optimiert, da wird intel mit einem schlag nicht so fix herankommen.
was das abspielen angeht, denke ich wird man UVD3 schon etwas kürzen. 2 oder 3 parallele hdstreams sind auf dem netbook einfach overkill. uvd3 techlevel mit der decoderleistung um1x 1080p problemlos abzuspielen sollte das hauptziehl sein, die diefläche für den zweiten oder dritten hdstream spart man sich.

S940
2010-09-28, 23:50:03
Dabei dürfte es sich sicher nur um die übliche Encoding-Engine wie bei den anderen ATI Grafikchips handeln. AMD hat da sogar den Vorteil, dass es dafür ja schon Software gibt, auch wenn diese Mist ist.
Dacht ich auch, aber da steht explizit auch DEcoding :confused:
Mal schauen, was das wird ...

davidzo
2010-09-29, 01:39:03
Dacht ich auch, aber da steht explizit auch DEcoding :confused:
Mal schauen, was das wird ...

hä, dekodieren heißt doch nichts anderes als abspielen!

beim sb ist dagegen von ENkodierung die rede, also sowas ala Xcode oder badaboom. Da Xcode zwar schnell aber wohl qualitativ ziemlich schlecht ist könnte intel das durchaus schlagen.

allerdings finde ich dass diese diskussion im bobcatthread nichts verloren hat, viel ehr im LLanothread. enkodieren von hdstreams ist kein feature für low power & netbookartige plattformen, daher denke ich AMD plant nur den encoder. lässt sich die xcode software dann auch auf dieser plattform ausführen, dann hat man glück und der decoder kann auch enkodieren - architekturbedingt, nicht weil amd dieses feature unbedingt in ontario sehen wollte.
was den vergleich mit sb angeht ist dies der falsche thread.

Gast
2010-09-29, 07:15:55
irgendwie seid ihr beide (Davidzo und S940) seltsam.

S940 schreibt was von Decoding, und Davidzo hat anscheinend den AMD-Blog-Beitrag noch nicht einmal überflogen. Vielleicht sollte man aber einfach nicht mehr um Mitternacht posten. :)


“Very fast coding” refers to video transcoding, both encoding and decoding. “Ontario” and “Zacate” will contain a new version of the AMD Unified Video Decoder (UVD), allowing them to encode and transcode incredibly quickly,



Ontario/Zacate hat also einen UVD3 der auch encoden kann, wie schon SB auch.

S940
2010-09-29, 09:23:23
S940 schreibt was von Decoding, und Davidzo hat anscheinend den AMD-Blog-Beitrag noch nicht einmal überflogen. Vielleicht sollte man aber einfach nicht mehr um Mitternacht posten. :)

LOl, ja ich meinte eigentlich Encoding, Asche auf mein Haupt :freak:

@davidzo
Aber das steht eben auch explizit im zitierten Text mit drin ... angeblich hat Fusion ne Encoding Einheit, auch Ontario - was sich dann prima fürs (low-res) Streamen auf mobile Teile eignen würde, das ist noch genauer erwähnt:

Fast encoding, the process through which a video is prepared to be shown, is also exciting because it is the process by which video is wirelessly sent to displays. Slow encoding = bad wireless video display (http://news.cnet.com/8301-17938_105-10445497-1.html) lag times (http://news.cnet.com/8301-17938_105-10445497-1.html).

Das "prepared to be shown" klingt erstmal nach Decode, aber er meint wohl Formatänderungen. Ontario soll das Teil auch haben - also seh ich da kein Problem mit dem Thread hier.

ciao

Alex

deekey777
2010-09-29, 10:20:58
Man muss bei UVD1, 2 berücksichtigen, dass es deutlich mehr UVD-Versionen gibt (fünf? sechs?). UVD3 sagt somit nicht viel.

Es ist alles andere als unvollstellbar, dass AMD immernoch einiges auf dem Lager haben, was sie an Broadcom verkauft haben. Dark Shikari äußerte sich im Doom10 (ja, 10) Forum, dass es sich bei der Media-Engine entweder um lizensierte IP von Broadcom oder IMG handeln könnte. Und da AMD eh über das Knowhow verfügt, warum sollten sie nicht gleich eine entsprechende Einheit in die neuen Chips einbauen?

Deinorius
2010-10-13, 16:37:34
Es gibt anscheinend neue Infos zu den Southbridges für Bobcat & Co.

http://www.computerbase.de/news/hardware/chipsaetze/amd/2010/oktober/amds-chipsaetze-der-fusion-plattformen-im-detail/

Klingt an sich nicht schlecht. Ich verstehe nur nicht, wozu Notebook-Chipsätze gleich 6 SATA-Ports und sogar 14 USB-Ports brauchen. Ich nehme wohl an, dass man so wenige Chipsätze wie nur möglich baut und diese dann nach Güte differenziert. Liege ich da richtig?
Andererseits verstehe ich den Wegfall des SD-Controllers nicht. SD-Slots haben doch alle Netbooks bzw. Notebooks, sowas könnte man gleich als Standard integrieren, auch für den Hudson M/D-1. Der Wegfalls von PCI bei den Notebooks ist sowieso gut und die Anbindung an die APU mit 1 GB/s pro Richtung (UMI = 4xPCIex1 1.1) dürfte wohl auch ausreichend sein.

Interessant ist auch, dass es wohl kein VGA bei Bobcat geben wird. :eek:

SavageX
2010-10-13, 16:46:53
Interessant ist auch, dass es wohl kein VGA bei Bobcat geben wird. :eek:

Habe mich auch gewundert. Wie soll man da einen herkömmlichen Beamer anschließen?

Oder gibt es DVI-D/DisplayPort nach VGA Konverter, die nicht nur schlicht Kabel durchverbinden?

S940
2010-10-13, 16:54:53
Es gibt anscheinend neue Infos zu den Southbridges für Bobcat & Co.

Die Folie ist 2 Monate alt, aber schön dass es CB jetzt auch gefunden hat :freak:

Stand sicher schon hier im Thread.

Hab mich damals gewundert, für was AES steht. Hat nichts mit Verschlüsselung zu tun sondern steht für AMD embedded systems.

ciao

Alex

Deinorius
2010-10-13, 23:58:34
Also sofern ich mich nicht irre, hab ich die Tabelle in diesem Thread noch nie gesehen. Auch sonst lese ich vorwiegend auf anderen Seiten und da ist mir die Tabelle auch noch nicht aufgefallen. Wo hast dus gesehen?

S940
2010-10-14, 00:22:42
Also sofern ich mich nicht irre, hab ich die Tabelle in diesem Thread noch nie gesehen. Auch sonst lese ich vorwiegend auf anderen Seiten und da ist mir die Tabelle auch noch nicht aufgefallen. Wo hast dus gesehen?
Ok, wenns Dus hier noch nicht gesehen hast, wirds wohl stimmen, ich habs damals bei P3D gepostet:
http://www.planet3dnow.de/vbulletin/showthread.php?p=4275907#post4275907

Und dabei selbst übersehen, dass mir Dresdenboy zuvorgekommen war :freak:
Ursprüngliche Quelle war wohl xtremesys oder der B3D Thread, den ich damals verlinkt hatte - aber da ist das Foto mittlerweile raus.

ciao

Alex

SavageX
2010-11-09, 08:20:51
http://www.anandtech.com/show/4003/previewing-amds-brazos-part-1-more-details-on-zacateontario-and-fusion/1

80 shader cores, 75 mm² (hatten wir nicht seitenlang Diskussion dass das (nicht) möglich ist?), VGA und digitale Schnittstellen direkt von der APU (nicht am Controller Hub hängend).

18 Watt Dinger haben einen GPU Takt von 500 MHz, 9 Watt Teile 280 MHz. CPU Takt zwischen 1,6 GHz (2 Kerne 18 Watt) und 1 GHz (2 Kerne, 9 Watt).

4xPCIe 2.0 an der APU, wohl nochmal 4xPCIe am Controller Hub.

Gipsel
2010-11-09, 11:21:09
http://www.anandtech.com/show/4003/previewing-amds-brazos-part-1-more-details-on-zacateontario-and-fusion/1

80 shader cores, 75 mm² (hatten wir nicht seitenlang Diskussion dass das (nicht) möglich ist?), VGA und digitale Schnittstellen direkt von der APU (nicht am Controller Hub hängend).Nun, ich sagte damals auch, die Zweifler werden es schon sehen ;). Ich hatte nur auf vielleicht 10-15% höhere Takte gehofft, insbesondere für die 9W-Version ...
18 Watt Dinger haben einen GPU Takt von 500 MHz, 9 Watt Teile 280 MHz. CPU Takt zwischen 1,6 GHz (2 Kerne 18 Watt) und 1 GHz (2 Kerne, 9 Watt).
denn mit den 9W läuft ein DualCore ja nur auf 1 GHz (Single 1.2 GHz) und die GPU mit nur 280MHz. Das sieht für mich ein wenig danach aus, als wäre man mit der Spannung ziemlich ans untere Ende gegangen. Insgesamt scheinen die CPU-Kerne ziemlich wenig Strom zu ziehen und der Verbrauch eher von der GPU bestimmt zu sein, aber da muß man mal wirklich nachmessen und am besten auch Informationen über das Binning haben, um das mit Sicherheit sagen zu können.

S940
2010-11-09, 11:37:37
Nun, ich sagte damals auch, die Zweifler werden es schon sehen ;). Ich hatte nur auf vielleicht 10-15% höhere Takte gehofft, insbesondere für die 9W-Version ...
Naja, ist ja erst die erste Revision, mit der Zeit werden schon ein paar bessere Exemplare kommen. Spätestens mit 28nm wirds dann eh egal.

Für nächste Woche bin ich mal auf nen Vergleich mit dem Atom N550 gespannt, der ist wohl der direkte Gegenspieler:
http://ark.intel.com/Product.aspx?id=50154

8,5W, 1,5 GHz CPU, 200 Mhz GPU, 2 Kerne / 4 Threads. Mal schauen, wie das ausgeht.

Trap
2010-11-09, 11:46:51
Laut Folien sollen die 18W-Modelle ja gegen die Pentium-Linie von Intel antreten, also gegen den U5400 (2x1200MHz Arrandale). Grafikleistung ist da kein Problem, die CPU-Leistung wird aber interessant. Ein 1500 MHz TurionII ist ähnlich schnell, vermutlich wird der Ontario da in Sachen IPC nicht ganz mithalten können, aber wenn er die versprochenen 90% davon einhält, ist es ein sehr konkurrenzfähiges Angebot.

Vor allem wenn man die möglichen Preise bedenkt.

Duplex
2010-11-09, 11:58:19
diese CPUs wird man in Netbooks bis 350€ einsetzen, ein Dual Core bei der TDP ist natürlich spitze!

Gestrandet
2010-11-09, 11:59:38
So einen will ich! :)
Mein VIA C7 kommt doch ab und zu ins Schwitzen, und Intel kommt mir nicht ins Haus.

AnarchX
2010-11-09, 12:05:40
http://img836.imageshack.us/img836/8941/58820003.jpg

AMD E-350 2x1.6GHz
Athlon V120 1x2.2GHz
Athlon II Neo K325 2x1.3GHz

http://www.computerbase.de/bildstrecke/31659/11/
http://en.wikipedia.org/wiki/List_of_AMD_Phenom_microprocessors
http://www.anandtech.com/show/4003/previewing-amds-brazos-part-1-more-details-on-zacateontario-and-fusion/2

Ronny145
2010-11-09, 12:38:30
Wenn die Systeme vergleichbar sind in der Folie, hat Nile die bessere CPU Leistung trotz weniger Takt. Demnach hat der E-350 Zacate auch das Nachsehen gegen zum Beispiel einen SU7300 ULV von Intel. Bei der Grafikleistung wird er dafür punkten können, Leistungsaufnahme mal abwarten. Also mir wäre das im (fast) Jahr 2011 zu wenig CPU Leistung. Klar, der krüpplige Atom wird klar geschlagen. Aber wenn selbst ein 1,3 Ghz ULV auf Core 2 schneller rechnet, wäre mir das schon zu dürftig.

davidzo
2010-11-09, 12:41:44
theroetisch müsste es doch möglich sein ein netbook ohne die Hudson M1 zu bauen.
was steckt da denn überhaupt lebensnotwendiges drin, wenn es bereits vier pcie lanes auf brazos gibt?

usb3.0 (via 4x), umts/wlan und audio, das ersetzt doch im prinzip alle netbookrelevanten features von hudson M1. Wenn Hudson M1 tatsächlich ganze 6watt verbraucht sehe ich hier die beste route...

Trap
2010-11-09, 12:43:56
Ok, die Grafik beantwortet die Performancefrage eigentlich. Hab eindeutig zu hoch spekuliert.

Ist aber trotzdem eine sehr ordentliche Verbesserung, -5% CPU-Performance, +100% GPU-Performance und -35% Stromverbrauch (=> 50% mehr Akkulaufzeit) bei weniger Herstellungskosten.

Twodee
2010-11-09, 12:46:08
Ok, die Grafik beantwortet die Performancefrage eigentlich. Hab eindeutig zu hoch spekuliert.

Ist aber trotzdem eine sehr ordentliche Verbesserung, -5% CPU-Performance, +100% GPU-Performance und -35% Stromverbrauch (=> 50% mehr Akkulaufzeit) bei weniger Herstellungskosten.
Aber nur wenn der Rest des Systems nichts verbraucht.

Ronny145
2010-11-09, 12:50:50
Ok, die Grafik beantwortet die Performancefrage eigentlich. Hab eindeutig zu hoch spekuliert.

Ist aber trotzdem eine sehr ordentliche Verbesserung, -5% CPU-Performance, +100% GPU-Performance und -35% Stromverbrauch (=> 50% mehr Akkulaufzeit) bei weniger Herstellungskosten.


Wenn du nach der Folie gehst, sind es mehr als 5% CPU. Im Gesamtergebnis spielt ja auch das GPU Ergebnis mit rein. Es wurde nicht umsonst nur der K325 genommen. Gibt noch schnellere Nile CPUs. Bei der GPU Leistung mal abwarten. Doppelte Vantage Punktzahl muss nicht gleichbedeutend mit doppelter GPU real world performance sein. Bei netbooknews steht was von 50% schneller als Niles GPU.

Up to 50% graphics performance improvement over Nile platform.

Gaming – Crysis at 720p resolution was “enjoyable” at low settings. Apparently the 50% improvement in graphics isn’t just a best-case scenario.
http://www.netbooknews.com/13306/amd-brazos-platform-gets-hands-on-more-details-product-lineup/

fondness
2010-11-09, 12:55:27
Wenn die Systeme vergleichbar sind in der Folie, hat Nile die bessere CPU Leistung trotz weniger Takt. Demnach hat der E-350 Zacate auch das Nachsehen gegen zum Beispiel einen SU7300 ULV von Intel. Bei der Grafikleistung wird er dafür punkten können, Leistungsaufnahme mal abwarten. Also mir wäre das im (fast) Jahr 2011 zu wenig CPU Leistung. Klar, der krüpplige Atom wird klar geschlagen. Aber wenn selbst ein 1,3 Ghz ULV auf Core 2 schneller rechnet, wäre mir das schon zu dürftig.

Die ganzen CULV Prozessoren spielen doch in einer ganz anderen Preisliga und sind zudem bei weitem nicht so kompakt zu bauen. Das Ding sollte sich mit Atom herumschlagen (~selbe Die-Size, selbe Abmessungen) und da einen klaren knock-out erzielen können.

Trap
2010-11-09, 12:56:01
Die technischen Details zur GPU sind doch bekannt. 80SPs@500 Mhz bei Brazos, 40SPs@500 Mhz bei Nile. Speicherbandbreite kann natürlich ein Problem sein, aber reine GPU-Rechenleistung ist +100%.

Twodee
2010-11-09, 12:58:02
Die ganzen CULV Prozessoren spielen doch in einer ganz anderen Preisliga und sind zudem bei weitem nicht so kompakt zu bauen. Das Ding sollte sich mit Atom herumschlagen (~selbe Die-Size, selbe Abmessungen) und da einen klaren knock-out erzielen können.
Warum muss es wegen der DIE-Size mit Atom verglichen werden?

AnarchX
2010-11-09, 13:00:15
Ein 75mm² TSMC-Die könnte wohl teurer sein, als wenn Intel einen ~100mm² DC-Atom direkt fertigt.

Undertaker
2010-11-09, 13:01:53
ULV Celerons und Pentiums dürften durchaus in der gleichen Preisklasse spielen, gegen diese positioniert sie AMD zumindest nach eigener Aussage:

http://www.anandtech.com/show/4003/previewing-amds-brazos-part-1-more-details-on-zacateontario-and-fusion/1

Sollten sich die Performancewerte weiter oben bestätigen, sehe ich einen klaren Sieg auf GPU-Seite, allerdings auch eine ebenso deutliche Niederlage bzgl. der CPU.

Der Atom dürfte durch sein in jedem Punkt schlechteres Abschneiden wohl noch stärker in den Bereich von <300€ Geräten gedrückt werden.

Hoffentlich passt auch die Akkulaufzeit.

fondness
2010-11-09, 13:03:56
Ein 75mm² TSMC-Die könnte wohl teurer sein, als wenn Intel einen ~100mm² DC-Atom direkt fertigt.

Nur verlangen die Intel-Aktionäre ganz andere Margen.

ULV Celerons und Pentiums dürften durchaus in der gleichen Preisklasse spielen, gegen diese positioniert sie AMD zumindest nach eigener Aussage:

http://www.anandtech.com/show/4003/previewing-amds-brazos-part-1-more-details-on-zacateontario-and-fusion/1

Sollten sich die Performancewerte weiter oben bestätigen, sehe ich einen klaren Sieg auf GPU-Seite, allerdings auch eine ebenso deutliche Niederlage bzgl. der CPU.

Der Atom dürfte durch sein in jedem Punkt schlechteres Abschneiden wohl noch stärker in den Bereich von <300€ Geräten gedrückt werden.

Hoffentlich passt auch die Akkulaufzeit.

Intel verkauft Atom sicher deutlich billiger als die ULV Celerons und Pentiums. Wenn man sich mit letztgenannten Messen kann ist das toll für AMD, aber ich sehe keinen plausiblen Grund warum man die Chips preislich nicht gegen die Atom stellen sollte.

fondness
2010-11-09, 13:07:19
Warum muss es wegen der DIE-Size mit Atom verglichen werden?

Muss es nicht, aber AMD wird ihn wohl zu einem ähnlichen Preis anbieten. Und normalerweise vergleicht man denselben Preispunkt.

Die CULV-Chips sind große Cores die durch Selektion mit wenig Spannung und Takt auf eine gute Energieeffizienz gerückt werden. Das lässt sich Intel normalerweise gut bezahlen.

Trap
2010-11-09, 13:07:51
Wenn man sich mit letztgenannten Messen kann ist das toll für AMD, aber ich sehe keinen plausiblen Grund warum man die Chips preislich nicht gegen die Atom stellen sollte.
Da gibt es einen guten Grund: Sie wären sofort ausverkauft.

Ailuros
2010-11-09, 13:08:13
Naja, ist ja erst die erste Revision, mit der Zeit werden schon ein paar bessere Exemplare kommen. Spätestens mit 28nm wirds dann eh egal.

Für nächste Woche bin ich mal auf nen Vergleich mit dem Atom N550 gespannt, der ist wohl der direkte Gegenspieler:
http://ark.intel.com/Product.aspx?id=50154

8,5W, 1,5 GHz CPU, 200 Mhz GPU, 2 Kerne / 4 Threads. Mal schauen, wie das ausgeht.

http://www.xbitlabs.com/news/mobile/display/20101104173944_Intel_to_Start_Revenue_Shipments_of_Oak_Trail_Platform_for_Tablet s_in_Q1_2011.html

SavageX
2010-11-09, 13:08:33
Warum muss es wegen der DIE-Size mit Atom verglichen werden?

Die Größe des Dies dürfte tatsächlich im Endeffekt für den Hersteller eher uninteressant sein (solange er einen guten Preis bekommt), aber die CULV Pentiums kommen in einem etwas größerem Package, brauchen noch einen Chip mehr (Platz und Verdrahtungsaufwand) und wollen auch Zweikanal-Speicher (Platz und Verdrahtungsaufwand), wenn man nicht teuer bezahlte Leistung auf dem Tisch liegen lassen will. Die IGP ist hierbei trotzdem "unrettbar langsam".

Ronny145
2010-11-09, 13:08:44
Die ganzen CULV Prozessoren spielen doch in einer ganz anderen Preisliga und sind zudem bei weitem nicht so kompakt zu bauen. Das Ding sollte sich mit Atom herumschlagen (~selbe Die-Size, selbe Abmessungen) und da einen klaren knock-out erzielen können.

Im Atom Preisbereich bis 400-500€ sicherlich. Da wäre Zacate die bessere Wahl.

Trap
2010-11-09, 14:10:50
http://www.xbitlabs.com/news/mobile/display/20101104173944_Intel_to_Start_Revenue_Shipments_of_Oak_Trail_Platform_for_Tablet s_in_Q1_2011.html
Die Brazos Platform soll schon im Januar als kaufbares Produkt in den Geschäften stehen, der Vergleich zum Launch ist also gegen Pineview/-trail Atoms und Arrandale/Penryn Pentiums und Celerons.

Undertaker
2010-11-09, 14:24:26
Muss es nicht, aber AMD wird ihn wohl zu einem ähnlichen Preis anbieten.

Welchen Anhaltspunkt siehst du dafür? Wie gesagt, diese Folie spricht für mich klar dagegen:

http://www.anandtech.com/show/4003/previewing-amds-brazos-part-1-more-details-on-zacateontario-and-fusion/1

Evntl. wird ja ein kleiner Singlecore Brazos gegen einen Dualcore Atom positioniert, für die 18W Modelle gehe ich aber schon von Celeron/Pentium ULV Bereichen aus - zumindest bis deren Sandy Bridge Ableger erscheinen.

S940
2010-11-09, 15:41:55
http://www.xbitlabs.com/news/mobile/display/20101104173944_Intel_to_Start_Revenue_Shipments_of_Oak_Trail_Platform_for_Tablet s_in_Q1_2011.html

Hmm da steht Tablet PCs, aus dem Segment will sich AMD aber raushalten, ergo nicht zu vergleichen, sieht man auch daran, dass Oak Trail kein PCIe hat. Solange kein Hersteller doch noch nen Oak Trail in ein (Sub)notebook/Netbook einbaut, bzw. ein anderer nen Ontario in ein Tablett, uninterssant.

ciao

Alex

mboeller
2010-11-09, 15:45:05
Ein 75mm² TSMC-Die könnte wohl teurer sein, als wenn Intel einen ~100mm² DC-Atom direkt fertigt.

naja, wenn man der Diskussion bei den GPUs glauben schenken kann, kostet ein 40nm Wafer bei TSMC ca. 5500,- Dollar.

(150² x pi)/75 = >900 dies pro Wafer. => 5,8 Dollar pro Die. Incl. Verschnitt und Ausschuss ~~7 - 8,- Dollar (ohne Package etc...)

Wo soll Intel da noch viel billiger sein? Eine komplette HD5450 Grafikkarte bekommst du ja übrigens auch schon für ca. 30,- Euro

mboeller
2010-11-09, 15:47:33
Hmm da steht Tablet PCs, aus dem Segment will sich AMD aber raushalten, ergo nicht zu vergleichen, sieht man auch daran, dass Oak Trail kein PCIe hat. Solange kein Hersteller doch noch nen Oak Trail in ein (Sub)notebook/Netbook einbaut, bzw. ein anderer nen Ontario in ein Tablett, uninterssant.

ciao

Alex

Intel muss aber noch einen Oak-Trail incl. PCIe anbieten. Allerdings erst 2013.

fondness
2010-11-09, 15:49:41
Welchen Anhaltspunkt siehst du dafür? Wie gesagt, diese Folie spricht für mich klar dagegen:

http://www.anandtech.com/show/4003/previewing-amds-brazos-part-1-more-details-on-zacateontario-and-fusion/1

Evntl. wird ja ein kleiner Singlecore Brazos gegen einen Dualcore Atom positioniert, für die 18W Modelle gehe ich aber schon von Celeron/Pentium ULV Bereichen aus - zumindest bis deren Sandy Bridge Ableger erscheinen.

Wie schon gesagt, wenn dann tut man das nur weil man es sich leisten kann. Ansonsten sind die CULV-Chips viel größere Cores die noch dazu durch Selektion mit wenig Spannung und Takt auf eine gute Energieeffizienz gedrückt werden. Das lässt sich Intel gut bezahlen. Die CULVs sind meist deutlich teurer als "normale" Chips identischer Leistung.

Dazu kommt noch der zusätzliche Chip beim Chipsatz und der Dual-Channel Controller. Da kommst du normalerweise nicht mal annähernd auf denselben Preispunkt.

S940
2010-11-09, 16:19:06
Intel muss aber noch einen Oak-Trail incl. PCIe anbieten. Allerdings erst 2013.
Jo weiss ich, aber die Info ist belanglos, keiner weiss wie die Lage 2013 aussieht. Sogar bei der Prozesstech muss man schon spekuklieren, bei Intel vermutlich 22nm, das ist bis 2013 ein "alter, billiger" Prozess, und bei AMD vielleicht 22/20nm GloFo, die fangen da aber erst Ende 2012 damit an:
http://www.globalfoundries.com/newsroom/2010/20100901_Roadmap.aspx
Oder halt irgendwas von TSMC.

Ansonsten, Motto des Tages:

http://www.abload.de/img/amddayrg5w.jpg

Mal schauen, was sie in den 8 Stunden so treiben ;-)

Undertaker
2010-11-09, 16:57:08
Wie schon gesagt, wenn dann tut man das nur weil man es sich leisten kann. Ansonsten sind die CULV-Chips viel größere Cores die noch dazu durch Selektion mit wenig Spannung und Takt auf eine gute Energieeffizienz gedrückt werden. Das lässt sich Intel gut bezahlen. Die CULVs sind meist deutlich teurer als "normale" Chips identischer Leistung.

Dazu kommt noch der zusätzliche Chip beim Chipsatz und der Dual-Channel Controller. Da kommst du normalerweise nicht mal annähernd auf denselben Preispunkt.

Herstellungspreise (die zudem auf Grund der nicht mehr eigenen Fertigung AMDs nicht mehr vollkommen vergleichbar sind) sind nicht der einzig entscheidende Punkt für letztliche Verkaufspreise - die müssen entsprechend der Leistung und anderer Punkte (z.B: Energieeffizienz) dem Marktniveau angepasst werden.

Dazu setzen sich die Kosten ja in einer Mischkalkulation zusammen, soll heißen: Wenn ein ULV-Modell in einer Preisspanne von z.B. ~70-300$ verkauft wird, kann es trotz größerem Die oder teurerem Unterbau natürlich auch einem Ontario, der evntl. für 50-100$ abgesetzt wird, entgegengestellt werden, wenn entsprechend passende Modelle herangezogen werden.

Nicht vergessen: Wir reden ja explizit von Pentium/Celeron, den absoluten Einstiegs-ULVs zu entsprechend niedrigeren Preisen. Hier sieht AMD die Konkurrenz und hier sehe ich sie auch. Ein Atom kann bei den bekannt werdenden Leistungsdaten niemals in der gleichen Liga spielen, maximal als Dualcoremodell gegen einige Singlecore-Ontarios.

Trap
2010-11-09, 18:50:22
Laut neuer Roadmap aus dem 4. Pdf von http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-2010analystday gibt es 2012 in 28nm gefertigte APUs mit 1-4 verbesserten Bobcat Kernen.

S940
2010-11-09, 19:02:40
Laut neuer Roadmap aus dem 4. Pdf von http://ir.amd.com/phoenix.zhtml?c=74093&p=irol-2010analystday gibt es 2012 in 28nm gefertigte APUs mit 1-4 verbesserten Bobcat Kernen.
Jupp:

http://www.abload.de/img/notebookplanwsyr.jpg

Optimale Strategie, die "großen" K10 Kerne werden aufs Altenteil geschoben, Bulldozer und Bobcat werden die Ablösung.

mboeller
2010-11-09, 19:24:35
ouch!!

Llano ist also nur ca. 1 Jahr auf dem Markt, wenn überhaupt so lange. Manoman.... Ich hoffe bloß, das das viele Geld für die Entwicklung nicht ganz verschwendet war. :(

Savay
2010-11-09, 20:01:32
ouch!!

Llano ist also nur ca. 1 Jahr auf dem Markt, wenn überhaupt so lange. Manoman.... Ich hoffe bloß, das das viele Geld für die Entwicklung nicht ganz verschwendet war. :(

hmm llano ist ja irgendeine K10.5 abwandlung...bobcat geht eher in richtung angepasster K9...in letzter konsequenz sind es aber alles K8 CPUs

rein konzeptionell könnten sie nen geshrinkten und angepassten llano kern auch als "enhanced bobcat core" hinstellen...wer weiß auf welcher technischer basis die 28nm CPUs wirklich entwickelt werden. :wink:

mboeller
2010-11-09, 20:15:47
nochwas zum Llano.

Auf der Prozess-Roadmap, die Sioh auf planet3dnow gepostet hat sieht man schön, das die Entwicklung vom Llano wirklich um 1/2 Jahr zu lange gedauert hat. Alle anderen CPU's brauchen ca. 1 Jahr vom Prototypen bis zur Serienfertigung; nur beim Llano dauert diese Phase 1,5 Jahre. Zudem scheint er wirklich erst am Ende des 2. Quartals 2011 zu kommen.

Link: http://www.planet3dnow.de/vbulletin/showpost.php?p=4323340&postcount=1609

SavageX
2010-11-09, 20:26:47
Tja, da lag der gute Hans de Vries mit seiner Einschätzung doch goldrichtig:

http://www.chip-architect.com/news/AMD_Ontario_Bobcat_vs_Intel_Pineview_Atom.jpg

Auf den Folien findet sich nämlich

http://img225.imageshack.us/img225/3951/ontariodie.png

SavageX
2010-11-09, 20:30:23
hmm llano ist ja irgendeine K10.5 abwandlung...bobcat geht eher in richtung angepasster K9...in letzter konsequenz sind es aber alles K8 CPUs


Wenn man das so grob sieht dann ist alles irgendwie überarbeiteter P6. Und siehe da: Der Bobcat kann kein 3Dnow! Das ist doch *der* Beweis, dass AMD da Intel den Kern geklaut hat!!!111

;)

edit: Etwas ernsthaftiger: Der Bobcat ist schon ein anderes Tier als der K8. Die FPU ist zweifelsfrei gänzlich neu und auch, dass es jetzt einen unified Scheduler für die I-Pipes gibt und wie die Daten im Kern (eben nicht) herumgereicht werden, ist untypisch K8.

Ailuros
2010-11-09, 20:32:45
Hmm da steht Tablet PCs, aus dem Segment will sich AMD aber raushalten, ergo nicht zu vergleichen, sieht man auch daran, dass Oak Trail kein PCIe hat. Solange kein Hersteller doch noch nen Oak Trail in ein (Sub)notebook/Netbook einbaut, bzw. ein anderer nen Ontario in ein Tablett, uninterssant.

ciao

Alex

Es steht eigentlich tablets und netbooks drin, aber es ist sowieso nebensaechlich.

mboeller
2010-11-16, 08:10:35
Zacate Tests:

http://techreport.com/articles.x/19981

http://www.anandtech.com/show/4023/the-brazos-performance-preview-amd-e350-benchmarked

AnarchX
2010-11-16, 08:11:47
Zacate Test: http://techreport.com/articles.x/19981
http://www.anandtech.com/show/4023/the-brazos-performance-preview-amd-e350-benchmarked
http://www.pcper.com/article.php?aid=1039&type=expert&pid=1

http://www.tomshardware.de/amd-fusion-brazos-zacate,testberichte-240671.html

Triskaine
2010-11-16, 09:16:40
Von der CPU Performance hätte ich mir dann doch deutlich mehr erwartet. Wie will AMD den 1,0 GHz Ontario rechtfertigen, wenn selbst der E-350 nur 20-25 % über einem Atom D510 liegt?

Wenigstens überzeugt die Grafikperformance, jetzt fehlen auch nur noch Akkulaufzeiten zu einem vollständigen Plattformüberblick.

SavageX
2010-11-16, 09:33:23
Von der CPU Performance hätte ich mir dann doch deutlich mehr erwartet. Wie will AMD den 1,0 GHz Ontario rechtfertigen, wenn selbst der E-350 nur 20-25 % über einem Atom D510 liegt?


Der D510 kann nur dann kräftig aufspielen, wenn man die vier Threads beschäftigen kann. Es ist die Single-Thread Leistung, die beim Atom hapert. Nun wird ein 1.0 GHz Ontario auch nicht die Single-Thread Rakete, aber wenn man z.B. bei Cinebench mal reinguckt, dann sieht man so um die 70% größere IPC beim Bobcat Kern, d.h. der 1.0 GHz Ontario wird zumindest nicht dort langsamer sein, wo es wehttut, aber immer noch mehr GPU-Wumms mitbringen.

mrt
2010-11-16, 09:41:01
Ich find die Tests an sich nicht so berauschend, Bobcat ist kein Desktopersatz warum testet man ihn dann so?
Singlethreadleistung ist ganz ok, das ist das Problem beim Atom, insofern ok. Ich werd mir so einen besorgen sobald die in Netbooks verfügbar sind und selber testen.

Tarkin
2010-11-16, 10:34:40
Von der CPU Performance hätte ich mir dann doch deutlich mehr erwartet. Wie will AMD den 1,0 GHz Ontario rechtfertigen, wenn selbst der E-350 nur 20-25 % über einem Atom D510 liegt?

Wenigstens überzeugt die Grafikperformance, jetzt fehlen auch nur noch Akkulaufzeiten zu einem vollständigen Plattformüberblick.

The MSI netbook we saw in our first look at the Bobcat architecture last week was very compelling and with an estimated ACTUAL battery life of 10+ hours, I can see the technology racing into eager consumers hands. :up:

Deinorius
2010-11-16, 10:49:02
Wenigstens überzeugt die Grafikperformance, jetzt fehlen auch nur noch Akkulaufzeiten zu einem vollständigen Plattformüberblick.


Von diesen Messungen (http://www.pcper.com/article.php?aid=1039&type=expert&pid=8) her siehts schon mal ganz gut aus. Wenn selbst ein Zacate über 10 h Akkulaufzeit erreicht, dann ist der so gut wie gekauft. Hoffentlich werden die Displays dann auch akzeptabel sein. :freak:

Ich find die Tests an sich nicht so berauschend, Bobcat ist kein Desktopersatz warum testet man ihn dann so?


Kannst du spezifizieren? Was wäre dir lieber gewesen?

Ich finde ja besonders diese Zeilen bei Anandtech interessant.
As I mentioned in Part 1 of our coverage, the system felt snappy. I had the 11-inch MacBook Air on hand (it served as my Excel-runner while I benchmarked) and interacting with the OS felt no different between the Brazos system and the 1.6GHz MBA. That being said, the MBA is technically much quicker (and more expensive).


Wenn das eine oder andere Zacate Notebook dann auch noch standardmäßig mit SSD verbaut werden würde (vorzugsweise mit dem neuen Toshiba Format wie in den MBAs), wäre das ein gutes Arbeitsgerät.

mboeller
2010-11-16, 10:50:56
Von der CPU Performance hätte ich mir dann doch deutlich mehr erwartet. Wie will AMD den 1,0 GHz Ontario rechtfertigen, wenn selbst der E-350 nur 20-25 % über einem Atom D510 liegt?

Wenigstens überzeugt die Grafikperformance, jetzt fehlen auch nur noch Akkulaufzeiten zu einem vollständigen Plattformüberblick.


Die 1,0 GHz Ontario schlagen sich ja meistens nicht mit den D510 rum, sondern mit den D410 - 425 (Single-Core 1,6 - 1,86 GHz). Dagegen hat die "kleine" Version IMHO sogar gute Karten.


Edit:

WOW : Power-Consumption http://www.pcper.com/article.php?aid=1039&type=expert&pid=8

Besser als der D510 (sowohl idle als auch unter Last beim Cinebench). Damit hatte ich wirklich nicht gerechnet.

y33H@
2010-11-16, 10:53:48
Die Dinger schieben sich im Prinzip zwischen Atom und Sandy Bridge, von der CPU-Leistung wie vom Preis her. Fraglich ist, was die SB IGP wirklich kann (Treiber, Leistung, Features).

mrt
2010-11-16, 11:00:52
Kannst du spezifizieren? Was wäre dir lieber gewesen?

Ich finde ja besonders diese Zeilen bei Anandtech interessant.
Naja was interessiert Cinebench oder wie schnell die CPU encodiert? Mehr prxisrelevante Tests, das waren mir zu wenig, Browser is auf so kleinen Kisten nicht uninteressant (aber bitte nicht nur HTML5-Tests), um mal ein Beispiel zu nennen.
Ja die Zeilen waren sehr interessant, wobei für mich ja kein Windows auf solchen Gräten in Frage käme.

@ y33h@ Intels Treiber waren schon immer schlecht, das wird sich nicht von heute auf morgen ändern, das braucht viel mehr Zeit.

Deinorius
2010-11-16, 11:01:55
Fraglich ist, was die SB IGP wirklich kann (Treiber, Leistung, Features).


Nur wen interessiert das hier in diesem Fall? Die SB Modelle sind weit von dem, wo man Bobcat verkaufen will.
Selbst dann wäre SB hinter den Features und der Treiberkompatibilität, auch wenn sich Intel dabei verbessert haben sollte.

Naja was interessiert Cinebench oder wie schnell die CPU encodiert? Mehr prxisrelevante Tests, das waren mir zu wenig, Browser is auf so kleinen Kisten nicht uninteressant (aber bitte nicht nur HTML5-Tests), um mal ein Beispiel zu nennen.
Ja die Zeilen waren sehr interessant, wobei für mich ja kein Windows auf solchen Gräten in Frage käme.


Ich verstehe schon, aber gerade dafür sollte auch der PCMark Vantage dienen. Wir sollten nicht vergessen, dass die Zeit für die Benchmarks etwas begrenzt war. Wir haben hiermit einen realen Vergleich zur tatsächlichen Leistung vom Zacate.
Praxisrelevante Tests sollten die Bencher dann mit marktfertigen Notebooks durchführen.
Mir würde Windows dennoch recht sein, aber das kann ich derzeit nicht beurteilen. Ein etwas angepasstes Win7 würde schon gehen, solange der RAM nicht knapp wird und die HDD schnell genug bzw. eine SSD drin ist. :ugly: Die Displayauflösung find ich hier wichtiger.

mrt
2010-11-16, 11:09:31
PCMark kannst da eher vergessen. Vergleiche sind mit wenig Zahlen problematisch.
Klar wirds dann mit den Notebooks erst so richtig relevant, aber etwas mehr hab ich mir, tortz begrenzter Zeit, schon erwartet.

Ronny145
2010-11-16, 11:10:09
Die Dinger schieben sich im Prinzip zwischen Atom und Sandy Bridge, von der CPU-Leistung wie vom Preis her. Fraglich ist, was die SB IGP wirklich kann (Treiber, Leistung, Features).

Rein von der CPU Leistung sollte schon ein 1,3 GHZ CULV auf Core 2 schneller sein und ein 1,2 Ghz Arrandale auch. Mal von AMD Domänen wie Packen oder Truecrypt abgesehen.

Undertaker
2010-11-16, 11:10:44
WOW : Power-Consumption http://www.pcper.com/article.php?aid=1039&type=expert&pid=8

Besser als der D510 (sowohl idle als auch unter Last beim Cinebench). Damit hatte ich wirklich nicht gerechnet.

Achtung, das sind Systemmessungen. ;) Um den reinen CPU-Verbrauch zu bewerten, kann man da erstmal nur das idle-load Delta als Anhaltspunkt nehmen:

3,7W für den Atom D510
8W für den SU2300
9,8W für den E-350

Bei jeweils reiner CPU-Last. Die spannende Frage wird jetzt, wie man sich bei realen Produkten, z.B. einem Netbook, bzgl. des Idleverbrauches schlägt: 10" mit einem Atom liegen im Bestfall nur bei 4-5W, Core 2 / Clarkdale ULV Modelle bei ca. 6W aufwärts.

Die Leistung ist imho etwas zwiespältig: Klar, schneller als ein Atom. Leider aber bei weitem nicht in Reichweite aktueller ULV-Modelle ab i3 aufwärts, maximal Celeron/Pentium-Niveau. Damit ist auch die für diese Klasse beachtliche GPU-Leistung etwas verschenkt, viele Spiele lassen sich in fordernden Szenen einfach nicht auf so niedrige CPU-Anforderungen bringen - daran scheiterten schon die Atom+ION Kombinationen vor einigen Jahren.

Für mich entscheidend wird der Preis: Kommt man auch in ~300€ Bereiche wie die Atom-Netbooks? Dann wäre das mehr an Leistung ein guter Kompromiss gegen vermutlich leicht sinkende Laufzeiten. Im ULV-Bereich ist die Konkurrenz dagegen imho zu stark.

y33H@
2010-11-16, 11:12:53
Nur wen interessiert das hier in diesem Fall? AMD hatte sich damit gerühmt, die Arrandale-IPG zu schlagen. Diese ist aber nicht der Gegner.
Selbst dann wäre SB hinter den Features und der Treiberkompatibilität, auch wenn sich Intel dabei verbessert haben sollte.Daran zweifle ich nicht. Intel ist CPU-seitig besser, AMD bei der GPU. Die Mischung und der Preis machen's am Ende.

Gestrandet
2010-11-16, 11:22:04
AMD hatte sich damit gerühmt, die Arrandale-IPG zu schlagen. Diese ist aber nicht der Gegner.
Und wer ist deiner Meinung nach der Gegner?

Ronny145
2010-11-16, 11:27:55
Achtung, das sind Systemmessungen. ;) Um den reinen CPU-Verbrauch zu bewerten, kann man da erstmal nur das idle-load Delta als Anhaltspunkt nehmen:

3,7W für den Atom D510
8W für den SU2300
9,8W für den E-350


http://hothardware.com/Reviews/AMD-Zacate-E350-Processor-Performance-Preview/?page=8
http://www.legitreviews.com/article/1470/9/


11 Watt Idle fürs System. Ist erstmal nichts besonders. Aber richtig sehen wird man das erst in Serien Notebooks oder Netbooks.

y33H@
2010-11-16, 11:28:30
Wenn man die IPGs vergleicht, dann muss man Sandy Bridge nehmen oder den crap, der mit den Atoms gepaart wird. Nicht aber die Arrandale-IPG.

Trap
2010-11-16, 11:33:41
Sandy Bridge ULVs gibt es noch nicht und wird es zum Start der E-350 Notebooks auch noch nicht geben.

y33H@
2010-11-16, 11:37:08
Es wird laut Intel 17W Sandy Bridges geben in Q1 2010 (!) und wenn Zacate auf 18W TDP kommt, dann sollte man diese beiden Plattformen vergleichen :rolleyes:

Deinorius
2010-11-16, 11:39:44
Meinst du nicht eigentlich IGP?

Wieso sollte man jetzt explizit die SB-IGP vergleichen? Die Arrandale-IGP wird ja in den Boden gestampft, da AMD sagt, man könne diese schlagen, dann passts ja. Der wahre Gegner sind sie nicht und SB noch weniger, da man das Gesamtpaket betrachten muss.

Außer du gehst hier gegen die getrennte Betrachtungsweise der Benchmarks an, da hier besser nur Systeme verglichen werden sollten, die beim Preis einhergehen.

@zum letzten Post
Was bringt ein Vergleich von zwei 18 W TDP Systemen, wenn die andere (mehr als) doppelt soviel kostet? :confused:
Systeme sollten primär beim Preis verglichen werden!