Archiv verlassen und diese Seite im Standarddesign anzeigen : Der Phenom X4 wurde abgelichtet
NoWay
2007-06-01, 13:44:29
Moin
Heute ist ein Bild vom Phenom X4 (K10) aufgetaucht.
http://i164.photobucket.com/albums/u13/NoWay_021/K10kleiner.jpg (http://i164.photobucket.com/albums/u13/NoWay_021/1.jpg)
Zum vergrößern Bild anklicken
Was haltet ihr davon ?
Kennt sich jemand aus und kann aus diesem Bild etwas schlaues rauslesen?
Bin auf eure Antworten gespannt
mfg
NoWay
Spasstiger
2007-06-01, 13:51:09
Erstaunlich wenig Cachefläche. Oder kommt mir das nur so vor?
4,5MB im K10 gegen 8MB beim Core2 Quad... nicht wirklich. Sind nur gut verteilt auf dem Die die Caches. Der 45nm wird da wo jetzt die 2MB L3 sind 6MB unterbringen. Damit würde man sich Intel Packdichte nähern.
dildo4u
2007-06-01, 14:01:18
Intel wird beim 45nm Quad 12mb Cache haben.
AMD wird beim 45nm Quad 8,5MB haben. Zwar immernoch weniger, aber dafür 3 Stufig.
DaEmpty
2007-06-01, 14:03:30
Naja der Cache verteilt sich schon über die Fläche.
Da hat man jeden Core mit 2x64 KByte Cache
http://chip-architect.com/news/K8L_floorplan_720.jpg
Zwischen den Kernen den 2. Level Cache und unten den 3. Level Cache.
Dann hat man bei der Packdichte von Cache deutliche Fortschritte gemacht, wodurch die Diefläche dafür wesentlich schrumpft.
Der Logikanteil bei AMD ist aber schon seit längerem vergleichsweise hoch, was mit dem Barcelona nicht besser wird.
dildo4u
2007-06-01, 14:07:20
Absurd teuer wird der für AMD in 65nm.Das Monster sollte lieber was können sonst sieht der K10 nie die 45nm Fertigung. ;)
Echt erstaunlich wieviel Die Fläche die FPU einnimmt. Ca. 1/4 pro Core. dildo4u, das sit Quatsch. Der ist auch net grösser als die anderen dice die bisher initial gefertigt wurden (vom K7 an).
AMD redet immer davon, einen "echten" Quadcore zu bauen. Ich hielt das die ganze Zeit für schwachsinn, weil das bei Intel nie wirklich Leistung kostete.
Gehe ich recht der annahme, das AMD dadurch deutlich an Yield einbüßen wird? Das wäre im Preiskampf umso verherrender!
dildo4u
2007-06-01, 14:12:57
Echt erstaunlich wieviel Die Fläche die FPU einnimmt. Ca. 1/4 pro Core. dildo4u, das sit Quatsch. Der ist auch net grösser als die anderen dice die bisher initial gefertigt wurden (vom K7 an).
Klar ist der größer als alles was AMD derzeit fertigt oder fertigen läßt.Der Quad hat ca 450-500 Mio Transistoren.
Klar ist der größer als alles was AMD derzeit fertigt oder fertigen läßt.Der Quad hat ca 450-500 Mio Transistoren.
Wie war das? Der Peryn QuadCore hat fast 800Mio? Das heisst garnichts, die Anzahl der Transistoren ist dafür kein Indikator. Nur die Die Grösse und viel grösser als 200mm² wird das Die des Barcelona net sein. Zum Vergleich: Der K7 startet mit 184mm², der K8 mit 193mm² und der K9 mit 199mm². So um die Grösse wird der K10 auch anfangen.
Kennt jemand die exakte Grösse des Die vom K10 QuadCore?
dildo4u
2007-06-01, 14:27:17
Das Problem ist eher das der Phenom whol die komplexeste Architektur hat also recht anfällig ist bei Intel kommt die Masse des Transistorcounts vom Cache nicht vom Kern.
DaEmpty
2007-06-01, 14:31:05
Kennt jemand die exakte Grösse des Die vom K10 QuadCore?
Ich klau mal wieder bei chip-architect.com
http://chip-architect.com/news/AMD_family_pic.jpg
Uff das ist ja tatsächlich ein Monster :D
Kennt jemand die exakte Grösse des Die vom K10 QuadCore?
Ja, das Ding hat fast 300mm², 283mm² um genau zu sein.
Uff das ist ja tatsächlich ein Monster :D
Das ist auch ein nativer Quadcore. Bis auf AMD fertigt soetwas bisher niemand.
Endorphine
2007-06-01, 15:11:35
Bei AMD lohnt sich wegen des in die CPU integrierten Speichercontrollers die Integration eines Quadcores auf einem Die.
Bei Intel hat das momentan nicht wirklich einen Sinn, da jede I/O-Operation ja sowieso über die Northbridge und damit den FSB geht. Da lohnt es sich nur für einen großen von allen Kernen gemeinsam genutzten L2-Cache.
Solange AMD aber kein Kentsfield/Cloverton-Konkurrenzprodukt auf dem Markt hat kann sich Intel Zeit lassen, die Diegröße mit vier Kernen auf einem Die in die Höhe zu treiben. Und letzten Endes zählt sowieso nur die Performance pro Watt und pro Geldeinheit. Der technische Weg dahin interessiert die (meiste) Kundschaft nicht.
Es ist auch ne premiere, dass AMD gleich 4 verschiedene Chips vorstellt und fertigt: K10 X4, K10 X2 mit und ohne L3 und einen K9/K10 Hybriden für Mobile.
Bei AMD lohnt sich wegen des in die CPU integrierten Speichercontrollers die Integration eines Quadcores auf einem Die.
Bei Intel hat das momentan nicht wirklich einen Sinn, da jede I/O-Operation ja sowieso über die Northbridge und damit den FSB geht. Da lohnt es sich nur für einen großen von allen Kernen gemeinsam genutzten L2-Cache.
Solange AMD aber kein Kentsfield/Cloverton-Konkurrenzprodukt auf dem Markt hat kann sich Intel Zeit lassen, die Diegröße mit vier Kernen auf einem Die in die Höhe zu treiben. Und letzten Endes zählt sowieso nur die Performance pro Watt und pro Geldeinheit. Der technische Weg dahin interessiert die (meiste) Kundschaft nicht.
Deswegen kommen ja die QuadCore Opterons auch zuerst, durchaus verständlich.
Endorphine
2007-06-01, 15:15:45
Es ist auch ne premiere, dass AMD gleich 4 verschiedene Chips vorstellt und fertigt: K10 X4, K10 X2 mit und ohne L3 und einen K9/K10 Hybriden für Mobile. Warte mal lieber ab, was von der Vielfalt der physikalischen Kerne in der Realität übrigbleibt. Ich hoffe eher, dass AMD einen möglichst hohen Gleichteile-Anteil schafft und damit die Profitabilität maximiert, damit AMD wieder finanziell auf die Beine kommt.
und einen K9/K10 Hybriden für Mobile.
Das halt ich für ein Gerücht.
BlackBirdSR
2007-06-01, 15:23:46
und einen K9/K10 Hybriden für Mobile.
Da muss ich Coda zustimmen. Ich halte den Mobile immernoch für einen K8 mit verbessertem I/O und Powermanagement.
reunion
2007-06-01, 15:24:13
Es ist auch ne premiere, dass AMD gleich 4 verschiedene Chips vorstellt und fertigt: K10 X4, K10 X2 mit und ohne L3 und einen K9/K10 Hybriden für Mobile.
Dazu noch Spica die Singel-Core Variante des K10 und der alte K8 wird wohl auch nicht so schnell auslaufen.
Da muss ich Coda zustimmen. Ich halte den Mobile immernoch für einen K8 mit verbessertem I/O und Powermanagement.
Das verbesserte I/O und Powermanagement kann man nicht einfach herbeizaubern, sondern muss auch in einem extra Die gefertigt werden.
Da muss ich Coda zustimmen. Ich halte den Mobile immernoch für einen K8 mit verbessertem I/O und Powermanagement.
Den jetzigen X2 kann man ja als K9 bezeichnen, von daher stimmt wohl beides... so spitzfindig muss man nun auch wieder nicht zu Werke gehen.
BlackBirdSR
2007-06-01, 15:30:56
Dennoch gibt es mehr oder weniger sinnige Grenzbereiche, ab wann eine neue Generation besteht, und wann nicht.
Mögen AMD und Intel ihre Kerne meinetwegen bereits mit einer neuen Taktstufe als K11,12 und P2000 bezeichnen. Aber ein K8 mit minimalen Änderungen am Funktionsablauf des Kerns bleibt ein K8.
Der X2 ist trotz Tweaks also auch nur ein K8. Sonst müsste man bereits den versch. Versionen des K7 einen Namenssprung zustehen.
Beim K10 lass ich mir das noch eingehen. Da sowohl Performance als auch Funktionsumfang mehr als üblich zugenommen haben. Der K10 ist auf Ebene der µArch trotzdem näher am K8, als Prescott am P4.
WIr sollten uns deswegen nicht streiten... mir gings nur darum, dass der Mobile wohl nur sehr geringe Performancevorteile gegenüber einem K8 sehen dürfte, wenn überhaupt.
Sry, aber das ist glaube ich einfach nur falsch. Der K10 ist echt weit weg vom K8. Nicht mal die Anzahl und Funktion der Integereinheiten ist gleich geblieben, es hat sich nun wirklich alles seit dem K8 geändert. Sowohl in Spezifikation, als auch in der Funktionsweise. Nicht mal die Grundstruktur ist gleich geblieben.
K8/K10 Hybride ist beim 2. Mal Nachdenken trotzdem richtiger, da sich der K9 von K8 ja nur im I/O Bereich unterscheidet. Dann nehm ich den K9/K10 Hybriden zurück, denn der macht einfach keinen Sinn ;). Da habt ihr Recht.
=Floi=
2007-06-01, 15:59:03
aber ein bischen verdächtig hoch sind die taktraten für die ersten modelle schon
noch traue ich da amd nicht so große steigerungen zu
Warum? Hohe Initialtaktraten sind wohl eher ein Indikator für einen guten Fertigungsprozess. Zudem kann man das bei einer neuen Architektur eh noch nicht bewerten.
dildo4u
2007-06-01, 16:13:03
Hier noch ein Größenvergleich aus einem recht aktuellen Intel PDF.
http://www.directupload.net/images/070601/cX6s7972.jpg
http://media.corporate-ir.net/media_files/irol/10/101302/20070529GelsingerOshanew.pdf
=Floi=
2007-06-01, 16:38:21
ich meine nur dass die angepeilten 2,5ghz für den anfang einfach sehr viel sind, nebenbei wird man damit wohl wieder über 100 watt liegen und ist im grunde genau so weit wie jetzt
Da muss ich Coda zustimmen. Ich halte den Mobile immernoch für einen K8 mit verbessertem I/O und Powermanagement.
Ich dachte eigentlich eher na einen K10. So viel größer ist der Kern ja nicht als das sich es lohnen würde noch K8 dafür zu verwenden.
Oder evtl. doch K10 mit "halber" FPU ala K8?
reunion
2007-06-01, 16:53:46
ich meine nur dass die angepeilten 2,5ghz für den anfang einfach sehr viel sind, nebenbei wird man damit wohl wieder über 100 watt liegen und ist im grunde genau so weit wie jetzt
Der FX startet mit 2.8Ghz.
Der FX startet mit 2.8Ghz.
Da stellt sich glatt die Frage, wie denn deren Taktpotential aussieht?
In 65nm hat AMD nicht wirklich viel hinbekommen mit dem K8. Welche Gründe sprechen denn dafür, das der K10 es besser macht? Wenn der wesentlicher komplexer geworden ist und noch mehr Cache onboard hat, wie gut wird er sich dann takten lassen?
Das K8 Design war auf 130nm und 90nm hin optimiert und der 65nm Prozess dient alleine der Kostensenkung.
mfg
StefanV
2007-06-01, 18:07:36
Der X2 ist trotz Tweaks also auch nur ein K8. Sonst müsste man bereits den versch. Versionen des K7 einen Namenssprung zustehen.
Tat man ja auch, zumindest von K7 auf K75 ;)
Tat man ja auch, zumindest von K7 auf K75 ;)
Stimmt, der K75 war ein K7 mit integriertem L2 Cache. Der Rest der Bande hatte ja keine gravierenden architektonischen Änderungen. SSE gabs nur als µOp Update quasi und sonst gabs nur neue Revisions mit Die shrinks usw.
Hier noch ein Größenvergleich aus einem recht aktuellen Intel PDF.
http://www.directupload.net/images/070601/cX6s7972.jpg
http://media.corporate-ir.net/media_files/irol/10/101302/20070529GelsingerOshanew.pdf
Das ist auch wieder eine selten dämliche Intel Marketingfolie... :D
Also ob den Kunden die Die Grösse interessieren würde. Das interessiert niemanden ausser dem Fertiger. Ein DualCore K10 in 45nm ist sicherlich auch net grösser als 100mm²...
dildo4u
2007-06-01, 18:59:47
Wer sagt das es eine Marketing Folie für den Endkunden ist?Und der K10 in 45nm spielt keine Rolle weil AMD davon noch Jahre entfernt ist.Im 2H 2007 heisst es 65nm AMD vs 45nm Intel.
Was spielt denn bitteschän die Die Grösse für eine Rolle? Das möcht ich jetzt dochmal wissen von dir. Für den Kunden und für OEMs ist es scheissegal wie gross das Die ist. Deshalb ist das eine völlig bescheuerte Marketingfolie. So verblendet kann doch selbst ein Hardcoreintelfan wie du net sein ;).
AMD/IBM ist 1/2-bis 1 Jahr hinter Intel zurück was 45nm angeht, net mehr. Dafür mit SOI.
reunion
2007-06-01, 19:46:15
AMD/IBM ist 1/2-bis 1 Jahr hinter Intel zurück was 45nm angeht, net mehr. Dafür mit SOI.
Dafür ohne High K-Dielektrikum. Ein erheblicher Nachteil.
Was spielt denn bitteschän die Die Grösse für eine Rolle?
Könnte eine Rolle spielen, so wie ich das sehe. Im Preiskampf hat AMD damit einen Nachteil, denn sie dürften vorallem wegen des nativen Designs und des großen Die deutlich weniger CPUs pro Wafer rausbekommen. Eine Preisschlacht dürfte aus dieser Sicht das letzte sein, was AMD gebrauchen kann. Wenn Intel erst 45nm am laufen hat, siehts wirklich übel aus. Denn deren Design bleibt ja weiterhin unverändert, was produktionskosten spart.
BlackBirdSR
2007-06-01, 20:41:15
Sry, aber das ist glaube ich einfach nur falsch. Der K10 ist echt weit weg vom K8. Nicht mal die Anzahl und Funktion der Integereinheiten ist gleich geblieben, es hat sich nun wirklich alles seit dem K8 geändert. Sowohl in Spezifikation, als auch in der Funktionsweise. Nicht mal die Grundstruktur ist gleich geblieben.
Bist du dir da ganz sicher?
http://www.realworldtech.com/page.cfm?ArticleID=RWT051607033728&p=6 u. Folgende
K10 ist immernoch ein Design mit 12 Pipelinestufen, der gleichen Decoder-Konfiguration, 9-way Superscalar, 3 ALUs, 3 AGUs, 3 FPUs, die gleiche Anordnung, Zuordnung und Verarbeitung.
Ja es wurde an sehr vielen Stellen verbessert und hinzugefügt. Aber der Kern der Sache ist immernoch ein K8.
Sry, aber das ist glaube ich einfach nur falsch. Der K10 ist echt weit weg vom K8. Nicht mal die Anzahl und Funktion der Integereinheiten ist gleich geblieben, es hat sich nun wirklich alles seit dem K8 geändert.
Das klingt schon eher nach einem P6-Core2 Update, oder verschärftem P4 -> Prescott, aber für mich nicht nach K8->K10
Sorry, wenn ich wo was nicht mitbekommen habe. Entschuldige mich dann schon im Voraus..
aylano
2007-06-01, 21:04:24
Dafür ohne High K-Dielektrikum. Ein erheblicher Nachteil.
Von wo hast du das?
Anfang des Jahres wurde noch was anderes berichtet.
Dabei verwundert es wenig, dass die Forscher zur Absenkung des Stromverbrauchs und zur Steigerung der Performance ebenfalls mit einem High-k-Dielektrikum und einem Gate aus Metall (Metal-Gate) arbeiten.
http://www.computerbase.de/news/allgemein/forschung/2007/januar/ibm_amd_45-nm-durchbruch/
Die 45nm-Struktur von Intel und AMD dürften sehr ähnlich sein. Das dürfte wahrscheinlich der Grund sein, warum Intel danach ihre innovative 45nm-Struktur AFAIK mit der Hanf-Verbindung nicht mehr so oft präsentierte.
Und zum 45nm-Vorsprung.
Intel will die ersten 45nm-CPUs AFAIK Ende 2007 rausbringen.
AMD will die 45nm-Massenproduktion AFAIK erst Mitte 2008 beginnen.
Also, ich würde einen AMD-Struktur-Rückstand auf 9-10 Monaten einschätzen.
Könnte eine Rolle spielen, so wie ich das sehe. Im Preiskampf hat AMD damit einen Nachteil, denn sie dürften vorallem wegen des nativen Designs und des großen Die deutlich weniger CPUs pro Wafer rausbekommen
Hat nicht AMD immer schon mit größeren Dies und SOI eine teuere Produktion als Intel gehabt?
reunion
2007-06-01, 21:16:56
Von wo hast du das?
Anfang des Jahres wurde noch was anderes berichtet.
http://www.computerbase.de/news/allgemein/forschung/2007/januar/ibm_amd_45-nm-durchbruch/
Die 45nm-Struktur von Intel und AMD dürften sehr ähnlich sein. Das dürfte wahrscheinlich der Grund sein, warum Intel danach ihre innovative 45nm-Struktur AFAIK mit der Hanf-Verbindung nicht mehr so oft präsentierte.
Ja, IBM. IBM fertigt auch schon lange mit FD-SOI AFAIK, während AMD noch immer bei PD-SOI hängt. Vor kurzem gab es ein Interview mit einem AMD-Mann, wonach HighK bei AMD erst in einer Weiterentwicklung des 45nm Prozesses oder gar erst mit 32nm kommt.
Was spielt denn bitteschän die Die Grösse für eine Rolle?
Größerer DIE = leichter kühl zu halten, bei gleicher TDP
speziel wenn 2 DIEs unter dem IHS sitzen wird die Wärme schön verteilt ;)
BlackBirdSR
2007-06-01, 22:58:58
Größerer DIE = leichter kühl zu halten, bei gleicher TDP
Wie lange hält sich eigentlich noch das Gerücht, dass Wärme homogen entsteht und abgeführt wird?
Wie lange hält sich eigentlich noch das Gerücht, dass Wärme homogen entsteht und abgeführt wird?
dieses (falsche) gerücht braucht es auch nicht.
klar entsteht die wärme im DIE nicht gleichmäßig, dennoch ist die wärmeverteilung im DIE wesentlich schneller als jene an den kühlkörper.
ein größere DIE ist bei gleicher verlustleistung immer leichter zu kühlen, auch wenn es natürlich hot-spots gibt.
Wo wir grad mal dabei sind: Siliziumoxid ist ein verdammt schlechter Wärmeleiter, deshalb frag ich mich schon lange ob durch SOI deshalb Probleme bei der Kühlung entstehen...
"Die" ist übrigens keine Abkürzung ;)
Wie lange hält sich eigentlich noch das Gerücht, dass Wärme homogen entsteht und abgeführt wird?
Die Hotspots können auf einem großen DIE schön verteilt werden und hocken nicht direkt nebeneinander ;)
Logisch, dass mehrere getrennte DIEs unter dem IHS noch besser sind.
dargo
2007-06-02, 15:39:30
Logisch, dass mehrere getrennte DIEs unter dem IHS noch besser sind.
Sollte das ein Hinweis sein, dass sich ein Kentsfield und/oder Yorkfield gut kühlen lassen (werden)?
=Floi=
2007-06-02, 15:45:42
beim kentsfield trifft das nicht zu
da reden wir ja von der doppelten verlustleistung und oben ging es nur um einen "ungeschrinkten" DIE
dargo
2007-06-02, 15:53:40
beim kentsfield trifft das nicht zu
da reden wir ja von der doppelten verlustleistung und oben ging es nur um einen "ungeschrinkten" DIE
Ich meinte das eher bezogen auf den Yorkfield. Sagen wir mal so:
CPU X hat 2 Dies mit 4 Kernen und eine Verlustleistung von 60W.
CPU Y hat 1 Die mit 4 Kernen und ebenfalls eine Verlustleistung von 60W.
CPU Z hat 1 Die mit 2 Kernen und auch 60W Verlustleistung.
Welche CPU bleibt beim gleichen Kühler kühler?
w0mbat
2007-06-02, 15:55:01
ich meine nur dass die angepeilten 2,5ghz für den anfang einfach sehr viel sind, nebenbei wird man damit wohl wieder über 100 watt liegen und ist im grunde genau so weit wie jetzt
Bei 2,6GHz ist AMD aktuell bei einem 89/95W TDP, durch das B0-Stepping sollte sich das noch gebessert haben. AMD will keinen Quad zu Start mit mehr als 100W TDP.
Wer sagt das es eine Marketing Folie für den Endkunden ist?Und der K10 in 45nm spielt keine Rolle weil AMD davon noch Jahre entfernt ist.Im 2H 2007 heisst es 65nm AMD vs 45nm Intel.
AMD ist näher an einem 45nm K10 als man denkt. Shanghai wird zudem mehr als ein Die-Shrink.
NoWay
2007-06-02, 16:00:11
Kurze Frage
Woher wisst ihr das alles ?
Wo bekommt ihr eure Informationen her?
NoWay
Welche CPU bleibt beim gleichen Kühler kühler?
dass kommt in erster linie auf die größe der DIEs an.
werden beispielsweise nur 1 oder 2 kerne ausgelastet und die restlichen idlen vor sich hin, dann sollte 1 großer DIE etwas kühler bleiben als 2 kleinere DIEs (wenn sich die beiden ausgelasteten kerne in einem DIE befinden)
werden alle kerne ausgelastet sollte es eigentlich kaum unterschiede geben.
Avalox
2007-06-02, 16:21:16
Hier noch ein Größenvergleich aus einem recht aktuellen Intel PDF.
http://www.directupload.net/images/070601/cX6s7972.jpg
Erstaunliche Folie. Die soll wirklich von Intel stammen?
Die Folie sagt auf dem ersten Blick aus, dass ein AMD Prozessor so leistungsfähig ist, wie zwei Intel Prozessoren. Dass der AMD Prozessor zudem praktischer, da quadratisch ist.
Die Folie nimmt den Betrachter sofort für den AMD Chip ein.
Wenn man dann auf den zweiten Blick drauf sieht, stellt man fest, dass Intel Clovertown nicht nur grösser wirkt, er ist es auch noch. Der Penryn auf der rechten Seite wird gar nicht richtig wahrgenommen, sieht man gezielt hin, sieht der Betrachter sofort, dass auch dieser wieder ein zusammen geprimelt und gefummelter "nicht echter" Quadcore ist. Oh man, wass soll das für eine Intel Folie sein?
Im vorbeigehen würde wohl jeder die Folie so betrachten, dass man von rechts nach links, den Fortschritt sieht.
Im vorbeigehen würde wohl jeder die Folie so betrachten, dass man von rechts nach links, den Fortschritt sieht.
Von Penryn nach Clovertown soll ein Fortschritt sein :confused:
dargo
2007-06-02, 16:27:46
@Avalox
Solange der nicht native Quadcore nicht langsamer als ein nativer von AMD ist sehe ich da keine Probleme. Ich sehe eher einen Vorteil für Intel. Da hätten wir 283mm² vs. 2x 107mm². Hat AMD also einen dicken Fehler im Die ist die ganze CPU Schrott, bei Intel aber nur 50%.
=Floi=
2007-06-02, 16:28:12
Hallo
http://www.computerbase.de/news/hardware/prozessoren/amd/2007/juni/amd_athlon_64_x2_45_watt/
der K10 hat aber noch mehr cache und knapp unter 100 oder knapp über 100watt ist im grunde egal
fakt ist bei ca 130watt ist schluss und da sind wir bald wieder und nebenbei wieder über intel
ich nahm mal 2,5ghz weil das gut in der mitte liegen dürfte (FX ist ne andere platform und ein anders segment)
@avalox
aber die leute die solche folien ansehen, lesen sie auch und die technischen daten sprechen für sich
nebenbei erweckt der blick von links nach rechts den eindruck dass es immer besser wird
Avalox
2007-06-02, 16:30:37
Von Penryn nach Clovertown soll ein Fortschritt sein :confused:
Ja kann man so verstehen. Sehr dir mal den Hintergrund an. Der wird von rechts nach links immer heller. Der Barcelone Kern steht im Rampenlicht. Der Penryn liegt im dunkeln. Ein mal kurz drauf sehender Betrachter wird nie im Leben auf die Idee kommen den Penryn direkt mit dem Barcelone zu vergleichen.
Avalox
2007-06-02, 16:34:20
@Avalox
Solange der nicht native Quadcore nicht langsamer als ein nativer von AMD ist sehe ich da keine Probleme. Ich sehe eher einen Vorteil für Intel. Da hätten wir 283mm² vs. 2x 107mm². Hat AMD also einen dicken Fehler im Die ist die ganze CPU Schrott, bei Intel aber nur 50%.
Das ist Quatsch. Jeder weiss, dass ein möglichst hohe Integration heute Kosten spart. Jeder zusätzliche Arbeitsschritt bedeutet extra Aufwendungen.
Ich gebe dir Brief und Siegel, dass das zusammen gefummle von zwei Dies aufwendiger ist, als der Herstellung eines aufwendigeren Kerns und dass Intel untern Strich drauf zahlt, statt zu sparen.
Allein die Tatsache, dass noch kein riesen Markt für echte Quadcores vorhanden ist, lässt Intel dieses nicht tun.
dargo
2007-06-02, 16:49:56
Allein die Tatsache, dass noch kein riesen Markt für echte Quadcores vorhanden ist, lässt Intel dieses nicht tun.
Bitte? Lass erstmal die Gamer die es zum Großteil in diesem Forum gibt aus dem Spiel.
Wenn ich proffessionel 3D Rendering und ähnliches betreiben würde wäre ich froh wenn es schon CPUs mit 8 Kernen gäbe.
Und wenn Intel der Quadcore so teuer in der Herstellung ist wie kommt es, dass im Juli der Q6600 für 266$ verkauft wird?
Edit:
E6600 = ~180€ im Juli (?)
Q6600 = ~200-220€ im Juli
Irgendwas passt an deiner Aussage nicht. ;)
Ich gebe dir Brief und Siegel, dass das zusammen gefummle von zwei Dies aufwendiger ist, als der Herstellung eines aufwendigeren Kerns und dass Intel untern Strich drauf zahlt, statt zu sparen.
http://www.heise.de/newsticker/meldung/78801 ;)
Intel hat sich ganz bewusst für das Design entschieden, weils in der Produktion günstiger ist. Das haben sie selbst bekanntgegeben.
=Floi=
2007-06-02, 17:00:39
sicher ist das günstiger und flexibler
dargo
2007-06-02, 17:03:26
http://www.heise.de/newsticker/meldung/78801 ;)
Intel hat sich ganz bewusst für das Design entschieden, weils in der Produktion günstiger ist. Das haben sie selbst bekanntgegeben.
Das macht auch Sinn. Aus diesem Grund wird AMD mit dem R700 mehrere, weniger komplexe GPUs verbauen, um eben Kosten zu sparen.
Ja kann man so verstehen. Sehr dir mal den Hintergrund an. Der wird von rechts nach links immer heller. Der Barcelone Kern steht im Rampenlicht. Der Penryn liegt im dunkeln. Ein mal kurz drauf sehender Betrachter wird nie im Leben auf die Idee kommen den Penryn direkt mit dem Barcelone zu vergleichen.
Man könnte auch sagen, dass der Barcelona bereits vom Clovertown geownt wird ;D
und der Barcelona glühlt weiß vor Hitze ;D
Avalox
2007-06-02, 17:08:05
http://www.heise.de/newsticker/meldung/78801 ;)
Intel hat sich ganz bewusst für das Design entschieden, weils in der Produktion günstiger ist. Das haben sie selbst bekanntgegeben.
Produktion günstiger, bedeutet nicht, dass die Produktion des einzelnen Chips günstiger ist. Es meint, dass die gesamte Produktion in ihrer Gesamtheit günstiger ist.
Natürlich ist die Produktion teurer, wenn ich ein Produkt herstelle, welches mit viel Aufwand für nur eine kleine Zielgruppe hergestellt wird.
Ein von Hand zusammen geschraubter Lamborghini kostet in der Produktion viel Geld. Diesen in VW Fabriken vom Band laufen zu lassen, würde nur Geld einsparen, wenn sich danach auch genug Käufer finden lassen würden. Was aber nicht der Fall und deshalb wird er weiterhin von Hand zusammen geschraubt.
Wenn dem so wäre, dass der Bedarf nach Lamborghinis grösser wäre, dann wäre allerdings die Produktion in der Fabrik sehr viel günstiger.
Intel sieht einfach noch keinen Markt darin native Quadcores in Massen zu fertigen. So primeln diese eben für den übersichtlichen Markt heute zwei Dualcors zusammen. Obwohl dieses viele Arbeitsschritte (und damit viel Geld) gleich zweimal enthält.
Untern Strich spart man so bei Intel Produktionskosten, eben weil man sich die echte Quadcore Produktion komplett spart. Wenn der Markt danach verlangt, wird Intel sofort echte Quadcores(und alles andere auch) herstellen und nichts mehr von zusammen gefummelten Dualcores wissen wollen. Eben sowenig, wie Intel heute noch was von zusammen gefummelten Singlecore Chips wissen will. Da beisst sich nämlich Intels Argumentation komplett in den Schwanz, wenn zwei Dualcores zusammen billiger sind, als ein QUadcore, dann müssten vier Singlecore Die zusammen noch günstiger sein. Aber von zusammen gefummelten Single Core will Intel auch nichts mehr wissen.
=Floi=
2007-06-02, 17:17:47
das stimmt so nicht
denn wenn jeder nen lambo hätte könnte man den preis auch nicht so hoch ansetzen
und bei intel rentiert sich auch ein montecito oder ein quad core zumal beim quad ja im grunde nur das packaching sich verdoppelt und dafür spart man eine ganze produktionsstraße für einen weiteren DIE
nebenbei werden diese prozessoren auch X mal teurer verkauft und für intel dürfte es schon ein guter nebenverdienst sein + werbung
edit
deine logik kann man nicht verstehen das ist einfach quatsch
vorher war alles auf singlecore getrimmt und nun ist alles auf dual core getrimmt und später gibt es einen octacore mit 2 quad cores
man nimmt das was gerade am "günstigsten ist"
Avalox
2007-06-02, 17:33:19
edit
deine logik kann man nicht verstehen das ist einfach quatsch
vorher war alles auf singlecore getrimmt und nun ist alles auf dual core getrimmt und später gibt es einen octacore mit 2 quad cores
man nimmt das was gerade am "günstigsten ist"
Nein. Das ist doch er Irrglaube schlechthin aber weit verbreitet.
Ein DualCore ist in keinster Weise was besonderes. Ein SingleCore war was besonderes.
Es ist eine Frage der Philosophie, welche dahinter steckt.
In den Jahren bis knapp vor Heute ging man immer dem Paradigma nach, einen möglichst schnellen Singlecore Prozessor zu nutzen. Er war so schnell, dass er alle benötigten Aufgaben mit einem Kern in hinnehmbarer Zeit erfüllen konnte.
Doch irgendwann liess sich die Leistung solch eines SingleCore nicht mehr hinreichend steigern und man wechselte das Paradigma auf Multicore. Multicore und nicht DualCore. Dualcore ist nur der einfachste Multicore und deshalb hat man mit diesem angefangen. Es gibt aber nicht den kleinsten Grund anzunehmen, dass Dualcore irgend etwas besonderes wäre, wie der Singlecore vorher. Es gibt keine DualCore Paradigma.
Wenn erstmal die Softwarebasis konsequent auf Multicore und das tut man grade, getrimmt wird, dann wird es schnellt weiter gehen. Die CPU Hesteller und da ist sich Intel und AMD völlig einig, jammern ja schon heute, dass die konsequente Multithreading Umsetzung dank fauler Programmierer noch nicht da ist, wo diese sein könnte. Programmierer denken heute noch zu oft in der Singlecore Philosophie. Es ist bei weitem einfacher von Dualcore auf grössere Multicore weiter zu denken, als von Singlecore auf Dualcore. Dieser Schritt ist viel einfacher.
Ein Dualcore wird verschwinden und die Geschichte wird nur in Mikrocomputern mit SingleCore und in Mikrocomputern mit Multicore Chips unterscheiden.
reunion
2007-06-02, 17:37:40
Intel sieht einfach noch keinen Markt darin native Quadcores in Massen zu fertigen.
Vorallem sieht man durch den FSB keinen Vorteil darin, eine nativen Quadcore zu fertigen. Also besser zwei Dual-Core zusammenstecken. Das spart Entwicklungskosten für den Quadcore, und erlaubt eine günstigere Fertigung.
Avalox
2007-06-02, 17:50:59
Vorallem sieht man durch den FSB keinen Vorteil darin, eine nativen Quadcore zu fertigen. Also besser zwei Dual-Core zusammenstecken. Das spart Entwicklungskosten für den Quadcore, und erlaubt eine günstigere Fertigung.
Der FSB stammt halt noch aus der SingleCore Zeit. Intel wird diesen ja auch abschaffen. Hinter all den Entwicklungen merkt man deutlich, dass Intel fest der Meinung ist, dass die Mikrocomputer Welt heute noch nicht im Multicore Zeitalter angekommen ist.
Es ist eine Frage des wann, nicht des ob und genau bei dem "wann" ist sich Intel und AMD nicht so einig. Ich denke, dass ist auch das Substitut, mit dem sich der Wettbewerb Intel/AMD am besten beschreiben lässt. AMD ist der innovative Kleine und Intel der behäbige Große. Das der Kunde nicht sofort was von jeder Innovation hat, das liegt in der der Natur der Sache.
AMD geht der Weg vor, Intel wird folgen. So war es in den letzten Jahren, so wird es auch erstmal weiterhin sein. Die nächsten Schritte werden sicherlich spezialisierte Kerne werden. AMD wird diese haben, Intel nicht, Intel Marketing wird erzählen, dass es keine Vorteile aus spezialisierten Kernen geben wird, einige Zeit später wird auch Intel spezialisierte Kerne haben. usw. usw.
Liszca
2007-06-02, 17:59:27
Moin
Heute ist ein Bild vom Phenom X4 (K10) aufgetaucht.
http://i164.photobucket.com/albums/u13/NoWay_021/1.jpg
Was haltet ihr davon ?
Kennt sich jemand aus und kann aus diesem Bild etwas schlaues rauslesen?
Bin auf eure Antworten gespannt
mfg
NoWay
Das ist der neue Bebauungsplan von Hamburg, Speicherstadt.
SavageX
2007-06-02, 18:01:59
Meine Sicht der Dinge ist die, dass AMDs Ansatz selbstverständlich der anspruchsvollere ist. Aber für den angepeilten Markt (das wären erstmal Server) muss man halt etwas Aufwand treiben. In diesem Marktsegment lässt man sich das auch bezahlen und gut ist.
Der Phenom X4 ist zur Markteinführung auch erstmal ein Exot für Enthusiasten - auch wieder mit entsprechenden Preisen. Es wird noch weit mehr als ein Jahr dauern, bis Quadcore im Mainstream angelangt ist - selbst wenn Intel "günstige" Quadcores mit entsprechend niedrigem Takt verscherbelt.
Der K10 ist erstmal ein Prestigeobjekt, der sich in einigen Bereichen sehr sehr gut schlagen und AMDs Stellung im Servermarkt stärken wird. Im Mainstream finden sich dann die K10-Dualcores und die Athlon 64 X2 CPUs.
Erstaunliche Folie. Die soll wirklich von Intel stammen?
Die Folie sagt auf dem ersten Blick aus, dass ein AMD Prozessor so leistungsfähig ist, wie zwei Intel Prozessoren. Dass der AMD Prozessor zudem praktischer, da quadratisch ist.
Die Folie nimmt den Betrachter sofort für den AMD Chip ein.
Wenn man dann auf den zweiten Blick drauf sieht, stellt man fest, dass Intel Clovertown nicht nur grösser wirkt, er ist es auch noch. Der Penryn auf der rechten Seite wird gar nicht richtig wahrgenommen, sieht man gezielt hin, sieht der Betrachter sofort, dass auch dieser wieder ein zusammen geprimelt und gefummelter "nicht echter" Quadcore ist. Oh man, wass soll das für eine Intel Folie sein?
Im vorbeigehen würde wohl jeder die Folie so betrachten, dass man von rechts nach links, den Fortschritt sieht.
Du hast wohl keine Ahnung von Wahrnehmung, oder? Hier in unserem Kulturkreis ist die Leserichtung von Links nach rechts, von oben nach unten
Intel stellt die AMD CPU mit absicht größer dar als sie ist, obwohl der Clovertown bei 2 Kerne eine größere Die-Fläche hat...
Das ist eine eindeutige Intel-Marketing-Folie!
Avalox
2007-06-02, 18:36:38
Du hast wohl keine Ahnung von Wahrnehmung, oder? Hier in unserem Kulturkreis ist die Leserichtung von Links nach rechts, von oben nach unten
Intel stellt die AMD CPU mit absicht größer dar als sie ist, obwohl der Clovertown bei 2 Kerne eine größere Die-Fläche hat...
Das ist eine eindeutige Intel-Marketing-Folie!
Doch ist mir völlig klar.
intel will sicherlich auf die Evolutionsdarstellungen anspielen.
http://modul.evolution.zdf.de/logo_evo.jpg http://modul.evolution.zdf.de/content.php?connection=dsl
Nur finde ich die Darstellungsform nicht gelungen, da eben der K10 weit fortschrittlicher wirkt und durch die Form der Darstellung auch noch gleich in prädestinierter Stellung gezeigt wird.
Bei keinem sportlichen Wettkampf wird der Sieger unten rechts auf der Seite und dann noch in klein aufgeführt.
Ich denke der Hintergrund war einfach die ganze Präsentation lang so.
Clovertown ist auch nicht kleiner skaliert als Barcelona. Das täuscht.
BlackBirdSR
2007-06-03, 00:05:37
Die Hotspots können auf einem großen DIE schön verteilt werden und hocken nicht direkt nebeneinander ;)
Logisch, dass mehrere getrennte DIEs unter dem IHS noch besser sind.
Größere DIEs entstehen durch mehrere Kerne, mehr Cache und mehr Funktionsblocks.
Bei einer 10x so großen DIE wird eine FPU aber nicht 10x weniger dicht gepackt ;)
Es entstehen mehr Hotsposts aber sie lassen sich nicht besser (im Kern) verteilen!!!
Wie kommst du darauf?
Es ist bei weitem einfacher von Dualcore auf grössere Multicore weiter zu denken, als von Singlecore auf Dualcore. Dieser Schritt ist viel einfacher.Kommt drauf an, ob man es sich bei Dualcore leicht macht oder gleich Multicore denkt. Dualcoreoptimierung kann noch wesentlich nachlässiger gemacht werden, quasi als angetackerte Optimierung. Wer diesen Weg geht hat es beim Sprung auf mehr Kerne wesentlich schwerer als der, welcher auch Dualcore bereits als Multicore sieht. Glücklicherweise dürften die Architekturen aktueller Konsolen das Multicoredenken recht schnell voranbringen, was auch uns PClern zugute kommen wird.
Größere DIEs entstehen durch mehrere Kerne, mehr Cache und mehr Funktionsblocks.
Bei einer 10x so großen DIE wird eine FPU aber nicht 10x weniger dicht gepackt
Klar, dass die FPU nicht größer wird, aber dank viel Cache muss sie nicht direkt neben der nächsten hocken ;)
Es entstehen mehr Hotsposts
Das ist doch bereits ein gewaltiger Vorteil! =)
Worauf ich hinauswill:
Die einzelnen Cores sollen nich direkt aufeinanderhocken und einen gewaltigen Hotspot bilden. Dazu müsste es jedoch möglich sein die einzelnen DIEs perfekt auszurichten...
PS. Es ist mir bewusst das esKühltechnisch nur eine geringe Verbesserung bringt.
Aus diesem Grund wird AMD mit dem R700 mehrere, weniger komplexe GPUs verbauen, um eben Kosten zu sparen."Wird"? Das hört sich ja fast wie eine Tatsache an. Ich glaube nicht daran, dass der R700 aus mehreren Dice besteht. Imho wurde das Interview des ATI-Menschen falsch interpretiert. Der hat wahrscheinlich nur von Multicore geredet, weil es gerade mächtig "in" ist. GPUs sind eigentlich schon seit ewiger Zeit "Multicores", wenn man es so sehen will.
@ BlackbirdSR und den anderen Gast: Wie Coda schon sagte, ist "Die" keine Abkürzung und wird deshalb auch nicht komplett groß geschrieben. Das macht man eigentlich nur, wenn man die Buchstaben auch einzeln ausspricht.
Ich halte das Bild für ein Fälschung.
Oder kann mir jemand erklären, warum die Cache-Reihen so seltsam halbiert sind. Noch interessanter ist die Cache-Reihe 7 von links und rechts so seltsam plaziert?
Das Bild ist definitiv keine Fälschung. Man bedenke, dass der L3 für alle Cores ist, weswegen er vom Crossbar direkt gefüttert werden muss. Die L2 Caches sind an jeden Core direkt angebunden. Das passt also hervorragend an diese Positionen. Zudem gibt es ähnliche Bilder schon lange, auch direkt von AMD. Nur um 90° gedreht abgelichtet.
Endorphine
2007-06-03, 11:37:53
Erstaunliche Folie. Die soll wirklich von Intel stammen?
Die Folie sagt auf dem ersten Blick aus, dass ein AMD Prozessor so leistungsfähig ist, wie zwei Intel Prozessoren. Dass der AMD Prozessor zudem praktischer, da quadratisch ist.
Die Folie nimmt den Betrachter sofort für den AMD Chip ein.
Wenn man dann auf den zweiten Blick drauf sieht, stellt man fest, dass Intel Clovertown nicht nur grösser wirkt, er ist es auch noch. Der Penryn auf der rechten Seite wird gar nicht richtig wahrgenommen, sieht man gezielt hin, sieht der Betrachter sofort, dass auch dieser wieder ein zusammen geprimelt und gefummelter "nicht echter" Quadcore ist. Oh man, wass soll das für eine Intel Folie sein?
Im vorbeigehen würde wohl jeder die Folie so betrachten, dass man von rechts nach links, den Fortschritt sieht. Die Folie sagt folgendes aus:
Intel braucht wegen des Speichercontrollers in der Northbridge Quad-Cores nicht auf einem einzigen Die zu integrieren, der unwirtschaftlich groß ist
AMD ist schon fast gezwungen, Quadcores auf einem Die zu integrieren, da die Anbindung der Kerne an den Speichercontroller so leistungsfähig wie möglich sein muss
Intel erreicht bei gleicher Strukturgröße (65 nm), gleichem FunktionsUmfang (4 Cores) und gleicher Diegröße (zusammen 286 mm² vs. 283 mm²) exakt die doppelte Cache-Größe von 8 vs. 4 MB
Wenn AMD bei 65 nm Quadcores erst so richtig in's Geschäft kommt wird Intel schon auf 45 nm Yorkfield umstellen, wo zwei Kerne mehr shared L2-Cache haben (6 MB) als AMD bei den vier Kernen des Barcelona L2 und L3-Cache zusammengerechnet. Selbst wenn man Redundanzeffekte rausrechnet ist der Unterschied sehr groß und ein Vorteil für Intel.
Intel kann dann in 45 nm zwei 107 mm² Dies mit grob gesagt der dreifachen Menge schnelleren L2-Caches fertigen, während AMD einzelne große 283 mm² Dice fertigt und preislich und in der Performance da mithalten muss.
Das sagt die Folie meiner Meinung nach aus Intels Sicht aus. Ich denke nicht, dass die Folie den Betrachter für eine Seite einnimmt. Das tut sie nur, wenn man sie durch eine blaue oder grüne Brille sieht.
Was man aber objektiv sagen kann ist, dass Intel in nächster Zeit erhebliche wirtschaftliche Vorteile gegenüber AMD haben wird. Und genau das steht auch in der Überschrift der Folie und ist meiner Meinung nach deren Kernaussage.
reunion
2007-06-03, 11:55:36
Die Folie sagt folgendes aus:
Intel braucht wegen des Speichercontrollers in der Northbridge Quad-Cores nicht auf einem einzigen Die zu integrieren, der unwirtschaftlich groß ist
AMD ist schon fast gezwungen, Quadcores auf einem Die zu integrieren, da die Anbindung der Kerne an den Speichercontroller so leistungsfähig wie möglich sein muss
Intel erreicht bei gleicher Strukturgröße (65 nm), gleichem FunktionsUmfang (4 Cores) und gleicher Diegröße (zusammen 286 mm² vs. 283 mm²) exakt die doppelte Cache-Größe von 8 vs. 4 MB
Wenn AMD bei 65 nm Quadcores erst so richtig in's Geschäft kommt wird Intel schon auf 45 nm Yorkfield umstellen, wo zwei Kerne mehr shared L2-Cache haben (6 MB) als AMD bei den vier Kernen des Barcelona L2 und L3-Cache zusammengerechnet. Selbst wenn man Redundanzeffekte rausrechnet ist der Unterschied sehr groß und ein Vorteil für Intel.
Intel kann dann in 45 nm zwei 107 mm² Dies mit grob gesagt der dreifachen Menge schnelleren L2-Caches fertigen, während AMD einzelne große 283 mm² Dice fertigt und preislich und in der Performance da mithalten muss.
Das sagt die Folie meiner Meinung nach aus Intels Sicht aus. Ich denke nicht, dass die Folie den Betrachter für eine Seite einnimmt. Das tut sie nur, wenn man sie durch eine blaue oder grüne Brille sieht.
Mag sein, dass es das aus Intels Sicht aussagen soll, das ist aber auch nur die halbe Wahrheit. Ein Großteil der sog. "Vorteile" resultieren nämlich daraus, dass Intel noch immer auf den FSB setzen muss.
Was man aber objektiv sagen kann ist, dass Intel in nächster Zeit erhebliche wirtschaftliche Vorteile gegenüber AMD haben wird. Und genau das steht auch in der Überschrift der Folie und ist meiner Meinung nach deren Kernaussage.
War das nicht schon immer so? Immerhin fertigte AMD bis vor kurzem noch auf 200mm Wafern und ist in punkto Strukturbreite seit jeher ca. 1 Jahr zurück. Ganz in Gegenteil: AMD hat durch den Umstieg auf 300mm Wafern und 65nm IMO beträchtlich aufholen können. Der Quadcore ist zwar verdammt dick, aber wird auch entsprechend hochpreisig verkauft. Kuma mit zwei Core und 2MB L3-Cache sollte nicht größer sein als ein Dual-Core K8 in 90nm, Rana ohne L3 sollte nochmal billiger werden, und Spica als Singel-Core sollte ein regelrechter Winzling werden.
dildo4u
2007-06-03, 12:01:29
War das nicht schon immer so? Immerhin fertigte AMD bis vor kurzem noch auf 200mm Wafern und ist in punkto Strukturbreite seit jeher ca. 1 Jahr zurück.
Jup nur hatten sie bis vor 1 Jahr noch ein Performance Vorteil den AMD gerade beim X2/Opteron in bare Münze umsetzen konnte.(300€+ für X2 Dual-Cores)
http://geizhals.at/deutschland/?phist=197511&age=365
Ich halte Cache auch für sehr wichtig und verstehe daher nicht, warum AMD gerade daran spart.
Die 4x512 KB L2 + 1x2 MB L3 die AMD in 65nm verbauen will, hat Intel schon jetzt deutlich überboten mit den 2x4MB beim Kentsfield.
Selbst der Athlon64 in 130nm!! verfügte über 1MB L2 Cache.
Außerdem soll es wohl auch Prozessoren ohne den L3 Cache gehen. Ich kann mir nicht vorstellen, das diese sehr gut performen werden.
Selbst mit einem IMC erreicht man nicht annähernd die Bandbreite und die Latenz die ein L2 Cache erreichen würde. Bei Intel sind das gut und gerne mal 30GB/s bei 1ns. Daran kommt DDR3 selbst in Jahren nicht heran, wenn das mal realistisch betrachtet, kommt der vielleicht auf 20 GB/s und 30ns.
Also warum spart man am wichtigsten Detail? Wäre es nicht mal Zeit, die Kosten nicht zu scheuen und voll auf den Performancepfad zu setzen?
Ist denn schon bekannt, wie schnell der L3 Cache angebunden wird? Meines erachtens hätten sie gerade diesen auf mindestens 4 MB vergrößern müssen, weil dieser die Daten für alle Kerne bereithalten soll.
Damals mag das ja noch gereicht haben aber mit steigender Rechenleistung und mehr Kernen steigt auch der Bedarf stark an... IBM ist auch schön ein ganzes Stück weiter als AMD, ich hoffe nicht, das AMD nur aus Kostengründen die Menge so niedrig angesetzt hat!
reunion
2007-06-03, 12:16:53
Ich halte Cache auch für sehr wichtig und verstehe daher nicht, warum AMD gerade daran spart.
Wenn ich mir ansehe, wie gut Allendale mit der halben Menge an L2-Cache performt, erscheint mir genau das Gegenteil der Fall zu sein. Oder sieht dir den K8 mit 512KB vs 1MB L2-Cache an. Wie viel schneller ist ein gleichgetakteter Conroe/K8 mit 1MB L2-Cache im Schnitt? 5% - wenns gut geht.
Die 4x512 KB L2 + 1x2 MB L3 die AMD in 65nm verbauen will, hat Intel schon jetzt deutlich überboten mit den 2x4MB beim Kentsfield.
Selbst der Athlon64 in 130nm!! verfügte über 1MB L2 Cache.
Außerdem soll es wohl auch Prozessoren ohne den L3 Cache gehen. Ich kann mir nicht vorstellen, das diese sehr gut performen werden.
Selbst mit einem IMC erreicht man nicht annähernd die Bandbreite und die Latenz die ein L2 Cache erreichen würde. Bei Intel sind das gut und gerne mal 30GB/s bei 1ns. Daran kommt DDR3 selbst in Jahren nicht heran, wenn das mal realistisch betrachtet, kommt der vielleicht auf 20 GB/s und 30ns.
AMD hat auch noch eine sehr großen L1-Cache von 136KB pro Core, der vieles Abfangen kann.
Also warum spart man am wichtigsten Detail? Wäre es nicht mal Zeit, die Kosten nicht zu scheuen und voll auf den Performancepfad zu setzen?
Bei einer Die-Größe von 283mm² für den Barcelona erscheint mir die Frage fast schon zynisch. Es gibt eben offensichtlich doch wichtigeres als große Caches. Shanghai wird übrigens 6MB L3-Cache bekommen.
Endorphine
2007-06-03, 12:19:04
Mag sein, dass es das aus Intel Sicht aussagen soll, das ist aber auch nur die halbe Wahrheit. Ein Großteil der sog. "Vorteile" resultieren daraus, dass Intel noch immer auf den FSB setzen muss. Muss? Intel hat umfangreiche Erfahrungen im DRAM-Controllerbau. Ja, Intel ist als Erfinder von DRAM und der langen Chipsatzerfahrung vielleicht sogar die Firma mit der größten Expertise im Speichercontrollerbau. Aus meiner Sicht hält Intel nichts davon ab, den Speichercontroller in die CPU zu integrieren. Aber es ist ja offensichtlich deutlich wirtschaftlicher, dies (noch?) nicht zu tun. Und darum geht es in dem Geschäft. Nicht um die technisch anspruchsvollste Lösung.
Sry gast, aber guck die mal die Unterschiede zwischen Core2 mit 1MB, 2MB und 4MB an, dann kannste dir ausrechenen, was die 6MB bringen werden, nämlich garnichts. Die Caches bringen sehr wenig und unterliegen dem abnehmenden Ertrag. AMD spart daran nicht, sondern setzt auf drei Stufen und hat sich dafür die wirtschaftlich sinnvollste Grösse ausgerechnet. Mit grösserer Packdickte werden zudem aus den 2 MB L3 ja 6MB mit 45nm.
Muss? Intel hat umfangreiche Erfahrungen im DRAM-Controllerbau. Ja, Intel ist als Erfinder von DRAM und der langen Chipsatzerfahrung vielleicht sogar die Firma mit der größten Expertise im Speichercontrollerbau. Aus meiner Sicht hält Intel nichts davon ab, den Speichercontroller in die CPU zu integrieren. Aber es ist ja offensichtlich deutlich wirtschaftlicher, dies (noch?) nicht zu tun. Und darum geht es in dem Geschäft. Nicht um die technisch anspruchsvollste Lösung.
Sicherlich war AMDs Entscheidung damals aus der Not gebohren, weil man nicht die Fertigungskapazität hatte. Sicherlich ist das unwirtschaftlicher für Intel, aber AMD sorgt dafür, dass Intel diese sinnvolle Technologie jetzt auch dem Privatkunden zur Verfügung stellen muss.
Jup nur hatten sie bis vor 1 Jahr noch ein Performance Vorteil den AMD gerade beim X2/Opteron in bare Münze umsetzen konnte.(300€+ für X2 Dual-Cores)
http://geizhals.at/deutschland/?phist=197511&age=365
Und was hat das mit der Aussage zu tun, ausser dass es negativ für AMD ist? (Was du ja unablässig gerne betonst :D)
Wenn ich mir ansehe, wie gut Allendale mit der halben Menge an L2-Cache performt, erscheint mir genau das Gegenteil der Fall zu sein.
Ein weit verbreitetes Gerücht.
Ich behaupte, das die meisten nicht in der Lage sind, sich andere Anwendungsbereiche außer Games anzuschauen, sonst würden sie diesen puren Stuß nicht immer wieder posten.
Sobald es um latenzlastige Anwendungen geht, fällt der Allendale locker 10 bis 15 Prozent zurück! Das sind Welten. Bei 3 GHz Takt (z.B. Penryn) entspricht das in CPU-Takt umgerechnet bereits 300-450 MHz!!
Außerdem ist Cache sehr energieffiezient. Bei Intel werden nicht benötigten Cacheteile abgeschaltet und daher wird dieser Leistungsboost ohne große Einbußen in der Verlustleistung erreicht. Dagegen verbraucht eine CPU, die höher taktet und daher mit höherer VCore betrieben werden muss, deutlich mehr Strom und das in so gut wie jedem Fall.
Hier mal ein paar Vergleichswerte, die das verdeutlichen:
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049159.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049161.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049155.png
(gilt als sehr CPU intensiv das Game, daher ist der Unterschied dort ziemlich groß)
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049154.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049152.png
Gerade in Bereich von Serveranwendungen, professionaller Umgebung oder mathematischen Berechnungen ist Cache durch nichts zu ersetzen, als durch noch mehr Cache.
Sry gast, aber guck die mal die Unterschiede zwischen Core2 mit 1MB, 2MB und 4MB an, dann kannste dir ausrechenen, was die 6MB bringen werden, nämlich garnichts.
Totaler Quatsch. Siehe oben.
Die Caches bringen sehr wenig und unterliegen dem abnehmenden Ertrag.
Das Gegenteil ist der Fall. Dadurch das die Prozessoren immer schneller werden, steigt auch deren Bandbreitenhunger. Man kann heutige Prozessoren nicht mit zukünftigen Vergleichen die wesentlich schneller sind. Bei jedem Speicherzugriff geht wertvolle Zeit verloren, die die CPU mit Däumchendrehen verbringen darf.
dildo4u
2007-06-03, 12:38:32
Und was hat das mit der Aussage zu tun, ausser dass es negativ für AMD ist? (Was du ja unablässig gerne betonst :D)
Es ging um die Wirtschaftlichkeit vor 1 Jahr konnte AMD durch die X2 Preise die Nachteile in der Fertigung mit 200mm Waffern ausgleichen was jetzt nicht mher der Fall ist.Also eigentlich nur eine Feststellung der Marktlage nicht mher und nicht weniger.Und diese Kommentaren wie Intelhardcore Fan etc. kannst du dir bitte sparen ich bin wenn dann Fan vom besten Produkt also vom C2D vorher wars der A64 denn es ist mir eigentlich total egal welche "Farbe" meine CPU hat.
Avalox
2007-06-03, 12:45:52
Jeder Cache ist und bleibt eine Notlösung. Geboren aus technischen Unzulänglichkeiten. Höchste Performance wird es immer da geben, wo kein Cache notwendig ist.
Nun ist es leider so, dass die Geschwindigkeit der Prozessorregister auf der einen Seite und dem Hauptspeicher auf der anderen Seite so extrem auseinander gehen, dass nun schon 3 Cachestufen notwendig scheinen. Das ist auf keinem Fall gut.
Was welches Konzept in der Praxis bringt, werden wir ja bald sehen. Alles auf allein gestellte Zahlen zu beziehen scheint mir dann doch etwas stark vereinfacht.
Höchste Performance wird es immer da geben, wo kein Cache notwendig ist.
Im Gegenteil. Höchste Performance gibt's dann wenn man komplett aus dem Cache arbeiten kann.
Nur mit Registern arbeiten ist ja wohl schwer möglich ;)
Avalox
2007-06-03, 12:50:48
Im Gegenteil. Höchste Performance gibt's dann wenn man komplett aus dem Cache arbeiten kann.
Dann ist der Cache ja kein Cache mehr, sondern Hauptspeicher.
mapel110
2007-06-03, 12:55:09
Dann ist der Cache ja kein Cache mehr, sondern Hauptspeicher.
Auch der Hauptspeicher ist ein Cache, weil die Platte ja zu lahm ist.
reunion
2007-06-03, 12:59:37
Hier mal ein paar Vergleichswerte, die das verdeutlichen:
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049159.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049161.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049155.png
(gilt als sehr CPU intensiv das Game, daher ist der Unterschied dort ziemlich groß)
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049154.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049152.png
Gerade in Bereich von Serveranwendungen, professionaller Umgebung oder mathematischen Berechnungen ist Cache durch nichts zu ersetzen, als durch noch mehr Cache.
Kannst du mir auch sagen, welche CPUs du dort konkret vergleichst um zu diesem Schluss zu kommen?
Kannst du mir auch sagen, welche CPUs du dort konkret vergleichst.
Gar keine. Ich vergleiche Cachemenge.
reunion
2007-06-03, 13:03:49
Gar keine. Ich vergleiche Cachemenge.
Stell' dich nicht blöd. Das tust du anhand welcher CPUs?
Auch wäre ein Link zu diesem test nicht verkehrt. Hat sich schon erledigt.
Avalox
2007-06-03, 13:03:56
Auch der Hauptspeicher ist ein Cache, weil die Platte ja zu lahm ist.
Ja und dass kann man dann auch auf die WAN Anbindung noch mal ausweiten.
Ich denke aber der Hauptspeicher definiert sich dadurch, dass die CPU diesen als Arbeitsspeicher verwendet. Natürlich ist in Zeiten von Auslagerungsdateien usw. die Grenzen recht fließend. Aber man darf dabei nicht vergessen, dass cachen immer eine Krücke ist und man erstmal auf den Sachverhalt sehen muss, welcher einen Cache überhaupt nötig werden lässt, bevor man den Cache alleine betrachtet.
Mechanische Festplatten werden ja z.B. in absehbarer Zeit durch Solid State Drives abgelöst werden. Man wird sicherlich den Plattencache im RAM bei behalten, trotzdem wird es die Situation oben entlasten.
Arbeitsspeicher, oder auch nur Cachespeicher in Registergeschwindigkeit wird es in absehbarer Zeit nicht geben. Trotzdem können alternative Anbindungen des Arbeitsspeichers erheblichen Einfluss auf Cachestrategien haben, so dass man CPUs allein mit MB Cache Angaben nicht vergleichen kann.
Dann ist der Cache ja kein Cache mehr, sondern Hauptspeicher.
Nö. Es bleibt Cache, weil die Daten ja auch in den RAM zurückgeschrieben und mit den anderen Cores synchronisiert werden müssen.
Das tust du anhand welcher CPUs?
Ich sagte doch, keine konkrete.
Wenn ich Cachemenge vergleiche ist die eingesetzte CPU sowas von egal, so lange die Rahmenbedingungen die gleichen sind.
Wie man sieht, trifft das zum Teil auch auf AMD zu, wobei deren Architektur etwas anders reagiert als die von Intel. Allerdings könnte ich mir vorstellen, das ein Quadcore da andere Ergebnisse produzieren wird, da dieser durchaus hungriger ist, wenn er voll belastet wird. :)
Man wird es einfach abwarten. Der Link steht auf dem Diagramm. :)
Avalox
2007-06-03, 13:14:16
Nö. Es bleibt Cache, weil die Daten ja auch in den RAM zurückgeschrieben
Ja genau. Das Zurückschreiben macht den Cache zum Cache und damit wieder zur Krücke, welche diesem Vorgehen in eine nachteilige Position im Vergleich zum Arbeitsspeicher in Cache Geschwindigkeit stellt. Arbeitsspeicher in voller Registergeschwindigkeit ist der Idealfall. Kein Speichercache wäre mehr notwendig, bzw. hätte noch irgend einen Vorteil.
So funktioniert es aber eben nicht. Auf was willst du hinaus?
Ich sehe Cache nicht als "Krücke", sondern als elegante Lösung in 90% aller Fälle Zugriffe auf den Hauptspeicher zu vermeiden und dort dann viel günstigeren DRAM einzusetzen.
mapel110
2007-06-03, 13:24:45
hm, ist dann nicht die Größe der Einzige Unterschied zwischen Ram und CPU-Cache, wenn beide mit Registergeschwindigkeit arbeiten würden?! :|
Avalox
2007-06-03, 13:27:09
viel günstigeren DRAM einzusetzen.
Ja da sind wir uns doch völlig einig. Cache ist ein Ansatz um billigen Speicher und billige Speicher Anbindungen benutzen zu können. Billig natürlich auf die Speicherzelle bezogen, man kommt so natürlich auch zu mehr Speicher. Für elegant halte ich Cache nicht. Es ist eine Krücke, daran ändert sich auch nichts, wenn diese riesengross und hochtechnisiert ist. Pfiffig können solche Lösungen sein, aber elegant sind sie es in meinen Augen nicht.
Avalox
2007-06-03, 13:42:37
hm, ist dann nicht die Größe der Einzige Unterschied zwischen Ram und CPU-Cache, wenn beide mit Registergeschwindigkeit arbeiten würden?! :|
Es wäre ja kein Cache (egal ob L1, L2 oder L3) mehr notwendig. Die CPU würde die Daten so schnell bekommen, wie diese die Daten überhaupt verarbeiten kann, dass über den kompletten Arbeitsspeicher. Eine Festplatte mit Arbeitsspeichergeschwindigkeit und entsprechender Anbindung würde ja auch Plattencache im Arbeitsspeicher überflüssig werden lassen.
Endorphine
2007-06-03, 13:43:37
Ja da sind wir uns doch völlig einig. Cache ist ein Ansatz um billigen Speicher und billige Speicher Anbindungen benutzen zu können. Billig natürlich auf die Speicherzelle bezogen, man kommt so natürlich auch zu mehr Speicher. Man könnte auch nur von der Festplatte und mit Registern arbeiten. Das ist aber unglaublich ineffizient.
Ich sehe es genau anders herum wie du. Register sind sehr klein, ideal schnell und bezogen auf die Kapazität extrem teuer. Massenspeicher wie Festplatten und Bänder haben eine sehr große Kapazität und sind recht langsam, dafür aber in der Kapazität sehr billig.
Festplatten steigern die Performance von Massenspeichern wie früher Lochkarten und heute Bändern und optischen Medien. DRAM-Puffer steigern die Performance der Festplatten. DRAM liegt zwischen diesen beiden Welten und hilft in der Idee des Arbeitsspeichers massiv die Performance zu steigern. SRAM-Puffer steigern die Performance in Prozessoren. Register helfen, dass Prozessoren überhaupt sinnvoll arbeiten können.
Jede Ebene von Registern bis zu Backup-Wechselmedien hilft, die Performance zu steigern. Je ausgeklügelter eine Ebene als Puffer für die nächste fungiert, um so fließender ist der Übergang auf die nächstniedrigere Speicher-Leistungsstufe und um so höher die Gesamtperformance.
Puffer sind eine geniale Erfindung. Die in Frage stellen zu wollen würde im Endeffekt bedeuten, nur noch mit Rechenwerken und Massenspeichern wie Bändern und Festplatten oder vielleicht der modernen Form einer Flash-SSD zu arbeiten. Auf schnelle transiente Speicher wie DRAM, SRAM und Register kann man prinzipiell immer verzichten. Auf persistente Massenspeicher nicht.
Daher: bitte nicht so viel Unfug dahertönen...
Ein weit verbreitetes Gerücht.
Ich behaupte, das die meisten nicht in der Lage sind, sich andere Anwendungsbereiche außer Games anzuschauen, sonst würden sie diesen puren Stuß nicht immer wieder posten.
Sobald es um latenzlastige Anwendungen geht, fällt der Allendale locker 10 bis 15 Prozent zurück! Das sind Welten. Bei 3 GHz Takt (z.B. Penryn) entspricht das in CPU-Takt umgerechnet bereits 300-450 MHz!!
Außerdem ist Cache sehr energieffiezient. Bei Intel werden nicht benötigten Cacheteile abgeschaltet und daher wird dieser Leistungsboost ohne große Einbußen in der Verlustleistung erreicht. Dagegen verbraucht eine CPU, die höher taktet und daher mit höherer VCore betrieben werden muss, deutlich mehr Strom und das in so gut wie jedem Fall.
Hier mal ein paar Vergleichswerte, die das verdeutlichen:
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049159.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049161.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049155.png
(gilt als sehr CPU intensiv das Game, daher ist der Unterschied dort ziemlich groß)
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049154.png
http://www.matbe.com/images/biblio/art_intel-core-2-duo-e4300-et-pentium-d/000000049152.png
Gerade in Bereich von Serveranwendungen, professionaller Umgebung oder mathematischen Berechnungen ist Cache durch nichts zu ersetzen, als durch noch mehr Cache.
Diese Benches sagen nicht viel über den Cache aus. Die übertakteten CPUs würde ich so garnicht soviel beachten, das die Plattformen mit sehr viel FSB und evtl. einem eher ungünstigem Speicherteiler laufen und versteckte Latenzen haben könnten, die man jetzt nicht auf anhieb sieht.
[...]
Das Gegenteil ist der Fall. Dadurch das die Prozessoren immer schneller werden, steigt auch deren Bandbreitenhunger. Man kann heutige Prozessoren nicht mit zukünftigen Vergleichen die wesentlich schneller sind. Bei jedem Speicherzugriff geht wertvolle Zeit verloren, die die CPU mit Däumchendrehen verbringen darf.
Das ändert nichts daran, dass mehr Cache dem abnehmenden Ertrag unterliegt. Der Aufwand steigt überproportional ggü. dem Nutzen. Selbst wenn einige Speicherzugriffe weniger erfolgen, die Chance, dass man hier einen Treffer landet wird immer geringer, weil man grade bei sehr grossen Datenmengen nur einen bestimmten kleinen Teil der Daten immer wieder braucht und der Rest eher seltene Zugriffe sind. Deshalb lohnt sich überhaupt ein Cache, aber der Löwenanteil der Software kommt mit 1 MB aus. Darüber skaliert fast garnichts mehr. Man muss schon viele Anwendungen parallel laufen lassen, um vom Cache zu profitieren. Und da spielt es keine Rolle, ob das Spiele, Videobearbeitungsprogramme oder sonstwas ist.
Intel verpasst den CPUs nur deshalb sehr viel Cache, weil diese auch im Serverbereich gut laufen müssen. Da hier meist sehr viele parallele Zugriffe erfolgen, werden auch sehr viel mehr Daten gleichzeitig bearbeitet, welche sich mit sehr viel Cache gut beschleunigen lassen. Die CPUs haben nur so viel Cache, um die Unzulänglichkeiten ihrer UMA Architektur im Serverbereich auszugleichen.
Diese Benches sagen nicht viel über den Cache aus.
Tun sie sehr wohl.
Wenn mans genau nimmt wird hier sogar eher deutlich, warum sehr viel Cache eben nicht so wahnsinnig viel bringt.
Wie kommst du auf diese abstruse Idee?
Der FSB und die Speicherbandbreite sind hier fast wichtiger als die Cache Grösse.
Nein. Sonst länge der übertaktete E4300 vorn.
Schau dir die Vergleiche zwischen dem 6300er und dem 4300er an, hier hat der 6300 mehr Cache, mehr FSB und mehr Takt.
Der E4300 hat genau die gleiche Cachemenge wie der E6300 und der übertaktete E4300 sogar den höheren FSB.
Endorphine, du hast vollkommen recht mit deinem Posting. Die Anzahl der Ebenen können mehr Effizienz hervorbringen als eine grosse Menge einer Ebene. Deshalb arbeitet Intel verstärkt an Cache Ebenen. Es soll bis zu 4 Leveln in den Generationen nach Nahelem geben, die L4 ebene umfasst dann einen 512MB grossen externen Cache.
[...]
Der E4300 hat genau die gleiche Cachemenge wie der E6300 und der übertaktete E4300 sogar den höheren FSB.
Beim 6300 lag ich falsch. Ändert aber dennoch nichts daran, dass der Cache dem abnehmenden Ertrag unterliegt ;).
mapel110
2007-06-03, 13:55:08
hm, also Winrar und sonstige Packer skalieren sehr gut mit mehr CPU-Cache. Bis zu 15 % mehr Leistung iirc. Um das auszugleichen, müsste man den Takt 15 % erhöhen. Und da stoßen wir ja mittlerweile an Grenzen, was Kühlung angeht.
Die Übertaktung kannst du vergessen. Wie gesagt, das sagt nicht viel aus.
Ich finde schon das sie was aussagt. Man benötigt weniger Takt um die gleiche oder sogar mehr leistung zu erreichen. 10 bis 15 Prozent lassen sich durch mehr Cache rausholen.
Nicht umbedingt bei Games, aber die sind sowieso gemessen am Weltmarkt nicht so sehr entscheidend. Wenn du da mal einen Supercomputer mit tausenden solcher CPUs baust, wärst du über jedes Prozent froh, das sich nicht gleich in einen eklatant höheren Stromverbrauch umgemützt wird.
Hauwech
2007-06-03, 14:04:05
Endorphine, du hast vollkommen recht mit deinem Posting. Die Anzahl der Ebenen können mehr Effizienz hervorbringen als eine grosse Menge einer Ebene. Deshalb arbeitet Intel verstärkt an Cache Ebenen. Es soll bis zu 4 Leveln in den Generationen nach Nahelem geben, die L4 ebene umfasst dann einen 512MB grossen externen Cache.
The Return of COAST? :smile:
Avalox
2007-06-03, 14:07:43
Auf schnelle transiente Speicher wie DRAM, SRAM und Register kann man prinzipiell immer verzichten. Auf persistente Massenspeicher nicht.
Ein sehr schönes Posting. Trotzdem möchte ich dazu noch anmerken, dass es eben wieder genau die Definition ist, welches aus einem Speicher einen dauerhaften macht.
Die von Dir benannten Festplatten als persistente Speicher sind nicht persistent genug um diese als BackUp Medium im Schrank einzuschließen.
Festplatten werden heute in Server Arrays verwendet, welche immer im Betrieb sind. Die Platte wird eingebaut, geht in Betrieb und beendet erst wieder diesen Betrieb, wenn sie ersetzt wird.
Jeder Puffer ist erstmal ein Extra und damit eine Frage der Wirtschaftlichkeit, nur an dieser muss er sich messen lassen.
Das liegt vorallem daran, das von Ebene zu Ebene meist auch die Geschwindigkeit stark abnimmt.
Man muss das immer in Relation sehen. 512MB L2 Cache wären zur Zeit utopisch, aber 512MB langsameren L4 Cache ist nicht so das Problem.
Ich bin mir sicher, das dieses Konzept nicht ewig fortgeführt wird. Nur so lange, bis es noch besser gemacht werden kann.
Bei dem experimentellen 80 Kerner ist vorallem die Anbindung untereinander das Problem und da kommt man wenigen MB nicht allzu weit.
Endorphine
2007-06-03, 14:17:11
Die Anzahl der Ebenen können mehr Effizienz hervorbringen als eine grosse Menge einer Ebene. Meiner Meinung nach braucht man beides: möglichst feinstufige Zwischenspeicher zwischen Registern und Massenspeicher und einen möglichst geringen Kapazitätssprung zwischen den Speicher-Ebenen.
Da mit steigender Rechenleistung die Aufgabenstellungen für die IT größer/komplexer werden und bereits bestehende Datenbestände in den Massenspeichern nicht wegfallen muss auch die Kapazität in den transienten Zwischenspeichern immer weiter steigen.
Ich hab mir mal den Spaß einer Milchmädchenrechnung gemacht:
* vor ungefähr 10-15 Jahren war mal die Quantum Fireball 1280AT im Desktop-Bereich die Referenz, diese hat 64 kB / 1,2 GB = 53 kB / GB Cache
* meine heutige Seagate Barracuda 7200.10 hat 16384 kB Puffer auf 320 GB: 16384 / 320 = 51,2 kB/GB
Genau so sollte/muss der Arbeitsspeicher im Vergleich zur Rechenleistung und Massenspeicherkapazität immer weiter wachsen. Und ebenso der Cache in der CPU.
Auch der Hauptspeicher ist ein Cache, weil die Platte ja zu lahm ist.
nicht wirklich die cpu kann nicht direkt auf die festplatte zugreifen, auf den hauptspeicher aber schon, wobei in zeiten der virtuellen speicherverwaltung die grenzen zwar fließend sind, aber auch eine ausgelagerte seite erstmal in den arbeitsspeicher eingelagert werden muss bevor sie zur cpu kann.
Man könnte auch nur von der Festplatte und mit Registern arbeiten. Das ist aber unglaublich ineffizient.
kann man nicht die cpu kann nur aus dem hauptspeicher ein datum ins register laden, nicht aber von der festplatte.
Ich sehe es genau anders herum wie du. Register sind sehr klein, ideal schnell und bezogen auf die Kapazität extrem teuer. Massenspeicher wie Festplatten und Bänder haben eine sehr große Kapazität und sind recht langsam, dafür aber in der Kapazität sehr billig.
klar das ist auch der sinn der ganzen speicherhierarchie, wobei sich caches stark von der restlichen speicherhierarchie unterscheiden. diese sind nämlich für die anwendung transparent, im gegensatz zu bändern, festplatten und anderen massenspeichern.
Auf schnelle transiente Speicher wie DRAM, SRAM und Register kann man prinzipiell immer verzichten. Auf persistente Massenspeicher nicht.
genau umgekehrt, vor langer langer zeit hatten computer keine festplatten, arbeitsspeicher und register gab es aber schon immer (wobei register natürlich auch nicht zwingend notwendig sind).
festspeicher sind "nur" eine erleichterung der inbetriebnahme eines rechners, da man beispielsweise vorhandene software nicht in jeden rechner extra einprogrammieren muss sondern wiederverwenden kann. gleichzeitig sind die massenspeicher natürlich auch eine sicherheitsmaßnahme, die ihre daten auch beim ausfall eines rechners behalten und ermöglichen den rechner auch auszuschalten. für den betrieb eines rechners sind sie aber prinzipiell nicht notwendig.
reunion
2007-06-03, 16:43:53
Muss? Intel hat umfangreiche Erfahrungen im DRAM-Controllerbau. Ja, Intel ist als Erfinder von DRAM und der langen Chipsatzerfahrung vielleicht sogar die Firma mit der größten Expertise im Speichercontrollerbau. Aus meiner Sicht hält Intel nichts davon ab, den Speichercontroller in die CPU zu integrieren. Aber es ist ja offensichtlich deutlich wirtschaftlicher, dies (noch?) nicht zu tun. Und darum geht es in dem Geschäft. Nicht um die technisch anspruchsvollste Lösung.
Seit wann sind alleine die Produkte von Intel ausschlaggebend, was "offensichtlich deutlich wirtschaftlicher" ist? Für AMD war es offenbar schon beim K8 wirtschaftlich sinnvoll. Im übrigen ist es ja bei Nehalem auf einmal doch "wirtschaftlich" - warum wohl? Was hat sich geändert? Intel hat wiedermal eine Entwicklung verschlafen, das ist alles.
Intel hat wiedermal eine Entwicklung verschlafen, das ist alles.
kann man kaum sagen wenn man den Core2 sieht.
vielmehr hat in letzter zeit AMD einiges verschlafen und ruhen sich seit dem zweifelslos guten K8-design auf ihren lorbeeren aus. der K8 ist seit ewigkeiten auf dem markt, und was hat sich seitdem getan? genau nichts.
Für AMD war es offenbar schon beim K8 wirtschaftlich sinnvoll.
Woher nimmst du diese Weisheit? Wenn man das aus heutiger Sicht betrachtet, wäre es sogar sinnvoller gewesen, eine günstigere Produktionslinie zu fahren, denn das hätte im Preiskampf einen Vorteil gehabt.
AMD hat sich ganz einfach dafür entschieden. So überlegen war der A64 aber auch nicht, vielleicht tat man es aus Performancesicht.
Im übrigen ist es ja bei Nehalem auf einmal doch "wirtschaftlich" - warum wohl?
Offensichtlich aus Gründen, die du nicht kennst. ;)
Woher willst du wissen, ob es nicht schon vorher wirtschaftlich war?
Intel ist ganz einfach einen anderen Weg gegangen und wie man jetzt sieht, mit Erfolg.
Im Desktop hätte ein IMC sowieso keine allzu großen Auswirkungen gehabt, also warum auf etwas setzen, was man noch nicht zwingend benötigt? Meines erachtens ist der Core 2 nur eine Zwischenstufe zum Nehalem, denn noch vor einiger Zeit hat man von dem gar nichts gehört, was bei einer komplett neuen Architektur ziemlich unüblich ist.
Intel hat wiedermal eine Entwicklung verschlafen, das ist alles.
Blödsinn.
Schönredner. Intel konnte Architekturmängel durchaus aus vorhandener Marktmacht überdecken.
Die Prozesse hierzu sind sind ein Begriff? Ebenfalls die Marktanteile?
Intel konnte Architekturmängel durchaus aus vorhandener Marktmacht überdecken.
Von welchem Mängeln sprichst du denn?
Die Performance im Desktop ist sicher kein Mangel... ;)
SavageX
2007-06-03, 18:14:03
Woher nimmst du diese Weisheit? Wenn man das aus heutiger Sicht betrachtet, wäre es sogar sinnvoller gewesen, eine günstigere Produktionslinie zu fahren, denn das hätte im Preiskampf einen Vorteil gehabt.
Dann hätte AMD mindestens zwei Produklinien fahren müssen: Server (mit IMC) und Desktop. Teuer.
AMD hat sich ganz einfach dafür entschieden. So überlegen war der A64 aber auch nicht, vielleicht tat man es aus Performancesicht.
Es besteht kein Zweifel daran, dass der Athlon 64 einen guten Teil seines Vorsprungs vor dem Athlon XP aus dem Speichercontroller bezieht. Eine sinnige Investition. Als Underdog muss man halt größere Anstrengungen unternehmen, um an Marktanteile zu kommen. Insbesondere, wenn man mit ein und demselben Design in mehreren Märkten konkurrieren will.
Offensichtlich aus Gründen, die du nicht kennst. ;)
Woher willst du wissen, ob es nicht schon vorher wirtschaftlich war?
Intel ist ganz einfach einen anderen Weg gegangen und wie man jetzt sieht, mit Erfolg.
Man sortiere die Menge {Rom, Wege, viele, nach, führen} nach Gutdünken.
Im Desktop hätte ein IMC sowieso keine allzu großen Auswirkungen gehabt, also warum auf etwas setzen, was man noch nicht zwingend benötigt? Meines erachtens ist der Core 2 nur eine Zwischenstufe zum Nehalem, denn noch vor einiger Zeit hat man von dem gar nichts gehört, was bei einer komplett neuen Architektur ziemlich unüblich ist.
AMD hat den IMC, um zügig an Daten zu kommen, Intel versteckt die Speicheranbindung am langen Draht über große Caches. Jacke wie Hose. Verstehe nicht, warum darüber Diskussionsbedarf besteht. Wichtig ist, was hinten rauskommt.
reunion
2007-06-03, 18:17:26
kann man kaum sagen wenn man den Core2 sieht.
vielmehr hat in letzter zeit AMD einiges verschlafen und ruhen sich seit dem zweifelslos guten K8-design auf ihren lorbeeren aus. der K8 ist seit ewigkeiten auf dem markt, und was hat sich seitdem getan? genau nichts.
Das eine hat mit dem anderen nicht das geringste zu tun.
Woher nimmst du diese Weisheit? Wenn man das aus heutiger Sicht betrachtet, wäre es sogar sinnvoller gewesen, eine günstigere Produktionslinie zu fahren, denn das hätte im Preiskampf einen Vorteil gehabt.
AMD hat sich ganz einfach dafür entschieden. So überlegen war der A64 aber auch nicht, vielleicht tat man es aus Performancesicht.
Es hätte also aus heutiger Sicht Sinn gemacht, beim K8 auf den IMC zu verzichten, und so elementare Vorteile der K8-Architektur aufzugeben, um etwas billiger fertigen zu können? Seltsame Ansicht. Selbst wenn es nur aus Performancesicht gemacht wurde, war es dann nicht "wirtschaftlich sinnvoll"? AMD wird sich sicherlich was dabei gedacht haben, den MC zu integrieren, und die Erfolge im Servermarkt, wo man von faktisch 0% Marktanteil heute bei >25% steht geben ihnen recht. Daher nehme ich diese Weisheit. Also warum muss Intel der Maßstab dafür sein, was wann wirtschaftlich Sinn macht? AMD beweißt, dass es schon vorher sinnvoll war.
Offensichtlich aus Gründen, die du nicht kennst. ;)
Oh doch. Man braucht wahrlich kein Genie zu sein, um zu erkennen, dass ein IMC erhebliche Vorteile speziell bei Mehrsocketsystemen bringt. Was auch der Grund ist, warum Intel darauf nicht mehr verzichten kann.
Woher willst du wissen, ob es nicht schon vorher wirtschaftlich war?
Siehe oben. Ich bin sogar davon überzeugt, dass es schon vorher wirtschaftlich war. Nur hat Intel diese Entwicklung völlig verschlafen.
Intel ist ganz einfach einen anderen Weg gegangen und wie man jetzt sieht, mit Erfolg.
Das ich nicht lache. Damit ignorierst du drei Jahr Netburst-Ära, in denen das große Intel AMD speziell im äußerst prestigeträchtigen Servermarkt aber sowas von unterlegen war, was auch zu erheblichen Einbußen beim Marktanteil geführt hat. Also um das als Erfolg zu verkaufen, braucht man schon eine gesunde Portion Ignoranz.
=Floi=
2007-06-03, 18:31:08
du drehst es aber auch hin wie du es brauchst
dafür gibt es aber auch ein paar nachteile (So 939 zu AM2, teurer ram wird benötigt, kompatibilität gibt der prozessor vor -> 333mhz@ 4 riegel, abwertskompatibilität, DDR1 ODER DDR2 ) für den normalen kunden im desktopbereich
so schlecht war der p4 aber auch wieder nicht wenn man ihn mit dem A64 vergleicht und nebenbei gab es auch hier noch interesannte verbesserungen
Es hätte also aus heutiger Sicht Sinn gemacht, beim K8 auf den IMC zu verzichten, und so elementare Vorteile der K8-Architektur aufzugeben, um etwas billiger fertigen zu können?
Vielleicht. Vielleicht auch nicht. Werden wir nie erfahren, da niemand weiß, wie diese CPUs ohne IMC performt.
AMD wird sich sicherlich was dabei gedacht haben, den MC zu integrieren, und die Erfolge im Servermarkt, wo man von faktisch 0% Marktanteil heute bei >25% steht geben ihnen recht.
Der Erfolg muss aber nicht zwangsläufig auf den Athlon64 zurückzuführen sein. Noch ein paar Jahre davor, befand der Markt sich in den Kinderschuhen. Wirklich Rückschlüsse sind daher kaum möglich.
Man braucht wahrlich kein Genie zu sein, um zu erkennen, dass ein IMC erhebliche Vorteile speziell bei Mehrsocketsystemen bringt.
Das ist nichts zwangsläufig so. Nicht der IMC bringt die Vorteile, sondern die Anbindung an die restlichen Komponenten.
Wie man in diversen Tests sehen kann, liegt der Core2 bei der latenzzeit teilweise sogar auf Niveau des Athlon64, weil er durch seine Architektur und Caches die Nachteile sehr gut überdecken kann.
Man braucht nicht zwangsläufig einen IMC, es hätte schon gereicht, den FSB durch was fortschrittlicheres zu ersetzen. Vorallem hätte man jeder CPU eine eigene Anbindung spendieren müssen.
Die Frage ist eher, was am Ende effektiver oder kostengünstiger zu produzieren ist.
Nur hat Intel diese Entwicklung völlig verschlafen.
Sehe ich absolut nicht so. Meines erachtens ist Core2 dazwischengeschoben, da man langsam unter Druck geriet. Dafür spricht die recht schnelle Ablösung durch den Nehalem und die Tatsache, das der Core2 auf praktisch keiner Roadmap zuvor aufgetaucht ist. Der Begriff Nehalem geistert schon Jahre durchs Netz, damals noch als Netburst Abkömmling.
Man überlege nur, wie es weitergegangen wäre, wenn Netburst bis 2009 weiterhin fortgeführt worden wäre.
Damit ignorierst du drei Jahr Netburst-Ära
Was hat das mit dem Core2 zu tun? Man muss auch sehen, das Netburst schon länger am Markt war, als der K8.
Vielleicht. Vielleicht auch nicht. Werden wir nie erfahren, da niemand weiß, wie diese CPUs ohne IMC performt.Hmmm...
Ist irgendwie definiert, auf welche CPU sich XP festlegt, wenn man die Multicorefähigkeit abschaltet? Dann könnte man in einem Opteron-/QuadFX-System einfach den Speicher an die andere CPU hängen und so herausfinden, wie sich der K8 ohne IMC geschlagen hätte.
=Floi=
2007-06-03, 19:38:14
http://www.computerbase.de/bild/news/17060/15/
4X 2,0 ghz @ 95 watt
http://www.computerbase.de/bild/news/17060/18/
naja ich kann mir schlecht vorstellen dass mit einem nativen quad core weniger energie verbraucht werden soll O_o
und amd soll endlich froh sein dass der c2d noch von fsb ausgebremst wird ;D ;)
du drehst es aber auch hin wie du es brauchst
dafür gibt es aber auch ein paar nachteile (So 939 zu AM2, teurer ram wird benötigt, kompatibilität gibt der prozessor vor -> 333mhz@ 4 riegel, abwertskompatibilität, DDR1 ODER DDR2 ) für den normalen kunden im desktopbereich
so schlecht war der p4 aber auch wieder nicht wenn man ihn mit dem A64 vergleicht und nebenbei gab es auch hier noch interesannte verbesserungen
Der RAM Controller in den AMD Prozessoren hat Nachteile. Das liegt aber nicht unbedingt daran, dass es ein IMC ist. Zudem waren die Spezifikationen eindeutig und wenn 4 RAM Module nicht funktionierten lag das ganz sicher nicht am IMC.
Der P4 war nur durch HTT konkurrenzfähig, ansonsten hatte diese Archtektur keine Chance.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.