PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Nehalem: Core2 Nachfolger für 2008 (Siehe erster Post)


Seiten : [1] 2 3 4

AnarchX
2006-10-19, 19:44:22
Bisherige Infos zu Nehalem(Intels "neuer" Architektur die für 2008 vorgesehen ist):
(Laut Intel handelt es sich um eine Weiterentwicklung der 4-issue Core architecture(Merom/Penryn))

"In 2008, we'll have Nehalem." (http://www.dailytech.com/Life+With+Penryn/article5869.htm) Steve Smith, Intel Vice President

Intel-Seite zu Nehalem (http://www.intel.com/technology/architecture-silicon/next-gen/description.htm?iid=technology_next-gen+body_description)

Codenamen:

Gilo (Dual Mobile)
Bloomfield (Quad Desktop)
Gainestown (Quad Xeon DP?)
Beckton (Octo Xeon MP?)

Plattformen:

Tylersburg: High-End-Desktop und Workstations
Capella: Mobile
Piketon: Business Desktops
Kingscreek: Consumer Desktops


Fertigung:
- 45nm, später 32nm(2009 - Nehalem-C, neue Bezeichnung Westmere)

Speicherkontroller
- integrierter Speicherkontroller(DDR3 1066/1333/1600 ) - IMC
- IMC wahrscheinlich nur bei (http://www.theinquirer.net/default.aspx?article=41693) Server/Workstation/Extreme Edition-Nehalems, Consumer vorerst weiterhin dedizierte Northbridge mit Speicherkontroller
- Tripple Channel DDR3 (http://translate.google.com/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2007%2F0607%2Fubiq188.h tm&langpair=ja%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools) Controller bei einigen Modellen

Transistorcounts:
-Quad-Core: 731M (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3101&p=2)


Sockel:
- Socket B(LGA1366) und Socket H (LGA715)
- VRM11.1 mit einem neuen Feature für Socket B -> "Iout" (http://www.vr-zone.com/index.php?i=4720)
- Unterstützung von CSI(Common Serial Interconnect) (http://en.wikipedia.org/wiki/Common_System_Interface), neue Bezeichnung ist QuickPath

weitere Features:
- eine neue Variante von SMT -> MTT (http://www.VR-Zone.com/index.php?i=4574) (Technologie ähnlich wie Hyper-Threading beim P4)
- Shared Cache auf verschiedenen Ebenen
- einige Nehalem-CPUs werden eine integrierte GPU(IGP) haben(wahrscheinlich aber nur Integration auf dem Package und nicht im Die)

-Bloomfield:
- Bloomfield: eine CPU die auf Nehalem basiert und 4 Kerne haben soll, aber 8 Threads
- Bloomfield soll mit Taktraten über 4GHz kommen und einen shared L2-Cache von 8MB haben
- Bloomfields TDP soll unter 130W liegen
- Die-Size von Gainstown/Bloomfield(?): 191mm² (http://www.tgdaily.com/content/view/32624/135/)


- 8-Core soll nativ gefertigt werden und kommt noch 2008 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5855100#post5855100)

- Verfügbarkeit: Ende 2008 erste Auslieferungen(Severvarianten fürs H2 2008 vorgezogen - Computex 2008? (http://www.theinquirer.net/?article=42183)), volle Verfügbarkeit 2009

http://img267.imageshack.us/img267/4497/nehalema7cff6ny7.jpg (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3101&p=2)

http://img471.imageshack.us/img471/2213/nehalemzt3.jpg (http://imageshack.us)

http://img167.imageshack.us/img167/1571/tripplechannelpj0.jpg
Nehalem-EP auf der neusten Roadmap (http://www.vr-zone.com/index.php?i=5116)
http://img512.imageshack.us/img512/6876/nehalemepgz3.png

Links zu den Informationen: (neueste Links am Ende)

IDF: Nehalem-C heißt jetzt Westmere@Computerbase (http://www.computerbase.de/news/hardware/chipsaetze/intel/2006/september/idf_nehalem-c_westmere/)

[Two New Sockets For Nehalem in 2008]@VR-Zone (http://www.VR-Zone.com/index.php?i=4182)

[Intel Socket B vs AMD Socket AM3]@VR-Zone (http://www.VR-Zone.com/index.php?i=4295)

[Bloomfield Is Quad Core & Octo Threads]@VR-Zone (http://www.VR-Zone.com/index.php?i=4322)

[ Bloomfield To Hit > 4GHz & Has 8MB Cache]@VR-Zone (http://VR-Zone.com/index.php?i=4387)

Roadmap: Itanium und Xeon verschmelzen@Computerbase (http://www.computerbase.de/news/hardware/prozessoren/intel/2007/januar/roadmap_itanium_xeon/)

[No HT For Penryn & Nehalem]@VR-Zone (http://www.VR-Zone.com/index.php?i=4574)

[Intel Nehalem Server Platforms Revealed]@VR-Zone (http://www.VR-Zone.com/index.php?i=4573)

[Intel VRM 11.1 Design Guideline For Nehalem CPUs]@VR-Zone (http://www.VR-Zone.com/index.php?i=4720)

Intel: More Details on Penryn and Nehalem@AnandTech (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=2955&p=3)

If I had a Hammer: Gelsinger details Nehalem@TechReport (http://techreport.com/onearticle.x/12130)

Intel: Weitere Details zu Penryn und Nehalem@Computerbase (http://www.computerbase.de/news/hardware/prozessoren/intel/2007/maerz/intel_weitere_details_penryn_nehalem/)

[Intel Pushs Nehalem Into H2 2008]@VR-Zone (http://vr-zone.com/index.php?i=5113)

[Intel New Nehalem & Tukwila Platforms In H2 2008]@VR-Zone (http://www.vr-zone.com/index.php?i=5115)

Nehalem to use either integrated or external memory controller @INQ (http://www.theinquirer.net/default.aspx?article=41693)

Intel tapes out high-end desktop chipset for Nehalem core (http://www.tgdaily.com/content/view/33369/135/)

Nehalem: Single die, 8-cores, 731M transistors, 16 threads, memory controller, graphics, amazing. @ Anandtech (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3101&p=2)

(+44)
2006-10-19, 20:03:41
LGA1366.. Nett.

Würde gerne mal ne passende CPU und den Sockel selbst sehn - Schon bei LGA775 sind ja die Pins geradezu winzig.

BTW: Wieso Socket B und Socket H ?

Ich meine, das sollten doch Codenamen sein - genauso wie Socket T nach Tejas, dem verworfenen Prescott-Nachfolger benannt wurde.

Nehalem ist schonmal nicht Namensgeber - welcher Prozessor dann?! (war Nehalem nicht eigentlich mal auf ner NetBurst-Roadmap?)

Mastermind
2006-10-19, 20:44:39
[...]
BTW: Wieso Socket B und Socket H ?
[...]
Na B + H = BH ;)
Nach Bum Shaka Laka würde mich sowas nicht wundern. :tongue: :D

VooDoo7mx
2006-10-19, 20:44:52
Nehalem ist schonmal nicht Namensgeber - welcher Prozessor dann?! (war Nehalem nicht eigentlich mal auf ner NetBurst-Roadmap?)

Intel Prozessor-Roadmap – 10 GHz schon 2006? (http://www.hardtecs4u.de/?id=1057515981,46726,ht4u.php)

:p

MNehalem sollte ursprünglich sogar IA64 haben...irgendwie...

StefanV
2006-10-19, 20:50:35
BTW: Wieso Socket B und Socket H ?
Weil Socket A und F schon belegt sind (von AMD) ;)

Ob der Rest nicht auch schonmal verwendet wurde, weiß ich jetzt ehrlich gesagt nicht so recht...

(+44)
2006-10-19, 20:56:47
Weil Socket A und F schon belegt sind (von AMD) ;)

Ob der Rest nicht auch schonmal verwendet wurde, weiß ich jetzt ehrlich gesagt nicht so recht...

Sind bei Intel ja IMO nach Codenamen benannt - daher die Frage nach den namensgebenden Prozessoren.

AnarchX
2006-10-19, 21:08:30
Sind bei Intel ja IMO nach Codenamen benannt - daher die Frage nach den namensgebenden Prozessoren.

Sockel 775 heißt aber doch auch nicht Sockel P.;)

Gast
2006-10-19, 21:10:18
Schon wieder ein neuer Sockel Wir haben doch erst den Sockel 775 !

.

AnarchX
2006-10-19, 21:12:14
Schon wieder ein neuer Sockel Wir haben doch erst den Sockel 775 !


Naja, Nehalem kommt erst 2008 und S.775 ist dann schon 4 Jahre alt.
Zudem hat es ja auch diesmal wegen des IMCs auch einen richtigen Grund.;)

(+44)
2006-10-19, 21:30:49
Naja, Nehalem kommt erst 2008 und S.775 ist dann schon 4 Jahre alt.
Zudem hat es ja auch diesmal wegen des IMCs auch einen richtigen Grund.;)
LGA775 ist ja auchnicht ohne "richtigen Grund" eingeführt worden - nur die Chipsatzpolitik war sehr undurchdacht ;)

(Keine Dualcores auf 925X, der 975X nur für Presler XE)

Gast
2006-10-19, 21:35:59
Was ist IMC ?


:)

dildo4u
2006-10-19, 21:37:36
Was ist IMC ?


:)integrated memory controller

Gast
2006-10-19, 22:04:02
Hmmm und wofür ist das ?

Gast
2006-10-19, 22:23:34
Hmmm und wofür ist das ?

für schnellere speicherzugriffe, wie beim A64

(+44)
2006-10-19, 22:31:55
Sockel 775 heißt aber doch auch nicht Sockel P.;)

Sagte ich doch - LGA775 ist nach dem Prescott-Nachfolger Tejas benannt - der dann gecanceled wurde.

Gast
2006-10-19, 22:36:10
Für schnelle Speicherzugriffe,
dafür ist doch der Intel Chipsatz zuständig wieso dann ein neuer Sockel ?

dildo4u
2006-10-19, 22:40:26
Für schnelle Speicherzugriffe,
dafür ist doch der Intel Chipsatz zuständig wieso dann ein neuer Sockel ?Der IMC ermöglicht es das der Prozessor direkt auf den Speicher zugreifen kann ohne Umweg über den Mainboard Chipsatz damit erreicht man immer schneller Speicherzugriffe als über den Umweg über den Chipsatz.Deshalb muss ein neuer Sockel her weil dieser Direktzugriff auf den Speicher zusätzliche Pins braucht.

HOT
2006-10-20, 09:35:14
2 neue Sockel? Das erinnert mich unweigerlich an Sockel 754 und 939... Man benötigt für IMC eine billigere Version für OEMs, deshalb wohl 2.
Dann gehts bei Intel auch los mit neuer Speicher -> neuer Sockel ;).

AnarchX
2006-10-20, 09:40:42
Sagte ich doch - LGA775 ist nach dem Prescott-Nachfolger Tejas benannt - der dann gecanceled wurde.

Hast recht, war ja Sockel T, meine Erinnerung dazu war wohl schon etwas schwach.:wink:

Na dann können wir ja über möglich Namen spekulieren...

Gast
2006-10-20, 12:26:14
Wieso den plötzlich der Speichercontroller damit drin,
das war doch bisher noch nie nötig ?

Bei LGA1366 (-Kontakten) wird das wieder so ein ungetüm wie die Slot-Prozessoren oder,
sowas hatte Ich mir damals schon nicht angetan !

Gast
2006-10-20, 12:30:32
Wieso den plötzlich der Speichercontroller damit drin,
das war doch bisher noch nie nötig ?

Bei LGA1366 (-Kontakten) wird das wieder so ein ungetüm wie die Slot-Prozessoren oder,
sowas hatte Ich mir damals schon nicht angetan !

naja der sockel f von amd hat auch schon 1200LGAs, also sooo viel ist das nivht bor allem wenn der erst in 2 jahren kommt.

AnarchX
2006-10-20, 12:31:21
Wieso den plötzlich der Speichercontroller damit drin,
das war doch bisher noch nie nötig ?
Bei den kommenden Mulitcore-Monstern wird es aber dann langsam nötig werden.
Zudem gibt es ja auch noch die Pläne CPU mit integrierter GPU.;)


Bei LGA1366 (-Kontakten) wird das wieder so ein ungetüm wie die Slot-Prozessoren oder,
sowas hatte Ich mir damals schon nicht angetan !
http://de.wikipedia.org/wiki/Land_Grid_Array

Gast
2006-10-20, 13:54:51
Oh hätte in den letzten 9 Jahren ständig neue Sockel 7 , 370 , 478 und im nächsten Jahr den Sockel 775 !

Ist doch etwas viel... ?

StefanV
2006-10-20, 14:00:22
Wieso den plötzlich der Speichercontroller damit drin,
das war doch bisher noch nie nötig ?Woher weißt du, wieviel Performance der C2D durch den externen Speichercontroller verliert, das du behaupten kannst, das das nicht nötig ist?!

Ganz ab davon hat ein IMC noch ein paar andere Vorteile, neben besserer Performance, z.B. Stromverbrauch (insbesondere bei Split Voltage, siehe AMDs pläne, die hier fast 5 Jahre voraus sind, naja, eher 6-7).

(+44)
2006-10-20, 16:38:56
Hast recht, war ja Sockel T, meine Erinnerung dazu war wohl schon etwas schwach.:wink:

Na dann können wir ja über möglich Namen spekulieren...

Hmm, LGA771 (Socket J) hatte Jayhawk als Namensgeber - wohl auch einen auf Prescott-basierenden NetBurst-Riesen.

Nehalem isses ja schonmal nicht - hat jemand ne aktuelle Roadmap, ich find jetzt spontan keine...

Hoffentlich basieren Bxxxxxxx und Hxxxxxx nicht auch auf verworfenen NetBurst-CPU's ;D

Gast
2006-10-22, 23:26:34
Hier gibt mehr Informationen dazu:

http://www.computerbase.de/news/hardware/prozessoren/intel/2006/oktober/intel_nehalem_ueberblick_sockel-details/

AnarchX
2006-11-12, 10:39:26
Neue Infos:

[Intel Socket B vs AMD Socket AM3]
We have previously reported on two new sockets for Nehalem CPUs in 2008 and this time round we will take comparative look at both new sockets offerings from Intel and AMD. Socket B will LGA1366 due to the integrated memory controller and AM3 is most likely still be Socket 940. The first CPU offering from Intel to be on Socket B will be Bloomfield from the Nehalem family while the first 45nm processors from AMD will be based on Socket AM3 somewhere in mid 2008. Both Socket B and AM3 will support DDR3 1066/1333/1600 memories and interconnection technology will be CSI (Common Serial Interconnect) and Hypertransport 3.0 respectively.
http://www.vr-zone.com/index.php?i=4295

Gast
2006-11-12, 12:12:23
Was machen Intel und AMD eigentlich, wenn das Alphabet aufgebraucht ist? Sockel A1 ? BF-#04 ?

Gast
2006-11-13, 11:53:44
naja der sockel f von amd hat auch schon 1200LGAsEr hat über 1200 Lands, aber nur ein LGA.

[/klugscheißmodus]

;)

AnarchX
2006-11-19, 03:43:01
[Bloomfield Is Quad Core & Octo Threads]
Bloomfield will have 4 cores and is capable of 8 threads like the old Hyper-Threading technology but only more advance
http://www.vr-zone.com/index.php?i=4322

Hyperthreading kehrt zurück!?:|
Ist Nehalem gar NetburstII, immerhin war ja in den alten Zeiten, wo ein Core2 noch unbekannt war, Nehalem auch der Codename für einen Nachfolger von Tejas?


:edit:
Hab nun alle Infos die es bisher gibt mal im ersten Posting zusammengetragen.

Gast
2006-11-19, 04:40:40
Wie kommst Du auf Netburst? Das ist Schwachsinn.

Das hat doch nichts mit der Architektur zu tun. Intel spendiert denen vielleicht eine Technologie, welche es erlaubt, noch mehr Threads parallel auszuführen.

HT war auch beim P4 hilfreich. Beispielweise konnte man zwei Seti@home Threads abarbeiten lassen, ohne das sich die Zeit der einzelnen WUs verschlechtert haben - auf nem Single Core! :eek:

Wenn die das da auch noch gut hinkriegen, dann wäre das eine sehr sinnvolle Erweiterung.

AnarchX
2006-11-19, 04:45:44
Natürlich nicht mehr die alte Netburst-Architektur, sondern einen gewaltigen Evolutionssprung dieser, zudem was Nehalem sein könnte.
Aber natürlich könnte es auch etwas völlig neues sein.

Da nun die Rede von SMT ist, kann man doch durchaus daraus schlussfolgern, das wohl bei Nehalem wieder eine sehr lange Pipeline zurückkehren wird, was wiederrum doch die Erinnerungen an Netburst weckt. ;)

Gast
2006-11-19, 04:57:08
Woraus kannst Du das schließen? Kann man eben nicht!

Netburst ist tot. Netburst war der inbegriff für Leistung über hohe Taktraten, was sich aber als sehr ineffektiv erwiesen hat.
Jetzt geht es in die Breite, nicht mehr in die Höhe. Das ist ziemlich sicher, da ja auch die Konkurrenz so plant, ebenso die Entwickler.

Es wäre kontraproduktiv dies jetzt wieder zu ändern.

Was ich noch hinzufügen wollte: HT hat beim Pentium 4 fast keine Leistung in Form von Stromverbrauch kostet, trotz Leistungssteigerung. Wenn man mal sieht, wieviele Threads auf nem normalen Betriebssystem laufen, was bereits sehr viele sind, dann bräuchte man sicherlich 320 oder 640 Cores um für jeden einen zu haben.

Den Vorteil den ich darin sehe: Untätige oder kaum fordernde Threads werden auf den virtuellen Core geschoben, damit der echte nicht mit sinnlosen Rechenaufgaben geblockt und so in der Leistung gemindert wird.

AnarchX
2006-11-19, 05:04:45
Woraus kannst Du das schließen? Kann man eben nicht!
Na dann nenne mir doch bitte andere Gründe, weswegen man auf SMT setzen könnte, ausser eben einer sehr langen Pipeline?

btw.
Hyperthreading ist nur ein HW-Workaround für den miesen Thread-Sheduler von Windows XP, welches der Netburst-Architektur doch sehr gelegen kam, da man hierdurch deren Auslaustung etwas verbessern konnte und somit Intel insgesammt ein nettes Marketingfeature hatte.
Aber dies ist hier doch OT, da wie schon gesagt "Netburst" tot ist und es hier um Nehalem geht.

BlackBirdSR
2006-11-19, 08:36:56
Na dann nenne mir doch bitte andere Gründe, weswegen man auf SMT setzen könnte, ausser eben einer sehr langen Pipeline?

btw.
Hyperthreading ist nur ein HW-Workaround für den miesen Thread-Sheduler von Windows XP, welches der Netburst-Architektur doch sehr gelegen kam, da man hierdurch deren Auslaustung etwas verbessern konnte und somit Intel insgesammt ein nettes Marketingfeature hatte.
Aber dies ist hier doch OT, da wie schon gesagt "Netburst" tot ist und es hier um Nehalem geht.

*Seufz*

Hyperthreading aka. SMT ist alles andere nur das nicht.
SMT ist Multithreading mit nur einerm Kern. Resourcen werden geteilt und mehrere Threads (hier wohl 2) können ihre Befehle gleichzeitig durch die Pipeline schicken.
Das mit Windows ist ein Bonus.. ein angenehmer Nebeneffekt der so überhaupt nichts mit SMT an sich zu tun hat.

SMT braucht auch keine lange Pipeline oder eine Netburst-artige Architektur. Das Hauptziel von SMT ist die bessere Auslastung des Kerns durch mehr als einen Thread. Breitere CPUs profitieren bei bestimmten Workloads durchaus sehr stark davon. Ein gutes Beispiel wären die Power5/6 von IBM. Auch der itanium2 nutzt eine Form von Multithreading und zwar kein SMT, sondern um Latenzen zu verstecken. Und das trotz der relativ kurzen Pipeline.

Also warum nicht auch für einen Conroe-Nachfolger? Wir haben bereits erwartet, dass SMT nicht ausgestorben ist. Dafür ist es ein viel zu billiges Mittel um die Performance in bestimmten Situationen zu erhöhen. Und ich spreche jetzt nicht vom Windows-User der sich freut, dass Fenster schneller aufklappen. Gerade Server und Workstations können stark profitieren.

Ob SMT schon im Conroe schlummert oder mit Nehalem (mit wahrscheinlich der gleichen Mirkoarchitektur wie Conroe) hinzugefügt wird ist dann eigentlich egal. Von einer Netburst-II Architektur würde ich jedoch nicht einmal im Traum sprechen. Netburst war alles andere als optimal für SMT. SMT war hier nur eine effektive Methode um Probleme etwas zu vertuschen.

AnarchX
2006-11-19, 10:41:00
@BlackBirdSR:
Danke für die ausführliche Erklärung zu SMT, da hast du meinen Horizont in dieser Hinsicht etwas erweitert und ein paar Fehlinformierungen beseitigt.

Aber denkst du, dass es wirklich noch warscheinlich ist, dass Nehalem auf der Core2-Architektur basieren wird, so oft liest man, dass diese wohl nur eine Übergangslösung ist und an Effizienz nicht mehr unbedingt viel steigerbar ist(IMC mal ausgeschlossen).

Mir scheint es, nach der neusten Info mit SMT, dass Nehalem vielleicht etwas mit Tukwila zu tun haben könnte, der auch mit einem IMC daher kommt und an dessen Entwicklung ein Großteil der Ingenieure beteiligt sind, die den DEC 21464 (EV8-Projekt) entwickelt haben, also die erste kommerziele CPU mit SMT die entwickelt wurde.

btw.
Könntest du bitte den Threadtitel in "Nehalem - Intels neue Architektur für 2008(siehe 1. Post)" ändern, da sich der Thread doch für weitere Diskussionen über Nehalem eignen würde und man auch die bisherigen Infos weiter zusammentragen könnte.

BlackBirdSR
2006-11-19, 10:58:04
@BlackBirdSR:
Danke für die ausführliche Erklärung zu SMT, da hast du meinen Horizont in dieser Hinsicht etwas erweitert und ein paar Fehlinformierungen beseitigt.

Aber denkst du, dass es wirklich noch warscheinlich ist, dass Nehalem auf der Core2-Architektur basieren wird, so oft liest man, dass diese wohl nur eine Übergangslösung ist und an Effizienz nicht mehr unbedingt viel steigerbar ist(IMC mal ausgeschlossen).

Mir scheint es, nach der neusten Info mit SMT, dass Nehalem vielleicht etwas mit Tukwila zu tun haben könnte, der auch mit einem IMC daher kommt und an dessen Entwicklung ein Großteil der Ingenieure beteiligt sind, die den DEC 21464 (EV8-Projekt) entwickelt haben, also die erste kommerziele CPU mit SMT die entwickelt wurde.

btw.
Könntest du bitte den Threadtitel in "Nehalem - Intels neue Architektur für 2008(siehe 1. Post)" ändern, da sich der Thread doch für weitere Diskussionen über Nehalem eignen würde und man auch die bisherigen Infos weiter zusammentragen könnte.

Warum soll Nehalem nicht auf Conroe basieren? Es wäre noch etwas früh für eine neue Mikroarchitektur. Möglich ist es auf alle Fälle. Aber man sollte auch bedenken, dass heute niemand etwas verschenkt. Und schon gar nicht unangetastetes Potential ;)

In der momentanen Mikroarchitektur steckt sicher noch Einiges. Zumal auch Taktraten über 4GHz möglich scheinen. Zusammen mit einem integrierten Speichercontroller und einem Common Interface lässt sich da noch was machen.

Tukwila ist übrigens nach meinen Informationen der Montecito-Nachfolger mit 4 Kernen. Der dürfte mit Nehalem nur das CSI und eventuell Teile des Speichercontrollers gemein haben. Eventuell noch den Sockel. Auf tieferer Ebene erwarte ich immernoch dass es einmal eine x86-64 und eine IA-64 CPU geben wird. Ich hoffe zumindest, dass man die 15-20 Millionen Transistoren nicht für eine IA-64 kompatibilität verfeuert.

Ich bin auch der Meinung, dass Core2D nur eine Übergangslösung ist. In Israel hatte man eben ein heißes Produkt und wohl auch vielversprechende Aussichten. Bis zur nächsten größeren Revolution war das wohl gut genug.
Allerdings wird der Begriff "Übergangslösung" wohl alleine durch die Zeitdauer definiert in der sie im Dienst ist.
Ob das nur für 2 Jahre gilt oder länger muss sich zeigen,

Also nochmal ein schnelles Fazit: Es ist durchaus möglich, dass Nehalem etwas Eigenständiges ist.
Müsste ich mich entscheiden würde ich sagen: Ja!
Aber das liegt wohl daran, dass ich mich so auf eine neue Mikroarchitektur freuen würde ;)

Gast
2006-11-19, 11:55:53
Ich finde es schon fast beleidigend, wie ihr über die Microarchitektur des Conroe redet. Als ob sie bestenfalls als Übergangslösung geeignet wäre. Gegenwärtig rechnet sie jeden Konkurrenten im x86 Umfeld ohne Mühe in Grund und Boden. Yorkfield wird kommenden Sommer zeigen, daß mit zusätzlichen Tweaks der IPC dieser Microarchitektur weiter gesteigert werden kann. Warum sollte Nehalem mit weiteren Innovationen (für diese Architektur) wie IMC und SMT nicht die Linie weiterführen?

(+44)
2006-11-19, 12:19:06
Ich finde es schon fast beleidigend, wie ihr über die Microarchitektur des Conroe redet. Als ob sie bestenfalls als Übergangslösung geeignet wäre. Gegenwärtig rechnet sie jeden Konkurrenten im x86 Umfeld ohne Mühe in Grund und Boden. Yorkfield wird kommenden Sommer zeigen, daß mit zusätzlichen Tweaks der IPC dieser Microarchitektur weiter gesteigert werden kann. Warum sollte Nehalem mit weiteren Innovationen (für diese Architektur) wie IMC und SMT nicht die Linie weiterführen?

Sehe ich eigentlich ähnlich.

Erinnert mich ein bisschen an die Spekulationen zum Prescott - großes hat man erwartet, einen "Pentium V", einen "neuen Prozessor".

Im Endeffekt wars nur ein Aufguss des Northwood mit zu langer Pipeline, mehr Cache und unerwartet krassen Leckströmen.
Die paar Features die er noch bekam (SSE3, später XD und EM64T) waren auch nichts bahnbrechendes.

Das soll jetzt nicht heißen, dass Nehalem ein Flopp wird - aber die Erwartung "völlig neue Architektur" wird wohl enttäuscht werden.
Ist aber nicht weiter schlimm, wenn er hohe Taktraten erreicht und noch dazu den integrierten Speichercontroller bringt.

dargo
2006-11-19, 12:36:30
Ganz ab davon hat ein IMC noch ein paar andere Vorteile, neben besserer Performance, z.B. Stromverbrauch (insbesondere bei Split Voltage, siehe AMDs pläne, die hier fast 5 Jahre voraus sind, naja, eher 6-7).
Er hat aber nicht nur Vorteile, siehe A64 und 4 Speicherriegel. Ich hoffe Intel löst das besser.

AnarchX
2006-11-19, 14:54:02
Wenn ich mir so die aktuellen Informationen anschauen zu Nehalem, kommen mir doch einige Fragen auf und der kleine Fuad:biggrin: in mir kommt auf so einige Gedankengänge:

Warum kommen Nehalem und Tukwila(Itanium-Nachfolger) gemeinsam mit dem CSI und einem IMC daher?
Weshalb wird nun plötzlich 4Cores/8Threads auch beim Nehalem genannt, was vorher schon mal im Zusammenhang mit Tukwila genannt wurde?
Warum hält man bei Nehalem an einem Codenamen fest, der für eine Netburst-CPU(die letze Evolutionsstufe von NetBurst) stand?

[!!INQ-Modus!!]
Alles in allem könnte man dahinter auch vermuten, dass nachdem Netburst vom technologischen Erfolg eher mässig war und sich für die Zukunft immer mehr Probleme ergaben(enorme Abwärme bei den anvisierten Taktraten) und AMD mit dem Hammer eine vielversprechende CPU-Architektur auf der Roadmap hatten, die Entscheidung fiel das man Tejas cancelte und vorerst Prescott(inkl. kleinen Weiterentwicklungen) als Endpunkt für Netburst setzte.

Weiterhin hatte man eine vielversprechende CPU aus Israel, die man hier nun einschieben konnte und mit der man sein teilweise angeschlagenes Image wieder aufbessern konnte.

Aber im insgeheimen hielt man doch an Netburst fest und überarbeitete diese Architektur nocheinmal grundlegend(IMC, CSI, ...) und holte sich hier zu Hilfe einige Ingenieure von der Firma DEC, die an der Entwicklung des legendären Alphas beteiligt waren, mit ins Boot.

Mit allen diesen Bemühungen versucht man nun 2008 mit Nehalem, eine Art "NetBurst der zweite Versuch" auf den Markt zu bringen in Form einer CPU, die ein X86-64/IA-64-Hybrid(nutzbar somit für nahezu alle Markt-Bereiche von Intel mit gewissen Modifikationen) ist, um dann mit Gesher schliesslich IA-64 als den Standard zu etablieren.
[/!!INQ-Modus!!]

Was meint ihr? Fudigster FUD?
War an Netburst absolut nichts brauchbares, dass es sich gelohnt hätte, hier nochmal anzusetzen?
Und wie sieht es mit IA-64 für den Consumer-Markt aus(in den alten NetBurst-Zeiten, war es ja durchaus geplant, dass irgenwann dazu kommen sollte)?

btw.
Fiel mir so in ein paar langweiligen Momenten heute ein... :D

Gast
2006-11-19, 17:13:40
- Für IA-64 fehlt die Softwareunterstützung im Consumer-Market. Das wir sich garantiert nicht in zwei Jahren ändern. Ein Prozessor ohne Software wäre tot, noch bevor er den Markt betreten hätte. Das weiß auch Intel.
- Ein Hybrid wäre wohl zu langsam. AMD ist ihnen zu dicht auf den Fersen.
- Netburst stand für viele Abwärme und hohe Taktfrequenzen. Netburst II kann nicht das Gegenteil sein, sonst ist es nicht mehr Netburst. Heute kannst du mit viel Abwärme und große Taktfrequenzen keine Blumentopf mehr gewinnen. Weder beim Endkunden, noch bei großen Computerfirmen.
- Wenn Nehalem eine neue Microarchtitektur wird, dann aber sicher nicht von IA-64 und auch nicht von der alten Netburst abgeleitet, sondern etwas ganz anderes, x86-64 kompatibel.

Iwan
2006-11-19, 17:29:58
- Netburst stand für viele Abwärme und hohe Taktfrequenzen. Netburst II kann nicht das Gegenteil sein, sonst ist es nicht mehr Netburst. Heute kannst du mit viel Abwärme und große Taktfrequenzen keine Blumentopf mehr gewinnen. Weder beim Endkunden, noch bei großen Computerfirmen.


Netburst stand auch mal für hohe Leistung und überlegene Architektur (P4C vs AthlonXP). Ob Intel die hohe Leistung durch hohe ProMhz-leistung oder durch hohe MHz an sich erreicht kann mir als User doch schnurzegal sein. Und wenn Intel meint, das sie bis 2008 die Probleme von Netburst (hohe Abwärme) in den Griff bekommen ohne die Taktbarkeit einzubüssen können die doch wieder eine Netburst-CPU rausbringen.

Gast
2006-11-19, 21:20:32
Netburst stand auch mal für hohe Leistung und überlegene Architektur (P4C vs AthlonXP). Ob Intel die hohe Leistung durch hohe ProMhz-leistung oder durch hohe MHz an sich erreicht kann mir als User doch schnurzegal sein. Und wenn Intel meint, das sie bis 2008 die Probleme von Netburst (hohe Abwärme) in den Griff bekommen ohne die Taktbarkeit einzubüssen können die doch wieder eine Netburst-CPU rausbringen.
Wenn Intel die 'Quadratur des Kreises', d.h. ein Netburst-Derivat mit einer im Vergleich zum Conroe geringen Verlustleistung bei deutlich höherer Taktfrequenz doch hinbekommt! - Mir soll es recht sein. Nur glauben mag ich nicht daran.

kevsti
2006-11-19, 21:52:08
Man kann zwar an sich eig. viel Optimieren für die ProMHz-Leistung, aber irgendwann wird das auch mehr oder weniger nicht mehr Produktiv, nach dem "ProMHz" Boom (vorallen durch AMD) in den letzten paar Jahren, wäre es schon denkbar, das die CPU Industrie sich nun wieder mehr auf MHz (und Cores) legt als weiter mehr aus einen MHz zuschlagen.. Ich mein, was wäre ein Conroe mit gleichen Taktraten nur mit weiteren Optimierungen (z.B IMC, Hyperthreading etc..) ein Hammer CPU? könnte sein, aber was wäre ein "Conroe" mit weitaus höheren Taktraten (vlt. sogar bis zu 100% und noch mehr) und einigen Optimierungen (IMC, Hyperthreading etc..).. genau ein Ultra CPU ;)

Von daher denk ich schon das Intel auch weiterhin mehr oder weniger an NetBurst fest hält, an sich ist NetBurst auch ne Super Architektur, das leider seehr viele Probleme hat, aber wenn Intel diese größtenteils fixt (und zeit hatten sie ja genug) könnte ein NetBurst-II schon ziemlich real sein.

Hvoralek
2006-11-19, 22:49:57
Warum hält man bei Nehalem an einem Codenamen fest, der für eine Netburst-CPU(die letze Evolutionsstufe von NetBurst) stand?[/I]Ist denn sicher, dass der Ur- Nehalem eine Netburst- CPU werden sollte? Es gabe damals iirc ernsthafte Spekulationen, das könne ein IA64 sein. Ich halte das auch für nicht unwahrscheinlich, weil Intel spätestens 2006 einen 64- Bitter gebraucht hätte und sich anscheinend mit einer 64- bit- Erweiterung für x86 erst beschäftigt hat, als AMD mit einer ankam (und zwar Jahre vor dem geplanten Nehalem).

Hat der jetzige Nehalem damit etwas zu tun? Von den Roadmaps aus der Zeit ist ansonsten nichts übrig geblieben. Allerdings auch keine Codenamen, wohingegen Intel gerde diesen einen weiterverwendet. Und vom "alten" Nehalem wurde damals ein großer Umbruch erwartet, vlt. hat Intel ja gerade alles davor abgeschnitten und den Teil danach weiterverfolgt. Ob wirklich noch etwas vom altem Nehalem im neuen steckt, wird man aber wohl nie genau sagen können, weil über den ersten fast nichts bekannt ist/ war.

Ist der Neue nun ein IA64? Denkbar, aber mMn sehr ziemlich unwahrscheinlich. Der große Nachteil eines Architekturwechels wäre natürlich, dass x86- Code darauf nicht wirklich gut läuft. Es ist wegen des Adressraums nicht mehr erforderlich. Wenn Intel es aber erst einmal geschafft hat, Software dafür in den Markt zu drücken, bekommt AMD Probleme.

Gast
2006-11-20, 02:26:53
Netburst wird es nicht sein, da könnt ihr euch alle sicher sein.

Wie soll das denn auf einmal gehen? Es besteht nicht nur das Problem der hohen Taktraten, was man in den Griff kriegen müsste, sondern man muss jetzt auch schon mit mehreren Cores rechnen.

4 oder 8x Netburst mit hohem Takt auf einem Die? Nee, also das geht wirklich zu weit. Sehr unwahrscheinlich.

Auch Intel kann die Physik nicht außer Kraft setzen, was hoch getaktet ist, verbraucht entweder viel Strom oder ist in der Pro-MHz-Leistung ziemlich schwach.

Außerdem dürften sich noch andere Probleme einstellen. Was ist mit dem Cache? Ich bezweifle das man solch große Mengen hinzufügen könnte, wenn er größer als die heutigen sind.

Gast
2006-11-22, 19:48:35
Er hat aber nicht nur Vorteile, siehe A64 und 4 Speicherriegel. Ich hoffe Intel löst das besser.

mit ziemlicher sicherheit. mit DDR2 und erst recht DDR3 sollte es wegen der genaueren spezifikationen überhaupt keine probleme geben.

Gast
2006-11-22, 19:57:42
Was meint ihr? Fudigster FUD?
War an Netburst absolut nichts brauchbares, dass es sich gelohnt hätte, hier nochmal anzusetzen?
Und wie sieht es mit IA-64 für den Consumer-Markt aus(in den alten NetBurst-Zeiten, war es ja durchaus geplant, dass irgenwann dazu kommen sollte)?


meines wissens sollte ja nehalem eine art netburst-nachfolger sein.
es wäre also durchaus vorstellbar dass der kommende nehalem durchaus noch etwas mit dem ur-nehalem zu tun hat, gerade da es der einzige "alte" codename in den neuen roadmaps ist spricht durchaus einiges dafür.
eine längere pipeline und damit eine bessere taktbarkeit muss nicht zwangsweise in einer geringen leistung/mhz resultieren (die core2 pipeline ist auch länger als jene von core1, trotzdem hat erster die höhere leistung/MHz)

es wäre durchaus vorstellbar dass der nehalem gute taktbarkeit und gute leistung/MHz vereinen kann.

IA64 halte ich aber für eher unwahrscheinlich, für was bräuchte man dann noch einen itanium?

Iwan
2006-11-22, 20:27:16
IA64 halte ich aber für eher unwahrscheinlich, für was bräuchte man dann noch einen itanium?

Nehalem für Einzelprozessorsysteme und Itanium eben für größere Maschinen... Xeon sollte ja irgendwann auslaufen und komplett durch Itanium ersetzt werden. Aber soweit ist is ja nie gekommen...

Gast
2006-11-22, 20:46:24
Nehalem für Einzelprozessorsysteme und Itanium eben für größere Maschinen... Xeon sollte ja irgendwann auslaufen und komplett durch Itanium ersetzt werden. Aber soweit ist is ja nie gekommen...

naja, ein xeon kommt ja eigentlich immer aus der gleichen produktion wie die desktop-cpus, oder haben diese eigene codenamen?

Iwan
2006-11-22, 20:51:31
naja, ein xeon kommt ja eigentlich immer aus der gleichen produktion wie die desktop-cpus, oder haben diese eigene codenamen?

Die aktuellen Xeons sind ja auch noch X86 CPUs, nur hätte man wie geplant in allen Segmenten IA64 durchgesetzt, wären die Xeons überflüssig geworden.

(+44)
2006-11-23, 20:53:47
naja, ein xeon kommt ja eigentlich immer aus der gleichen produktion wie die desktop-cpus, oder haben diese eigene codenamen?

Die Xeons basieren zwar immer auf der aktuellen Desktop-CPU, (Früher Pentium II/III/4 und nun Core2Duo) hatten aber teilweise einige Vorteile, wie L3-Cache und konnten auf ein größeres Featureset zurückgreifen.

Deshalb hatten sie auch eigene Codenamen (Beispiel: Northwood/Prestonia oder Prescott/Nocona).

(Der Prestonia hat Hyper-Threading lange vor dem Northwood freigeschaltet bekommen, der Nocona hatte vor dem Prescott EM64T und Demand-Based-Switching (DBS))

Hvoralek
2006-11-23, 20:58:13
Die Xeons basieren zwar immer auf der aktuellen Desktop-CPU, (Früher Pentium II/III/4 und nun Core2Duo) hatten aber teilweise einige Vorteile, wie L3-Cache und konnten auf ein größeres Featureset zurückgreifen.

Deshalb hatten sie auch eigene Codenamen (Beispiel: Northwood/Prestonia oder Prescott/Nocona).

(Der Prestonia hat Hyper-Threading lange vor dem Northwood freigeschaltet bekommen, der Nocona hatte vor dem Prescott EM64T und Demand-Based-Switching (DBS))Bei Woodcrest gibt es nichts außer dem höheren FSB, oder?

Nosehole
2006-11-23, 21:17:39
Prescott(inkl. kleinen Weiterentwicklungen) als Endpunkt für Netburst

Ich dachte immer der Prescott 2M hieße Irvindale (Den Gallatin hat auch keiner Northwood 2M genannt) ;D

Ansonsten würd ich meinen, dass die IA-64 idee mindestens so beängstigend ist, wie sie auch kompliziert zu realisieren sein wird...

Beängstigend, weil IA-64 Intel only wäre und AMD im Gegensatz zu x86 bei der Architektur außen vor bleiben müsste -> keine Zukunft für AMD

Kompliziert, weil man M$ überzeugen müsste ihr 0815 Windoze für IA-64 zu programmieren... kann mir nicht vorstellen, dass Intel IA-64 implementiert nur um letztendlich 64bit x86 zu emulieren...

Hvoralek
2006-11-23, 21:22:39
IAnsonsten würd ich meinen, dass die IA-64 idee mindestens so beängstigend ist, wie sie auch kompliziert zu realisieren sein wird...Interessant ist sie aber auch.

Beängstigend, weil IA-64 Intel only wäre und AMD im Gegensatz zu x86 bei der Architektur außen vor bleiben müsste -> keine Zukunft für AMDGab es nicht vor einiger Zeit mal Gerüchte um AMD und Alpha (inzwischen ja auch x86- kompatibel). Ich will gar nicht daran denken, was passieren würde, wenn in ein paar Jahren Intel mit x86- kompatiblem IA64 ankommt und AMD mit x86- kompatiblem Alpha. Dann könnte man sich die Architekturwechsel gleich sparen. Naja, zumindest letzteres ist doch arg unwahrscheinlich.

Kompliziert, weil man M$ überzeugen müsste ihr 0815 Windoze für IA-64 zu programmieren... kann mir nicht vorstellen, dass Intel IA-64 implementiert nur um letztendlich 64bit x86 zu emulieren...Gibt es nicht schon jetzt eine Windows- Server- Version, mit der Intanium- Systeme betrieben werden?

(+44)
2006-11-23, 22:08:07
Bei Woodcrest gibt es nichts außer dem höheren FSB, oder?

DP-Betrieb ist freigeschaltet - viel wichtiger aber - 2 Woodcrests haben einen DIB (Dual Independent Bus), und Quad-Channel FB-DIMMs! (Auf Bensley-Plattform)

Wobei das nicht wirklich ein "Feature" der CPU, aber des Chipsatzes ist - ein Quadcore auf 975X (Averill) hat nur EINEN FSB für alle 4 Kerne.
Deshalb auch QuadChannel-Ram.

Und die kleineren Woodcrests haben nur FSB 1066.

BlackBirdSR
2006-11-23, 22:13:22
Gab es nicht vor einiger Zeit mal Gerüchte um AMD und Alpha (inzwischen ja auch x86- kompatibel). Ich will gar nicht daran denken, was passieren würde, wenn in ein paar Jahren Intel mit x86- kompatiblem IA64 ankommt und AMD mit x86- kompatiblem Alpha. Dann könnte man sich die Architekturwechsel gleich sparen. Naja, zumindest letzteres ist doch arg unwahrscheinlich.


Also ein Gerücht über x86-Alpha gabs eigentlich nicht.
Die Alphas sind mehr oder weniger tot, und auch ihre ISA. Es würde nichts bringen eine CPU Alpha-kompatibel auszulegen.
Zumal die meisten Alpha-Leute sich zwischen AMD und Intel aufgeteilt haben.

IA-64 kann jetzt schon x86-Code ausführen ;)

Gast
2006-11-23, 22:19:39
Beängstigend, weil IA-64 Intel only wäre und AMD im Gegensatz zu x86 bei der Architektur außen vor bleiben müsste -> keine Zukunft für AMD


wieso gibt es zwischen den beiden nicht ein technologieabkommen?
ich kann mir nicht vorstellen dass AMD keine IA64-cpu bauen dürfte.

Hvoralek
2006-11-23, 22:21:08
IA-64 kann jetzt schon x86-Code ausführen ;)Alpha nicht auch? Ich meine, Sun hätte da eine (Ich meine sogar Hardware-) Emulation gebastelt. Als es für die Architektur schon zu spät war.

BlackBirdSR
2006-11-23, 22:23:22
Alpha nicht auch? Ich meine, Sun hätte da eine (Ich meine sogar Hardware-) Emulation gebastelt. Als es für die Architektur schon zu spät war.

Jetzt vermischt du aber alles irgendwie.
SUN hat mit den Alphas nichts zu tun.

Die Alphas selbst hatten eine x86-Emulation das stimmt. Aber das ist schon eine ordentliche Weile her und stand nicht im Zusammenhang mit dem Ende der Alphas.
Intel ist beim IA-64 von einer HW-Ausführung von x86 Code zu einem Software x86-Layer gewechselt der auf Windows aufsetzt.

Hvoralek
2006-11-23, 22:36:12
Jetzt vermischt du aber alles irgendwie.
SUN hat mit den Alphas nichts zu tun.

Die Alphas selbst hatten eine x86-Emulation das stimmt. Aber das ist schon eine ordentliche Weile her und stand nicht im Zusammenhang mit dem Ende der Alphas.
Intel ist beim IA-64 von einer HW-Ausführung von x86 Code zu einem Software x86-Layer gewechselt der auf Windows aufsetzt.Ich sollte mit meinem Halbwissen zu dem Thema wohl besser die Klappe halten :biggrin:

Coda
2006-11-23, 22:41:51
Aber es gab mal zumindest einen Emu-Layer für PA-RISC und Alpha auf Itanium.

stav0815
2006-11-24, 13:04:57
Gibt es nicht schon jetzt eine Windows- Server- Version, mit der Intanium- Systeme betrieben werden?

Ja. Windows XP 64bit Eiditon. Übrigens nichtmehr supported by M$.

AnarchX
2006-11-24, 13:09:38
Ja. Windows XP 64bit Eiditon. Übrigens nichtmehr supported by M$.

Longhorn soll AFAIK doch auch Support für IA-64 haben:
IA-64 will be supported in the Datacenter Edition of Windows Server "Longhorn"
http://en.wikipedia.org/wiki/Windows_Server_%22Longhorn%22

Coda
2006-11-24, 13:11:54
Windows 2003 Server gibts auch noch für Itanium.

Nosehole
2006-11-25, 02:28:51
Aber was solls bringen eine CPU in IA-64 zu bauen, wenn ich dann erst wieder x86 emulieren muss?! Das is doch pure Geldverschwendung! So schnell kann der Prozessor gar nicht sein, dass sich die Architektur lohnen würde... da bau ich doch lieber gleich ne x86 CPU...

Iwan
2006-11-25, 11:05:15
Aber was solls bringen eine CPU in IA-64 zu bauen, wenn ich dann erst wieder x86 emulieren muss?! Das is doch pure Geldverschwendung! So schnell kann der Prozessor gar nicht sein, dass sich die Architektur lohnen würde... da bau ich doch lieber gleich ne x86 CPU...

Ich denke solange X86 ausreichend schnell emuliert wird, also nicht wesentlich langsamer als auf richtigen X86-CPUs und dann die IA64-Programme enorm an Speed gewinnen ist da durchaus ein Markt vorhanden. Und die Schiene fährt man dann ein paar Jahre und dann sind die CPUs dann nur noch IA64-only.

Nosehole
2006-11-26, 22:08:20
Du brauchst also ein OS, das x86 und IA-64 gleichzeitig ausführen kann...
Ich bezweifle stark, dass M$ bis 2008 sowas auf die Beine stellen kann - Ergo wäre so ein Prozessor nur für den professionellen Sektor sinnvoll (auf dem man Linux oder wenigstens Windoze Server für IA-64 nutzt).

So ein Architekturwechsel muss IMO von langer hand geplant werden!

AnarchX
2006-11-26, 22:11:31
So ein Architekturwechsel muss IMO von langer hand geplant werden!

Nunja, der Codename Nehalem geistert nun schon seit gut 6 Jahren herum...;)
Aber einfach mal warten, was demnächst noch so durchsickert, es scheint jedenfalls noch spannend zu werden.

Gast
2006-11-26, 22:28:59
Du brauchst also ein OS, das x86 und IA-64 gleichzeitig ausführen kann...


nö, nur eine cpu die es kann

Nosehole
2006-11-27, 00:06:01
nö, nur eine cpu die es kann

Wenn ich (wie Iwan vorgeschlagen hat) IA-64 Programme ausführen können will schon - wenn ich hingegen sowieso nur x86 Programme laufen will, brauch ich (wie ich schon gesagt hab) keine IA-64 CPU, die x86 erst emulieren muss!

dargo
2006-11-30, 17:26:38
mit ziemlicher sicherheit. mit DDR2 und erst recht DDR3 sollte es wegen der genaueren spezifikationen überhaupt keine probleme geben.
Naja, das glaube ich erst wenn ich es sehe. :)
Man sieht heute schon wie wählerisch ein 965-er Chipsatz ist (sein kann), und das sogar ohne einen IMC.

Gast
2006-11-30, 18:41:09
Naja, das glaube ich erst wenn ich es sehe. :)
Man sieht heute schon wie wählerisch ein 965-er Chipsatz ist (sein kann),

ist eigentlich bei den heutigen DDR2-chipsätzen überhaupt kein problem, da kann man die speicher munter mischen, es läuft immer.

AnarchX
2006-12-18, 11:13:58
Bloomfield: 4GHz+ und 8MB L2 shared, TDP <130W
http://vr-zone.com/index.php?i=4387

dildo4u
2006-12-18, 11:19:03
4 Cores 8 Threads @4GHZ Hammer schon wenn das Ding "nur" die pro Mhz Leistung der aktuellen Core 2 Duo hätte wäre es eine top CPU aber Intel wird die pro/Mhz Leistung whol noch steigern können.

HOT
2006-12-18, 11:46:28
4 Cores 8 Threads @4GHZ Hammer schon wenn das Ding "nur" die pro Mhz Leistung der aktuellen Core 2 Duo hätte wäre es eine top CPU aber Intel wird die pro/Mhz Leistung whol noch steigern können.
Jeder einzelne Kern wird ganz sicher nicht die Effizienz eines Core2 Kerns haben. Die hohen Taktraten, HTT und anderes riecht schon wirklich ganz schön stark nach Netburst. Auch die Integration von IA64 ist ja für Netburst angedacht gewesen. Der Core2 sollte für Intel den Ruf retten, könnte sich aber als Boomarang erweisen, eben weil er so schnell ist. Die IA64 Integration (sollte es wirklich kommen) frisst sicher gut Leistung. Nur irgendwas muss Intel machen, die stehen stark unter Zugzwang. Auch wenn der Core2 das Problem momentan das gut überdeckt, so hat Intel doch dieses Problem, dass sie einfach keinen technologischen Vorsprung vor AMD in Sachen x86 und vor allem x86-64 mehr haben. Sogar bei der Plattform ist man arg ins Hintertreffen geraten, dank der null-toleranz Politik, die man sich zu Monopolzeiten angeeignet hat. Faktisch sieht es doch inzwischen wohl eher so aus, dass Intel von einem Konsozium aus AMD, IBM und anderen in vielen Bereichen mal eben überholt wurde. In der Fertigung hat man noch einige Vorteile, aber auch nur wenige (Strukturbreite ist schließlich auch nicht alles in dem Bereich). Wenn Intel irgendwann wieder den Markt beherrschen will, geht das nur mit einer neuen Architektur mit einem weniger engen Korsett als x86 bietet, zumindest könnte ich mir gut vorstellen, dass Intel so denkt. Und tatsächlich, wenn diese Rechnung aufgeht hat AMD ein dickes Problem, sie müssten dann mal eben eine abwärtskompatible VLIW Architektur aus dem Hut zaubern, die die gleichen Optimierungen wie Intel nutzt (wir wissen ja bekanntlich wie abhängig das von Softwareoptimierungen und auch durch die Compiler ist), alles auf einem DIE unterbringt und dazu auchnoch in x86-64 schnell sein muss.
Bedeuten würde das, dass AMD jetzt schon an einer solchen Architektur bauen muss um ein Konkurrenzprodukt zu bieten. Ich denke, die Politik der Spezialprozessoren (ich nenn das jetzt einfach mal so) seitens AMD , IBM und Sun (Stichwort HTX) ist der erste Vorbote, der als vorbeugende Massnahme in diese Richtung zeigt.

dildo4u
2006-12-18, 12:17:39
Was soll an 4 Cores mit 4ghz in 45nm schon wieder so umöglich sein? extrem Overclocker kommen auf 5GHz mit den aktuellen 65nm Kentsfields.Intel wird das Beste von beiden Architekturen vereinen.

http://www.overclockingpin.com/24,011%20mark.jpg

HOT
2006-12-18, 12:43:41
Was soll an 4 Cores mit 4ghz in 45nm schon wieder so umöglich sein? extrem Overclocker kommen auf 5GHz mit den aktuellen 65nm Kentsfields.Intel wird das Beste von beiden Architekturen vereinen.

http://www.overclockingpin.com/24,011%20mark.jpg

Unmöglich ist nichts, nur unwahrscheinlich. Es geht um 4 Kerne mit SMT und VLIW auf 4 GHz, und das ist mit aller liebe nicht so effizient hinzubekommen wie der letzt P6 Abkömmling das schafft. Und wiesst du was Übertaktungsergebnisse zählen? Richtig! Nichts.

BlackBirdSR
2006-12-18, 13:09:58
Unmöglich ist nichts, nur unwahrscheinlich. Es geht um 4 Kerne mit SMT und VLIW auf 4 GHz, und das ist mit aller liebe nicht so effizient hinzubekommen wie der letzt P6 Abkömmling das schafft. Und wiesst du was Übertaktungsergebnisse zählen? Richtig! Nichts.

Gehst du davon aus, dass Nehalem kein Core2 Abkömmling ist?
Eine Netburst(2) CPU wird es meiner Meinung nach nicht sein. Sondern ein Core2-Nachfiolger.
Auch glaube ich nicht an einen IA64 Part, und selbst, wäre dieser vom Rest entkoppelt.

Ich verstehe also nicht ganz worauf du hinauswillst?!?

HOT
2006-12-18, 13:21:44
Gehst du davon aus, dass Nehalem kein Core2 Abkömmling ist?
Eine Netburst(2) CPU wird es meiner Meinung nach nicht sein. Sondern ein Core2-Nachfiolger.
Auch glaube ich nicht an einen IA64 Part, und selbst, wäre dieser vom Rest entkoppelt.

Ich verstehe also nicht ganz worauf du hinauswillst?!?

Wenn man von den bisherigen Gerüchten ausgeht, hört man viel über IA64 und viel über hohe Taktraten. Zudem HTT - wenn man nach den Gerüchten geht ist Netburst wahrscheinlich. Ich denke, dass sich Netburst weiter optimieren lässt als der Core2 und das Intel schon einiges in die Entwicklung Netburst + IA64 gesteckt hat und das auch verwenden will. Feststellung: Warum ist der Thread nicht im Spekuforum, wo er hingehört? ;).

BlackBirdSR
2006-12-18, 14:10:47
Wenn man von den bisherigen Gerüchten ausgeht, hört man viel über IA64 und viel über hohe Taktraten. Zudem HTT - wenn man nach den Gerüchten geht ist Netburst wahrscheinlich. Ich denke, dass sich Netburst weiter optimieren lässt als der Core2 und das Intel schon einiges in die Entwicklung Netburst + IA64 gesteckt hat und das auch verwenden will. Feststellung: Warum ist der Thread nicht im Spekuforum, wo er hingehört? ;).

Von IA-64 Integration war doch schon lange nichts mehr zu hören oder?
Zumal dürften die Entwickler des P7 Teams in alle Winde zerstreut und von Intel zu einem neuen Projekt gesteckt worden sein. Ich kann mir nicht vorstellen, dass man an Netburst als µarchitektur weiter gearbeitet hat.
Multithreading per se ist keinerlei Indikation für Netburst. Es scheint ziemlich logisch, dass Intel die Prozessoren mit diesem fast kostenlosen Performancesprung ausstatten würde.
Wir wissen auch, dass Core2+ bis über 4GHz geplant wurde. Im Gegensatz zu Banias dürfte Intel kaum einen Schaltkreis unangetastet gelassen haben. Dann fragt man sich, ob man wirklich jetzt schon eine neue µArchitektur bringt? Core2 und dessen Abkömmlinge waren dann aber verdammt kostspielige Lückenfüller. Ich bin auch der Meinung, dass Core2D nur eine Übergangs(not)Lösung ist. Aber nicht so, und schon gar nicht bis Netburst wieder restauriert ist. Zudem gibt Intel ja für den Nehalem-Nachfolger eine neue µArchitektur an. Schon wieder ein Wechsel? Vielleicht wieder zu einem P6-Nachfahren zurück? Interleaving? ;)


Und warum sollten wir jetzt eine IA-64 Integration sehen? X86-64 ist gerade im Kommen und läuft ganz prächtig. Intel hat eine performante Implementation auf die Beine gestellt und die passenden Xeons gibt es seit einiger Zeit. Für IA-64 gibt es dagegen keinen Markt im Segment der Xeons.
Vielleicht sehen wir später einmal ein MCT mit x86 und IA-64 auf einem DIE. Aber das ist vorher doch irgendwie unnütz oder nicht?
Eine direkte Integration von IA-64 in eine x86 halte ich gar für pure Verschwendung. Alleine die notwenigen Modifikationen wären unglaublich kostspielig. Und eine einfache Übersetzung dermaßen langsam. Niemand würde einen Nehalem kaufen um seinen IA-64 Code damit auszuführen. Und niemand würde eine IA-64 CPU kaufen, und dann einen großen Teil x86 Code ausführen wollen.

Es ist nicht sicher wie es bei Intel aussieht. Aber IA-64 scheint nicht besonders hoch im Kurs zu stehen für ein x86-replacement.

Hvoralek
2006-12-18, 15:07:14
Multithreading per se ist keinerlei Indikation für Netburst. Es scheint ziemlich logisch, dass Intel die Prozessoren mit diesem fast kostenlosen Performancesprung ausstatten würde.Wie aufwendig ist HTT denn? Und hängt nicht der Nutzen stark von der Effizienzt der Architektur ab? Bei Netburst bringt das schon mal 15 - 20% Leistung. Aber da liegen auch große Teile der CPU brach, die man so nutzen kann; der Effekt bei Conroe dürfte wesentlich geringer sein. Zumindest wohl so gering, dass es Intel die Implementation nicht wert war. Oder meinst Du, man hätte es nicht, das noch zu integrieren?

Um das klarzustellen: Ich glaube natürlich auch nicht an eine Netburst- Reinkarnation. Ein Netburst- Vierkerner @ 4 GHz wäre langsamer als ein Q6700.

Gast
2006-12-18, 15:12:36
Zumindest wohl so gering, dass es Intel die Implementation nicht wert war. Oder meinst Du, man hätte es nicht, das noch zu integrieren?Reine Spekulation: Was wäre wenn ein Hyperthreading-Derivat schon längst im Core 2 schlummert und nur nicht aktiviert ist, sowie es bei den ersten P4 auch war?

aylano
2006-12-18, 16:12:39
Bloomfield: 4GHz+ und 8MB L2 shared, TDP <130W
http://vr-zone.com/index.php?i=4387

Die CPU hat doch schon einen integrierten Memory-Controller.
Warum braucht der dann noch so viel Cache-Speicher???
Wie wenig der Cache Einfluss bei einem intergrierten Memory-Controller hat, sieht man ja schön beim Athlon64er.

Komisch finde ich, warum Intel nicht jetzt schon die 3,2 Ghz CPU rausbringt.
Immerhin will Intel schon im Herbst einen 3,7 Ghz Kenfield (oder so) rausbringen.
Und Große Sprünge sind ja auch nicht so gut.

Gast
2006-12-18, 18:49:27
Warum braucht der dann noch so viel Cache-Speicher???

Weil die Anwendungen immer anspruchsvoller werden und das ein Produkt der Zukunft ist. Außerdem ist das nicht viel, sondern wenig Cache! Shared!
4 CPUs zu je 4 MB. Jede CPU also bis zu 4 MB, aber in der Regel eher 2 MB, wenn alle Kerne ausgenutzt werden. Das ist nicht viel.

Wie wenig der Cache Einfluss bei einem intergrierten Memory-Controller hat, sieht man ja schön beim Athlon64er.

Unsinn. Das hängt von der Architektur ab. Athlon 64 und Core 2 kann man überhaupt nicht miteinander vergleichen. Nur Intel weiß, ob der große Cache auch bei den zukünftigen Produkten einen nutzen hat.

Komisch finde ich, warum Intel nicht jetzt schon die 3,2 Ghz CPU rausbringt.

Wozu? Sie dominieren alles.

Gast
2006-12-18, 18:50:29
Was soll an 4 Cores mit 4ghz in 45nm schon wieder so umöglich sein? extrem Overclocker kommen auf 5GHz mit den aktuellen 65nm Kentsfields.

Der hat aber geschummelt und alle Kerne außer einen deaktiviert. Sonst wäre das Feld unten nicht ausgegraut!

dildo4u
2006-12-18, 18:52:42
Der hat aber geschummelt und alle Kerne außer einen deaktiviert. Sonst wäre das Feld unten nicht ausgegraut!Die Cores waren aktiv weil man beim 3Dmark 06 durch mher Cores eine höhere Score bekommt.Eine 7000 cpu Score kann man nicht mit einem oder zwei Cores erreichen.

Chrisch
2006-12-18, 19:34:00
Der hat aber geschummelt und alle Kerne außer einen deaktiviert. Sonst wäre das Feld unten nicht ausgegraut!
das das "ausgegraut" ist, ist normal! Weil es nur eine CPU ist. Daneben steht aber "Cores 4 | Threads 4".

Gruß
Chris

BlackBirdSR
2006-12-18, 20:36:14
Wie aufwendig ist HTT denn? Und hängt nicht der Nutzen stark von der Effizienzt der Architektur ab? Bei Netburst bringt das schon mal 15 - 20% Leistung. Aber da liegen auch große Teile der CPU brach, die man so nutzen kann; der Effekt bei Conroe dürfte wesentlich geringer sein. Zumindest wohl so gering, dass es Intel die Implementation nicht wert war. Oder meinst Du, man hätte es nicht, das noch zu integrieren?

Aber uUReinkarnation. Ein Netburst- Vierkerner @ 4 GHz wäre langsamer als ein Q6700.

SMT aka Hyperthreading ist nicht sehr aufwändig. Gegenüber so manch anderen Änderungen die man so vornehmen muss um die Performance zu steigern, ist es sogar richtig billig.
Das gilt auch für andere Formen von Multithreading. Ob es jetzt SMT ist das nehalem bekommt oder etwas Anderes...

Mit dem Pentium4 hat das wenig zu tun. Ich würde einmal behaupten, dem bringt das oftmals gar nicht so viel wie es könnte, weil er eh genug Probleme hat. Sieht man sich eine CPU wie den Power6 von IBM an, so stellt man fest, dass IBM dort immense Performancegewinne durch MT angibt. Und das obwohl sicher jeder sagen würde, dass es eine breite und sehr gut ausgelastete CPU ist. Stimmt, aber es geht eben noch viel viel mehr.

So oder so.. Multithreading bringt Performance ohne viel zu kosten. Und das lässt man sich nicht entgehen.

Gast
2006-12-18, 20:52:04
das das "ausgegraut" ist, ist normal! Weil es nur eine CPU ist. Daneben steht aber "Cores 4 | Threads 4".

Eine Verschlimmbesserung des Programms also... ist doch scheiße, wenn nur noch einer angezeigt wird!

http://666kb.com/i/ak7bzvbomc0vqy2nf.jpg

Chrisch
2006-12-18, 21:03:26
Eine Verschlimmbesserung des Programms also... ist doch scheiße, wenn nur noch einer angezeigt wird!

http://666kb.com/i/ak7bzvbomc0vqy2nf.jpg
Bei der alten version wird doch auch nur eine CPU angezeigt

"CPU #1 (Core 1)"
"CPU #1 (Core 2)"

Beim neuen wird halt einfach daneben angezeigt wieviele Cores die CPU #1 hat.

Sehe da kein Problem drin, ist ja deutlich zu erkennen wieviele Cores die CPU besitzt.

Gast
2006-12-18, 21:13:20
Bei der alten version wird doch auch nur eine CPU angezeigt

Damals wars eine CPU, aber zwei oder vier Cores!

Bei der jetzigen sehe ich da nur Nachteile: Ich kann z.B. nicht erkennen, wie der Cache aufgeteilt ist. 2x 4096 KB, toll. Aber welche CPU nutzt welchen und wieviel? Steht da nicht (für Laien). Stand aber mal da!

Außerdem ist es nur noch eine Frage der Zeit, bis die ersten CPUs kommen, die die Cores unterschiedlich takten (falls das nicht jetzt schon der Fall ist, mit den minimalen Abweichungen).

Chrisch
2006-12-18, 21:20:35
Damals wars eine CPU, aber zwei oder vier Cores!

Bei der jetzigen sehe ich da nur Nachteile: Ich kann z.B. nicht erkennen, wie der Cache aufgeteilt ist. 2x 4096 KB, toll. Aber welche CPU nutzt welchen und wieviel? Steht da nicht (für Laien). Stand aber mal da!

Außerdem ist es nur noch eine Frage der Zeit, bis die ersten CPUs kommen, die die Cores unterschiedlich takten (falls das nicht jetzt schon der Fall ist, mit den minimalen Abweichungen).
Ich weiß nicht wo dein Problem ist, aber das neue CPU-Z zeigt noch immer die selben
Daten wie die alte Version, nur etwas kompakter und übersichtlicher.

Gast
2006-12-18, 21:24:38
Daten wie die alte Version, nur etwas kompakter und übersichtlicher.

Aber nicht so lange das Feld ausgegraut ist. Wäre ich Laie und kann unten nicht mehr die Cores einzelnd auswählen, so käme ich niemals auf die Idee, das ich bei einem Quadcore "2x4096 KB" als "jede CPU bis zu 4 MB" oder ~2 MB für jeden Kern (wenn alle aktiv sind) auffassen soll.
Ich würde wahrscheinlich so dumm sein und 2x4096 KB rechnen und dann in Foren von 8 MB reden. Das war bei der alten Version ja nicht.

In diesem Sinne also ein Downgrade, aber ist ja auch egal jetzt ;)

Chrisch
2006-12-18, 21:43:58
Das problem wäre aber auch, das bei jedem Kern 4MB angezeigt werden würden...

für nen Laie würde es dann aussehen wie 4x4MB was nu auch wieder nicht stimmt.

4x2MB wäre genauso falsch, denn die Core´s nutzen unterschiedlich viel, kommt
halt drauf an wieviel jeder einzelne gerade benötigt (also 2 Core´s haben insg. 4MB
shared Cache zur verfügung).

Gruß
Chris

aylano
2006-12-19, 02:11:11
Wozu? Sie dominieren alles.
Ich hab mir mal die Sache genauer überlegt.
Der Performance-Unterschied zwischen FX62 und X6800 wird wahrscheinlich auch nicht viel größer/kleiner sein als K8L-3Ghz zu Yorkfield 3,7 Ghz.
Also, ist es doch nicht so komisch, wie ich zuerst dachte.

Unsinn. Das hängt von der Architektur ab.
Aha, und weiß jemand, warum die Core2-Architektur trotz integrierter Memory-Controller mehr Cache braucht als die A64-Architektur???

Coda
2006-12-19, 02:24:41
Hä? Der Core 2 hat doch keinen integrierten Speichercontroller...

BlackBirdSR
2006-12-19, 10:23:33
Hä? Der Core 2 hat doch keinen integrierten Speichercontroller...

Er meinte nicht Core2D sondern Bloomfeld.

@aylano:
Es geht nicht darum, dass man Cache braucht. Es geht darum aus wieviel Cache man Nutzen (auch hinsichtlich Kosten) ziehen kann. Der K8 ist da eben nicht so effektiv wie der Core2 und wahrscheinlich dessen Nachfolger. Diese haben einen sehr schnelle L2-Cache und können diesen auch sehr gut nutzen.

Gerade für Aufgaben die eine 8 Thread Server-CPU bewältigen darf, kann man nie genug Cache haben.

Gast@aylano
2006-12-19, 11:15:44
@Coda
Stimmt. Ich meinte natürlich den Core2-Nachfolger.

@BlackBirdSR
Okey danke, jetzt kann ich mir ein bischen mehr vorstellen.

[](-__-)[]
2006-12-20, 03:06:18
Mal eine Frage.

Der Sockel P hält mit den Napa Refresh " Santa Rosa", gegen März 2007, Einzug.

Demnach wird der Nehaelem doch auf den Sockel P laufen, oder? Alles andere, wäre ja wohl ein schlechter Witz!

AnarchX
2006-12-20, 09:31:43
(-__-)[]']Mal eine Frage.

Der Sockel P hält mit den Napa Refresh " Santa Rosa", gegen März 2007, Einzug.

Demnach wird der Nehaelem doch auf den Sockel P laufen, oder? Alles andere, wäre ja wohl ein schlechter Witz!

Was hat das mit Nehalem zu tun? :|

Santa Rosa mit Sockel P ist die zukünftige Notebook-Platform für Core2 Ableger, also eine Evolution von Centrino.

Nehalem wird 2008 im Desktop/Server-Segment starten und wenn Intel es strikt mit dem IMC durchzieht brauch es dann folglich für alle Segmente neue Plattformen.

=Floi=
2006-12-22, 06:50:08
jetzt habe ich mich durch sex seiten gekämpft ;D

wieso soll der k8l mit 3.0Ghz so schnell sein wie der C2D mit 3,7ghz?
der k8l muß erst einmal (die +-20%) _rückstand_ aufholen
der K8L ist noch immer nur ein refresh

noch was zur neuen architektur des nehalem
intel wird die architektur sicherlich nur groß aufbohren aber an NV oder ATI sieht man doch dass kürzere lebenszyklen durchaus realisierbar sind
Intel muß auch marktanteile zurückgewinnen bzw diese sichern
DAS an sich ist schon eine große aufgabe und intel hat genug kapazitäten und kapital alle 2 jahre eine aufgbohrte architektur und alle 4 jahre eine neue architektur zu bringen um AMD wieder zu distanzieren
AMD wird ja auch größer und für intel gefährlicher da auch dort mitlerweile mehr resourcen vorhanden sich als vor ein paar jahren...

Gast
2006-12-22, 07:32:59
wieso soll der k8l mit 3.0Ghz so schnell sein wie der C2D mit 3,7ghz? Bevor der Core 2 kam, dachten auch viele Leute, dass man die Pro-MHz-Leistung nicht mehr deutlich über das Niveau des K8 oder Dothans steigern könnte. Intel hat ja dann gezeigt, dass es doch ging. Allerdings bezweifle ich auch irgendwie, dass der K8L einen Conroe mit 30 % höherem Takt schlagen kann. Naja, wir werden sehen, sprach der Blinde. ;)

HOT
2006-12-22, 12:30:04
Die Rev.H wird IMHO gleichziehen.

AnarchX
2007-01-22, 20:37:35
Roadmap: Itanium und Xeon verschmelzen

[...]
http://img181.imageshack.us/img181/2995/1m1is.png
Warum Bloomfield in einer Reihe mit Tigerton und Dunnington genannt wird, wird zwar für immer ein Geheimnis bleiben, interessant ist jedoch die Positionierung des Beckton-Prozessors auf Basis der Nehalem-Architektur. Dieser scheint sich die Plattform (Chipsatz/Sockel) mit dem Tukwila, dem Itanium-Prozessor der übernächsten Generation, zu teilen. Dieser Schritt wurde bereits 2004 als Common Platform Architecture angekündigt, die Einführung hat sich mit der Verspätung von Montecito/Montvale jedoch kontinuierlich verzögert.[...]
http://www.computerbase.de/news/hardware/prozessoren/intel/2007/januar/roadmap_itanium_xeon/

dildo4u
2007-01-22, 20:47:14
40G/Flops pro Socket wie viel hatte der QX6700 laut Intel Angaben 24?

reunion
2007-01-22, 20:48:14
Also schon langsam verdichten sich ja tatsächlich die Informationen, wonach Intel IA64-Prozessoren in den Destopmarkt drücken will. Wobei die gleiche Plattform ja noch nicht zwingend bedeutet, dass auch der CPU-Kern identisch sein muss. Es ist allerdings zugegebenermaßen sehr naheliegend. Nur würde mich mal interessieren, wie Intel die Windows-Kompatiblität (x86) herstellen will.

/Edit: Könnte aber auch einfach bedeuten, dass Intel IA64 zugunsten von AMDs X86/64-Erweiterung aufgibt.

BlackBirdSR
2007-01-22, 22:46:49
Also schon langsam verdichten sich ja tatsächlich die Informationen, wonach Intel IA64-Prozessoren in den Destopmarkt drücken will. Wobei die gleiche Plattform ja noch nicht zwingend bedeutet, dass auch der CPU-Kern identisch sein muss. Es ist allerdings zugegebenermaßen sehr naheliegend. Nur würde mich mal interessieren, wie Intel die Windows-Kompatiblität (x86) herstellen will.

/Edit: Könnte aber auch einfach bedeuten, dass Intel IA64 zugunsten von AMDs X86/64-Erweiterung aufgibt.

x86 Kompatibilität ist doch schon durch einen Softwarelayer vorhanden.
Mit einer Verschmelzung der Infrastruktur kann man ja ein 2-Sockel-System mit einer IA-64 und einer x86-64 CPU haben. Nach dem Booten von Windows könnte der IA-64 dann dort in Betrieb genommen werden. Aber welchen Sinn macht das schon, wenn ein 3.x GHz QuadCore CoreX im System steckt?

Gast
2007-01-23, 13:58:52
x86 Kompatibilität ist doch schon durch einen Softwarelayer vorhanden.
Mit einer Verschmelzung der Infrastruktur kann man ja ein 2-Sockel-System mit einer IA-64 und einer x86-64 CPU haben. Nach dem Booten von Windows könnte der IA-64 dann dort in Betrieb genommen werden. Aber welchen Sinn macht das schon, wenn ein 3.x GHz QuadCore CoreX im System steckt?
Vielleicht hast du zu wenige Sockel in deiner Rechnung. Ein 'einfacher' Core2 zum Booten von Windows sowie zur Auführung einfacher (Integer-)Aufgaben der Haupt-App bzw. deren Tools und drei oder sieben Intanics(SPEs ;-)) als Number Cruncher. So könnte man unter Windows, ohne es anpassen zu müssen, den Itanic mit Spezialsoftware ausreizen. Quasi eine Art Cell-Prozzi auf mehere Sockel verteilt ;-) Die Infrastruktur wäre jedenfalls recht billig weil Standard, die Itanics gingen aber ins Geld. Ingesamt wohl dennoch recht günstig (im Vergleich zu Cell?) oder nicht?

AnarchX
2007-01-26, 11:03:53
Nehalem doch nur ein weiterentwickelter P6 mit neuer Infrastruktur? - Penryn mit Hyperthreading 2007
http://img225.imageshack.us/img225/5277/attachmentlz1.jpg
http://www.hkepc.com/bbs/news.php?tid=733028&starttime=0&endtime=0&page=2

Hmm... da wird vielleicht Nehalem doch langweiliger, als es sich so mancher ausmalte.:|
Oder die Quelle von HKEPC hat da einfach etwas zusammengeschmissen, was nicht zusammengehört.

Gast
2007-01-26, 12:00:18
Warum hat der Yorkfield (=Quadcore) denn nur einen FSB von 266 MHz, während der Dualcore Wolfdale 333 MHz hat?

Gast
2007-01-26, 12:48:50
Warum hat der Yorkfield (=Quadcore) denn nur einen FSB von 266 MHz, während der Dualcore Wolfdale 333 MHz hat?
Damit du in besser übertakten kannst!

Headman
2007-01-26, 15:34:37
Penryn(und damit auch Wolfdale und Yorkfield) gehört noch nicht zur Nehalem Generation sondern stellt lediglich einen leicht überarbeiteten und geshrinkten Merom dar.
Wenn der Yorkfield wirklich nur FSB1066 aber dafür bis zu 12MB Cache hat dann sind das wohl wieder zwei Dualcores auf einem Package.

Ill_Bastardo
2007-01-28, 14:34:58
Wenn der Yorkfield wirklich nur FSB1066 aber dafür bis zu 12MB Cache hat dann sind das wohl wieder zwei Dualcores auf einem Package.


Genau so sieht's aus.

Coda
2007-01-28, 14:48:46
Nehalem doch nur ein weiterentwickelter P6 mit neuer Infrastruktur?

Was hast du denn erwartet? Die Rückkehr von Netburst? ;D

/Edit: Könnte aber auch einfach bedeuten, dass Intel IA64 zugunsten von AMDs X86/64-Erweiterung aufgibt.

Das ist sehr sehr sehr unwahrscheinlich. Die x64-Softwarebasis die jetzt schon da ist kann auch ein Intel nicht ignorieren.

IA64 fürn Desktop würde aufgrund der benötigten riesigen Caches usw. auch keinen Sinn ergeben.

Hvoralek
2007-01-28, 14:52:05
IA64 fürn Desktop würde aufgrund der benötigten riesigen Caches usw. auch keinen Sinn ergeben.Tukwila soll mW "nur" 6 MiB L2- Cache pro Kern bekommen ohne L3-. Das ist nicht so enorm viel; Yorkfield bekommt diesen Herbst schon dieselbe Menge auf zwei Kerne.

LordDeath
2007-01-28, 18:12:13
IA64 fürn Desktop würde aufgrund der benötigten riesigen Caches usw. auch keinen Sinn ergeben.

ist ein größerer cache nötig, weil IA64 code soviel mehr speicher belegt?
ich dachte, dass diese cpus nur große caches haben, weil in deren anwendungsgebieten viel zwischenspeicher mehr vorteile bringt, als im desktopsegment.

Coda
2007-01-28, 19:00:37
Whatever. Desktop-Itanics wird's meiner Meinung nach trotzdem nicht geben. Die Softwarebasis für x64 ist schon viel zu fortgeschritten und so toll ist EPIC auch nicht.

Hvoralek
2007-01-28, 21:41:59
ist ein größerer cache nötig, weil IA64 code soviel mehr speicher belegt?
ich dachte, dass diese cpus nur große caches haben, weil in deren anwendungsgebieten viel zwischenspeicher mehr vorteile bringt, als im desktopsegment.IA64 ist in- order. Da ist es richtig übel, wenn benötigte Daten erst aus dem Hauptspeicher geholt werden müssen (Der Prozessor kann die Befehle nicht umstellen, sondern muss warten, bis die Daten da sind), deshalb die größeren Caches. Ich frage mich nur, warum Tukwila in zwei Jahren einen insgesamt etwa ebenso großen Cache haben soll wie Montecito jetzt und das bei doppelt so vielen Kernen und wahrscheinlich 45 nm statt 90 :confused:

turboschlumpf
2007-01-29, 23:15:44
Yorkfield bekommt ja 2x 6 MiB shared L2-Cache. Für Bloomfield stehen 8 MiB shared L2-Cache im Raum. Warum so wenig? Wegen IMC nicht mehr nötig? Oder gibt es eventuell noch L3-Cache?

Hvoralek
2007-01-30, 10:10:07
Wegen IMC nicht mehr nötig?Ich denke, daran liegt es. Schau Dir mal an, wie gering der Einfluss der Cache- Größe beim K8 ist!

BlackBirdSR
2007-01-30, 10:26:21
Ich denke, daran liegt es. Schau Dir mal an, wie gering der Einfluss der Cache- Größe beim K8 ist!

War schon beim K7 nicht anders. Und das lag weder am Speichercontroller noch am Prefetching.
Der große L1-Cache puffert viel ab, und der L2-Cache selbst ist nicht besonders schnell. Eher das Gegenteil.
Dazu kommen wohl hier und da ein paar Engpässe.

Ingesamt profitiert der K8 besser als der K7 von mehr Cache. Also ist das Gegenteil zur Lösung "IMC" der Fall.

reunion
2007-01-30, 10:40:10
Das könnte sich allerdings mit K8L ändern. Diese bekommt nämlich einen doppelt so breit angebundenen L1- & L2-Cache und einen nurnoch halb so großen L1-Cache.

BlackBirdSR
2007-01-30, 10:54:29
Das könnte sich allerdings mit K8L ändern. Diese bekommt nämlich einen doppelt so breit angebundenen L1- & L2-Cache und einen nurnoch halb so großen L1-Cache.

Fehlinformation.
Der L1-Cache beim K8L ist ebenfalls 2x64KB groß.
Nur gibt AMD in letzter Zeit in den Dokumenten oft nur einen der L1-Caches direkt an. Warum das so ist, werden wir schon noch sehen ;)

Beweise gibts natürlich auch.
http://arstechnica.com/news.ars/post/20061206-8363.html
http://www.extremetech.com/article2/0,1697,2027635,00.asp
http://www.digit-life.com/articles2/editorial/amd-guiseppe-amato-conf-part1.html

reunion
2007-01-30, 11:13:30
Oh, danke. Da bin ich wohl den "schlampigen" Informationen von AMD zum Opfer gefallen. Warum man das macht, würde mich allerdings auch mal interessieren.

turboschlumpf
2007-02-01, 00:25:05
Hm, wenn Penryn jetzt erst Q1 08 kommt, wann kommt dann Nehalem? Der stand doch bis jetzt mit H1 08 auf den Intel-Roadmaps, oder?

reunion
2007-02-01, 00:30:13
Es hieß AFAIK immer nur 2008.

turboschlumpf
2007-02-01, 00:46:45
Nunja, wenn man nach Intels "Tick-Tock-Model" (:D) geht...

http://www.computerbase.de/news/hardware/prozessoren/intel/2006/oktober/intel_nehalem_ueberblick_sockel-details/

Conroe kam Mitte 2006. Dementsprechend hätte Penryn Mitte 2007 und Nehalem Mitte 2008 erscheinen müssen.

aylano
2007-02-01, 00:57:49
Hm, wenn Penryn jetzt erst Q1 08 kommt, wann kommt dann Nehalem? Der stand doch bis jetzt mit H1 08 auf den Intel-Roadmaps, oder?
Soviel ich weiß, war der immer schon für Mitte 2008 geplant.

http://www.computerbase.de/news/hard...ockel-details/
Hier wird ja nur mehr von 2008 geredet.

turboschlumpf
2007-02-01, 01:08:27
Erscheint Yorkfield erst Q1 08, dann wird Bloomfield sicher nicht von Q4 08 erscheinen, denke ich. Vielleicht sogar erst Q1 09. :(

Gast
2007-02-01, 04:13:42
Erscheint Yorkfield erst Q1 08, dann wird Bloomfield sicher nicht von Q4 08 erscheinen, denke ich. Vielleicht sogar erst Q1 09. :(
Mein Gott, wenigsten stehen die Kommentare zum Thema Intel-CPU-'Kaufbarkeit' alle im Speku-Thread. Ist schon erstaunlich, mit welcher Selbstsicherheit hier Termine angegeben werden, die Intel mangels Konkurrenz selbst noch nicht festlegen mag. Die ganze Speku basiert doch auf angeblichen Erkenntnissen einiger News-Seiten, die selbst eigentlich nicht mehr als werbewirksame Spekulation betreiben, aber von einigen hier im Forum verdammt ernst genommen werden.

Mal sehen, wann die ersten News zum K8L kommen: AMD hat Produktionsprobleme. K8L nicht vor November dieses Jahres kaufbar ...

Es ist vielleicht ganz sinnvoll, die News-Seiten nicht ganz ernst zu nehmen. Die wissen massenwirksame Wirkung des Unsinns Bescheid, den sie deshalb um so mehr verzapfen.

AnarchX
2007-02-01, 09:34:48
Erscheint Yorkfield erst Q1 08, dann wird Bloomfield sicher nicht von Q4 08 erscheinen, denke ich. Vielleicht sogar erst Q1 09. :(


"In 2008, we'll have Nehalem." (http://www.dailytech.com/Life+With+Penryn/article5869.htm) Steve Smith, Intel Vice President

;)

AnarchX
2007-02-01, 20:33:23
MTT - Nehalems SMT
[...] Anyway, the air is cleared and the finalized roadmap is correctly reflected that Penryn will not support HT neither do Nehalem. Intel will use a new term called MTT for Nehalem and Nehalem-C. Take a guess what it means and tell us your answers here.
http://www.vr-zone.com/index.php?i=4574

Was sich wohl dahinter verbergen mag - Multi Threading Technology?

[Intel Nehalem Server Platforms Revealed]
http://www.vr-zone.com/index.php?i=4573

AnarchX
2007-03-01, 18:54:36
Mal wieder was zu Nehalem; heute zum Socket B (LGA1336):

http://img19.imageshack.us/img19/3059/attachmentyp4.jpg
http://www.hkepc.com/bbs/news.php?tid=749731&starttime=0&endtime=0
Google-Übersetzung (http://translate.google.com/translate?u=http%3A%2F%2Fwww.hkepc.com%2Fbbs%2Fnews.php%3Ftid%3D749731%26startti me%3D0%26endtime%3D0&langpair=zh%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools)
Da scheint man wohl mit Nehalem auch einige interessante Stromsparmechanismen einzuführen.

Auch eine interessante Info von HKEPC ist, dass wohl Nehalem erst den Mainstream-Markt 2009 erreichen wird und bis dahin S.775 co-existieren wird und somit auch der Core2(?).

edit:
[Intel VRM 11.1 Design Guideline For Nehalem CPUs] (http://www.vr-zone.com/index.php?i=4720)

Gast
2007-03-06, 01:07:47
2009 ist nun wirklich früh genug, noch ist die aktuelle Architektur gar nicht ausgereizt.

Außerdem denke ich nicht, das es sinnvoll wäre, schon 2008 den Nehalem in allen Segmenten einzuführen. Das wäre viel zu schnell, der Core 2 ist noch nicht mal richtig am Markt, da wäre 2008 etwas übereilt.

Ich denke Intel hat gute Gründe dafür. Wenn sie 2008 launchen würden, hätten sie ein Entscheidungsproblem.
DDR3 wäre zu diesem Zeitpunkt noch reichlich neu und teuer. Für den Massenmarkt untauglich.

Dafür haben sie danach nur Vorteile, denn ich nehme an, das sie ausschließlich DDR3 supporten werden (?) und somit lange darauf setzen können.

Außerdem wird 2009 in der Regel schon der 32nm Prozess am Start sein, den Intel sich für den Massenmarkt sicherlich zu nutzen machen will.

Wer weiß, was sie in Planung haben. Trotz IMC und 32nm Prozess hätten sie genügend Spielraum, noch das ein andere Feature zusätzlich einzubauen. Ich weiß nur noch nicht was ;)

Gast
2007-03-06, 12:03:06
wenn VR11.1 erst mit nehalem kommt, werden die chancen größer das penryn auf aktuellen boards läuft
aber bei intel ist man nie sicher ;)

allerdings erschließt sich der sinn von bearlake nicht gleich
nur wegen pcie2 und ddr3 support?
ddr3 hätte man auch getrost auf eaglelake verschieben können

turboschlumpf
2007-03-06, 12:56:11
2009 ist nun wirklich früh genug, noch ist die aktuelle Architektur gar nicht ausgereizt.

Außerdem denke ich nicht, das es sinnvoll wäre, schon 2008 den Nehalem in allen Segmenten einzuführen. Das wäre viel zu schnell, der Core 2 ist noch nicht mal richtig am Markt, da wäre 2008 etwas übereilt.

Ich denke Intel hat gute Gründe dafür. Wenn sie 2008 launchen würden, hätten sie ein Entscheidungsproblem.
DDR3 wäre zu diesem Zeitpunkt noch reichlich neu und teuer. Für den Massenmarkt untauglich.

Dafür haben sie danach nur Vorteile, denn ich nehme an, das sie ausschließlich DDR3 supporten werden (?) und somit lange darauf setzen können.

Außerdem wird 2009 in der Regel schon der 32nm Prozess am Start sein, den Intel sich für den Massenmarkt sicherlich zu nutzen machen will.

Wer weiß, was sie in Planung haben. Trotz IMC und 32nm Prozess hätten sie genügend Spielraum, noch das ein andere Feature zusätzlich einzubauen. Ich weiß nur noch nicht was ;)


- Nehalem kommt auf jeden Fall noch 2008 (http://www.dailytech.com/Life+With+Penryn/article5869.htm)
- Nehalem startet auf jeden Fall in 45 nm (http://www.computerbase.de/news/hardware/prozessoren/intel/2006/oktober/intel_nehalem_ueberblick_sockel-details/)

Gast
2007-03-06, 18:20:20
Hast du den vorstehenden Text überhaupt gelesen?

Wir wissen das er 2008 kommt, aber nicht für den Massenmarkt und nur darauf bezog sich der Text. Du erzählst also nix neues.

turboschlumpf
2007-03-06, 18:28:45
Selbstverständlich habe ich das Posting gelesen. Und daraus ist nicht ersichtlich, dass sich die Argumentation nur auf den Massenmarkt bezieht. Zumal einige Argumente vollkommen falsch sind.

Gast
2007-03-06, 18:57:19
Und daraus ist nicht ersichtlich, dass sich die Argumentation nur auf den Massenmarkt bezieht.

So?

Außerdem denke ich nicht, das es sinnvoll wäre, schon 2008 den Nehalem in allen Segmenten einzuführen

Zumal einige Argumente vollkommen falsch sind.

Kein einziges "Argument" ist falsch. Denn es handelt sich um Spekulationen und nichts anderes. Denn soweit nichts neues bekannt ist, geht es nunmal nicht anders.

Ganz nebenbei, bevor du dich in die Diskussion einklinkst, wäre es angebrachter, wenn du uns alle ein wenig erleuchtest und uns an deinem Wissen teilhaben lässt. Einfach nur schreiben "vollkommen falsch" kann jeder. Wie wäre es mit neuen Fakten, du scheinst deiner Antwort nach, mehr zu wissen als wir!

turboschlumpf
2007-03-06, 23:46:23
So?
Wenn du mit "alle Segmente" den Massenmarkt meinst, dann solltest du dich weniger missverständlich ausdrücken.

2009 ist nun wirklich früh genug, noch ist die aktuelle Architektur gar nicht ausgereizt.
Kannst du überhaupt nicht beurteilen. Zumal Intel im Serverbereich einen IMC mehr als dringend nötig hat.

Außerdem denke ich nicht, das es sinnvoll wäre, schon 2008 den Nehalem in allen Segmenten einzuführen. Das wäre viel zu schnell, der Core 2 ist noch nicht mal richtig am Markt, da wäre 2008 etwas übereilt.
Die Core-2-Architektur ist Ende 2008 schon über 2 Jahre alt, und das ohne nennenswerte Verbesserungen an der Architektur. Eine neue/überarbeitete Architektur ist zu diesem Zeitpunkt also durchaus angebracht.

Ich denke Intel hat gute Gründe dafür. Wenn sie 2008 launchen würden, hätten sie ein Entscheidungsproblem.
DDR3 wäre zu diesem Zeitpunkt noch reichlich neu und teuer. Für den Massenmarkt untauglich.
DDR3 wäre Ende 2008 schon über ein Jahr am Markt. Wie es dann um die Preise steht kannst du jetzt sicher noch nicht einschätzen.

Außerdem wird 2009 in der Regel schon der 32nm Prozess am Start sein, den Intel sich für den Massenmarkt sicherlich zu nutzen machen will.
Die 32-nm-Fertigung kommt bei Intel höchstwahrscheinlich frühestens Ende 2009. Zudem ist mir schleierhaft woher du wissen willst, dass Nehalem aufgrund seiner Fertigungskosten nicht für den Massenmarkt geeignet sein soll.

Gast
2007-03-07, 08:49:29
Wenn du mit "alle Segmente" den Massenmarkt meinst, dann solltest du dich weniger missverständlich ausdrücken.

Wenn du das Vorgängerpost mitgelesen hättest, wäre es klar geworden. Schließlich ist ein Forum da um zu diskutieren. Wenn ich mit mir selber reden würde, bräuchte ich kein Forum dafür.

Kannst du überhaupt nicht beurteilen.

Natürlich kann ich das beurteilen. Ich sehe was möglich ist und was nicht. Fakt ist, das die Architektur noch einiges an Potential hat, vorallem beim Takt.

DDR3 wäre Ende 2008 schon über ein Jahr am Markt. Wie es dann um die Preise steht kannst du jetzt sicher noch nicht einschätzen.

Auch das lässt sich sehr leicht abschätzen. So lange AMD nicht mitumsteigt wird es um die Preise nicht gut bestellt sein.
Bis der Nachfolger den Status von DDR2 erreicht, vergehen in der Regel 2,5-3 Jahre. Leicht anhand der Preisentwicklung von DDR1 und DDR2 nachprüfbar, denn bisher war es immer so.

Die 32-nm-Fertigung kommt bei Intel höchstwahrscheinlich frühestens Ende 2009.

Es dauert in der Regel 18 Monate bis zum nächsten Prozess. Ende 2005 gab es erste 65nm Prozessoren, 2H 07 wird es erste 45nm Prozessoren geben und somit 1H 09 sehr wahrscheinlich 32nm Prozessoren. Das hat nichts mit Einschätzung zu tun, schließlich haben die Hersteller Pläne. Ob die eingehalten werden können, ist ne andere Frage.

Zudem ist mir schleierhaft woher du wissen willst, dass Nehalem aufgrund seiner Fertigungskosten nicht für den Massenmarkt geeignet sein soll.

Ich weiß nicht warum du dir solche Dinge aus den Finger saugst, denn das habe ich niemals gesagt und geschrieben.
Ich sagte, das Intel sich sicherlich den Vorteil von 32nm zu nutze machen will, nicht das es auf die Fertigungskosten ankommt.

Hvoralek
2007-03-07, 11:40:03
Es dauert in der Regel 18 Monate bis zum nächsten Prozess. Ende 2005 gab es erste 65nm Prozessoren, 2H 07 wird es erste 45nm Prozessoren geben und somit 1H 09 sehr wahrscheinlich 32nm Prozessoren. Das hat nichts mit Einschätzung zu tun, schließlich haben die Hersteller Pläne. Ob die eingehalten werden können, ist ne andere Frage.Normal sind etwa zwei Jahre für einen feineren Fertigungsprozess (ohne "halbe" wie 110 oder 80nm).

Nehmen wir Intel als Beispiel (Daten des Markteintritts):
180nm: Coppermine, Okt. 1999
130nm: Tualatin, Juli 2001
90nm: Prescott, Februar 2004
65nm: Yonah/ Cedar Mill/ Pressler, Januar 2006

Sind jeweils etwa zwei Jahre, mit gewissen Schwankungen. 45nm kommt wohl diesen Herbst, also weniger als zwei Jahre nach dem Vorgängerprozess. Damit ist er aber ungewöhnlich schnell, auch das kommt vor.

Intel selbst spricht für 32nm nur von "2009". Wenn man einen üblichen Zweijahresrhythmus zugrunde legt, wäre das eher Mitte - Ende des Jahres zu erwarten. Oder gibt es Hinweise, dass Intel bei 32nm auch außergewöhnlich schnell vorankommt?

Gast
2007-03-07, 12:25:12
Ich weiß jetzt nicht wie du darauf kommst, aber 18 Monate mit gewissen Abweichungen von +/- 2 Monaten sind so gut wie immer eingehalten worden.

Du darfst jedoch nicht so sturr sein und dies an den Produkten messen. Denn ist es natürlich nie gesagt, das sofort Prozessoren im neuen Prozess erscheinen. Daher solltest du vorallem darauf schauen, wann der Prozess für die Massenfertigung bereit war.

Ende 2005 gab es schon 65nm CPUs, aber nur sehr spärlich. Da bin ich mir sehr sicher, denn ich wollte einen CedarM und einige hatten ihn schon. :)

Da haben sie die Zeiten eingehalten, aber waren noch lange nicht für den Massenmarkt bereit, da die Stückzahlen äußerst gering waren.

Diese Regel ist übrigens keine allgemeine, sondern einfach eine sprichtwörtliche. Aber bisher traf sie zu 99 % zu. Ich musste schon die Nase rümpfen als einige Newsseiten vor wenigen Tagen schrieben, dieses Jahr gäbe es keine 45nm Prozessoren... und Intel daraufhin klar sagte, das die 45 nm Xeons planmäßig 2H 07 kommen werden... war eigentlich vollkommen absehbar. Wieso gibt es immer noch Spezien die daran zweifeln? :)
Denn eine Abweichungen von mehr als 6 Monaten wäre außerst selten und nur mit extremen Schwierigkeiten zu erklären.

An den Punkt werden wir irgendwann mal kommen, aber bis 20nm sollte dies jedoch noch nicht der Fall sein.

Irgendwo hatte ich mal ein Diagramm gesehen, in denen schon 32nm und der Nachfolger vermerkt waren. Daran scheinen sie also schon zu arbeiten, denn sonst hätte man kaum die vorraussichtlich verwendeten Materialien angeben können.

Gast
2007-03-07, 12:28:50
Suche sei dank. ;)

Weiß jemand, woher dieses Diagramm stammt, also wer es erstellt hat?
http://pics.computerbase.de/1/5/3/7/7/1.jpg

turboschlumpf
2007-03-07, 13:34:07
Das ist von Intel würde ich sagen. Und wenn du es dir mal genau ansiehst dann wirst du erkennen, dass es sich seit 10 Jahren um einen 2-Jahres-Rhythmus handelt.

Gast
2007-03-07, 13:43:35
Das ist von Intel würde ich sagen. Und wenn du es dir mal genau ansiehst dann wirst du erkennen, dass es sich seit 10 Jahren um einen 2-Jahres-Rhythmus handelt.

Falsch. Das sollte selbst dir auffallen, denn sowas lernt man normal in der Schule.

Es stehen nur Jahreszahlen dort, aber keine genauen Zeitangaben. Daraus lässt sich nicht ableiten, wieviele Jahre es sind.

Zwischen 2005 und 2007 sind es keine 2 Jahre. Schließlich wäre Dezember 2005 bis Juli 2007 wesentlich weniger.

Das dies auch so ist, ist leicht anhand früherer Produktlaunches nachvollziehbar. Einfach mal ein bisschen suchen. 24 Monate Unterschied sind eher selten, wie du daraus einen Zyklus von 2 Jahren ableiten kann, ist mir schleierhaft.

aylano
2007-03-07, 15:01:42
24 Monate Unterschied sind eher selten, wie du daraus einen Zyklus von 2 Jahren ableiten kann, ist mir schleierhaft.
Wie kommst du darauf, dass Intel eher selten einen 2-Jahres-Zyklus hat???

Schöner gehts gar nicht.
1997-1999-2001-2003-2005-2007-2009-2011

Aber vielleicht hilft dir diese Grafik
http://pics.computerbase.de/1/6/9/7/7/4.jpg

Zwischen 2005 und 2007 sind es keine 2 Jahre. Schließlich wäre Dezember 2005 bis Juli 2007 wesentlich weniger.
Und warum bringt Intel die 45nm jetzt nicht raus!!! Immerhin zeigten sie schon 45nm-Chips.

Nach Grafik sieht ja eher aus, als ob Intel mit 45nm-Server Barcelona parole bieten will und dafür wahrscheinlich eine niedere Yield-Rate in Kauf nimmt.

Bei "billiigeren"-Chips wie der Core1 Dez 2005 benötigte Intel wahrscheinlich eine höhere Yieldrate. Und der Konkurrenz-Druck war damals nicht so groß wie es Barcelona wahrscheinlich sein könnte.

Hvoralek
2007-03-07, 15:06:53
Ich weiß jetzt nicht wie du darauf kommst, aber 18 Monate mit gewissen Abweichungen von +/- 2 Monaten sind so gut wie immer eingehalten worden.

Du darfst jedoch nicht so sturr sein und dies an den Produkten messen. Denn ist es natürlich nie gesagt, das sofort Prozessoren im neuen Prozess erscheinen. Daher solltest du vorallem darauf schauen, wann der Prozess für die Massenfertigung bereit war.

Ende 2005 gab es schon 65nm CPUs, aber nur sehr spärlich. Da bin ich mir sehr sicher, denn ich wollte einen CedarM und einige hatten ihn schon. :)

Da haben sie die Zeiten eingehalten, aber waren noch lange nicht für den Massenmarkt bereit, da die Stückzahlen äußerst gering waren.Woran würdest Du denn messen, wann ein Prozess "reif für den Massenmarkt" war, wenn nicht daran, wann Modelle auf seiner Basis verfügbar waren?

Ich nehme dabei offizielle Termine, unabhängig davon, ob vlt. einige Tage oder Wochen vorher schon einzelne Exemplare zu bekommen waren.

Diese Regel ist übrigens keine allgemeine, sondern einfach eine sprichtwörtliche. Aber bisher traf sie zu 99 % zu. Ich musste schon die Nase rümpfen als einige Newsseiten vor wenigen Tagen schrieben, dieses Jahr gäbe es keine 45nm Prozessoren... und Intel daraufhin klar sagte, das die 45 nm Xeons planmäßig 2H 07 kommen werden... war eigentlich vollkommen absehbar. Wieso gibt es immer noch Spezien die daran zweifeln? :)Seitens Intel hieß es doch immer, dass 45nm dieses Jahr käme.

An den Punkt werden wir irgendwann mal kommen, aber bis 20nm sollte dies jedoch noch nicht der Fall sein.MW wird 22nm ein technologisch anspruchsvollerer Schritt. Es gibt bisher auch Terminangaben sowohl von Intel als auch von AMD nur für 45nm (2007 bzw. 2008) und 32nm (2009 bzw. 2010).

Falsch. Das sollte selbst dir auffallen, denn sowas lernt man normal in der Schule.

Es stehen nur Jahreszahlen dort, aber keine genauen Zeitangaben. Daraus lässt sich nicht ableiten, wieviele Jahre es sind.

Zwischen 2005 und 2007 sind es keine 2 Jahre. Schließlich wäre Dezember 2005 bis Juli 2007 wesentlich weniger.Das Problem sinkt, wenn Du längere Zeitspannen betrachtest. Bei 10 Jahren sind das mindestens acht Jahre und zwei Tage, aber ich rechne ja auch nicht ohne Grund mit Monaten.

Das dies auch so ist, ist leicht anhand früherer Produktlaunches nachvollziehbar. Einfach mal ein bisschen suchen. 24 Monate Unterschied sind eher selten, wie du daraus einen Zyklus von 2 Jahren ableiten kann, ist mir schleierhaft.Jetzt soll doch die Verfügbarkeit fertiger Modelle als Maßstab dafür dienen, ob ein Prozess "fertig" ist und nicht mehr die "Marktreife" des Prozesses selbst? Ich verweise dann mal auf meine Liste oben:

180nm: Coppermine, Okt. 1999
130nm: Tualatin, Juli 2001 (21 Monate)
90nm: Prescott, Februar 2004 (31 Monate)
65nm: Yonah/ Cedar Mill/ Pressler, Januar 2006 (23 Monate)

Die letzten drei Prozesswechsel dauerten insgesamt 75 Monate, im Durchschnitt also 25. Wie kommst Du da auf 18 Monate als Regelfall? Nicht ein einziger dieser Einzelfälle liegt näher an 18 als an 24 Monaten. Es gibt mit 90nm einen großen Ausreißer, aber ein ähnlicher Ausreißer wird wohl auch 45nm sein. Wobei ich selbst da nicht gerade darauf wetten würde, dass man genau 18 Monate wirklich schafft. Das wäre dann Verfügbarkeit im Juli. Wir werden es sehen, jedenfalls wird man selbst bei diesem Ausreißer nicht nennenswert unter 18 Monaten liegen (so, wie 90nm nennenswert über 24 brauchte).

Gast
2007-03-07, 15:19:06
Wie kommst du darauf, dass Intel eher selten einen 2-Jahres-Zyklus hat???

Weil es momentan einfach so ist.

2 Jahre sind 24 Monate, nicht weniger. Aber selbst von 90 und 65nm hat es keine 24 Monate gedauert.

Schöner gehts gar nicht.
1997-1999-2001-2003-2005-2007-2009-2011

WO siehst du da zwei Jahre?
Dezember bis Januar ist für dich ein Jahr? ;D

Für dieses Jahr sind 45nm Prozessoren angekündigt. Wenn sie vor Dezember erscheinen, dann sind es wieder keine 24 Monate.

Und warum bringt Intel die 45nm jetzt nicht raus!!! Immerhin zeigten sie schon 45nm-Chips.

Denk mal logisch nach. Projektstudien haben mit den Massenmarkt nichts zu tun. Intel baut gerade erst die Fabriken um, wo sollen sie die neuen CPUs hernehmen?

Gast
2007-03-07, 15:33:14
Woran würdest Du denn messen, wann ein Prozess "reif für den Massenmarkt" war, wenn nicht daran, wann Modelle auf seiner Basis verfügbar waren?

Muss von Fall zu Fall entschieden werden. Es könnte schließlich sein, das der neue Prozess marktreif ist, kein Unternehmen sich aber veranlasst führt, kurzfristig neue Produkte zu bringen.
Immer eingedenk der Tatsache, das ein neuer Prozess nur dann wirklich sinnvoll ist, wenn der yield ausreichend gut ist.
Intel und alle anderen Unternehmen hätten nichts davon, einen Prozess Monate früher zu bringen, wenn sie dafür vielfache Kosten hätten, weil die produzierten Exemplare die Spezifikation nicht erfüllen.

Ich verweise dann mal auf meine Liste oben:

65nm: Yonah/ Cedar Mill/ Pressler, Januar 2006 (23 Monate)

Die ist aber nicht ganz richtig.
http://www.heise.de/newsticker/meldung/67792

Die Produktvorstellung* erfolgte schon im Dezember.

* Solcherart Produkte sind oft schon Tage, teilweise Wochen vor der offiziellen Vorstellung verfügbar, was mit Geizhals leicht nachgeprüft werden kann.
Im Dezember konnte ich die definitiv schon als Privatmann kaufen.

Wie kommst Du da auf 18 Monate als Regelfall?

Wo habe ich etwas von einem "Regelfall" geschrieben? Es gibt keine Regel, gab es noch nie.
Nur sprichwörtlich heißt es, das es 18 Monate sind mit Abweichungen von etwa 1-2 Monaten, was dort oben auch so steht.

Moore wurde sogar oft falsch zitiert, denn er selbst sagte etwa alle 24 Monate. Wie oben jedoch nachzulesen ist, wurde diese Zeit jedoch mehrmals unterschritten. Ich halte mich deshalb schlicht an den Mittelweg.

Hvoralek
2007-03-07, 17:56:09
2 Jahre sind 24 Monate, nicht weniger. Aber selbst von 90 und 65nm hat es keine 24 Monate gedauert.Hat jemand behauptet, Intel habe in der Vergangenheit für jeden einzelnen neuen Prozess mindestens zwei Jahre gebraucht? Das ist ein ungefährer Mittelwert, der +/- ein paar Monate meistens hinkommt.

WO siehst du da zwei Jahre?
Dezember bis Januar ist für dich ein Jahr? ;DAuch hier geht es um den Durchschnitt. In diesem Fall wäre es mindestens Dez. 1997 - Jan 2011 (Wo kommt eigentlich 2011 für 22nm her?) Das wären also sieben neue Prozesse innerhalb von 13 Jahren und zwei Tagen bis 13 Jahren und 364 Tagen. Jedenfalls ungefähr einer alle zwei Jahre im Mittel.

Für dieses Jahr sind 45nm Prozessoren angekündigt. Wenn sie vor Dezember erscheinen, dann sind es wieder keine 24 Monate.Wenn sie nicht im Juli Juni zu haben sind, aber auch mehr als 18. Gibt es denn überhaupt ein Beispiel, in dem Intel einen neuen Prozess nach 18 Monaten fertig hatte? Das Schnellste, was ich bisher hier gelesen habe, waren 21 Monate.

Muss von Fall zu Fall entschieden werden. Es könnte schließlich sein, das der neue Prozess marktreif ist, kein Unternehmen sich aber veranlasst führt, kurzfristig neue Produkte zu bringen.
Immer eingedenk der Tatsache, das ein neuer Prozess nur dann wirklich sinnvoll ist, wenn der yield ausreichend gut ist.
Intel und alle anderen Unternehmen hätten nichts davon, einen Prozess Monate früher zu bringen, wenn sie dafür vielfache Kosten hätten, weil die produzierten Exemplare die Spezifikation nicht erfüllen.Wenn Du genug Insiderwissen um die Ausbeute von Intels Fertigungsprozessen zu jedem Zeitpunkt hast und bereit bist, das mit uns zu teilen, kann man sich natürlich danach richten. Dann wäre es wohl sinnvoll, zu ermitteln, wann die Kosten für einen bestimmten Chip damit geringer wären als mit dem Vorgänger.

Das kann man für einige Prozesse anhand von Intel veröffentlichter Daten machen, siehe Diagramm oben. Ich sehe da aber eher 2 Jahre Abstand als 1 1/2 (und bei 90nm natürlich noch mehr).

In der Praxis bleibt aber wohl nur, anzunehmen, dass ein hinreichend reifer Prozess zügig (ungefähr gleich zügig) genutzt wird. Bei der Ermittlung der Dauer bei einem bestimmten Prozess gibt es dadurch zwar Ungenauigkeiten von mehreren Monaten, aber bei längerfristigen Betrachtungen wird sich das kaum auswirken.

Wo habe ich etwas von einem "Regelfall" geschrieben? Es gibt keine Regel, gab es noch nie.
Nur sprichwörtlich heißt es, das es 18 Monate sind mit Abweichungen von etwa 1-2 Monaten, was dort oben auch so steht.Du hast z.B. geschrieben, "es dauer[e] in der Regel 18 Monate bis zum nächsten Prozess" und "18 Monate [seien] mit gewissen Abweichungen von +/- 2 Monaten [...] so gut wie immer eingehalten worden".

Wann denn z.B.?

Gast
2007-03-08, 00:05:16
Hat jemand behauptet, Intel habe in der Vergangenheit für jeden einzelnen neuen Prozess mindestens zwei Jahre gebraucht?

Ja, sonst wäre es kein 2 Jahres Rythmus, wie behauptet.

Gibt es denn überhaupt ein Beispiel, in dem Intel einen neuen Prozess nach 18 Monaten fertig hatte? Das Schnellste, was ich bisher hier gelesen habe, waren 21 Monate.

Vielleicht ist das hier nicht klar geworden, aber wie ich schon sagte, ist ein Produktlaunch kein wirklicher Indiz dafür, wann ein Prozess bereit für den Massenmarkt ist.
Meldungen wie "45nm jetzt massentauglich" gibt es kaum.

Allerdings hilft es dennoch, die ganzen News rund um zu verfolgen, so erfährt man beispielweise, das funktionsfähige SRAMs schon im Januar mit 45nm produziert wurden. Wenn dieser Fall eingetreten ist, kommt auch immer gleich die Meldung, wann mit Prozessoren zu rechnen ist.
Das Problem dabei ist nur, das durch Massenfertigung, Marketing, Lager, Händler, Verkauf auch nochmal sehr viel Zeit verloren geht. Wieviel Tage, Wochen oder gar Monate das jeweils sind, ist als aussenstehender kaum herauszubekommen. Wenn du bei Intel an der Quelle sitzen würdest, hättest du deinen Conroe womöglich früher gehabt, als die Masse. Bei den xtremesystems finden sich teilweise schon Monate (!) vor Release mehrere Exemplare.
Übrigens haben die schon vor Wochen den neuen Core 2 E6850 (3 GHz, FSB1333) in der Hand gehabt, der sich mit Standardvcore auf knapp 3,6 GHz takten ließ. ;)

Du hast z.B. geschrieben, "es dauer[e] in der Regel 18 Monate bis zum nächsten Prozess" und "18 Monate [seien] mit gewissen Abweichungen von +/- 2 Monaten [...] so gut wie immer eingehalten worden".

Eigentlich wird in meinem nachfolgenden Postings wie #145 klar:
"Diese Regel ist übrigens keine allgemeine, sondern einfach eine sprichtwörtliche." ... das es keine Regel im Sinne von "definierte Regel" gibt, sondern nur eine sprichtwörtliche. Denn so viel Hellseher bin ich auch nicht, das ich es auf einen Tag genau vorraussagen kann. ;D

Hvoralek
2007-03-08, 00:41:45
Ja, sonst wäre es kein 2 Jahres Rythmus, wie behauptet.Schau Dir doch nochmal meine ursprüngliche Aussage (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5306357#post5306357) an: Etwa zwei Jahre seien normal. Das beinhaltet gewisse Schwankungen (gemeint sind etwa +/- 3 Monate. Ergibt also etwa 21 - 27 Monate) und es ist ein Normalfall, es kann also auch mal Abweichungen davon geben. Von den von mir angeführten letzten Prozesswechseln von Intel lagen die meisten in dieser Zeitspanne und nur einer außerhalb - Und der hat sogar noch länger gebraucht und ist entsprechend noch weiter von 18 Monaten entfernt.

Vielleicht ist das hier nicht klar geworden, aber wie ich schon sagte, ist ein Produktlaunch kein wirklicher Indiz dafür, wann ein Prozess bereit für den Massenmarkt ist.Der Markteintritt des ersten Serienprozessors ist nicht ideal, um den Zeit der Marktreife eines Prozesses zu bestimmen. Aber an was würdest Du anknüpfen? Und bitte einen klar bestimmbaren Zeitpunkt und keine Äußerungen über eine zufriedenstellende Ausbeute oder so etwas. Nimm meinetwegen eine bestimmte Anzahl an Fehlern pro Wafer, wenn Du entsprechende Daten hast (und veröffentlichen darfst und möchtest). Wenn Du keine besseren Vorschläge hast, werden wir eben mit der Vorstellung des ersten fertigen Prozessors leben müssen. Nicht ideal, aber besser als gar nichts.

Das Problem dabei ist nur, das durch Massenfertigung, Marketing, Lager, Händler, Verkauf auch nochmal sehr viel Zeit verloren geht. Wieviel Tage, Wochen oder gar Monate das jeweils sind, ist als aussenstehender kaum herauszubekommen.Auf längere Sicht betrachtet ist das kein großer Faktor mehr. Wenn man die Entwicklung über 10 Jahre betrachtet, ist es nicht mehr wesentlich, ob z.B. beim ersten Modell zwischen einer bestimmten technischen Reife des Prozesses und dem Markteintritt zwei Monate lagen und beim letzten vier. Eine Verzerrung um einige Monate kann bei der Betrachtung eines einzelnen Prozesswechsels erheblich sein, aber nicht beim längerfristigen Durchschnitt.

Wenn du bei Intel an der Quelle sitzen würdest, hättest du deinen Conroe womöglich früher gehabt, als die Masse. Bei den xtremesystems finden sich teilweise schon Monate (!) vor Release mehrere Exemplare.
Übrigens haben die schon vor Wochen den neuen Core 2 E6850 (3 GHz, FSB1333) in der Hand gehabt, der sich mit Standardvcore auf knapp 3,6 GHz takten ließ. ;)Mensch, was bist Du für ein toller Hecht. Du musst ja irgendwo in der Branche arbeiten, jetzt glaube ich als armer, dummer, conroeloser Schlucker Dir auf Anhieb alles!

Nochmal: Wenn Du ein besseres Anknüpfungskriterium für hinreichende Reife eine Fertigungsprozesses hast, bin ich ganz Ohr. Bloßes Rumposen bringt Dich als anonymen Gast doch auch nicht wirklich weiter. :confused:

Eigentlich wird in meinem nachfolgenden Postings wie #145 klar:
"Diese Regel ist übrigens keine allgemeine, sondern einfach eine sprichtwörtliche." ... das es keine Regel im Sinne von "definierte Regel" gibt, sondern nur eine sprichtwörtliche. Denn so viel Hellseher bin ich auch nicht, das ich es auf einen Tag genau vorraussagen kann. ;DIn genau diesem Beitrag hattest Du gefragt, wo Du von einem "Regelfall" gesprochen habest und bestritten, dies getan zu haben. Du hast aber direkt zuvor behauptet, dass neue Fertigungsprozesse zumeist in 18-Monats-Rhythmen aufeinander folgten und das sogar wörtlich als "Regel" berzeichnet. Ich denke nicht, dass diese Aussagen missverständlich waren. Wenn Du sie revidieren möchtest, dann tue das bitte und bestreite nicht, sie getätigt zu haben! Es ist keine Schande, sich zu irren. Es ist aber eine, sich das nicht eingestehen zu wollen.


Wenn Du nicht mal irgendetwas Handfestes bringst, was auf Deinen 18-Monats- "Regelfall" zumindest ansatzweise hindeutet (Z.B. ein Beispiel, in dem Intel mal zumindest in 20 Monaten oder weniger fertig geworden ist) und Dich dabei auf nachprüfbare Informationen stützt, betrachte ich das Thema als beendet. Ist hier eh OT. Dass Nehalem irgendwann 2008 kommt und in 45nm, ist ja absehbar.

Gast
2007-03-08, 00:50:15
Schau Dir doch nochmal meine ursprüngliche Aussage (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5306357#post5306357) an: Etwa zwei Jahre seien normal.

Wer sagt, das ich von dir rede?
Ich habe nur auf Texte geantwortet, die in diesem Thread zu finden sind und da stand eindeutig etwas ganz anderes.

Mensch, was bist Du für ein toller Hecht. Du musst ja irgendwo in der Branche arbeiten, jetzt glaube ich als armer, dummer, conroeloser Schlucker Dir auf Anhieb alles!

Nochmal: Wenn Du ein besseres Anknüpfungskriterium für hinreichende Reife eine Fertigungsprozesses hast, bin ich ganz Ohr. Bloßes Rumposen bringt Dich als anonymen Gast doch auch nicht wirklich weiter. :confused:

Zuviel Drogen konsumiert:confused: Habe ich jemals gesagt, ich arbeite in der Branche? Habe ich jemals gesagt, ich besitze diese Produkte vorher? Nein, sicher nicht. Ich sagte, das die xtremesystems schon Wochen-Monate vorher Exemplare in der Hand halten.

In genau diesem Beitrag hattest Du gefragt, wo Du von einem "Regelfall" gesprochen habest und bestritten, dies getan zu haben.

Das ist gar nicht wahr. Lies nochmal nach.
Den Text mit der Bedeutung hatte ich in Posting #145 gebracht, erst im Posting #152 stellte ich die Frage, wo ich es gesagt haben soll.

Hör bitte auf, anderen Leuten lügen anzuheften. Im übrigen glaube ich kaum, das die Leser sich für diese Abdriftung hier interessieren. Entweder wir bleiben beim Thema oder ich muss einen Mod bitten, den überschüssigen Kram zu entfernen.

Hvoralek
2007-03-08, 11:29:26
Wer sagt, das ich von dir rede?
Ich habe nur auf Texte geantwortet, die in diesem Thread zu finden sind und da stand eindeutig etwas ganz anderes.Du hast direkt davor meinen Beitrag zitiert und auch im Folgenden nichts anderes. Wenn Du dann nicht meine Äußerungen meinst, nenne bitte die, auf die Du Dich beziehst.

Ich habe jetzt selbst nochmal gesucht. Du meinst wahrscheinlich die Aussage (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5306625#post5306625) von turboschlumpf. Ich würde allerdings auch das als ein "normalerweise ungefähr zwei Jahre" lesen. Dass zwischen zwei Prozesswechseln nicht stets ganz genau 24 Monate lagen, sollte jedem hier klar sein. Jedenfalls scheint er mir nicht mehr auf mind. 24 Monate zu bestehen als Du auf höchstens 18.

Zuviel Drogen konsumiert:confused: Habe ich jemals gesagt, ich arbeite in der Branche? Habe ich jemals gesagt, ich besitze diese Produkte vorher? Nein, sicher nicht. Ich sagte, das die xtremesystems schon Wochen-Monate vorher Exemplare in der Hand halten.Ich hatte bei dem zweiten Absatz, auf den ich mich bezog, anstelle des "wir" ein "ich" gelesen. Ein Fehler meinerseits, entschuldige. Lag aber nicht an Drogen, sondern wahrscheinlich an der Uhrzeit :biggrin:

Das ist gar nicht wahr. Lies nochmal nach.
Den Text mit der Bedeutung hatte ich in Posting #145 gebracht, erst im Posting #152 stellte ich die Frage, wo ich es gesagt haben soll.Ich sollte wirklich nicht mehr mitten in der Nacht hier herumsitzen :redface:

Auch wenn mir noch nicht klar ist, was genau eine "sprichwörtliche Regel" sein soll und wodurch sich eine solche, wenn sie "bisher [...] zu 99 % zu[traf]" (und von der Du anscheinend annimmst, dass sie es deswegen auch in Zukunft tun werde) von einer "richtigen" Regel mit gelegentlichen Ausnahmen unterscheidet. Zumal Du bisher nicht auch nur ein einziges Beispiel gebracht hast, in dem diese in den weitaus meisten Fällen zutreffende "sprichwörtliche Regel" überhaupt einmal eingehalten worden wäre.

Und wie gesagt, wenn zum eigentlichen OT- Thema (durchschnittliche Dauer eines Prozesswechsels) auch weiterhin nichts mehr kommt als "Es sind aber 18 Monate - sprichwörtlich, regelmäßig, meistens oder wie auch immer", betrachte ich das Thema als erledigt. Es bringt wirklich nichts, zu debattieren, wer jetzt was gesagt, falsch oder richtig verstanden und wie gemeint hat (Ich habe z.B. keine Lust auf eine Debatte, was genau turboschlumpf oben mit einem "Regelfall" meinte).

turboschlumpf
2007-03-08, 15:11:53
In Anbetracht der beiden schon verlinkten Folien halte ich es für Ressourcenverschwendung darüber zu diskutieren, ob es sich nun wirklich um einen 2-Jahres-Rhythmus handelt oder nicht.

http://pics.computerbase.de/1/5/3/7/7/1.jpg
http://pics.computerbase.de/1/6/9/7/7/4.jpg

AnarchX
2007-03-28, 21:58:34
Nun gibt es einige Infos zu Nehalem direkt von Intel:
Nehalem Micro Architecture: Intel Embraces the IMC and IGP (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=2955&p=3)

Also doch ein Core-Abkömling, der aber zahlreichen Änderungen erfahren wird.

BlackBirdSR
2007-03-28, 23:09:09
Und laut Anand mit MT

AnarchX
2007-03-28, 23:13:08
Und laut Anand mit MT

Naja, das "wissen" wir ja schon seit November 2006. ;)

edit:
If I had a Hammer: Gelsinger details Nehalem@TechReport (http://techreport.com/onearticle.x/12130)

Gast5
2007-03-28, 23:57:00
Integrierter Speicher-Controller, integrierter Grafikkern, bis zu 8 Cores, bis zu 16 Threads:

http://arstechnica.com/news.ars/post/20070328-intel-aims-nehalem-at-amds-fusion-integrated-graphics-on-die-memory-controller-smt.html
http://www.golem.de/0703/51399.html
http://www.heise.de/newsticker/meldung/87545

Gast
2007-03-29, 00:02:43
Integrierter Speicher-Controller, integrierter Grafikkern, bis zu 8 Cores, bis zu 16 Threads:

http://arstechnica.com/news.ars/post/20070328-intel-aims-nehalem-at-amds-fusion-integrated-graphics-on-die-memory-controller-smt.html
http://www.golem.de/0703/51399.html
http://www.heise.de/newsticker/meldung/87545

http://www.hardtecs4u.de/?id=1175118914,84233,ht4u.php

mapel110
2007-03-29, 00:03:17
Hat der eine Kern nichts zu tun, senkt er seine Taktfrequenz ab und bleibt damit kühler. Sein Zwillingsbruder kann sich im Gegenzug etwas höher takten.
auch sehr fein. :uup:

Gast
2007-03-29, 00:06:50
auch sehr fein. :uup:

Das ist meiner Meinung nach auf den Penryn bezogen, könnte aber natürlich auch für die folgende Generation (Nehalem) gelten.

HOT
2007-03-29, 08:24:30
Das ist meiner Meinung nach auf den Penryn bezogen, könnte aber natürlich auch für die folgende Generation (Nehalem) gelten.
Ganz bestimmt net ;). Das ist klar auf Nahelem bezogen.

AnarchX
2007-03-29, 08:28:29
Ganz bestimmt net ;). Das ist klar auf Nahelem bezogen.

Aha, warst du bei der Vorstellung dabei?
AnandTech und Tech Report ordnen die "Enhanced Dynamic Acceleration Technology" - EDAT Penryn zu.

Hier is übrigens der eigentliche Thread zum Thema:
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=326945

Mailwurm
2007-03-29, 14:17:53
Ganz bestimmt net ;). Das ist klar auf Nahelem bezogen.

Ich war bei der Telefonkonferenz dabei und hab auch das PDF hier vorliegen und da wird EDAT eindeutig als Feature des Penryns erwähnt.

Gast
2007-03-29, 22:30:45
Von der Startseite (News 28.03.):

"Wahrscheinlicher ist da eher, das Intel Nehalem von Anfang an mit integrierter Grafikeinheit geplant hat - allerdings wohl weniger mit einer 3D-fähigen, dies war beim Entwicklungsstart des Nehalem vor mehreren Jahren sicherlich noch nicht absehbar. Derzeit gehen wir bezüglich der integrierten Grafikeinheit des Nehalem eher von einer rein für 2D-Zwecke nutzbaren Lösung aus, welche sich von der Leistungsfähigkeit her also noch unterhalb der aktuellen integrierten Grafiklösungen von Mainboard-Chipsätzen legen würde."

Nehalem's integrierte Grafik nur 2D? Worauf begründet sich denn diese Vermutung? Ich persönlich glaube kaum das Intel Ende 2008 eine Grafiklösung auf den Markt bringen kann die noch nicht mal Vista's Aero Oberfläche darzustellen vermag. Kann ich mir einfach nicht vorstellen, Aero ist ja schließlich auch schon ein paar Jahre bekannt (von den MacOS und Linux 3D Desktoplösungen mal ganz abgesehen).

AnarchX
2007-03-29, 22:38:07
"2D-Zwecke" ist halt ein Synonym für Desktop und sonstige nicht aufwendige 3D-Anwendungen aus der Vergangenheit, dass bei manchem sich etwas festgesetzt hat.
Natürlich wird der IGP von Nehalem "3D-tauglich" sein. ;)

Gast
2007-03-29, 23:39:25
"2D-Zwecke" ist halt ein Synonym für Desktop und sonstige nicht aufwendige 3D-Anwendungen aus der Vergangenheit, dass bei manchem sich etwas festgesetzt hat.
Natürlich wird der IGP von Nehalem "3D-tauglich" sein. ;)

Na dann ist ja gut. Wenn er auch noch H.264/VC1 decodieren/beschleunigen kann dann würde mir das auch schon langen :)

Hoffe nur noch dass es die Variante mit Grafikcore auch für die Top-Modelle geben wird und nicht nur für die Low-End (wie z.B. Dual-Cores ;), Mobile/Workstation Version.

Mailwurm
2007-03-30, 00:49:18
Ich sehe für die Performance nicht so schwarz. Ich denke sie wird mindestens auf dem Niveau von derzeitigen Lösungen wie GMA X3000/X3100 liegen. Auf jeden Fall muss sie Vista-kompatibel sein und über die Video-Features verfügen. So wie ich das sehe, soll der Nehalem quasi als Ein-Chip-Lösung (CPU, GPU, Northbridge) im Notebook-Bereich einschlagen. Im Server- und höheren Desktop-Segment wird es auch Varianten ohne Grafikeinheit geben.

Achja, der Nehalem erinnert doch recht stark an den gestorbenen Timna. CPU, Speichercontroller und Grafik in einem für den Low-cost-Markt. Basiert sogar beides entfernt auf dem Pentium III Design.

Gast
2007-03-30, 00:56:57
Im Server- und höheren Desktop-Segment wird es auch Varianten ohne Grafikeinheit geben.

Hoffentlich gibt es dort auch Varianten MIT Grafikeinheit. Es gibt schließlich auch Leute die Prozessorpower gut gebrauchen können ohne gleich auf hohe 3D Performance (Gamer) angewiesen zu sein. Außerdem glaube ich weniger dass Games, selbst Ende 2008, von 16 Threads profitieren können...

Gast
2007-03-30, 01:03:25
So wie ich das sehe, soll der Nehalem quasi als Ein-Chip-Lösung (CPU, GPU, Northbridge) im Notebook-Bereich einschlagen.

Die Mobile Variante könnte sehr interessant werden. Der Notebook Bereich sieht sehr gut aus für 2009: SSD, Nehalem, OLED. Da müßte in Sachen Laufzeit doch so einiges möglich sein :)

Dunkeltier
2007-05-13, 06:00:42
Ich verstehe nicht ganz, wieso die Netburst-Architektur dermaßen durch den Schlamm gezogen wird. Der Willamette-Kern war mit Sicherheit nicht der Weisheit letzter Schluß, ebenso wie der Prescott (2M). Aber der Northwood "C" mit HyperThreading sowie später der Cedar Mill boten viel Rechenleistung bei relativ wenig Abwärme. In Zukunft wird sich der Trend wohl wieder in diese Richtung bewegen, das die Rechenleistung absinken wird - dafür aber massiv auf höhere Taktfrequenzen und mehr Kerne gesetzt wird. Der 80-Kerner "Polaris" war nur ein erster Vorgeschmack, real sieht man sowas ja schon in der Microsoft XBox 360 und der Sony PlayStation 3 verbaut.

Das erfordert über kurz oder lang ein Umdenken in der Software-Branche.

An selbige Probleme stoßen derweil auch die High-End GPU-Hersteller, deren Kerne mit den Millionen von Logiktranstistoren abartige Größen und Verlustleistungen erreicht haben. Auch hier sehe ich in Zukunft einen Wechsel hin zu vielen kleinen, abgespeckten Kernen, die bei Markt- und Produktbedarf zu zweit, viert, acht oder mehr auf einen Package verlötet werden. Sowas läßt sich wesentlich wirtschaftlicher fertigen. Während bei heutigen GPUs im Falle eines "Defekts" in den Transistoren ein Riesen-Die schlagartig 25% weniger Output bietet, kann man bei einen angenommen 32-Kerner mit 30 Kernen laut Spezifikation einfach auf einen dieser ein oder zwei Reserve-Kerne "umschalten"...

Das Problem an Netburst war nicht der Gedanke mit den hohen Taktfrequenzen. Das Problem war eher, diese hohen Taktfrequenzen mit einen (noch verhältnismäßig) starken Rechenkern zu erreichen. Multikerne konnte man "damals" dank nicht vorhandener Marktakzeptanz ja leider vergessen. Hier musste erst die Tür mit HyperThreading sowie den später ersten, zaghaften Dual-Core-Versuchen einen Spalt geöffnet werden. Kurzfristig werden wir die Pro-Mhz-Leistung steigen sehen, langfristig dagegen wird diese fallen.


http://scr3.golem.de/screenshots/0704/IDF-Polaris/Polaris-Takt.jpg

DaEmpty
2007-05-13, 12:51:00
Der 80-Kerner "Polaris" war nur ein erster Vorgeschmack, real sieht man sowas ja schon in der Microsoft XBox 360 und der Sony PlayStation 3 verbaut.
Das erfordert über kurz oder lang ein Umdenken in der Software-Branche.
In Zukunft werden wir weniger Monokulturen auf den Prozessoren sehen. Der Trend geht in Richtung verschiedener Kerne auf einem Die.
Die meisten Programme werden auf ähnlichen Cores wie heute laufen.

Für Anwendungen, die auf auf OoO verzichten können und dazu massiv Rechenleistung und Bandbreite benötigen stehen eigentlich nur vor der Wahl GPU oder warten auf Streamingcores von den Prozessorherstellern. Das Umdenken auf GPU hat schon so langsam angefangen und man wäre wohl auch schon wesentlich weiter, wenn zB Cuda nicht NV-only wäre. Intel muss darauf hoffen, dass die GPU Hersteller es weiterhin nicht schaffen eine gemeinsame praxistaugliche Sprache zu entwickeln und die Softwarehersteller sich drauf eingeschossen haben, bevor sie ihr Larrabee-Projekt mit x86 verkaufsfertig haben. AMD steht mit ATI und Fusion auf jeden Fall auf der Gewinnerseite. ;)

stav0815
2007-05-13, 17:00:18
Und laut Anand mit MT
MT?

AnarchX
2007-05-13, 17:09:29
MT?

Multi-Threading

Coda
2007-05-13, 18:41:49
Das erfordert über kurz oder lang ein Umdenken in der Software-Branche.
Hast du eigentlich Ahnung von Softwareentwicklung oder laberst du nur? Ernsthafte Frage.

Das Problem an Netburst war nicht der Gedanke mit den hohen Taktfrequenzen. Das Problem war eher, diese hohen Taktfrequenzen mit einen (noch verhältnismäßig) starken Rechenkern zu erreichen.
Weder noch. Das Problem war Replay in Verbindung mit unvorhersehbar großen Leckströmen. Man kann sich's einfach nicht mehr leisten sinnlos eine ALU auszulasten.

Wuge
2007-05-13, 20:15:11
Hm, Replay ist wohl Heizgrund Nr. 1. Ich hatte dazu mal ein Paar Gedanken gepostet. Man könnte das Replay-Problem per SMT und Softwareanpassung lösen. Ein modifizierter Scheduler, der eben nicht alles auf gut Glück an die ALUs schickt wäre natürlich auch erforderlich.

Ich bin mal gespannt was mit Nehalem kommt. Intel gab ja bekannt, den L1I Cache wieder "näher an die Ausführungseinheiten zu bringen". Damit könnte das Comeback des Trace Cache gemeint sein.

Da auch SMT wieder eingeführt wird und die Softwareentwicklung inzwischen auf SMP/SMP reagiert, könnte man das Leerlaufen der ALUs damit in den Griff bekommen und somit eine NB ähnliche Architektur ohne oder mit weniger agressiven Replay (wahrscheinlichkeitslogik im Scheduler) verwirklichen.

deekey777
2007-06-09, 12:35:31
Nehalem kriegt einen Triple-Channel-Memorycontroller?
http://pc.watch.impress.co.jp/docs/2007/0607/ubiq188.htm
http://www.overclockers.ru/hardnews/25904.shtml

Gast
2007-06-09, 12:58:16
Nehalem kriegt einen Triple-Channel-Memorycontroller?
http://pc.watch.impress.co.jp/docs/2007/0607/ubiq188.htm
http://www.overclockers.ru/hardnews/25904.shtml
Vermutlich eher die HighEnd-Variante. Günstigere Nehalems kommen mit zwei Speicherkänalen daher, zumindest laut Darstellung.

AnarchX
2007-06-09, 13:39:54
Aber bei einem Nehalem-Modell mit IGP würde sich dies sicherlich auch nicht schlecht machen, wobei in diesem Segment wohl aber DC ausreichen würde.

Aber schon interessant, was alles Intel so auffahren wird. Umso mehr sorgen macht man sich um AMD. Aber es gibt ja noch Sun (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1396&Itemid=1). ;D

Winter[Raven]
2007-06-09, 13:49:09
Aber schon interessant, was alles Intel so auffahren wird. Umso mehr sorgen macht man sich um AMD. Aber es gibt ja noch Sun.

Ist auch nur ein logischer Schritt, die Frage war nicht ob er kommt, sondern wann. Bei Intel will man wohl AMD wirklich wieder zu dem Machen was AMD zu Zeiten von K6/2 war ^^.

Natürlich schlecht für den Kunden ... aber so ist die Wirtschaft.

Avalox
2007-06-09, 15:27:43
Wenn Intel solche Informationen so früh durchsickern lässt, dann sind sie sich Ihrer Sache aber nicht sicher.

Frühe Informationshäppchen sind Marketing. Marketing kostet Geld, dass gibt man nicht aus, wenn man denkt technologisch eh alles hinter sich gelassen zu haben.

AnarchX
2007-06-09, 15:34:26
Warum soll Intel diese Information Geld kosten? :|

Imo hat da wohl ein Board-Partner geschwätzt, die eben mittlerweile bestimmt schon in der Entwicklung an passenden Boards für Intels neue Plattform sind.

Gast
2007-06-09, 15:43:56
Vermutlich eher die HighEnd-Variante. Günstigere Nehalems kommen mit zwei Speicherkänalen daher, zumindest laut Darstellung.


ich glaube kaum dass die unterschiedliche cpus fertigen werden, es kommt dann natürlich darauf an wieviele kanäle vom mainboard wirklich benutzt werden.

Gast
2007-06-09, 16:53:07
ich glaube kaum dass die unterschiedliche cpus fertigen werden, es kommt dann natürlich darauf an wieviele kanäle vom mainboard wirklich benutzt werden.So sicher, wie es im Moment einen Allendale und einen Conroe gibt, wird es Versionen mit zwei bzw. vier Kernen geben. Ob die CPU(s) mit Grafikkern auch einen eigenen Die haben wird(werden), ist wohl noch nicht sicher. Ersteres wir alleine aus Kostengründen passieren, ganz wie bei AMD mit Barcelona und Kuma.

Undertaker
2007-06-09, 17:23:59
Nehalem kriegt einen Triple-Channel-Memorycontroller?
http://pc.watch.impress.co.jp/docs/2007/0607/ubiq188.htm
http://www.overclockers.ru/hardnews/25904.shtml

klingt irgendwie unrealistisch... dual oder quad vermarktet sich in meinen augen besser - zumal nehalem mit seinen riesen caches nicht so extrem an der speicheranbindung hängen sollte

AnarchX
2007-06-09, 17:45:50
klingt irgendwie unrealistisch... dual oder quad vermarktet sich in meinen augen besser - zumal nehalem mit seinen riesen caches nicht so extrem an der speicheranbindung hängen sollte

In der Intel-Folie im ersten Post (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=4894772&postcount=1) spricht man jedenfalls von Scalable Memory Controllers und vielleicht zielt man hier auf ein Segment ab, wo solches Marketing gar nichtmal so wichtig ist (Server, Workstations).
Auch wäre dies doch ein sinnvoller Zwischenschritt, als dass man gleich auf Quad-Channel geht.

Aber wir werden ja sehen wie sich das bis 2008 entwickeln wird.

deekey777
2007-06-09, 19:47:46
klingt irgendwie unrealistisch... dual oder quad vermarktet sich in meinen augen besser - zumal nehalem mit seinen riesen caches nicht so extrem an der speicheranbindung hängen sollte
Das ist in erster Linie die Frage der Kosten (zB die Komplexität des Mainboards steigt).

=Floi=
2007-06-09, 21:44:23
würde aber dann für 6 bänke sprechen und für 3 riegel
also 6-12gb ram

StefanV
2007-06-10, 06:37:15
Warum soll Intel diese Information Geld kosten? :|

Imo hat da wohl ein Board-Partner geschwätzt, die eben mittlerweile bestimmt schon in der Entwicklung an passenden Boards für Intels neue Plattform sind.
Und du glaubst, das man nicht rausbekommt, von wem die Information kommt?!
Und du glaubst, das man sich nicht abgesichert hat und entsprechende Verträge gemacht hat, die den Brecher stark bestrafen?!
Und du glaubst, das Intel absolut keine Angst vor dem Barcelona und allem was danach kommt, hat und solche informationen nicht absichtlich streut?!

AnarchX
2007-06-10, 09:57:37
Und du glaubst, das man nicht rausbekommt, von wem die Information kommt?!
Und du glaubst, das man sich nicht abgesichert hat und entsprechende Verträge gemacht hat, die den Brecher stark bestrafen?!

Naja, es ging eher um die Aussage von Avalox, dass diese Bekanntgabe der Information Intel großartig Geld gekostet hat.

Zudem würde ich doch sagen, dass es so besonders auch nicht wieder ist und AMD sicherlich auch über einen >2 Channel IMC Gedanken macht.


Und du glaubst, das Intel absolut keine Angst vor dem Barcelona und allem was danach kommt, hat und solche informationen nicht absichtlich streut?!

Naja, erstmal sollte Barcelona überhaupt mal kommen, da es mit den Problemen/Verschiebungen doch langsam etwas lächerlich wird (http://www.theinquirer.net/default.aspx?article=40221) und großartige Hoffnungen setze ich leider auch nicht mehr in diesen, nach dem aktuellen Informationsstand.

Und das Intel Angst vor AMDs zukünftigen Produkten hat, halte ich auch etwas übertrieben, eher ist es umgekehrt: AMD wird wohl langfristig nicht mit dem Tempo und der Preisgestaltung mithalten können, welche Intel vorgibt.

Was sehr schade ist, da wir wissen wohin das für uns Kunden führenden wird.:(
Aber es war auch vorrauszusehen, das Chipzilla sich nicht ewig von AMD auf der Nase herumtanzen lassen wird und es nicht dazu kommen lassen wird, dass sie ihnen zu gefährlich werden.

AnarchX
2007-06-26, 07:13:50
Information about Intel’s second generation 45 nm processor also has begun trickling in: Gainstown, expected to be available with up to eight cores, will be using a dual-die design (with up to 2 x 4 cores) as well as the flip-chip LGA8 package. The die size will climb substantially from currently 143 mm2 of the 65 nm Core 2 Duo and an expected 107 mm2 of the upcoming 45 nm Penryn generation to 191 mm2, due to larger caches as well as an integrated memory controller, which will be one major factor that is responsible for an increased pin count: Gainstown processors will have 1366 pins, up from 775 in the current (desktop) Core 2 Duos.
http://www.tgdaily.com/content/view/32624/135/

turboschlumpf
2007-06-26, 15:51:30
Gainstown ist also die Desktop-Version von Nehalem?

AnarchX
2007-06-26, 15:54:17
Gainstown ist also die Desktop-Version von Nehalem?

Imo nicht, Gainestown wird ein Xeon DP sein.
Bloomfield sollte der Desktop-Quadcore sein.

Aktuell ist es ja auch so:

Kentsfield ->Desktop
Clovertown -> Xeon

Und die Chipsets haben die Bezeichnungen von Gewässern -> Bearlake, Eaglelake.

AnarchX
2007-07-13, 13:30:36
[Intel Pushs Nehalem Into H2 2008] (http://vr-zone.com/index.php?i=5113)
Intel has revealed some information on their Nehalem processor in the latest roadmap updates. The 45nm Hi-K Nehalem-EP is based on 4-issue Intel Core microarchitecture technology, supports Simultaneous multi-threading and Multi-level shared cache architecture (L2 and L3). Nehalem-EP processor will arrive earlier than expected in H2 2008 and will be pairing up with Tylerburg chipsets. [...]

AMD wird es gerade mal schaffen Anfang 2008 K10 mit vernünftigen Taktraten auszuliefern, während Intel vielleicht 6 Monate später schon einen gewaltigen Entwicklungschritt macht.:|

Gast
2007-07-13, 13:44:22
Das wäre wirklich nicht schlecht, aber interessant wirds meiner Meinung nach erst durch 32nm, 8 cores, SMT, IMC, shared L3.

Das wäre ein echtes Monster. :)

Vorallem technologisch ist es meiner Meinung nach dann einer der fortschrittlichsten x64 CPUs.

Man kann sagen was man will, aber wenn der Nehalem endlich einen IMC bekommt und dazu auch noch shared L3 Caches, dann muss AMD eindeutig mal nachlegen. Kann ja nicht sein, das Intel dann bis zu 8 oder gar 16 Threads verarbeiten kann und der K10 nur 4.

Der shared L3 Cache scheint mir auch eine gute Idee.

The_Silent_One
2007-07-14, 14:13:36
naja, wird es der L3 Cache wirklich bringen? Ich meine, mit einem IMC wird doch weniger Cache benötigt oder sehe ich das falsch?

Aber die Entwicklung bei Intel geht momentan wirklich wahnsinnig schnell voran.

Hoffentlich kommt AMD da noch hinterher und kann dem K10 dann noch ein paar features verpassen, die nützlich/performant sind (z.B. SMT).

Gast
2007-07-14, 14:17:39
Cache wird immer benötigt, davon hat man nie genug. :)

Es gibt auch Fälle (besonders im Bereich der Server) wo ein AMD Athlon 64 X2 mit 200 MHz weniger und doppelt so großem Cache, das größere Modell mit nur halb so viel Cache schlägt.

Ich denke mal der L3 wird bei Intel dazu gedacht sein, die ganzen Cores untereinander zu verbinden.

Das wäre schon beim Kentsfield sinnvoll, da immer nur zwei Kerne auf den gemeinsamen L2 Cache zugreifen können, aber nicht alle vier.

reunion
2007-07-14, 14:26:11
[Intel Pushs Nehalem Into H2 2008] (http://vr-zone.com/index.php?i=5113)


AMD wird es gerade mal schaffen Anfang 2008 K10 mit vernünftigen Taktraten auszuliefern, während Intel vielleicht 6 Monate später schon einen gewaltigen Entwicklungschritt macht.:|

Welchen gewaltigen Entwicklungsschritt? Was hat Nehalem, was K10 nicht schon 2007 hat (SMT mal ausgenommen)? Der K10 wird ein nativer Quadcore, mit shared L3-Cache, integrierten Memorycontroller, drei HT3-Links, etc. Alles Dinge, die AMD zum teil schon seit geraumer Zeit bietet, und wo Intel erst mit Nehalem aufschließen kann.

Gast
2007-07-14, 14:38:51
Was hat Nehalem, was K10 nicht schon 2007 hat (SMT mal ausgenommen)?

DDR3 Support, SMT, shared L2 Cache.

Du solltest das SMT nicht unterschätzen. Wenn mit jeden virtuellen Kern die Recheneinheiten um 10% besser ausgelastet werden können, wäre das ein riesiger Sprung in der Performance, da jeder einzelne Kern mehr Arbeitet erledigen könnte.

Beim Pentium 4 hat HT teilweise sogar 90-100% gebracht, man konnte z.B. mehrere SETI-Threads laufen lassen, ohne das diese langsamer wurden.

Rechne das mal mal vier :)

reunion
2007-07-14, 15:13:22
DDR3 Support, SMT, shared L2 Cache.


Nehalem wird keinen shared L2 Cache haben, und DDR3-Support kommt bei AMD auch mit den 45nm CPUs im H2 2008.


Du solltest das SMT nicht unterschätzen. Wenn mit jeden virtuellen Kern die Recheneinheiten um 10% besser ausgelastet werden können, wäre das ein riesiger Sprung in der Performance, da jeder einzelne Kern mehr Arbeitet erledigen könnte.

Beim Pentium 4 hat HT teilweise sogar 90-100% gebracht, man konnte z.B. mehrere SETI-Threads laufen lassen, ohne das diese langsamer wurden.

Rechne das mal mal vier :)

Stimmt schon, SMT ist nicht zu unterschätzen, wenn die Software daraus Profit schlagen kann.

Winter[Raven]
2007-07-14, 15:16:27
AMD zum teil schon seit geraumer Zeit bietet, und wo Intel erst mit Nehalem aufschließen kann.

Und was hat es AMD bis jetzt gebacht?

Gast
2007-07-14, 15:17:30
Nehalem wird keinen shared L2 Cache haben, und DDR3-Support kommt bei AMD auch mit den 45nm CPUs im H2 2008.



Stimmt schon, SMT ist nicht zu unterschätzen, wenn die Software daraus Profit schlagen kann.Shared ist der Cache auch für den L2, steht so zumindest im VR-Artikel.

Gast
2007-07-14, 15:18:57
Nehalem wird keinen shared L2 Cache haben

Quelle? In der verlinkten News steht shared L2 + L3.

Stimmt schon, SMT ist nicht zu unterschätzen, wenn die Software daraus Profit schlagen kann.

Das wird in jedem Fall so sein.
Nehalem wird nur deshalb forciert, weil Intel dringend was besseres im Servermarkt braucht.

Und gerade bei Webserver/Datenbanken/virtuellen Servern ist SMT sehr vom Vorteil.

Sehen wir es doch mal so:
Der FSB ist weg. Wieviele Performance durch den IMC resultieren werden, ist noch gar nicht bekannt. Wenn es 20% wären, ist das schon enorm.
Dazu kommen die verbesserungen an Taktraten + Core + Cache + SMT. Also ich weiß, warum du das so negativ siehst.

Das können gut und gerne auch mal 50% mehr Performance als beim Penryn sein, man weiß es halt nicht.

reunion
2007-07-14, 15:19:17
;5669418']Und was hat es AMD bis jetzt gebacht?

Soll das ein Scherz sein? AMD hält mittlerweile >50% des 4-Wege-Servermarktes und >25% des gesamten x86 Servermaktes. Vor wenigen Jahren lag man noch unter einem Prozent.

reunion
2007-07-14, 15:23:54
Shared ist der Cache auch für den L2, steht so zumindest im VR-Artikel.

Das stimmt aber nicht. Intel hat erst unlängst bekannt gegeben, dass nur das höchste Cachelevel shared ist, also ganz ähnlich wie bei Barcelona.
Pat Gelsinger indicated that only the highest level of cache would be shared, meaning that Nehalem could very well have a similar cache hierarchy to AMD's Barcelona (independent L1/L2 caches per core, but a shared L3 cache).

http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=2955&p=3

Es macht wohl auch nicht viel Sinn, mehr als eine "Cachestufe" zu sharen, da man dadurch einiges an Latenzen verschenkt.

Gast
2007-07-14, 15:44:52
Das stimmt aber nicht. Intel hat erst unlängst bekannt gegeben, dass nur das höchste Cachelevel shared ist, also ganz ähnlich wie bei Barcelona.

VR-Zone behauptet das Gegenteil:
"Intel has revealed some information on their Nehalem processor in the latest roadmap updates."

Es macht wohl auch nicht viel Sinn, mehr als eine "Cachestufe" zu sharen, da man dadurch einiges an Latenzen verschenkt.

Doch, das macht durchaus Sinn. Denn sowohl L2 als auch L3 Caches könnten so effizienzter genutzt werden.

Beim Kentsfield sind auch nur zwei Kerne miteinander verbunden.

Wir wissen ja noch nicht, woraus der Nehalem besteht. Vielleicht ist es wieder ein 2x2 Design oder sogar 4x2 oder 2x4 Beim Octacore.

Shared Cache bringt auch beim L2 etwas, denn dadurch ist die Auslastung des Caches wesentlich besser zu steuern. Was nützt dir ein dicker Cache, wenn der meiste Teil davon die ganze Zeit brach liegt?

Winter[Raven]
2007-07-14, 16:17:51
Soll das ein Scherz sein? AMD hält mittlerweile >50% des 4-Wege-Servermarktes und >25% des gesamten x86 Servermaktes. Vor wenigen Jahren lag man noch unter einem Prozent.

Quelle bitte :)

AnarchX
2007-07-16, 20:19:58
Nehalem-EP auf der neusten Roadmap (http://www.vr-zone.com/index.php?i=5116)
http://img512.imageshack.us/img512/6876/nehalemepgz3.png

[Intel New Nehalem & Tukwila Platforms In H2 2008] (http://www.vr-zone.com/index.php?i=5115)
Intel is moving to IT usage based segmentation for future Nehalem and Tukwila platforms in H2 2008. The current Itanium segment will be renamed as Mission Critical (MC), Enterprise MP to be known as Expandable (EX), Volume DP to be known as Efficient Performance (EP) and lastly Entry UP to be called Entry (EN). For MC segment, Itanium 2 platform (Itanium 2 9000 series + E8870 chipset) will be succeeded by Boxboro MC platform made up of Tukwila MC and Boxboro MC chipset. For EX segment, Caneland Platform (Xeon 7000 series + 7300 chipset) will be succeeded by 45nm Dunnington Nehalem based processor. [...]

JayK.
2007-07-25, 09:02:20
Vielleicht schafft dieser Artikel noch ein bisschen mehr Aufklärung
http://www.mactechnews.de/index.php?id=17239

Hvoralek
2007-07-25, 11:22:49
Vielleicht schafft dieser Artikel noch ein bisschen mehr Aufklärung
http://www.mactechnews.de/index.php?id=17239Da steht jetzt eigentlich kaum etwas drin, was nicht schon länger bekannt wäre, abgesehen von diesem "QuickPath". Und was soll "vollständig [i]mplementier[tes]" SMT sein? :confused:

AnarchX
2007-07-25, 11:42:33
Und was soll "vollständig [i]mplementier[tes]" SMT sein? :confused:

Wohl die grundlegende Anpassungen der Architektur auf SMT und nicht einfaches Anflanschen, wie es vielleicht bei Netburst passierte.

Gast
2007-07-25, 12:37:20
Wohl die grundlegende Anpassungen der Architektur auf SMT und nicht einfaches Anflanschen, wie es vielleicht bei Netburst passierte.

Was genau was bedeutet? Marketing, mehr nicht. Entweder ein Kern kann zwei Threads parallel bearbeiten, oder nicht. Zum Anpassen gibts da nicht viel, außer vielleicht, dass man gewisse Einheiten doppelt auslegt.

Gast
2007-07-25, 22:12:28
Wohl die grundlegende Anpassungen der Architektur auf SMT und nicht einfaches Anflanschen, wie es vielleicht bei Netburst passierte.


HT wurde an die netburst-technologie nicht "angeflanscht" sondern war von anfang an dabei, schon im P4-willamette-core.

Gast
2007-08-01, 12:46:39
...
Imo hat da wohl ein Board-Partner geschwätzt, die eben mittlerweile bestimmt schon in der Entwicklung an passenden Boards für Intels neue Plattform sind.

Intel nutzt für die Entwicklung ihrer CPUs KEINE "Board-partner" wie du sie nennst.
Sie bauen ihre eigenen Mobos für die Entwicklung, was raussickert,
ist fast immer gewollt.

Gast
2007-08-01, 12:49:36
Soll das ein Scherz sein? AMD hält mittlerweile >50% des 4-Wege-Servermarktes und >25% des gesamten x86 Servermaktes. Vor wenigen Jahren lag man noch unter einem Prozent.

sowas würde vllt die Bildzeitung drucken,
der Wahrheit entsprechen deine Zahlen leider nicht

Gast
2007-08-01, 13:38:47
sowas würde vllt die Bildzeitung drucken,
der Wahrheit entsprechen deine Zahlen leider nicht

http://www.xbitlabs.com/news/cpu/display/20061031044241.html

reunion

Gast
2007-08-02, 11:18:09
Ob das wirklich so gut läuft bei AMD ?!?
http://finance.yahoo.com/q/bc?t=1y&s=AMD&l=on&z=m&q=l&c=intc

AnarchX
2007-08-06, 07:46:42
而值得注意的是,Intel已向主機板業者透露,將於10月提供下一代微架構「 Nehalem」處理器樣本,預計2008年下半年面市,「Penryn」家族只需要支撐半年,就會降至中低階,與新一代「Nehalem」處理器聯手夾擊AMD K10處理器。如此精細縝密佈局,相信Intel已記取先前慘遭AMD K8痛擊的教訓,做好萬全準備,顯示龍頭絕不退讓的決心。
It is worth noting that Intel motherboard industry has been revealed, October will provide the next generation micro-architecture "Nehalem" processor samples, the second half of 2008 is expected to market,

http://www.hkepc.com/bbs/hwdb.php?tid=837360&tp=Intel-Penryn-Preview&rid=837360

Nehalem Samples für die Mobo-Hersteller schon diesen Oktober. :eek:

mocad_tom
2007-08-07, 15:18:59
Kann auch leicht sein, das damit "nur" Dual-Cores für den Socket B(LGA1366) gemeint sind.

Für die Mainboard-Hersteller wird es zunächst mal schwer diese komplett andere Philosophie in eine Platine zu giesen. AMD hatte mit der Einführung des Sockel 940 ähnliche Probleme. Es mussten auch zuerst Referenz-Layouts vorgegeben werden, erst in der 2.Generation konnten die Platinen-Layouter mit den neuen Anforderungen besser umgehen.

Wenn wirklich erst im Oktober erste Dual-Cores mit dazu passenden CSI-Chipsätzen ausgeliefert werden, ist es möglich das der Bug-Fixing-Prozess bei der Markteinführung noch nicht ganz abgeschlossen ist.

Grüße,
Tom

mocad_tom
2007-08-08, 09:02:48
Hier steht es auch drin:
http://www.digitimes.com/news/a20070807PB202.html
...to provide engineering samples of its new Nehalem microarchitecture in October...

Ich vermute stark, das dies noch keine nativen Quad-Cores sind, sondern Dual-Cores mit Mem-Controller und CSI.

AnarchX
2007-08-08, 09:07:22
Wer sagt, dass es bei Nehalem überhaupt noch DCs geben wird? ;)

Gast
2007-08-08, 09:27:36
Wer sagt, dass es bei Nehalem überhaupt noch DCs geben wird? ;)

Ich. Und ich würde wetten, dass es selbst noch SCs geben wird.

reunion

AnarchX
2007-08-08, 09:39:34
Ich. Und ich würde wetten, dass es selbst noch SCs geben wird.


Naja, stellt sich halt die Frage, ob man Anfang 2009 noch einen hohen Bedarf an DCs hat.
Immerhin könnte man diesen bis dahin vielleicht kleinen Markt ja noch mit Penryn-CPUs abdecken. Im Serverbereich mit Nehalem-EP wird es sicherlich keine DCs mehr geben, wie Intel schon sagte warum noch 2 Kerne auf einen Sockel setzen, wenn man auch 4 kann.

@Singlecore: Silverthorne? ;) Mal sehen ob Intel diesen Nehalem zurrechnen wird.

AnarchX
2007-08-15, 16:34:04
Nehalem to use either integrated or external memory controller (http://www.theinquirer.net/default.aspx?article=41693)

[...]
The north bridge strategy will stay active in CSI era as well. Chipzilla will not take AMD's route and simplify chipsets to a point where "chipset" is actually a single chip, but will keep current two chip configuration.

Due to the excess capacity in the 65 nanometre space, Intel will switch chipset production to 65nm and Northbridge/Southbridge concept will stay in force during 2008, especially on the mobile and on desktop side. North bridge chips will sport the CSI interconnect, GPU (if the part is bears IGP) and a DDR3 memory controller. [...]

Wenn man so flexibel ist mit Nehalem sicherlich keine schlechte Strategie. Für Desktop reicht wohl CSI aus.

Gast
2007-08-15, 17:17:06
Ein LV-Single Core für z.b Notebooks wäre tool :)

AnarchX
2007-08-15, 17:23:32
Ein LV-Single Core für z.b Notebooks wäre tool :)

Das wird wie schon gesagt Silverthorne sein, der dank SMT wohl auch einen netten Workflow hat:
http://www.tecchannel.de/kommunikation/news/473592/

Aber ob man diesen Nehalem zuordnen kann ist eher fraglich.

btw.

Intel tapes out high-end desktop chipset for Nehalem core (http://www.tgdaily.com/content/view/33369/135/)
Chicago (IL) – Industry sources confirmed to TG Daily that Intel has received first silicon of its "Tylersburg" chipset, which will be available for high-end desktop processors built on Intel's new Nehalem architecture due in 2008. [...]

AnarchX
2007-09-07, 07:37:02
Nehalem im Juni 2008 zur Computex?
So, until Nehalems arrive around Computex 2008 time

Aber auch interessant, dass man sich wieder von FBDimm abwendet. Das zusammen mit IMC/QP und der verbesserten Core2-Architektur dürfte erheblichen Druck im Server/Workstationsegment ausüben.

AnarchX
2007-09-16, 19:46:05
Nehalem und Plattform-Infos (wohl schon ein paar durchgesickerte Dinge von der kommenden IDF am Dienstag):
http://img262.imageshack.us/img262/9174/kaigai38601lvg3.gif
http://img116.imageshack.us/img116/691/kaigai38602lxe4.gif
http://img262.imageshack.us/img262/7493/kaigai38603lag8.gif
http://img262.imageshack.us/img262/4797/kaigai38604lmv8.gif

Quelle (http://pc.watch.impress.co.jp/docs/2007/0916/kaigai386.htm?ref=rss)

StefanV
2007-09-17, 00:59:57
Intel nutzt für die Entwicklung ihrer CPUs KEINE "Board-partner" wie du sie nennst.
Sie bauen ihre eigenen Mobos für die Entwicklung, was raussickert,
ist fast immer gewollt.
AMD baut aber auch eigene Boards bzw lässt es machen...

reunion
2007-09-18, 19:24:48
Nehalem: Single die, 8-cores, 731M transistors, 16 threads, memory controller, graphics, amazing. (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3101)

http://img267.imageshack.us/img267/4497/nehalema7cff6ny7.jpg (http://imageshack.us)

Coda
2007-09-18, 19:34:22
Ich seh da nur 4 Cores. 8 Cores bezieht sich wohl auf Dual-Die. Dürfte ein Missverständnis sein.

Aber offenbar Triple-Channel zumindest bei den Serverchips. Intel klotzt echt.

BlackBirdSR
2007-09-18, 19:36:29
Nehalem: Single die, 8-cores, 731M transistors, 16 threads, memory controller, graphics, amazing. (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3101)


Bin etwas überrascht über den relativ niedrigen Transistorcount. Aber anscheinend verbaut man einen "relativ" kleinen L2 oder L3 Cache, oder siehe Coda ;)
Momentan haben die Core2D schon 291M bei 4MB

AnarchX
2007-09-18, 19:43:26
Intel announced that in its largest configuration, Nehalem (2H 2008, 45nm) will feature 8 cores on a single die
:|

Wäre über 300mm², aber immerhin soll er ja auch Itanium mit ersetzen...

S940
2007-09-18, 19:51:20
Ich seh da nur 4 Cores. 8 Cores bezieht sich wohl auf Dual-Die. Dürfte ein Missverständnis sein.Ich seh da auch nur 4Cores:
http://www.bilder-upload.eu/upload/jkOwUrSuEnPfECZ.JPG
Schneller Hack mit Windows Pain(t), sorry für die miserable Qualität ;-)

Ausserdem sehe ich die 3 DDR3 MCs nicht, aber die sind relativ breit, vielleicht reicht das.

ciao

Alex

dildo4u
2007-09-18, 19:53:05
8 Cores Haut vom Transistorcount nich hin die Quads sind schon jetzt mit 8 MB Cache bei ~580Mio Transistoren.

AnarchX
2007-09-18, 19:57:38
Da hat definitiv Anandtech einiges durcheinander geworfen, was aber nicht heißen muss, dass es keine nativen Octo-Core gibt. Wobei ich diesen eher mit 32nm vermutet hätte.

dildo4u
2007-09-18, 20:03:27
Intel hat whol schon ein laufenden 32nm Prozessor auf der IDF demonstiert.

"Speaking to industry leaders, developers and industry watchers at the Intel Developer Forum (IDF), Otellini showed the industry's first working chips built using 32 nanometer (nm) technology, with transistors so small that more than 4 million of them could fit on the period at the end of this sentence. Intel's 32nm process technology is on track to begin production in 2009."

http://www.intel.com/pressroom/archive/releases/20070918corp_a.htm

S940
2007-09-18, 20:03:51
Da hat definitiv Anandtech einiges durcheinander geworfen, was aber nicht heißen muss, dass es keine nativen Octo-Core gibt. Wobei ich diesen eher mit 32nm vermutet hätte.
Der Inqu. meldet aber auch 8 cores .. strange:
Nehalem will be a flexible product with the ability to change a number of factors including cache. Nehalem products will be able to turn cores, caches and threads on and off to optimise performance. There will be an eight-core product in 2008 with each core having two threads.
http://www.theinquirer.net/default.aspx?article=42431

Hat Intel da wohl Doppeldeutiges erzählt ...

Edit:
Intel hat whol schon ein laufenden 32nm Prozessor auf der IDF demonstiert. Neee, das sind sicherlich nur SRAM Zellen, ansonsten könnte man sich 45nm ja gleich sparen ...

ciao

Alex

AnarchX
2007-09-18, 20:07:26
Dass bis zu 8+ Cores möglich sind ist ja schon länger bekannt:
http://img471.imageshack.us/img471/2213/nehalemzt3.jpg

Aber bisher wurde dies eher mit einem MCM in Verbindung gebracht, vorallem da ja die 4-Core-Variante schon fast auf 200mm² kommen soll.

BlackBirdSR
2007-09-18, 20:10:41
Sieht mir auch danach aus, dass Intel eine 4-Core Variante mit 731M gezeigt hat, und gleichzeitig angibt bis auf 8 Kerne auf einem DIE skalieren zu können. Ansonsten macht es wirklich wenig Sinn von der Anzhal an Transistoren ausgehend.

update@Anand:

Each 4-core Nehalem is built from 731M transistors, nearly double that of Penryn. The 8-core variant isn't ready yet so we don't have a transistor count for that one as of this writing. Nehalem will sport an on-die memory controller and a new system interconnect called Intel's QuickPath Interconnect (Intel's answer to Hyper Transport).

AnarchX
2007-09-18, 22:47:33
http://www.computerbase.de/news/hardware/prozessoren/intel/2007/september/idf_intel_nehalem_aktion/
Das gezeigte Nehalem-Sample basiert auf dem allerersten A0-Stepping und hat erst vor drei Wochen Intels Halbleiterfabrik verlassen, wobei das Tape-Out des Chips etwa vier Wochen zurückliegt. Der Halbleiterriese musste sich also durchaus beeilen, um diese Demonstration zu ermöglichen.
[...]
Die kurze Zeit hat jedoch genügt, um Nehalem – wie Intel bekannt gab – zur Zusammenarbeit mit Windows XP und Mac OS X zu bewegen. Zum Beweis der Funktionfähigkeit wurde auf einem mit Nehalem bestückten PC im Media Player von Windows XP eine Audio-Datei abgespielt: „Hi Paul, I am Nehalem. I am only three weeks old, and already talking“.

:usweet:

Und hier nochmal der Die etwas besser:
http://img228.imageshack.us/img228/1734/nehalemdieay5.jpg

Sieht doch ganz danach aus, dass alle Cores auf einen Shared L2-Cache zugreifen oder übersehe ich den dedizierten?

Nightspider
2007-09-18, 22:55:57
Also kann ein Kern dann bei alten Programmen 12 MB Cache nutzen ? :eek:

Mein letzter SingleCore hatte 0,5 MB Cache. Ne Steigerung des Faktors 24.

AnarchX
2007-09-18, 22:58:16
Also kann ein Kern dann bei alten Programmen 12 MB Cache nutzen ? :eek:


Momemtan stehen aber nur 8MB, wohl eben da nun kein FSB mehr zwichen je 2 Cores ist, zur Diskussion und völlig verbunden scheint der "L2"-Cache auch nicht zu sein.

Gast
2007-09-18, 23:05:30
Ja es sieht eher nach 2 Dualcores auf einem DIE aus.

Hvoralek
2007-09-18, 23:32:20
Der Inqu. meldet aber auch 8 cores .. strange:

http://www.theinquirer.net/default.aspx?article=42431

Hat Intel da wohl Doppeldeutiges erzählt ...Dem Inquirer würde ich auch zutrauen, das SMT in den falschen Hals bekommen zu haben :ugly:

AnarchX
2007-09-18, 23:41:51
Dual-Socket Nehalem:
http://img402.imageshack.us/img402/378/nehedemoka1.jpg
http://www.fudzilla.com/index.php?option=com_content&task=view&id=3122&Itemid=35