PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Haswell - 22nm, DX11.1 und AVX2 in H1/2013 - HSW-Refresh Q2/2014


Seiten : [1] 2 3 4 5 6 7 8

AnarchX
2011-07-03, 10:50:19
Für das 2. Quartal 2014 ist ein Refresh weiterhin auf der 22nm Basis geplant. Dazu wird es die 90er Chipsatzserie geben. Spekuliert wird die Unterstützung von DDR4.
Der 14nm Tick-Refresh von Haswell - Broadwell, wird nur als verlötete BGA-CPU (Mobile, AiO) erscheinen und eine stark verbesserte GPU-Archiketur bieten: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=542134

Roadmaps zum Haswell-Refresh:
http://asder00.blogspot.it/2013/05/intel-desktop-roadmap-2013-2014.html

Analyse der HSW Architektur @ RWT: http://www.realworldtech.com/haswell-cpu/

http://www.abload.de/img/190ilw.png
http://www.forum-3dcenter.org/vbulletin/showpost.php?p=8791048&postcount=245

AVX2 - Integer data types expanded to 256-bit SIMD. AVX2’s integer support is particularly useful for processing visual data commonly encountered in consumer imaging and video processing workloads. With Haswell, we have both Intel® Advanced Vector Extensions (Intel® AVX) for floating point, and AVX2 for integer data types
http://software.intel.com/en-us/blogs/2011/06/13/haswell-new-instruction-descriptions-now-available/

DDR4 erst 2014: http://www.heise.de/ct/meldung/DDR4-SDRAM-wird-erst-ab-2014-erwartet-1269391.html
Verschiebung von Haswell? Oder erst Support im 14nm Shrink Broadwell?

TSX - Transactional Synchronization in Haswell (http://software.intel.com/en-us/blogs/2012/02/07/transactional-synchronization-in-haswell/)

L4-Cache / On-Package-DRAM:

[...]
Then, there is the 'king of the hill', the 4 core CPU plus GT3 GPU die with graphics further double as fast as the GT2, i.e. well over twice, possibly thrice, the Ivy Bridge speed.
[...]
http://limages.vr-zone.net/body/15272/dieimage.jpg.jpeg
[...]


http://vr-zone.com/articles/mystery-solved--haswell-expected-to-up-the-graphics-ante-further-again/15272.html


http://twimages.vr-zone.net/2012/12/haswell.jpg
http://chinese.vr-zone.com/43824/intel-haswell-cpu-will-release-at-2013-q2-with-13-model-including-4770k-4670k-for-overclocking-12112012/

Ronny145
2011-07-03, 11:08:37
Prozessorgeflüster von heise:

Aber Anfang 2013 soll dann der „Tock“ zum Haswell-Prozessor folgen, der wieder von der Crew in Oregon rund um Ronak Singhal designt wird, die womöglich weitere Techniken aus der untergegangenen Netburst-Architektur wiederbeleben könnte. Man hört zudem von einem komplett neuen Cache-Design, einer vergleichsweise kurzen Pipeline von 14 Stufen, neuen Energiesparmechanismen und einer wahrscheinlich optionalen Vektoreinheit, die mit 512 Bit Breite arbeitet und LNI spricht: Larrabee New Instructions.
http://www.heise.de/ct/artikel/Prozessorgefluester-1260654.html

Wie man am Rande der ISC11 durch Spalten verschlossener Türen erlauschen konnte, hat Intel den Stapellauf des Haswell-Prozessors auf 2014 verschoben.
...Ob der Prozessor selbst oder seine Infrastruktur daran Schuld trägt, sei dahingestellt, so hat iSuppli über Verzögerungen beim DDR4-RAM berichtet, das auch nicht vor 2014 erscheinen wird.

http://www.heise.de/ct/artikel/Prozessorgefluester-1269245.html


Anfang 2013 ist sowieso Quatsch gewesen wenn Ivy erst März/April kommt. Vor Mitte bis Ende 2013 ist das nicht realistisch. Ein 2014 Datum würde bedeuten, dass Ivy so ca 2 Jahre aktuell bleibt im Mainstream. Da muss man mal abwarten ob die Spekulation von heise stimmt, bis dahin geht noch viel Zeit ins Land.

Auf der Computex Anfang Juni hieß es seitens Intel 2013. Im Fokus steht wohl die Absenkung der TDP, um die "Ultrabooks" voranzutreiben.

http://www.abload.de/img/217st.jpg

http://www.abload.de/img/4s7cv.jpg

http://www.abload.de/img/3o7sc.jpg

http://www.abload.de/img/1enpo.jpg


Here's what we already know about Haswell, per a conversation I had last month with Intel marketing chief Tom Kilroy: The mobile version of Haswell will be Intel's first system-on-a-chip designed for the mainstream laptop market, according to Kilroy.

Fast forward to 2013. By then, a significant chunk of the mainstream laptop market will likely consist of "Ultrabooks," according to Intel.

http://news.cnet.com/8301-13924_3-20073883-64/intels-haswell-chip-in-focus-heads-up-nvidia/

mAxmUrdErEr
2011-07-03, 15:36:07
Es ist schön zu sehen, was sich im Laptopmarkt noch tut. Da kommen ganz tolle Sachen auf uns zu. =)

Ailuros
2011-07-03, 16:12:17
Nehmt mir es nicht uebel aber mir waer es lieber wenn Intel etwas handfesteres liefert als nur bunten Ankuendigungen und slides. Jedesmal wenn etwas ausserhalb CPUs vorangekuendigt wird sitzen viele von uns aufrecht und wenn es dann endlich auf Regalen erscheint und getested wird bleibt einem nur ein "blah ist das alles" Gefuehl uebrig. Anders "put up or shut up"; es unterschreibt sowieso kein Hersteller und/oder OEM/ODM nur mit Papiertiegern.

Nightspider
2011-07-04, 00:11:57
Haswell als SoC im mobile bereich ist doch schon mal eine handfeste Aussage.

Gut möglich das Intel agressiv den Ultraleicht-Sektor angreifen will (Subnotebooks, Tablets usw.) um den ARM CPUs möglichst wenig Angriffsfläche zu bieten.

Und durch ein SoC Design, womöglich sogar mit stacked RAM/VRAM könnte Intel das auch schaffen.

Ronny145
2011-07-04, 00:38:57
Davon hat übrigens auch schon pc.watch.impress vor einem Monat berichtet. Wenn ich die Übersetzung richtig verstehe ist die SoC Variante für die Ultrabooks vorgesehen, die klassische Variante für den Desktop.

Mr. Eden addition, the generation Haswell, the two-chip solution like the Ivy Bridge and Sandy Bridge (CPU + chipset) as well as single-chip solution is integrated into a single package them, that will be available SoC version revealed that. "There will be a single-chip solution in Haswell. That the realization of Ultrabook is they require. However, such as notebook PC's and corporate desktop PC it's possible that two chips still," and for Ultrabook generation Haswell The was revealed to have a SoC.
http://translate.google.de/translate?js=n&prev=_t&hl=de&ie=UTF-8&layout=2&eotf=1&sl=ja&tl=en&u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fcolumn%2Fubiq%2F20110601_449745.h tml&act=url

By 2013, Intel will release a new architecture Haswell processors , and integrated CPU, GPU, motherboard north and south bridge chipset, memory controller, PCI-E controller modules in one, a SoC chip.
http://translate.google.de/translate?js=n&prev=_t&hl=de&ie=UTF-8&layout=2&eotf=1&sl=zh-CN&tl=en&u=http%3A%2F%2Fwww.expreview.com%2F16104.html&act=url

Wums
2011-07-10, 12:42:56
Soll das bedeuten das Haswell Ivy Brige nicht direkt ablösen wird?

Konrad
2011-07-18, 05:15:56
Soll das bedeuten das Haswell Ivy Brige nicht direkt ablösen wird?

Nach Ivy Bridge folgt Haswell. Ich weiß jetzt nicht wie die aktuellen Zeitpläne aussehen, der langfristige Zeitplan im Oktober 2010 sah so aus...

http://www.abload.de/img/haswellmnle.png


Irgendwann rutscht das Jahr 2013 in die normalen Roadmaps, dann hat man einen genaueren Überblick. Was könnte unter Gfx integration gemeint sein? Die GPU in die Rechenkerne verschmelzt?

AnarchX
2011-07-18, 09:45:21
Wohl AVX mit IGP-ALU-Nutzung. Haswell könnte sich am LRB-Konzept bedienen.

Gaestle
2011-07-18, 12:49:51
Was meint eigentlich DX11.1 in der Überschrift?

Gibt es denn eine DX11.1 - Spezifikation? wenn ja, sind da auch die GPU-IHVs dran?

mapel110
2011-07-18, 12:54:24
Was meint eigentlich DX11.1 in der Überschrift?

Gibt es denn eine DX11.1 - Spezifikation? wenn ja, sind da auch die GPU-IHVs dran?
Würde mich auch brennend interessieren. Aber dazu gibts wohl noch nichts offizielles. Die GPU-Hersteller wissen sicher bescheid und wenns entscheidende Änderungen sind, werden wir die sicher auch schon bei den kommenden GPUs sehen.
Kann mir nicht vorstellen, dass eine IGP mehr DX-Features bietet als aktuelle Desktopmodelle.

Ronny145
2011-08-02, 13:58:22
In addition to the Ivy Bridge structure, Intel is also set to reveal the detail specifications of its Haswell processor, which will appear in 2013, at IDF in September, the sources noted.
http://www.digitimes.com/news/a20110802PD204.html


Zur IDF wird es wohl erstmals genauere Infos von Intel geben.

Ronny145
2011-08-24, 16:28:50
Wohl AVX mit IGP-ALU-Nutzung. Haswell könnte sich am LRB-Konzept bedienen.


Die quasi gleiche Folie vom Layout habe ich in der folgenden Präsentation gefunden, allerdings steht dort nicht Gfx integration sondern LRB integration.

http://www-05.ibm.com/cz/events/systemxuni2011/pdf/o_08_novinky_Intel.pdf

Coda
2011-08-24, 16:33:48
Wohl AVX mit IGP-ALU-Nutzung. Haswell könnte sich am LRB-Konzept bedienen.
Dann fress ich nen Besen. Darfst dir diesen Post auch gerne Bookmarken ;)

AnarchX
2011-08-24, 16:38:12
Was war an den ALUs von LRB auszusetzen?

Coda
2011-08-24, 16:42:55
x86

AnarchX
2011-08-24, 16:54:33
Das braucht es bei den Haswell-Cores, wo wohl möglich LRB-ALUs und TMUs integriert werden, auch so.

Man wird wohl abwarten müssen, wie sich LRB in der kommenden 22nm Version präsentiert.

Coda
2011-08-24, 18:42:58
Naja, dass sie IP davon wegschmeißen werden glaub ich kaum. Die dürfte inzwischen eh auch schon in die IGPs eingeflossen sein.

Ronny145
2011-09-05, 12:02:37
http://www.abload.de/img/haswell_ifaz1l3.png


Notebook Plattform heißt Shark Bay. Die Folie stammt vom IFA Pressekit (http://newsroom.intel.com/servlet/JiveServlet/download/2311-28-5952/IFA%20Ultrabook%20presentation.pdf). Hat sich also nichts geändert vom 2013 Termin.

Ailuros
2011-09-05, 12:35:09
2 Jahre von heute sind eine ziemlich lange Zeit.

Ronny145
2011-09-05, 12:36:10
2 Jahre von heute sind eine ziemlich lange Zeit.


Was willst Du damit sagen?

Ailuros
2011-09-05, 13:30:11
Was willst Du damit sagen?

Dass die Zeitspanne zu gross ist fuer etwas sichere Projektionen.

Naja, dass sie IP davon wegschmeißen werden glaub ich kaum. Die dürfte inzwischen eh auch schon in die IGPs eingeflossen sein.

Wie z.B. sw tiling? :freak:

Ronny145
2011-09-05, 13:31:53
Dass die Zeitspanne zu gross ist fuer etwas sichere Projektionen.


Gesichert sagt auch keiner. Es gibt jedoch einzelne Personen, die anhand einer gewagten Heise.de Verschiebungsstory einen 2014 Termin als Fakt verkaufen.

Ailuros
2011-09-05, 13:50:01
Ach so jetzt faellt der Groschen. Gilt natuerlich genauso fuer die heise.de (nur umgekehrt) Verschiebungs-These (nicht Theorie) ;)

Nightspider
2011-09-05, 17:03:21
Wenn Sandy Bridge Core gen 2 ist und Ivy Bridge Core Gen 3. Was war dann der Nehalem Shrink (Gulftown und 2.Kern Derivate)?

Ob Haswell so stark verändert wird, das er nicht die Core Gen 4 Generation wird?

AnarchX
2011-09-05, 17:07:23
Vielleicht will das Marketing für Haswell eine andere Bezeichnung als Core i... . ;)

Ronny145
2011-09-05, 17:18:36
Wenn Sandy Bridge Core gen 2 ist und Ivy Bridge Core Gen 3. Was war dann der Nehalem Shrink (Gulftown und 2.Kern Derivate)?

Clarkdale wurde afaik als i5 1st Generation verkauft. Ist ja auch Nehalem Generation. Eigentlich müsste Ivy Bridge als Tick zur zweiten Generation gehören, aber im Kontext mit den Ultrabooks und zur besseren Unterscheidung ist hier von dritter Generation die Rede. Vielleicht sind auch die Änderungen größer, die es rechtfertigen Ivy Bridge als 3rd Generation zu vermarkten.



Ob Haswell so stark verändert wird, das er nicht die Core Gen 4 Generation wird?

Zur IDF könnte es mehr Infos geben. Was man so hört scheint sich Haswell stärker zu unterscheiden. Als was das bezeichnet oder beworben wird, ist doch eigentlich egal. Auf der Folie ist jedenfalls Haswell nicht mit 4th Generation verzeichnet.

Coda
2011-09-05, 17:24:32
Wohl AVX mit IGP-ALU-Nutzung.
Eher sehr unwahrscheinlich. CPU FPUs sind auf Latenz optimiert, GPU FPUs auf Durchsatz.

AnarchX
2011-09-05, 17:30:21
Vielleicht findet man einen Mittelweg. Haswell soll ja in der FPU FMA und Gather-Operationen unterstützen.

Coda
2011-09-05, 17:33:24
Haswell soll ja in der FPU FMA und Gather-Operationen unterstützen.
Na und? Genau das brauchen GPUs auch nicht.

Konami
2011-09-05, 19:27:46
Clarkdale wurde afaik als i5 1st Generation verkauft. Ist ja auch Nehalem Generation. Eigentlich müsste Ivy Bridge als Tick zur zweiten Generation gehören, aber im Kontext mit den Ultrabooks und zur besseren Unterscheidung ist hier von dritter Generation die Rede. Vielleicht sind auch die Änderungen größer, die es rechtfertigen Ivy Bridge als 3rd Generation zu vermarkten.
Vor allem wird Intel nicht zu einer Bezeichnung als 2. Generation zurückgehen wollen, nachdem sie mit SNB-E ja das 3.-Generation-Namensschema schon "angebrochen" haben. Was mich eh schon gewundert hat, ist ja auch keine neue Architektur, sondern nur ein anderer Sockel. Marketing halt...

Ronny145
2011-09-14, 19:09:56
Haswell Design Complete (http://www.anandtech.com/show/4775/haswell-design-complete-solar-powered-demo-at-idf)
First Shot of Haswell, Working Demo at IDF (http://www.anandtech.com/Gallery/Album/1379#3)
Erste laufende Demo von Intels „Haswell“ und „Ramsdale“ (http://www.computerbase.de/news/2011-09/erste-laufende-demo-von-intels-haswell-und-ramsdale/)

http://s1.directupload.net/images/110917/dsuyr2sh.jpg
http://pc.watch.impress.co.jp/docs/news/event/20110915_477626.html

AnarchX
2011-09-20, 20:22:51
Gibt es schon eine Schätzung der Die-Size des Samples?

edit:
Laut dieser Folie: http://pc.watch.impress.co.jp/img/pcw/docs/477/626/html/45.jpg.html und der Annahme: 37.5mm x 37.5 (rPGA998), sind es wohl ~170mm².
Erinnert etwas an die geschätzte Die-Size von Ivy Bridge...

Aber wohl möglich ist es nur ein Dual-Core der mehr Die-Size in die GPU investiert.

Ronny145
2011-09-20, 20:53:16
Es ist auch die Frage ob das ein Notebook Exemplar im SoC Design oder Desktop mit 2 Chip Lösung darstellen soll.

Ronny145
2011-10-04, 18:56:34
Hiroshige Goto errechnet 180-190 mm² Die Größe.

http://translate.google.de/translate?sl=ja&tl=en&js=n&prev=_t&hl=de&ie=UTF-8&layout=2&eotf=1&u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2Fcolumn%2Fkaigai%2F20110930_480539 .html&act=url

Ronny145
2011-10-10, 16:09:26
Haswell Einträge finden sich längst in public Grafiktreiber releases. Lässt sich gut vergleichen mit den anderen GPU integrierten CPU releases.

Westmere (Ironlake) 6.14.10.4885/30.10.2007= Launch Januar 2010
Sandy Bridge 6.14.10.5009/3.11.2008= Launch Januar 2011
Ivy Bridge 8.15.10.2086/20.02.2010= Launch April 2012
Haswell 8.15.10.2345/27.03.2011= ?

25-26 Monate üblicherweise. Zwischen Mai-Juni 2013 müsste Haswell liegen wenn sich das so fortsetzt.


Now, this would be as far as one can go in overclock friendliness on a mainstream platform, and, knowing that the sources were confirming the likelihood of combined multiple CPU and multiple GPU cores on Haswell (i.e. you could have, say, 4 CPU cores and 2 GPU cores, or 2 CPU cores and 3 GPU cores chip), would create possibly the most flexible desktop - and mobile - platform Intel, or anyone else, ever had in one socket.
http://vr-zone.com/articles/intel-cpus-overclocked-sandy-easy-ivy-easier-haswell-easiest-/13733.html#ixzz1akL8crsK

AnarchX
2011-11-06, 15:47:58
Ein paar neue Infos von VR-Zone:

However, mainstream Haswell will have new sockets - LGA1150 for desktops and rPGA947 & BGA1364 for the mobile market


http://limages.vr-zone.net/body/13880/Shark_Bay15.png.jpeg

Read more: http://vr-zone.com/articles/mainstream-desktop-cpus-future-evolution--more-performance-or-just-more-integration-/13880.html#ixzz1cw8a0xhd

boxleitnerb
2011-11-06, 16:30:04
Nochmal 20% auf Ivy Bridge drauf? Und der Author geht von 20% bei Ivy im Vergleich zu Sandy aus. Nicht schlecht...
Das mit der Leistungsaufnahme im Idle um eine Größenordnung senken ist ja schön und gut, aber hat nicht die CPU heute nur noch einen recht kleinen Anteil daran? Lass es mal 30-65W sein je nach verbauten Komponenten, davon zieht die CPU alleine 5W. Natürlich gehört da noch die Stromversorgung des Boards dazu. Eine Größenordnung rein bei der CPU (?) klingt gut, wäre aber doch recht überschaubar.

AnarchX
2011-11-06, 16:32:28
In mobilen Geräten ist jedes Watt wichtig.

boxleitnerb
2011-11-06, 16:47:32
Was braucht so ein aktuelles Notebook/Ultrabook so im Idle? Soll Haswell auch in Tablets oder andere Geräte wandern?

LovesuckZ
2011-11-06, 16:51:30
Was braucht so ein aktuelles Notebook/Ultrabook so im Idle? Soll Haswell auch in Tablets oder andere Geräte wandern?

Ca. 8-12 Watt je nach Konfiguration mit Optimus/VergleichbarerGPUAbschalttechnik.

Ronny145
2011-11-06, 16:54:02
Die TDP soll ja auch in den 10-20 Watt Bereich fallen für die normalen Notebook Modelle. Im Moment sind die bei 35-55 Watt.

boxleitnerb
2011-11-06, 17:00:39
Ca. 8-12 Watt je nach Konfiguration mit Optimus/VergleichbarerGPUAbschalttechnik.

Okay, da sind 2-3W Einsparung natürlich gern gesehen und absolut relevant.

Ronny145
2011-11-07, 12:52:28
http://s14.directupload.net/images/111107/iza42ac5.jpg

http://s7.directupload.net/images/111107/zplrgfp6.jpg

http://s7.directupload.net/images/111107/8bllpz94.jpg

http://s7.directupload.net/images/111107/kzr5rgqu.jpg

http://s14.directupload.net/images/111107/5wvx4sgf.jpg

http://s1.directupload.net/images/111107/68wp45oo.jpg
Source: http://www.chiphell.com/thread-308643-1-1.html


Einige neue Infos. Der SoC wird offenbar nur beim ULT für Ultrabooks verwendet und nur dieser anscheinend im 10-20W Fenster. Bei den anderen sogar 2W gestiegene TDP (das muss natürlich nicht final sein). Drei verschiedene GPU Ausführungen, Desktop nur bis GT2. Bringt GT3 nichts für Desktop oder wo ist der Sinn? DDR4 spielt keine Rolle so wie es aussieht. Wenn Haswell in 1H 2013 kommt, ist das einfach noch zu früh.

boxleitnerb
2011-11-07, 12:57:56
TDP steigt von 77W auf 95W im Desktop und wieder nur 4 Cores...naja. Hatte auf wenigstens 6 gehofft.

Chrisch
2011-11-07, 12:59:54
Was zum Teufel soll Mainstream mit 6 Cores? Solange es nicht im Mainstream nötig ist wirds nicht passieren das du 6 Cores dort von Intel finden wirst.

boxleitnerb
2011-11-07, 13:03:17
Wir reden von 2013. Und die CPU schmeiß ich ja nicht gleich weg nach dem Kauf - die meisten werden die bis 2015/16 behalten. Das sind 4-5 Jahre in der Zukunft. Da erscheinen mir 4 Cores einfach etwas wenig. Audio/Videokonvertierung ohne 300 Euro für ein Board auszugeben...und wer weiß, wieviele Cores die neuen Konsolen haben werden.
Versteh mich nicht falsch - ich bin klar gegen den AMD-Weg, da sinnlos mehr Cores/Threads dranzupappen, die einem nichts bringen. Aber die ersten Quadcores gibt es schon seit Frühjahr 2007. Das wäre ziemlich lange.

Screemer
2011-11-07, 13:09:34
da kann man davon ausgehen, dass der größte teil der tdp-steigerung auf die gpu abfällt. da bin ich mal gespannt, wie sich das im verhältniss zu dann anstehenden amd-apus verhält.

Nightspider
2011-11-07, 16:51:59
Wahrscheinlich wird Intel beim Haswell Shrink 2014, passend zu der neuen Konsolengeneration, direkt auf 8 Kerne beim Desktop und 4 Kerne bei den Ultrabooks aufstocken.

Ist aber schon etwas heftig, das wir bei Intel im Mainstream Segment bis 2014 bei (15?nm) nicht mehr als 4 Kerne sehen werden, obwohl man schon mit 28nm32nm hätte 8 liefern können. (Zur Erinnerung, der Server Variante hat glaube bis zu 10 Kernen bei 32nm).

Im Moment juckt es mich nicht, da ich wahrscheinlich in einem halben Jahr ein 5,5 Ghz Ivy Bridge drin haben werde aber ärgern würde es mich, wenn die neuen Konsolen doch schon 2013 kommen und die PC-Portierungen bis zu 16 Kerne unterstützen während ich nur 4 habe. ^^

Ronny145
2011-11-07, 17:18:47
Wahrscheinlich wird Intel beim Haswell Shrink 2014, passend zu der neuen Konsolengeneration, direkt auf 8 Kerne beim Desktop und 4 Kerne bei den Ultrabooks aufstocken.



Sicher nicht. Wenn dann 6 Kerne zuerst im Mainstream. 8 Kerne gibt es doch noch nicht einmal im High-End mit Sandy Bridge-E. Wir bräuchten erstmal mehr Modelle mit SMT, das wäre ein Anfang. Wenn die Folien richtig liegen und die 4 Kerne nicht nur Platzhalter sind, um nicht der Konkurrenz zu weit im Voraus Einblick zu gewähren, werden 6 Kerne der High-End Plattform vorbehalten bleiben.

Ravenhearth
2011-11-07, 17:37:31
Ist aber schon etwas heftig, das wir bei Intel im Mainstream Segment bis 2014 bei (15?nm) nicht mehr als 4 Kerne sehen werden, obwohl man schon mit 28nm hätte 8 liefern können. (Zur Erinnerung, der Server Variante hat glaube bis zu 10 Kernen bei 32nm)


Es werden 14nm in (wahrscheinlich) 2014 sein. Und was meinst du mit 28nm?:confused: Afaik hat die Server-Variante "nur" 8 Kerne.

AnarchX
2011-11-07, 17:43:34
Westmere-EX hat bis zu 10 Kerne: http://ark.intel.com/products/family/59139/Intel-Xeon-Processor-E7-Family/server Ist aber auch 513mm² groß.

Da legt man 2012 wahrscheinlich noch einen Sandy-Bridge-EX mit 12 Kernen nach, unter 32nm. Der erste EX - Beckton - war auch ganze 684mm² groß.

Nightspider
2011-11-07, 17:48:59
Es werden 14nm in (wahrscheinlich) 2014 sein. Und was meinst du mit 28nm?:confused: Afaik hat die Server-Variante "nur" 8 Kerne.

32nm mein ich. 28nm hab ich aus Gewohnheit von den GPU Threads geschrieben.^^

y33H@
2011-11-07, 17:50:13
Ist aber schon etwas heftig, das wir bei Intel im Mainstream Segment bis 2014 bei (15?nm) nicht mehr als 4 Kerne sehen werden, obwohl man schon mit 28nm hätte 8 liefern können. (Zur Erinnerung, der Server Variante hat glaube bis zu 10 Kernen bei 32nm).Wozu mehr als vier Kerne, wenn die vier so schnell sind wie sechs oder "acht" der Konkurrenz und dabei sparsamer?

boxleitnerb
2011-11-07, 17:51:30
Weißt du schon, was 2014 ist? Ich nicht :)

Ronny145
2011-11-07, 17:59:41
Möglicherweise sind das aber auch 4 Kerne mit verbesserten SMT Ansatz.

boxleitnerb
2011-11-07, 18:01:29
CMT...Bulldozer done right.
SCNR ;D

Nightspider
2011-11-07, 18:06:14
Wozu mehr als vier Kerne, wenn die vier so schnell sind wie sechs oder "acht" der Konkurrenz und dabei sparsamer?

Ach die Spiele der neuen Konsolengeneration brauchen nicht mehr CPU Leistung als aktuelle Games? ;)

Vergesst bitte nicht, das die neuen Konsolen auch ne deutlich höhere IPC Leistung pro Kern besitzen und wahrscheinlich 8-16 Kerne haben werden.

Vergesst nicht, wie lahm manche CPUs zum Erscheinen der ersten Xbox360 Portierungen waren. Der PC Markt hatte Glück, das der Core 2Duo damals erschien, als "Wunder-CPU".
A64 Derivate waren gut ausgelastet. Und selbst ein 3,2 Ghz Core2Duo hatte etliche Zeit später in GTA4 keine 20fps. ;D

Und bei den CPUs hat der PC kein so großen Watt und TDP Vorteil, wie bei den Grafikkarten.
Wir werden 2013/2014 noch genug Kerne nötig haben, für genügend FPS. ;)

Ich kann mir aber auch gut vorstellen, das Intel bis 2013 doch entscheidet, noch eine 8 Kern CPU auf den Markt zu werfen oder wenigstens 6 Kerne.

Das man 2014 auf 14nm erst auf 6 Kerne geht bezweifel ich massiv. Da wird Intel eher teure 8 Kerner verkaufen.

y33H@
2011-11-07, 18:15:19
Ich warte erst mal auf die neue Generation. Bis die kommt, sind wie bei Haswell und haben vermutlich beim gleichen Preispunkt locker +50 % auf heute.

Und selbst ein 3,2 Ghz Core2Duo hatte etliche Zeit später in GTA4 keine 20fps. Spiel mal mit Konsolen-Details, da macht der auch die 15 bis 30 Fps die du auf einer 360 oder PS3 hast.

Nightspider
2011-11-07, 18:19:01
Die Details waren ähnlich niedrig. Wie du schon sagst, 15-30fps, das wäre für mich völlig inakzeptabel. Da brauch dann nur wieder ein neues Battlefield erscheinen, das auf Konsolen 24 Player bietet und die neuen CPUs ausreitzt, damit die PC Spieler für nen vollen Server wieder HighEnd CPUs benötigen.^^

Aber wie du schon sagstest, es ist ja noch ne Menge Zeit bis dahin. Mal abwarten was bis dahin passiert. Vllt erscheinen die Konsolen auch später oder sich nicht so stark wie man vllt erwartet.

y33H@
2011-11-07, 19:17:13
Die Konsoleros geben sich mit 15 bis 30 Fps, derben Streaming-Hängern, üblen Texturen und fiesen Lags zufrieden. Ich (wir) nicht.

Da brauch dann nur wieder ein neues Battlefield erscheinen, das auf Konsolen 24 Player bietet und die neuen CPUs ausreitzt, damit die PC Spieler für nen vollen Server wieder HighEnd CPUs benötigen.Ein TES 4 Oblivion sah seinerzeit beim Release am PC besser aus bei mehr Fps ... dabei waren damals die Konsolen näher dran. Deren Zeit ist imo vorbei, auch Next-Gen.

Neurosphere
2011-11-07, 21:32:02
Vergesst bitte nicht, das die neuen Konsolen auch ne deutlich höhere IPC Leistung pro Kern besitzen und wahrscheinlich 8-16 Kerne haben werden.


Das glaube ich nicht. Wer soll die denn bezahlen?

john carmack
2011-11-09, 09:39:30
Viele Details zu Intel „Haswell“ durchgesickert

http://www.computerbase.de/news/2011-11/viele-details-zu-intel-haswell-durchgesickert/

Ronny145
2011-11-09, 11:59:05
Viele Details zu Intel „Haswell“ durchgesickert

http://www.computerbase.de/news/2011-11/viele-details-zu-intel-haswell-durchgesickert/


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9022931#post9022931


Es ist nicht so als wenn wir das noch nicht hatten.

Ronny145
2012-01-04, 14:15:31
The 'Generation 7.5' graphics core in Haswell is, as the naming convention hints, a 'point upgrade' of the seventh generation Ivy Bridge graphics engine. Up to 20 execution units, each 128 bits wide, are to be supported, and these are supposedly enhanced with a new GPU compute architecture. The other major additions include a new internal GPU cache, hierarchical Z, as well as improved encode & decode pipelines for more hardware formats.
Read more: http://vr-zone.com/articles/haswell-graphics-expectations-a-quantum-leap-or-just-another-small-step-forward-/14399.html#ixzz1iUkKTN8O


25% mehr EUs wenn das stimmt. Den internen GPU Cache gibt es doch schon in Ivy Bridge.

Der_Korken
2012-01-04, 14:26:15
Wann soll Haswell eigentlich (planmäßig) kommen? In der verlinkten News ist von "Early 2013" die Rede, aber mir schwirrte noch 2014 als Termin im Kopf rum.

Ronny145
2012-01-04, 14:28:18
Von 2013 sollte man ausgehen, genaueres ist nicht bekannt.

ndrs
2012-01-04, 14:41:15
Jedes Jahr machts Tick oder Tock. Ivy Bridge ist der Tick vorm Haswell-Tock.

Konami
2012-01-04, 15:26:19
Wann soll Haswell eigentlich (planmäßig) kommen? In der verlinkten News ist von "Early 2013" die Rede, aber mir schwirrte noch 2014 als Termin im Kopf rum.
Jepp, die c't war sich zum Beispiel absolut sicher, dass Haswell erst 2014 kommt und hörte das angeblich auf dem IDF von Intel selbst. Neuerdings ist allerdings wieder nur noch von (H1) 2013 die Rede.

Ronny145
2012-01-04, 15:36:50
Das war nicht die IDF, das war die ISC11. Zumindest behauptet es Heise. Von 2014 ist seitens Intel nie die Rede gewesen. Öffentlich hieß es von Anfang an 2013. Es gab die Möglichkeit, dass Intel auf DDR4 wartet, was ja nun längst vom Tisch ist. Haswell ist auf der IDF lauffähig gewesen.

Fabian_HT4U
2012-01-04, 17:07:38
Möglicherweise sprach Stiller indirekt auch vom Haswell-E, also dem Nachfolger von IB-E. Aktueller Ergebnissen nach könnte H-E imho durchaus erst 2014 kommen, die "normalen" Desktop-Modelle aber schon deutlich früher.

Grüße
Fabian

Ronny145
2012-01-04, 17:15:56
Er sprach allgemein von Haswell, was ja den Mainstream automatisch mit einschließt. Soweit nicht explizit angegeben reden wir immer von der Mainstream CPU. Der High-End ist ein ganz anders Thema. Dass der deutlich später kommt, ist klar. SB-E kam fast ein Jahr nach dem Mainstream. Haswell erwarte ich minimum 12 Monate nach Ivy Bridge. Wenn der zeitliche Abstand zum Highend bestehen bleibt, wäre ein 2014 release für H-E zu erwarten. Die 2013 Ankündigungen von Intel bezogen sich immer auf den Mainstream. Stiller spricht selber mittlerweile von Anfang 2013.

Knuddelbearli
2012-01-04, 18:02:25
so klar das der später kommt ist das auch nicht siehe S1366 vs S1156 da kamen die I7 lange vorher

Ronny145
2012-01-04, 18:15:21
so klar das der später kommt ist das auch nicht siehe S1366 vs S1156 da kamen die I7 lange vorher


Damals kam das Highend sogar eher. Intel hat seitdem die Strategie verändert und bringt zuerst die kleineren CPUs.

Knuddelbearli
2012-01-04, 18:19:21
naja was heißt da geändert. das war damals das erste mal das Highend einen eigenen Sockel bekommt. Und mit Phenom 2 war zu der Zeit auch AMD recht gut aufgestellt.

Ronny145
2012-01-04, 19:01:02
Es ändert nichts am Fakt, dass sich seitdem die Strategie geändert hat.

Zergra
2012-01-04, 19:44:05
naja der Highend sockel wird immer schneller bleiben als der 1155 bzw. bei Haswell der 1150 ? das heißt die müssten bei Ivi -e nachlegen damit Haswell wieder schneller werden kann (darf) da er ja nicht Ivi-e überholen darf was schlecht für den Markt wäre deswegen machen die ja auch nicht so viel bei Ivi außer den verbrauch zusenken wovon Ivi-E profitiert -> Haswell müsste knapp unter der Ivi-E leistung sein....

AnarchX
2012-01-04, 19:47:11
Die möglicherweise bis zu 10 Cores eines IVB-E wird HSW mit seinen 4 verbesserten Cores wohl nur schwer erreichen, mal von FMA abgesehen.

Zergra
2012-01-04, 19:59:07
Die möglicherweise bis zu 10 Cores eines IVB-E wird HSW mit seinen 4 verbesserten Cores wohl nur schwer erreichen, mal von FMA abgesehen.
Da hast wo recht wenn der 10 echte Cores bekommt + HT :D das wäre schön dann hab ich den hier auch bald... wenn das der Fall ist dann können wir uns auch auf eine hohe leistungsteigerung bei HW gefasst machen.. :)

Ronny145
2012-01-04, 20:06:33
Im Desktop Bereich wären zuerst 8 Kerne an der Reihe. Glaube nicht das Intel Ivy-E 4 Kerne mehr gibt als SB-E. 10 Kerne werden kaum in die 130W TDP passen mit vernünftiger Taktfrequenz. 10 Kerne höchstens als Xeon.

Nightspider
2012-01-04, 20:07:50
Hoffentlich wird man den Encoder/Decoder Teil diesmal auch ohne IGP Benutzung direkt ansteuern können, wenn man eine dedizierte GPU nutzt.

Knuddelbearli
2012-01-04, 20:09:47
naja mit 22nm wäre es dann halt möglich ohne den takt gegenüber den 6ern zu massiv zu beschneiden.

4 Kerne im Mainstream sieht man frühestens 1014. Intel meinte zumindest man das mit Haswell weiterhin 4 Kerne Mainstream bleibt.

Ronny145
2012-01-04, 20:11:20
Hoffentlich wird man den Encoder/Decoder Teil diesmal auch ohne IGP Benutzung direkt ansteuern können, wenn man eine dedizierte GPU nutzt.


Eher unwahrscheinlich. Quicksync nutzt Teile der GPU, deswegen ist es mit SB nicht möglich wenn diese nicht aktiv ist. Mit Ivy Bridge ändert sich das nicht, warum sollte das mit Haswell anders sein.

Nightspider
2012-01-04, 20:14:55
Es ist eben schwachsinnig, das die IGP nicht aktiv werden kann, nur weil man eine dedizierte GPU nutzt.
Klar könnte Intel das ändern.

Zergra
2012-01-04, 20:25:23
Es ist eben schwachsinnig, das die IGP nicht aktiv werden kann, nur weil man eine dedizierte GPU nutzt.
Klar könnte Intel das ändern.
Stimmt was mir bei Intel fehlt wäre ein Umschalt Buton Klicks drauf und schon springt dir andere Karte an :D Was auch bei Platten nicht schlecht wäre.....
Leider würde das ja nicht bei CPU Kernen bringen da die im Idle bei 2 oder 4 nicht mehr Strom verbrauchen.... ist jedenfalls bei mir so ....

AnarchX
2012-01-07, 09:52:49
Fat-Core vs Many-Core: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9109572#post9109572

Ronny145
2012-02-08, 14:49:57
Sandy Bridge has been quite impressive performance-wise for being Intel integrated graphics, but with Ivy Bridge this performance is going to be upped substantially (as much as twice as fast as Sandy Bridge). This will happen again with Haswell where I'm told its integrated graphics should be comparable to a mid-to-high-end discrete GPU. There's stacked memory and some other graphics hardware improvements that should make Haswell Linux graphics even more interesting.
http://www.phoronix.com/scan.php?page=news_item&px=MTA1MzU


Stacked memory laut Phoronix. Die haben normalerweise gute Quellen, deswegen poste ich es mal.

AnarchX
2012-02-08, 15:09:36
comparable to a mid-to-high-end discrete GPU
Von welchen vergangenen Jahr? :D Anfang 2013 reden wir wohl über 28nm Refreshes, die in der genannten Klasse 200-400mm² Die-Space aufbringen.

Imo wird die Bandbreite wohl erst bei Broadwell und dessen Nachfolger relativ knapp.
Vielleicht will man auch langfristig auf den zweiten Speicherkanal verzichten, jedenfalls in mobilen Geräten.

Ronny145
2012-02-08, 15:15:00
Ob knapp oder nicht, alleine der Stacked memory sollte einen Boost bringen. Mit einer Verdopplung der Leistung in Ivy Bridge befindet man sich in Llano Bereiche oder sogar drüber im mobile Segment. Wenn Haswell eine ähnliche Steigerung in der Rechenleistung bringt, ist eine deutlich schnellere Speicheranbindung als DDR3 sicherlich nicht verkehrt. Die Abhängigkeit von langsamen DDR3 Hauptspeicher ist einfach nur nervig.

AnarchX
2012-02-08, 15:19:56
Gerade auf den Haswell (U)LV SoCs könnte wohl ein breit-angebundener langsamtaktender Stacked-DRAM sinnvoll sein, damit man auf ein zweites Speichermodul verzichten kann und das verwendete mit relativ niedrigem Takt (LV-DDR3) betreiben kann.

Vielleicht war der ~180mm² Die wirklich nur ein 2C+GT2/3-Die? Mit 180mm² für 4C+GTx sähe ich nicht so große Steigerungen.

Nightspider
2012-02-08, 15:31:07
In der Quelle steht die IGP von Ivy soll mehr als doppelt so schnell sein, wie die von Sandy Bridge, was ja offentlich nicht der Fall ist. Gut möglich, das er bei Haswell genauso übertreibt.

Wenn Intel bei Haswell allerdings nochmals mehr Die Fläche für die IGP opfert und das in 22nm, dann könnte man sicherlich den kleinen AMD/NV Karten Konkurenz machen.

Nur die Treiber werden bei Intel auf absehbare Zeit deutlich schlechter bleiben, was Spiele Unterstützung betrifft.

Wenn Intel allerdings den Kurs beibehält und wenig Kerne mit einer immer größer werdenden IGP kombiniert und beim Fertigungsprozess immer einen Schritt weiter wäre, als AMD und Nvidia (/TSMC) dann könnte Intel in Zukunft nicht nur bei CPUs sondern auch bei GPUs ordentlich Druck auf die Konkurenz ausüben.

Und mit Stacked Memory könnte Intel sogar leichter an mehr Bandbreite herankommen, als Nvidia und AMD. Dieser war ja ursprünglich schon für Ivy Bridge angekündigt.

Ronny145
2012-02-08, 15:31:21
Vielleicht steht das GT3 für die stacked memory Variante, die Variante gibt es für den Desktop nicht. Wofür steht eigentlich das SOix in der 4. Folie (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9022931&postcount=44)?


In der Quelle steht die IGP von Ivy soll mehr als doppelt so schnell sein, wie die von Sandy Bridge, was ja offentlich nicht der Fall ist.


Da steht doppelt so schnell, das halte ich auch für denkbar. Die Vantage Leistungen haben es angedeutet.

AnarchX
2012-02-08, 15:34:00
Powerstate:
Der Betriebsmodus S0ix soll die Leistungsaufnahme im Leerlauf auf die Hälfte drücken, indem der Prozessor seltener von Interrupts aus dem Schlaf gerissen wird (Coalescing).
http://www.heise.de/ct/meldung/Intel-plant-angeblich-Single-Chip-Plattform-fuer-Ultrabooks-1377793.html


Da steht doppelt so schnell, das halte ich auch für denkbar. Die Vantage Leistungen haben es angedeutet.
Da müsste man auch entsprechend in ALU/TMUs + Takt investieren, die Bandbreite allein wird wohl nicht soviel bringen. Vielleicht Xenos-like kostenloses MSAA? :D

boxleitnerb
2012-02-08, 15:34:24
Angeblich hat Haswell 40 EUs. Das wäre ca. 5x die Performance, die man jetzt hat und 2.5x die von Ivy Bridge. Und da sind noch keine Takterhöhungen oder sonstige Verbesserungen eingerechnet.

http://semiaccurate.com/2012/02/08/haswell-is-a-graphics-monster/

Wäre ja krass, wenn Intel AMD auch dort überholen würde.

Nightspider
2012-02-08, 15:37:36
Die fünffache Leistung der Sandy Bridge IGP wäre schon ein harter Schlag für AMD.
AMD hat zwar die bessere Grafikarchitektur und mehr Erfahrung aber Intel hat einfach die höhere Integrationsdichte und mehr Diefläche, dank besserem Fertigungsprozess, voraus.

Damit könnte man, ohne Ausnahme, jedes aktuelle Spiel auf einem Ultrabook zocken. Selbst Battlefield 3 auf mittleren-hohen Details dürfte kein Problem darstellen und die Leistung würde deutlich oberhalb einer PS360 liegen.

Ronny145
2012-02-08, 15:40:41
40 EUs im SoC? Das wäre arg viel, wobei man ja nicht weiß inwiefern die EUs noch mit Ivy Bridge vergleichbar sind in Größe und Leistungsfähigkeit. Dass Intel mächtig Druck macht im iGPU Bereich, ist aber schon länger klar. Bei Charlie sollte man mit solchen Meldungen etwas vorsichtig sein. Es kann richtig sein, muss es aber nicht.

Nighthawk13
2012-02-08, 16:56:49
http://software.intel.com/en-us/blogs/2011/06/13/haswell-new-instruction-descriptions-now-available/
Gather Useful for vectorizing codes with nonadjacent data elements. Haswell gathers are masked for safety, (like the conditional loads and stores introduced in Intel® AVX) , which favors their use in codes with clipping or other conditionals.
[...]
Floating Point Multiply Accumulate – Our floating-point multiply accumulate significantly increases peak flops and provides improved precision to further improve transcendental mathematics.

Mit Gather und FMA sind die AVX2-Vektorlanes tatsächlich nahe an einem "Cuda-core" dran. Dürfte eine starke Architektur für schlecht parallelsierbares Numbercrunching werden:) (FALLS der Gather-Befehl nicht zu langsam wird)

Das man AVX2 für die iGPU verwendet denke ich trotzdem eher nicht: Die Anbindung an Rasterizer, Texunits etc. dürfte mehr Silicon kosten als seperate Shader-Rechenwerke(die auch nicht auf Latenz optimiert sein müssen-> kleiner, stromsparender).

(Edit: Sehe gerade, AVX2-Link stand schon im Startpost :freak:)

Reaping_Ant
2012-02-09, 12:12:47
Interessanter Artikel (zumindest für mich als Laien im Bezug auf Prozessorarchitektur) über die Implementierung von Transactional Memory (http://arstechnica.com/business/news/2012/02/transactional-memory-going-mainstream-with-intel-haswell.ars) auf Haswell. Hört sich spannend an, die Frage ist, wann mit entsprechender Software zu rechnen ist - so wie ich das verstehe, müsste man auch am OS einige Änderungen vornehmen.

AnarchX
2012-02-09, 15:15:41
März bis Juni
http://img.donanimhaber.com//images/haber/31670/intelhaswelllaunchdate_dh_fx57.jpg
http://www.donanimhaber.com/islemci/haberleri/DH-Ozel-intelin-ote-nesil-Haswell-islemcilerinin-cikis-tarihi.htm

Ronny145
2012-02-09, 15:23:18
Also im ersten Habjahr noch, naja das war zu erwarten.

AnarchX
2012-02-13, 13:38:54
http://img.donanimhaber.com//images/haber/31727/intelhaswelldx111_dh_fx57.jpg
http://img.donanimhaber.com//images/haber/31727/intelhaswelldx111_dh_fx57.jpg

Ronny145
2012-02-13, 13:51:45
Plattform Kompatiblität mit dem Nachfolger immerhin jetzt schon bestätigt, alles andere mit DX11.1 oder den TDP Stufen ist ja schon bekannt. Intel geht leider (verständlicherweise) nicht ins Detail bei der CPU Architektur und der GPU.

dildo4u
2012-02-13, 14:06:18
Interessant das das TDP wieder erhöt wird doch 6 Kern Modelle für den kleinen Sockel?

Ronny145
2012-02-13, 14:07:17
Wo das interessant ist weiß ich nicht. 95W stand letztes Jahr schon in der Roadmap zusammen mit 4 Kernen.

AnarchX
2012-02-13, 14:07:52
Irgendwo muss ja die Leistung herkommen, wenn der Prozess gleich bleibt.
Zudem befinden sich bei HSW die VRMs auf der CPU, die bei SNB und IVB nicht mit in der TDP waren, weil eben auf dem Mobo verbaut.

boxleitnerb
2012-02-13, 14:19:08
Was ist mit "enhanced overclocking" gemeint?

Duplex
2012-02-13, 14:25:23
Was ist mit "enhanced overclocking" gemeint?
Vielleicht wie bei Nehalem wieder mit "BCLK"
Interessant wäre erstmal zu wissen ob Haswell eine weiterentwiclung von Nehalem oder Sandy wird...
Die Entwickler sollen nach Gerüchte vom Nehalem Team sein, hoffentlich gelingt es den die IPC wie die Israelis zu steigern.

Zergra
2012-02-13, 17:34:01
Was ist mit "enhanced overclocking" gemeint?
könnte auch nen Offener Multi sein... der offene BLCK kommt ja schon mit IVI :) (jedenfalls bis 130)

Nightspider
2012-02-13, 17:36:54
Wo das interessant ist weiß ich nicht. 95W stand letztes Jahr schon in der Roadmap zusammen mit 4 Kernen.

Die IGP soll ebenfalls deutlich schneller und wohl auch größer werden und die verbraucht schließlich auch Strom. ;)

boxleitnerb
2012-02-13, 17:36:56
Offenen Multi gibts doch jetzt schon. Glaubt jemand ernsthaft, dass jedes Modell so einen kriegt?

Zergra
2012-02-13, 18:05:18
TDP kann ja auch fürs OC gedachte sein und hat nicht wirklich was mit derm Verbrauch zu tun...
Offenen Multi gibts doch jetzt schon. Glaubt jemand ernsthaft, dass jedes Modell so einen kriegt? naja wenn Ivi schon einen BLCK bis 130 hat was soll HW dann bekommen 150 ? oder Kommplett offen ? ich weiß nicht so recht, da kann man auch gleich den Multi Öffnen

ja bei ein paar Modellen... wenn ich intel wäre würde ich eh einen Teil der Modelle einstampfen heißt ... einen 2500k 2600k -> dann noch nen i3 2100k dann einen Petium zb. 860k und einen 640k und einen Celeron -> mehr braucht man im Grunde nicht.... dann gibt es halt größere Preislücken naund ?

Screemer
2012-02-13, 18:17:48
warum verbasstelt man denn die vrms eigentlich im die?

AnarchX
2012-02-13, 18:28:54
warum verbasstelt man denn die vrms eigentlich im die?
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9021820#post9021820

Ronny145
2012-02-19, 23:15:05
29.09.11= http://pc.watch.impress.co.jp/video/pcw/docs/480/539/p6.pdf
04.10.11= http://pc.watch.impress.co.jp/video/pcw/docs/481/542/p16.pdf

Hiroshige Goto hatte vor einiger Zeit seine Grafik auf 40 EUs aktualisiert und mit Fragzeichen versehen.

Ronny145
2012-02-22, 12:28:08
http://vr-zone.com/articles/intel-haswell-igpu-there-s-something-for-everyone/14976.html

Vr-zone rudert etwas zurück mit ihrer GPU Einschätzung. Wenn der Unterschied wirklich so groß ist von GT2 und GT3, will mir immer noch nicht einleuchten, weshalb es die Variante nicht für Desktops geben soll. Stattdessen für 15W SoCs, das passt mir noch nicht ins Bild.

Knuddelbearli
2012-02-22, 12:43:27
sie wollen einfach nur AMD aus dem Profitablen markt verdrängen

john carmack
2012-02-22, 12:55:23
schade nur das die Grafikeinheit immer "onboard" mitgeliefert wird...
Und bis der Haswell-E ohne die Grafikeinheit rauskommt dauert wohl noch sehr lange.
Wirklich schade!


Gibt es eigentlich einen weg die Grafikeinheit (bei SB / IB und irgendwann auch Haswell) kommplet abzuschalten um Strom und damit and der "TDP" zu sparen?


PS.
Sind eigentlich schon die CodeNamen und Details für die jeweiligen (Haswell/Broadwell - Skylake/Skymont) Chipsätze bekannt?

y33H@
2012-02-22, 13:05:24
Haswell DT kommt auf Lynx Point.

Zergra
2012-02-22, 16:02:43
Gibt es eigentlich einen weg die Grafikeinheit (bei SB / IB und irgendwann auch Haswell) kommplet abzuschalten um Strom und damit and der "TDP" zu sparen?




Tut sie das das den nicht schon? TDP sagt ja nicht wirklich was über den Verbrauch aus. Sandy könnten sie auch mit weniger ausliefern, aber wenn alles Vollausgelastet wird, wird die TDP gerade so ereicht. Meistens ist dort aber sogar noch eine Menge Luft nach unten.

Lowkey
2012-02-22, 16:13:03
Genau! Ein i3-2100t verbraucht angeblich laut TDP 35 Watt. In der Praxis sind es dann 30 Watt. Ein i3-2100 kommt auf eine TDP 65 Watt. Praktisch sind es dann aber nur 36 Watt. Ein bisschen Marketing steckt auch hinter den TDP Werten.

Knuddelbearli
2012-02-22, 16:23:05
muss nichtmal 36W sein gab zumindest unter core2 Duo genug CPUs die zB als 95er eingestuft waren aber selbst unter linx nur knapp 40W gebraucht haben.

und mit den Sparversionen dann dick abgecasht wurde

john carmack
2012-02-27, 18:16:28
mit der Verzögerrung von IB rechne ich mit Haswell erst im Herbst 2013... :-(

Ronny145
2012-02-27, 18:28:39
mit der Verzögerrung von IB rechne ich mit Haswell erst im Herbst 2013... :-(


Hat mit Haswell erstmal nichts zu tun. Wenn es wirklich am unausgereiften Prozess liegt, sollte Haswell in einem Jahr das Problem nicht haben. Zudem steht der Ivy Bridge launch immer noch unverändert für April an, im schlimmsten Fall Ende April. Wie Du da von Frühling auf Herbst kommst, ist mir schleierhaft. Die Spekulationsküche redet von ~1 Monat Verschiebung (Dualcore von Mai auf Juni, eventuell Quadcore von Anfang April auf Ende April).

AnarchX
2012-03-15, 11:54:43
März bis Juni 2013: http://www.computerbase.de/news/2012-03/aktualisierte-intel-prozessor-roadmap-fuer-den-desktop/

AnarchX
2012-03-18, 09:04:41
[...]
Then, there is the 'king of the hill', the 4 core CPU plus GT3 GPU die with graphics further double as fast as the GT2, i.e. well over twice, possibly thrice, the Ivy Bridge speed.
[...]
http://limages.vr-zone.net/body/15272/dieimage.jpg.jpeg
[...]


http://vr-zone.com/articles/mystery-solved--haswell-expected-to-up-the-graphics-ante-further-again/15272.html

Ronny145
2012-03-18, 09:09:50
There are three distinct die choices here, it seems: one is the ULV focused dual core Ultrabook option but with up to GT3 graphics. The other is a mainstream desktop and mobile choice with 4 cores and GT2 graphics, just a bit faster than the best Ivy Bridge graphics - we're talking 20% to 50% extra GPU performance here. Then, there is the 'king of the hill', the 4 core CPU plus GT3 GPU die with graphics further double as fast as the GT2, i.e. well over twice, possibly thrice, the Ivy Bridge speed.


Das mit den 40 EUs könnte stimmen. Besonders groß sieht ja auch der L4 (Cache?) aus, oder könnte das der angesprochene stacked DRAM sein? Weil sich der scheinbar auf einem zweiten Träger befindet, falls ich das Schaubild nicht falsch deute. Außerdem sieht die Fläche ziemlich groß aus im Vergleich zu den CPU Kernen. Wenn die Größenverhältnisse auf dem Bild halbwegs stimmen, ist die GT3 Variante wahrlich ein Monster.

AnarchX
2012-03-18, 09:16:51
Könnten wohl 250-300mm² sein, wenn man davon ausgeht das IVB GT2 ~50mm² groß ist und der HSW GT3 wohl etwa so lang wie alle 4 Cores nebeneinander sein könnte.

Damit wäre wohl auch die Frage geklärt, wie Intel das Breitenwachstum nach IVB löst.

Ronny145
2012-03-18, 09:46:10
Könnten wohl 250-300mm² sein, wenn man davon ausgeht das IVB GT2 ~50mm² groß ist und der HSW GT3 wohl etwa so lang wie alle 4 Cores nebeneinander sein könnte.


Rechne ich die Freifläche raus, komme ich auf 28,3% Fläche was eher 45 mm² ergeben. Das auf der IDF gezeigte Haswell Modell wird wohl nur eine GT1 oder GT2 Variante gewesen sein, weil zu klein. Was mich halt immer noch wundert, wie man die GT3 Variante in einem SoC im 15W TDP Budget unterbringen möchte. Es wäre doch anzunehmen, dass der Energiebedarf um eniges über der einer Ivy Bridge iGPU mit nur 16 EUs liegt.


Damit wäre wohl auch die Frage geklärt, wie Intel das Breitenwachstum nach IVB löst.


Trotzdem ist noch nicht klar was sich hinter L4 genau verbirgt. Ist es ein Cache oder ein nutzbarer VRAM.

AnarchX
2012-03-18, 09:53:34
Was mich halt immer noch wundert, wie man die GT3 Variante in einem SoC im 15W TDP Budget unterbringen möchte. Es wäre doch anzunehmen, dass der Energiebedarf um eniges über der einer Ivy Bridge iGPU mit nur 16 EUs liegt.

Vielleicht sehr geringe Taktraten?

Trotzdem ist noch nicht klar was sich hinter L4 genau verbirgt. Ist es ein Cache oder ein nutzbarer VRAM.
FastDRAM war ursprünglich als zusätzlicher Cache-Level gedacht, auch auf IGP-losen CPUs (Gesher).

Ronny145
2012-03-18, 09:57:57
FastDRAM war ursprünglich als zusätzlicher Cache gedacht, auch auf IGP-losen CPUs (Gesher).


Noch nie gehört davon. Ist das irgendwo dokumentiert? Ich würde ja annehmen, dass es sich bei dem spekulierten stacked Speicher um diesen L4 handelt. Den großen L4 und dann noch zusätzlich einen stacked Speicher klingt zu viel des guten.

AnarchX
2012-03-18, 10:05:18
Das ist Gesher: http://img70.imageshack.us/img70/9112/geshervslarabeear9.jpg ... die Folie war mal Bestandteil einer Intel Präsentation.
Aus Gesher wurde Sandy Bridge und man hat wohl nicht alles umgesetzt.

Der FastDRAM/L4 sollte natürlich kein Bestandteil des Kerns sein.

DavidC1
2012-03-19, 00:32:23
Intel has been saying for number of years that platforms in 2012 and after would need massive memory bandwidth increases to keep up with increased compute requirements like with AVX and FMA. That would be for servers of course, with their voracious need for ever more bandwidth, but that technology should be able to move down to iGPU systems as well.

Now, the VR-Zone piece explains a lot. It was hard to fathom how they could squeeze 40 EUs in the ~185mm2 die. If the 185mm2 die has 20 EUs, that would mean there's yet another significant improvements per EU, and each EUs are much more powerful than the one at IVB. It may not be too far fetched to see Ivy Bridge like improvements on the GT2 Haswell.

y33H@
2012-03-19, 00:39:28
Trotzdem ist noch nicht klar was sich hinter L4 genau verbirgt. Ist es ein Cache oder ein nutzbarer VRAM.Stacked RAM ;-) einen L4 hast du so gesehen schon bei IVB DT, denn die iGPU hat einen eigenen L3 und halt den allgemeinen LLC, der für die iGPU quasi der L4 ist.

Nightspider
2012-03-19, 00:42:12
Ich freu mich schon Stacked Memory 2013 endlich in freier Wildbahn zu sehen.
Ob man dann ab ~2014 auch erste dedizierte Grafikkarten mit Stacked VRAM erwarten kann?

Schließlich ist die Bandbreite auch bei Grafikkarten immer wieder ein teures Problem.

Haswell wird das Lager definitiv noch weiter spalten, da sich die einen aufregen werden, das man immer noch nur 4 CPU Kerne bekommt und die IGP bei den meisten in keinster Weise genutzt wird und die mobile Fraktion wird sich über mehr GPU Power benötigen.

Dennoch bleibt bei Intel ein großes Problem: Der Grafiktreiber bzw. der Spielesupport.

€dit:

Natürlich müsste TSMC dann auch Stacked Memory beherrschen, damit AMD/Nvidia dies nutzen können. Gleichzeitig würde diese Technologie dann sicherlich gleich auf SoC einzug halten und Geräte wie Smartphones und Tablets stark beschleunigen.

Ronny145
2012-03-19, 12:57:31
Stacked RAM ;-) einen L4 hast du so gesehen schon bei IVB DT, denn die iGPU hat einen eigenen L3 und halt den allgemeinen LLC, der für die iGPU quasi der L4 ist.

Das denke ich auch. Ein Cache macht bei der Größe keinen Sinn.

Ich freu mich schon Stacked Memory 2013 endlich in freier Wildbahn zu sehen.
Ob man dann ab ~2014 auch erste dedizierte Grafikkarten mit Stacked VRAM erwarten kann?

Wozu brauchen die das? Dedizierte Karten haben doch ihren eigenen Speicher. Es ist zwar nicht bekannt, welche Art von stacked RAM Haswell einsetzt, schneller als GDDR5 wird der mit Sicherheit nicht.


Haswell wird das Lager definitiv noch weiter spalten, da sich die einen aufregen werden, das man immer noch nur 4 CPU Kerne bekommt und die IGP bei den meisten in keinster Weise genutzt wird und die mobile Fraktion wird sich über mehr GPU Power benötigen.

Vielleicht wird die GT3 Variante gar nicht im Desktop angeboten, muss man mal neuere Roadmaps abwarten. GT2 wird die normale Evolution zu Ivy Bridge darstellen, das Die nur etwas größer, wahrscheinlich unter 200 mm². Und dann gibt es auch noch GT1.

Nightspider
2012-03-19, 13:15:49
Es kommt natürlich darauf an welche Form des Stacked Memory Verwendung findet.
Sinn würde es nur machen, wenn die Bandbreite stark ansteigen würde.
Am schnelslten wäre Stacked Memory, wenn dieser direkt mit der CPU verbunden wird per trough silicon vias:
http://www.notebookcheck.com/typo3temp/pics/3130019a24.jpg
http://www.notebookcheck.com/Intel-Wird-Ivy-Bridge-als-erste-CPU-mit-integriertem-Grafik-RAM-ein-Game-Changer.43699.0.html
Stacked RAM wäre dann viel, viel schneller als GDDR5.
Siehe Memory Cube. Die Bandbreite würde enorm ansteigen.
Und Grafikchips hungern bei jeder neuen Generation nach mehr Bandbreite, was bisher immernoch mit schnelleren Chips (teuer) oder breitem SI (teuer) kompensiert werden konnte.

Wobei dedizierte GPUs in diesem Zusammenhang noch nie erwähnt wurden. Gut möglich das diese auch zu heiß sind, für die Speicherchips, die der Wärme direkt ausgesetzt wären.

AnarchX
2012-03-19, 14:19:47
Laut dem Schaubild befindet sich der L4/FastDRAM wohl eher neben dem CPU+GPU-Die. Also entweder ein Si-Interposer, worauf beide Chips sitzen oder Intel verbaut da ein HS-Interconnect im Package.

ndrs
2012-03-19, 15:17:17
OT-Frage: Wie viele Lagen hat eigentlich so ein übliches CPU-Package für ~1000 Pins?

Inf1del
2012-03-31, 23:57:00
Wozu brauchen die das? Dedizierte Karten haben doch ihren eigenen Speicher. Es ist zwar nicht bekannt, welche Art von stacked RAM Haswell einsetzt, schneller als GDDR5 wird der mit Sicherheit nicht.

Durch Stacked Memory kannst man Speicher viel breiter anbinden und kann so Frequenz sparen. Nen Latenz vorteil hast du natürlich auch.

hardtech
2012-04-01, 01:01:44
weiss man schon irgendetwas zu der steigerung der leistung?
gpu interessiert mich nicht, nur cpu.

y33H@
2012-04-01, 01:26:10
An sich ist's eine neue Architektur und ein paar schicke Änderungen sind dabei. Ohne größere Software-Anpassung denke ich, sind Intel-typisch 10 bis 30 Prozent realistisch.

dildo4u
2012-04-01, 01:54:02
Imo wie jetzt bei Ivy max 15% alle 12 Monate,der Fokus bzw die Transistoren werden Richtung IGP wandern.Und selbst damit dürfte Intel was die GPU angeht immer einer Gen hinter AMD bleiben für die nästen Jahre.

hardtech
2012-04-01, 03:50:18
Imo wie jetzt bei Ivy max 15% alle 12 Monate,der Fokus bzw die Transistoren werden Richtung IGP wandern.Und selbst damit dürfte Intel was die GPU angeht immer einer Gen hinter AMD bleiben für die nästen Jahre.
15% wäre eine enttäuschung. Ib bringt kaum mehrtakt zu sb. Bei haswell erwarte ich aufgrund der laschen konkurrenz das gleiche. Somit fähr man auch anno 2012 mit einem 2500k sehr gut.
Irgendwie hab ich das starke gefühl der stagnation....
Z77 bringt null mehrleistung ggü z68. Haswell wird wohl mehr sata 6g ports haben und viell. Paar spassfeatures. Naja.

Ronny145
2012-04-01, 12:18:39
Imo wie jetzt bei Ivy max 15% alle 12 Monate,der Fokus bzw die Transistoren werden Richtung IGP wandern.Und selbst damit dürfte Intel was die GPU angeht immer einer Gen hinter AMD bleiben für die nästen Jahre.

Es sind keine 15% wenn wir vom IVB Desktop sprechen. Es sind eher 5-8%. An CPU Leistungspekulationen möchte ich mich noch nicht beteiligen, da quasi noch rein gar nichts bekannt ist. Das hätte keinerlei Substanz in der Spekulation.


der Fokus bzw die Transistoren werden Richtung IGP wandern

Um das Problem zu lösen gibt es unterschiedliche GT Varianten im Angebot.


Und selbst damit dürfte Intel was die GPU angeht immer einer Gen hinter AMD bleiben für die nästen Jahre.

Das immer ist sehr bezeichnend. Für eine Einschätzung fehlen noch weitere Infos und eine Bestägigung der Spekulationen. Eine GT3 Variante mit 40 EUs und stacked RAM sollte jedenfalls eine große Steigerung bringen. Und ein Jahr später ermöglicht der 14nm shrink weiteren Platz.


Z77 bringt null mehrleistung ggü z68.

Redest Du von der CPU Leistung? Was hat der Chipsatz damit zu tun?

Haswell wird wohl mehr sata 6g ports haben und viell. Paar spassfeatures. Naja.

Was soll der Chipsatz denn groß bringen außer mehr USB3 Ports, 6G Anschlüsse und vielleicht Thunderbolt nativ?

dargo
2012-04-01, 13:26:10
Was soll der Chipsatz denn groß bringen außer mehr USB3 Ports, 6G Anschlüsse und vielleicht Thunderbolt nativ?
Jep... als ob der Chipsatz noch irgendwelchen Einfluss auf die CPU-Leistung hätte. Im Prinzip gibt es keinen Chipsatz in dem Sinne mehr sondern nur noch eine "Southbridge" um die Peripheriegeräte zu verwalten.

hardtech
2012-04-01, 18:42:03
@ronnie
ich rede davon, dass die industrie immer wieder neue boards rausbringen müssen, obwohl neue cpus auf alten boards laufen. ich bemängele nur das marketing. hab mich da wohl falsch ausgedrückt.
und dass die spannung anders ist, ist mir auch klar. aber viell. ist das ein vorwand der industrie? wer weiss.

john carmack
2012-04-02, 11:07:03
Redest Du von der CPU Leistung? Was hat der Chipsatz damit zu tun?

Was soll der Chipsatz denn groß bringen außer mehr USB3 Ports, 6G Anschlüsse und vielleicht Thunderbolt nativ?


Intel geht angeblich mit der Serie 8 Chipset erstmals seit Jahern von 65nm runter zu max. 45nm - eher in Richtung 32nm!

Serie 7 Chipset bleiben wohl noch auf 65nm.

y33H@
2012-04-02, 11:13:12
Die Fertigung des PCH hat aber nichts mit der Leistung zu tun - wenn dann nur etwas mit der Leistungsaufnahme des kompletten Systems. Bei den 6W die ein Z68 an TDP hat, ist da natürlich noch Luft - gerade Mobile.

Ronny145
2012-04-02, 11:21:03
Intel geht angeblich mit der Serie 8 Chipset erstmals seit Jahern von 65nm runter zu max. 45nm - eher in Richtung 32nm!

Serie 7 Chipset bleiben wohl noch auf 65nm.


Hat nichts mit der Leistung zu tun. Ob der Chipsatz nun 3 oder 6 Watt verbraucht, ist im Desktop eher akademischer Natur.

john carmack
2012-04-02, 11:35:56
Hat nichts mit der Leistung zu tun. Ob der Chipsatz nun 3 oder 6 Watt verbraucht, ist im Desktop eher akademischer Natur.

sorry hatte ich falsch verstanden... ab ich hab da auch mehr auf Notebooks und deren Akkus abgeziehlt.

gixe
2012-04-02, 16:30:46
War nicht sogar geplant manche CPUs für Ultrabooks als SOC auszuführen und die PCH so in 22nm zu fertigen?

AnarchX
2012-04-02, 16:33:48
Bei der SoC-Version soll die PCH via MCM auf dem Package sein. Fraglich ob man hier schon 22nm Fertigung verwendet.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9022931#post9022931

Ronny145
2012-04-03, 16:49:46
http://semiaccurate.com/2012/04/02/haswells-gpu-prowess-is-due-to-crystalwell/


64MB groß der gestapelte Speicher laut Charlie. Als alleiniger VRAM zu wenig bei der Größe. Es wird interessant sein zu sehen, welch Vorteil daraus gezogen werden kann.

Nightspider
2012-04-03, 17:04:00
Dann wäre der logische Schluss das dieser Speicher deutlich schnellerist als VRAM.
Vielleicht liegt er von der Geschwindigkeit auf Level 3 Cache Niveau.

Damit würde Intel auch die Lizenzkosten bzw. Einkaufskosten ersparen, wenn alles in den eigenen Fabriken gefertigt wird.

AnarchX
2012-04-03, 17:06:16
Für den Framebuffer könnte die 64MiB wohl gerade so ausreichen.

Demogod
2012-04-03, 17:17:04
Aber Windows 7 will doch mindestens 128 MB für Aero ..! Müsste dann halt über den Treiber getrickst werden oder?

AnarchX
2012-04-03, 17:19:04
Natürlich wird sich ein HSW GT3 nicht als 64MiB GraKa ausgeben.

Coda
2012-04-03, 17:28:17
Aber Windows 7 will doch mindestens 128 MB für Aero ..! Müsste dann halt über den Treiber getrickst werden oder?
Framebuffer != VRAM.

AnarchX
2012-04-03, 17:34:54
In welchen Größenordnungen bewegt sich den der/die Framebuffer bei einem modernen Spiel in den üblichen 768p bzw. 1080p?

Coda
2012-04-03, 18:02:30
Das kommt darauf an ob deferred rendering etc.

del_4901
2012-04-04, 00:39:54
Also mit 64MB eDRAM auf dem Package laesst sich so einiges anfangen. Wenn es doch mal etwas mehr sein muss, dann ist Tiled Rendering ist auch kein Beinbruch.

Ronny145
2012-04-04, 00:49:06
Wofür ist denn der eDRAM im Xbox360 Chip nützlich gewesen?

Graphics processing is handled by the ATI Xenos, which has 10 MB of eDRAM. Its main memory pool is 512 MB in size.
Xbox 360: the GPU contains an embedded 10 MiB framebuffer; this is not sufficient to hold the raster for an entire 1280×720 image with 4× anti-aliasing, so a tiling solution is superimposed.


Immerhin größerer eDRAM als im Xbox 360 Chip.

del_4901
2012-04-04, 00:55:33
Wofür ist denn der eDRAM im Xbox360 Chip nützlich gewesen? Steht doch da: Framebuffer. Also alles was aus der Grafikkarte 'raus' geht. Bei eDRAM Groessen von 64 oder 32MB wird man aber auch draus lesen koennen, weil einfach Sinn macht, wenn man mal nicht alles braucht. Bei der Box ist es aber eigentlich immer knapp zuwenig.

robbitop
2012-04-04, 09:04:40
Also mit 64MB eDRAM auf dem Package laesst sich so einiges anfangen. Wenn es doch mal etwas mehr sein muss, dann ist Tiled Rendering ist auch kein Beinbruch.
Soweit ich das mal mitgelesen habe, lief das Tile Rendering auf der X360 ja auch erst nach einer ganzen Weile richtig gut. Da mussten die Spieleentwickler wohl selbst ersteinmal lernen, effizient damit umzugehen und Erfahrungen sammeln.
Das ganze einfach per Treiber auf dafür unoptimierte Spiele überzustülpen wäre dann vermutlich nicht so effizient, oder?

del_4901
2012-04-04, 13:35:21
Soweit ich das mal mitgelesen habe, lief das Tile Rendering auf der X360 ja auch erst nach einer ganzen Weile richtig gut. Da mussten die Spieleentwickler wohl selbst ersteinmal lernen, effizient damit umzugehen und Erfahrungen sammeln.
Das ganze einfach per Treiber auf dafür unoptimierte Spiele überzustülpen wäre dann vermutlich nicht so effizient, oder?
Mhm kommt drauf an, warscheinlich nicht aber ich halte es nicht fuer unmöglich. die ganzen mobile Chips muessen doch auch mit ihrem internen Speicher haushalten und da ist noch viel weniger von vorhanden.

Ronny145
2012-04-11, 17:24:14
watch.impress Artikel: http://pc.watch.impress.co.jp/docs/column/ubiq/20120412_525532.html

Nightspider
2012-04-13, 11:40:42
http://www.computerbase.de/news/2012-04/chipsatzentwicklung-32-nm-ab-2013-mcp-mit-haswell/

Haswell Chipsatz in 32nm und Southbridge in der CPU als MCP klingt interessant.
Wahrscheinlich wird die Southbridge 2014 mit dem Haswell Nachfolger komplett mit dem CPU Die verschmelzen und ein echtes SoC bilden.

Ronny145
2012-04-13, 12:17:48
Naja so wie die ULV Modelle mit Haswell. Mit Broadwell sieht es so aus, als wenn das komplette lineup auf MCP umgestellt wird.

Skysnake
2012-04-13, 13:03:45
Soweit ich das mal mitgelesen habe, lief das Tile Rendering auf der X360 ja auch erst nach einer ganzen Weile richtig gut. Da mussten die Spieleentwickler wohl selbst ersteinmal lernen, effizient damit umzugehen und Erfahrungen sammeln.
Das ganze einfach per Treiber auf dafür unoptimierte Spiele überzustülpen wäre dann vermutlich nicht so effizient, oder?

Siehs einfach als "Cache" an, welcher langsamer als normale Caches, dafür aber SEHR viel größer ist. Das ist die "einfachste" und wirkungsvollste inplementierung, da mehr oder weniger unabhängig von der Programmierung.

Man bedenke auch mal, das aktuelle dezidierte GPUs gerade mal 768kB L2 Cache haben. Der RAM hier wird natürlich nicht ganz so performant sein, aber man kann wohl von ähnlichen Bandbreiten wie zum RAM bei dezidierten GPUs ausgehen. Ich hoffe man versteht, was für ein Durchsatzmonster da kommen könnte.

Vor allem kann man das Ding dann echt gut für recht feingranulare GPGPU Aufgaben nutzen, wo dezidierte GPUs nicht so gut für geeignet sind.

Auf Kurz oder Land wird CPU und GPU eh einen gemeinsamen Speicher bekommen, mit einer jeweils seperaten Speicheranbindung, um den unterschiedlichen Bandbreiten Rechnung zu tragen, wobei der Split eventuell auch erst direkt in der CPU erfolgen kann. Was btw. wohl sogar die elegantere Möglichkeit für APUs ist. Für dezidierte CPUs/GPUs wird man halt ganz trennen.

Aber da müssen wir mindestens noch auf den Haswell Nachfolger warten, realistisch gesehen aber sogar nochmal eine Generation länger. Sprich noch 2-3 Jahre.

robbitop
2012-04-18, 15:54:27
Und was für ein Cache? Für den Framebuffer oder für Texturen?

Skysnake
2012-04-18, 16:04:03
Für alles einfach. Zumindest wäre dies sinnvoll.

Siehs einfach als ein Äquivalent zum SSD-Caching von Festplatten. Die Idee dahinter ist die Gleiche.

Coda
2012-04-18, 16:09:34
Siehs einfach als "Cache" an, welcher langsamer als normale Caches, dafür aber SEHR viel größer ist. Das ist die "einfachste" und wirkungsvollste inplementierung, da mehr oder weniger unabhängig von der Programmierung.
Nein, der eDRAM auf der Xbox 360 ist kein Cache. Nichtmal ansatzweise.

robbitop
2012-04-18, 17:06:53
Ich glaube er meinte für Haswell als Nutzungsmöglichkeit.

Skysnake
2012-04-18, 19:30:15
Coda, wer redet denn von XBOX? :ugly:

Klar könnte man die paar MB als direkt addressierbaren Speicher realisieren, aber warum sollte man das machen? Das erzeugt nur unnötigen Aufwand. Ein Caching-System ist da deutlich interessanter.

Ronny145
2012-04-20, 16:22:43
http://s7.directupload.net/images/120420/iizznvp2.jpg

http://s7.directupload.net/images/120420/4mb8bzk8.jpg

http://s14.directupload.net/images/120420/p3mkq8cf.jpg
http://www.chiphell.com/thread-451483-1-1.html


SuperPi 4M Loop 1 bei 5,195 Sekunden. Wo liegt SB/IVB mit 2,4-2,5 Ghz?

boxleitnerb
2012-04-20, 16:33:35
http://www.abload.de/thumb/superpi2.4wwpcc.png (http://www.abload.de/image.php?img=superpi2.4wwpcc.png)

4.166s mit einem 2600K@24x100, Turbo aus.

Ronny145
2012-04-20, 16:36:39
Ok danke, etwas langsamer bedenkt man den halb so großen L3 Cache im Haswell 2/4. Hat aber noch nicht unbedingt was zu sagen bei einer Stepping 1 CPU. Davon mal abgesehen sehen die Zeitpläne für die Haswell Entwicklungsstufen relativ ähnlich aus mit denen von Ivy Bridge vor einem Jahr.

Zergra
2012-04-20, 16:48:04
http://www.abload.de/thumb/superpi2.4wwpcc.png (http://www.abload.de/image.php?img=superpi2.4wwpcc.png)

4.166s mit einem 2600K@24x100, Turbo aus.
hast du 2Kerne ausgemacht ? SMT angemacht damit du auch die 2/4 schaffst ?

Ronny145
2012-04-20, 16:49:33
hast du 2Kerne ausgemacht ? SMT angemacht damit du auch die 2/4 schaffst ?


Das bringt doch nichts. Erstens kann er den Cache nicht deaktivieren, zweitens läuft das eh nur auf 1 Kern.

AnarchX
2012-04-23, 18:24:23
[...]The fact of the matter is that everything Charlie has said on the big H is correct. Haswell will be a significant step forward in graphics performance over Ivy Bridge, and will likely mark Intel's biggest generational leap in GPU technology of all time. Internally Haswell is viewed as the solution to the ARM problem. Build a chip that can deliver extremely low idle power, to the point where you can't tell the difference between an ARM tablet running in standby and one with a Haswell inside. At the same time, give it the performance we've come to expect from Intel. Haswell is the future, and this is the bridge to take us there.[...]
http://www.anandtech.com/show/5771/the-intel-ivy-bridge-core-i7-3770k-review

Ronny145
2012-04-23, 19:34:43
http://www.anandtech.com/show/5771/the-intel-ivy-bridge-core-i7-3770k-review


Auch wenn es nur teilweise mit Haswell zu tun hat noch folgendes:

Unfortunately at the time only Apple was interested in a hypothetical Ivy Bridge GT3 and rumor has it that Otellini wasn't willing to make a part that only one OEM would buy in large quantities. We will eventually get the GPU that Apple wanted, but it'll be next year, with Haswell GT3. And the GPU that Apple really really wanted? That'll be GT4, with Broadwell in 2014.


Hört sich sinnvoller an als Charlies Apple GT Upgrade story wo es doch nur die GT2 Variante im Notebook gibt. Vielleicht hat Charlies Quelle Haswell gemeint.

Felixxz2
2012-04-23, 21:41:02
Was gibt es eigentlich für Möglichkeiten bei Haswell die IPC zu steigern? Die Rohleistung aktueller Designs ist mit IVB ja eig doch schon nahezu voll ausgelastet. Ist ne zusätzliche Pipeline oder aufgebohrte FP Rohleistung wahrscheinlich?
Oder kann man aus der aktuellen Rohleistung noch was rausholen? Immerhin holt man da schon seit 2006 alles raus :freak:

Und glaubt ihr, dass Mobos deutlich billiger werden? Wenn ein Z77 48$ kostet, dann fallen diese 48$ ja bei Haswell weg von den Mainboardkosten. Glaubt ihr das wird an den Kunden weitergegeben? Wird der iPCH in Haswell an den Kunden weitergegeben?

Zergra
2012-04-23, 21:45:40
Ich glaube nicht das wir dort am Preis was merken werken.

Haswell wird ein komplett neues Design haben, dort sollte eine menge möglich sein. Auch wenn dort warscheinlich am meisten an der IGP passieren wird und sich an der CPU nicht viel ändern wird.

Nightspider
2012-04-23, 21:45:47
Was gibt es eigentlich für Möglichkeiten bei Haswell die IPC zu steigern?


Latenzen verringern
Bandbreiten steigern
Caches vergrößern
Register vergrößern
Speicherzugriffe verbessern
Sprungvorhersage verbessern
Einheiten integrieren, welche bestimmte Rechenoperationen stark beschleunigen

Das ist zumindest das, was mir als "noob" einfällt ;)

y33H@
2012-04-23, 21:51:05
Wird der iPCH in Haswell an den Kunden weitergegeben?Der ULV selbst besteht aus CPU, iGPU und SA. Der PCH ist nicht im Die, sondern "nur" mit auf dem Träger - also ein MCP. Und nein, warum sollte Intel das weitergeben? Marge FTW.

Im Desktop bietet Haswell klassisch die PCHs auf dem Board.

Nightspider
2012-04-23, 21:51:56
Und glaubt ihr, dass Mobos deutlich billiger werden? Wenn ein Z77 48$ kostet, dann fallen diese 48$ ja bei Haswell weg von den Mainboardkosten. Glaubt ihr das wird an den Kunden weitergegeben? Wird der iPCH in Haswell an den Kunden weitergegeben?

Das ist eine interessante Frage.

In der Tat sollten für die Mainboardhersteller geringere kosten anfallen, wenn nach der Northbridge nun auch die Southbridge in die CPU wandert.

Der "restliche" Chipsatz dürfte wegen deutlich kleinerem Herstellungsprozess deutlich günstiger günstiger in der Fertigung sein und, soweit ich zu wissen glaube, weniger Verdrahtung benötigen.
Vielleicht sinkt dadurch die Anzahl der Platinen Layer, wenn mehr Einheiten vom Chipsatz in die CPU wandern.
Schließlich kann man durch Reduktion der Layer den Preis auch merklich senken.
Gut möglich das die Mainboardpreise bei Haswell 10-15% unter denen von Ivy Bridge liegen.

Generell ist der Trend der letzten Jahre, das Mainboards mit hochqualitativeren Bauteilen bestückt werden und gleichzeitig billiger wurden.

Der Kühler des Chipsatzes könnte ebenfalls komplett wegfallen bzw. deutlich kleiner werden.

Skysnake
2012-04-24, 02:26:56
Latenzen verringern
Bandbreiten steigern
Caches vergrößern
Register vergrößern
Speicherzugriffe verbessern
Sprungvorhersage verbessern
Einheiten integrieren, welche bestimmte Rechenoperationen stark beschleunigen

Das ist zumindest das, was mir als "noob" einfällt ;)

Das ist auch das, was mir so einfällt. Eine Hardware-rand-Einheit hat ja schon IB.

Ansonsten halt iGPU deutlich stärker Einbinden in die Berechnungen für die CPU. Also z.B. die Möglichkeit die iGPU OHNE! großes Zutun des Programmierers als Accelerator verwenden, wie es früher mal die FPU war.

Register muss man nicht unbedingt vergrößern, das bringt auch durchaus viele Probleme mit sich.

Bei Caches die Größe, Bandbreite und Latenz zu verbessern ist aber immer eine gute Idee.

Wo man aber wirklich noch einiges raus holen kann ist Sprungvorhersage und eben RAM. Für letzteres muss man aber eigentlich das aktuelle System komplett übern haufen werfen. Dazu habe ich mich ja aber bereits mehrfach ausgelassen.

Felixxz2
2012-04-24, 07:14:22
Der ULV selbst besteht aus CPU, iGPU und SA. Der PCH ist nicht im Die, sondern "nur" mit auf dem Träger - also ein MCP. Und nein, warum sollte Intel das weitergeben? Marge FTW.

Im Desktop bietet Haswell klassisch die PCHs auf dem Board.

Schon klar dass es MCP ist. Ich dachte das gibts auch im Desktop? Und wenn nich ist der PCH dann trotzdem in 32nm gefertigt?

Mit Weitergeben meinte ich das Negative :D
Also das Haswell teurer wird wenn nochn PCH drin ist. Wobei sich das ganze natürlich erübrigt wenns am Desktop keinen MCP gibt.



@ IPC Steigerung

Die ganzen genannten Sachen sind klar, nur fragte ich mich inwieweit man die Rohleistung, also das Backend schon ausgereizt hat. Immerhin ist die auf Int Seite seit dem Core 2 Duo gleich. Nur man nutzt sie halt effizienter. Nur irgendwann muss man doch auch die ALUs mal aufpumpen. Passiert das Mit Haswell oder erst 2015 beim Architekturnachfolger oder gar noch später?

y33H@
2012-04-24, 09:08:29
Der MPC ist rein für die 15 ULVs, im Desktop wird's IMO gehabt den PCH extern auf dem Board geben und ich kenne keine Dokumente, die etwas anderes sagen.

Felixxz2
2012-04-24, 09:41:34
Aber trotzdem in 32nm?

y33H@
2012-04-24, 09:45:36
Ja, das ist doch hier eindeutig zu sehen. Die PCHs bei Haswell und Broadwell ("Tick"-Shrink) sind 32 nm. Haswell ist bietet MPCs (ULV) und "klassische" PCHs (Desktop, normales Mobile), danach gibt's das "Tock" mit Skylake und nur noch MCPs oder gleich on-die.

42590

mboeller
2012-04-24, 10:52:25
Was gibt es eigentlich für Möglichkeiten bei Haswell die IPC zu steigern?

Ist das wirklich vorgesehen?

Wenn man sich die Roadmap hier anschaut:
http://www.computerbase.de/news/2012-02/intel-haswell-ab-maerz-2013-mit-enormer-grafikleistung/

dann wird Haswell gerade mal den i7-3770 beerben. Die Server-CPUs bleiben aber erhalten. Das spricht nicht gerade für eine höhere CPU-Performance.

YfOrU
2012-04-24, 11:04:14
In allen Fällen steht der kleinste LGA2011 Prozessor darüber. Die Auflistung grenzt also nur die Plattformen voneinander ab. Desweiteren hat sich Intel mit ">" ab Q3 (bzw. LGA2011: ab Q2) durchaus noch Raum für höher getaktete Modelle gelassen ;)

Von einer spürbaren IPC Steigerung gehe ich aber ebenfalls nicht aus. Der Fokus liegt auf Integration, höherer GPU Performance und weiterer Reduktion des Energiebedarfs.
Optimierungen gibt es zwar immer aber Steigerungen deutlich über der SB zu IB Differenz bezogen auf den CPU Part halte ich auf absehbare Zeit bei Intel für unrealistisch. Dazu besteht einfach keine Notwendigkeit denn die Stärken der Konkurrenzprodukte (auf ARM und x86 Basis) liegen in anderen Bereichen.

S940
2012-04-24, 11:39:02
Ist das wirklich vorgesehen?

Wenn man sich die Roadmap hier anschaut:
http://www.computerbase.de/news/2012-02/intel-haswell-ab-maerz-2013-mit-enormer-grafikleistung/

dann wird Haswell gerade mal den i7-3770 beerben. Die Server-CPUs bleiben aber erhalten. Das spricht nicht gerade für eine höhere CPU-Performance.
Ivy Bridge gibts im Moment auch nicht im Sockel 2011 ... das ist normal, Intel führt die immer erst später ein. Erst Beta-Test bei den Dekstopleuten, dann 100% Markenware für die Server.
IPC-mäßig weiss man nix, gab gerade ein einziges Leak mit der ersten Loop bei 4M SuperPi (wie üblich), da ist das Teil nicht schneller als ein Sandy, wobei vermutlich der kleinere L3-Cache stark begrenzt. (Das sind nur dualcores).
Hauptaugenmerk ist vielleicht nur die GPU (die soll laut anandtech ja ganz toll werden) und die Befehlssätze, wegen FMA3 steht ein größerer Umbau an.

ciao

Alex

Felixxz2
2012-04-24, 11:47:07
Ja, das ist doch hier eindeutig zu sehen. Die PCHs bei Haswell und Broadwell ("Tick"-Shrink) sind 32 nm. Haswell ist bietet MPCs (ULV) und "klassische" PCHs (Desktop, normales Mobile), danach gibt's das "Tock" mit Skylake und nur noch MCPs oder gleich on-die.

42590

Ich hatte garnichts angezweifelt, ich wusste es nur nicht ;)


@IPC Diskussion

Natürlich wird es eine IPC Steigerung geben, Haswell ist ein Tock und bietet eine neue/weiterentwickelte Architektur, man wird sicher wieder 10-20% Steigerung sehen.

Haswells Entwicklung begann schon vor Langer Zeit, daher wird Intel sicher nicht am CPU Teil sparen nur weil AMD IMO schwach ist. Das war damals nicht abzusehen und ist planungstechnisch unsinn.

Ronny145
2012-04-24, 11:56:52
Ja, das ist doch hier eindeutig zu sehen. Die PCHs bei Haswell und Broadwell ("Tick"-Shrink) sind 32 nm. Haswell ist bietet MPCs (ULV) und "klassische" PCHs (Desktop, normales Mobile), danach gibt's das "Tock" mit Skylake und nur noch MCPs oder gleich on-die.

42590

MCP ab Broadwell auch im Desktop, oder? Das war doch in der News letztens.

Ist das wirklich vorgesehen?

Wenn man sich die Roadmap hier anschaut:
http://www.computerbase.de/news/2012-02/intel-haswell-ab-maerz-2013-mit-enormer-grafikleistung/

dann wird Haswell gerade mal den i7-3770 beerben. Die Server-CPUs bleiben aber erhalten. Das spricht nicht gerade für eine höhere CPU-Performance.

So eine Roadmap taugt nicht für Leistungseinordnungen. Die Roadmap taugt maximal zur Markttrennung zwischen Highend und Mainstream Plattform. Wenn es rein nach der Leistung gehen würde, dürfte der i7-3820 nicht oberhalb vom i7-3770k stehen. S1150 wird nicht S2011 beerben, die bekommen nächstes Jahr irgendwann wahrscheinlich zuerst Ivy-E vorgesetzt.

YfOrU
2012-04-24, 12:13:11
Natürlich wird es eine IPC Steigerung geben, Haswell ist ein Tock und bietet eine neue/weiterentwickelte Architektur, man wird sicher wieder 10-20% Steigerung sehen.

Bei der CPU, der GPU oder bei der Effizienz im allgemeinen ? ;)


Haswells Entwicklung begann schon vor Langer Zeit, daher wird Intel sicher nicht am CPU Teil sparen nur weil AMD IMO schwach ist. Das war damals nicht abzusehen und ist planungstechnisch unsinn.

Abzusehen war das neben der IPC die Performance per Watt in erheblichen Maße an Gewichtung gewinnt. Die Evolution hin zu SoCs hat nicht erst gestern begonnen und abseits von AMD gibt es hier mittelfristig einige Unternehmen welche ernsthaft mitspielen möchten. Der Atom ist dabei alles andere als die allumfassende Lösung.

Bereits mit Haswell sollen ULV DC+GT3 Varianten inkl. MCP bei ~15W TDP kommen. Mit Broadwell geht es weiter in diese Richtung und das ist durchaus als Konkurrenz zu (künftigen) leistungsfähigen ARM Umsetzungen (also nach A15) zu sehen.

Intel ist im Highend absolut konkurrenzlos und daran wird sich auch auf lange Sicht kaum etwas ändern. Der ganz große Teil des Umsatzes kommt aber über Volumen und genau hier benötigt Intel in Zukunft kostengünstige, sparsame und dabei trotzdem leistungsfähige Produkte. Je höher der Energiebedarf desto teurer wird ein entsprechend ausgestattetes Produkt. Entsprechende ARM SoCs für Notebooks und Desktops werden grob geschätzt ebenfalls im TDP Bereich um 10 bis 15 Watt landen.

y33H@
2012-04-24, 12:35:26
MCP ab Broadwell auch im Desktop, oder?Mit Broadwell dann neue Boards bei einem "Tick"? Wäre mir neu.

Ronny145
2012-04-24, 12:46:12
Mit Broadwell dann neue Boards bei einem "Tick"? Wäre mir neu.


Gleich bleiben müsste nur der Sockel. Neue Boards/Chipsätze gibt es auch beim Tick mit Ivy Bridge.

y33H@
2012-04-24, 12:47:15
Hmmm, stimmt auch wieder.

Duplex
2012-04-24, 13:31:53
@IPC Diskussion

Natürlich wird es eine IPC Steigerung geben, Haswell ist ein Tock und bietet eine neue/weiterentwickelte Architektur, man wird sicher wieder 10-20% Steigerung sehen.

Haswells Entwicklung begann schon vor Langer Zeit, daher wird Intel sicher nicht am CPU Teil sparen nur weil AMD IMO schwach ist. Das war damals nicht abzusehen und ist planungstechnisch unsinn.
sign

Alles andere wäre sonst eine Katastrophe!

Zergra
2012-04-24, 14:20:57
sign

Alles andere wäre sonst eine Katastrophe!
Dann viel Spaß nei der Katastrope...
die 10-20% werden wohl eher nicht kommen.
Intel wird am Stromverbrauch und an der IGP Arbeiten, mehr werden wir nicht erleben. Also fast das gleiche wie bei Ivi.
Intel hat keinen Grund die CPU zu verbessern, aber die IGP ist vorallem für den Ultrabook bereich wichtig.

Meine Meinung

YfOrU
2012-04-24, 15:09:42
sign

Alles andere wäre sonst eine Katastrophe!

Das Intel jeden ARM SoC mit ernsthaften Anspruch größer Tablet bereits im Ansatz bügel wird ? Darauf läuft die aktuelle Entwicklung hinaus.

Ronny145
2012-04-24, 15:13:39
die 10-20% werden ziemlich sicher nicht kommen.

Quelle?


Intel wird am Stromverbrauch und an der IGP Arbeiten, mehr werden wir nicht erleben.

Quelle?

Nichts gegen Spekulationen, aber als Fakt etwas hinzustellen geht einfach nicht.

Zergra
2012-04-24, 15:34:46
Quelle?

Nichts gegen Spekulationen, aber als Fakt etwas hinzustellen geht einfach nicht.
Vllt. sollte ich mal meine Sicht etwas anders darstellen, am Handy ist das nicht so einfach.

Wieso kommen die 10-20% nicht ? Nun ja sicher kann man das nicht sagen, das wird von AMD´s Vishera/Trinity abhängen. Wenn aber nicht mit der IPC hinterherkommt braucht Intel dort nichts machen. IMO. Lasten auch keine "normalen" Anwendungen mehr als 4 Kerne aus. Solange braucht auch dort Intel nichts zu machen, und solange AMD von hinten nicht angeschlichen kommt ist auch bei der IPC kein Handlungsbedarf da ja jetzt schon der Abstand echt groß geworden ist.
Intel wird nach meiner Meinung ihre Arbeit in die IGP und in den Stromverbrauch stecken, denn die meisten Leute wollen ein Ultrabook was eine lange Akku Laufdauer und auch zu einem oder anderen Spiel reicht. Und wenn Intel die Grafkleistung nicht liefert freut das die großen Kunden nicht so sehr. Dann stecken sie lieber ihre Arbeit in die IGP und machen dort einen großen Fortschritt, was mit einem neuen Design möglich wäre. Der Desktop Markt für die Spieler ist relativ gering. Ultrabooks, Smartphones, und Tablets werden in den nächsten Jahren einen nicht unerheblichen Anteil ausmachen.
Außerdem, welcher Office und "normaler Arbeitscomputer" braucht eine starke CPU Leistung ?

Das ist meine Persöhnliche Meinung

Knuddelbearli
2012-04-24, 15:48:24
Von einer spürbaren IPC Steigerung gehe ich aber ebenfalls nicht aus. Der Fokus liegt auf Integration, höherer GPU Performance und weiterer Reduktion des Energiebedarfs.
Optimierungen gibt es zwar immer aber Steigerungen deutlich über der SB zu IB Differenz bezogen auf den CPU Part halte ich auf absehbare Zeit bei Intel für unrealistisch. Dazu besteht einfach keine Notwendigkeit denn die Stärken der Konkurrenzprodukte (auf ARM und x86 Basis) liegen in anderen Bereichen.

? Dachte Haswell hat wieder 95w tdp ?

dildo4u
2012-04-24, 15:48:52
Der Sprung der CPU wie wie beim letzen Tock aussehen also z.b von einem,i7-860 zum 2600K.

YfOrU
2012-04-24, 15:56:05
? Dachte Haswell hat wieder 95w tdp ?

Die wird es für höhere Frequenzen und eine iGPU in GT3 Ausführung am Desktop wohl auch brauchen. Das ändert aber nichts daran das die Verlustleistung im Leerlauf und bei Teillast weiter reduziert wird.
Die maximale TDP ist von Intel (in einem gewissen Rahmen) praktisch beliebig wählbar. Je nach dem welches Segment mit dem jeweiligen CPU Modell bedient werden soll. Die 95W TDP würde ich deshalb auch nicht direkt an einem Produkt festmachen sondern als Vorgabe für die Plattform.

Die 95W TDP gelten trotz IB auch für Z77 Boards denn es ist S1155 ;)

ndrs
2012-04-24, 16:23:42
Nicht zu vergessen, dass die SpaWas in die CPU wandern sollen, die ja auch keine 100% Effizienz haben werden und somit die Verlustleitung erhöhen.

Ronny145
2012-04-24, 16:36:22
Die wird es für höhere Frequenzen und eine iGPU in GT3 Ausführung am Desktop wohl auch brauchen.


Nach letzten Informationen wird es GT3 nur im Notebook geben.

Duplex
2012-04-24, 16:53:03
die 10-20% werden ziemlich sicher nicht kommen.
Nur weil AMD nach dem K8 keine grossen x86 Fortschritte mehr gemacht hat und mit Bulldozer einen IPC Rückschritt vollzogen hat, heißt das aber noch lange nicht das Intel die x86 Entwicklung wegen AMDs schwächen aufgeben wird.

Haswell wurde sofort nach Nehalem Tapeout angefangen zu designen, das sind bereits 4-5 Jahre Entwicklung, die Haswell Entwickler wussten auch auf welche IPC Sandy landen wird, mit dem Wort ziemlich sicher nicht kommen würde ich an deiner stelle aufpassen...

1

Felixxz2
2012-04-24, 17:44:43
@Zergra

Du solltest verstehen, dass so eine CPU Jahre in der Entwicklung ist. Intel kann nicht einfach so auf paar Monate die Leistung anpassen oder nicht. Es hängt somit NULL mit AMDs Zukunftsprodukten zusammen, wie schnell Haswell wird. Das steht nähmlich schon lange fest und kann jetzt auch nicht mehr geändert werden.

Da du von Effizienz sprichst: Höhere IPC steigert die Effizienz. Man kann niedriger takten, verbrauht weniger Strom und kommt auf die selbe, ausreichende Leistung. Somit ist eine IPC-Steigerung auch für sinkenden Energieverbrauch essentiell. Und den beschreibst du ja als Ziel von Intel.

Zergra
2012-04-24, 18:07:14
@Zergra

Du solltest verstehen, dass so eine CPU Jahre in der Entwicklung ist. Intel kann nicht einfach so auf paar Monate die Leistung anpassen oder nicht. Es hängt somit NULL mit AMDs Zukunftsprodukten zusammen, wie schnell Haswell wird. Das steht nähmlich schon lange fest und kann jetzt auch nicht mehr geändert werden.

Da du von Effizienz sprichst: Höhere IPC steigert die Effizienz. Man kann niedriger takten, verbrauht weniger Strom und kommt auf die selbe, ausreichende Leistung. Somit ist eine IPC-Steigerung auch für sinkenden Energieverbrauch essentiell. Und den beschreibst du ja als Ziel von Intel.
Stimmt natürlich auch, wenn man die geringerren Taktraten eingezieht hast du auch recht. Etwas mehr denken wäre auch nicht schlecht ;D . Das könnte man mit den Taktraten auch wieder erreichen...
Und den beschreibst du ja als Ziel von Intel.
Sollte doch auch oder siehst du das anders ?

Felixxz2
2012-04-24, 19:10:49
Nein, natürlich hast du Recht, dass Energieeffizienz das Leitthema von Intel ist. Das dazu eine hohe IPC notwendig ist, ist das Bonbon für uns Gamer :D

Nightspider
2012-04-24, 19:26:02
Der Sprung der CPU wie wie beim letzen Tock aussehen also z.b von einem,i7-860 zum 2600K.

Mit Glück sogar mit gleichem Zuwachs beim OC. Dann dürften wir definitiv 5,5-6 Ghz erleben.

Wenn ich einen 6Ghz Haswell QuadCore mit +10%IPC bekomme kann es mir scheiß egal sein ob Intel 6-8 Kerne für wenig Geld auf den Markt bringt oder nicht. :D

Felixxz2
2012-04-24, 19:29:51
Mit Glück sogar mit gleichem Zuwachs beim OC. Dann dürften wir definitiv 5,5-6 Ghz erleben.

Wenn ich einen 6Ghz Haswell QuadCore mit +10%IPC bekomme kann es mir scheiß egal sein ob Intel 6-8 Kerne für wenig Geld auf den Markt bringt oder nicht. :D

Boah wär das Teil schnell :eek:
Ob das OC Potential aber so groß wird, bleibt abzuwarten. Erstmal muss man das bei IVB klären.

dildo4u
2012-04-24, 19:34:53
Mit Glück sogar mit gleichem Zuwachs beim OC. Dann dürften wir definitiv 5,5-6 Ghz erleben.

Wenn ich einen 6Ghz Haswell QuadCore mit +10%IPC bekomme kann es mir scheiß egal sein ob Intel 6-8 Kerne für wenig Geld auf den Markt bringt oder nicht. :D
OC wird wie bei ivy nicht mehr so dicke sein,(Zu viele Transistoren auf zu kleiner Die= zu viel Hitze)schon deshalb wird ordentlich an IPC geschraubt obwohl vermutlich eher,für die Notebook CPUs,die nich hoch Takten können,Desktops werden 2013 nich mehr viel vom Markt ausmachen.Das ganze basiert halt nich auf einem Hoch Takt Konzept aller P4 oder Bulldozer,das "rächt" sich jetzt wenn's um OC geht.

AnarchX
2012-04-24, 19:39:45
Muss man halt einen Floorplan, wie z.B. beim Bulldozer entwerfen, bei dem die Cores separiert sind und der Cache in der Mitte.

Nightspider
2012-04-24, 19:43:29
Ich halte diese Aussagen für Quatsch.

Ein Atom hat auch tausend mal mehr Transistoren als ein P2 bei deutlichst kleinerer Fläche und deutlich höherer Taktrate.

Das hängt einzig von der Architektur und Verbesserungen in der Fertigung ab. Zudem wollte Intel mit 3D Transistoren unter anderem Leckströme deutlich minimieren. Davon haben wir bei Ivy Bridge noch nicht viel gesehen.

Oder hat sich bei dir der Transistorcount von Nehalem zu Sandy nicht enorm gesteigert bei deutlich kleinerer Fläche?

Es spricht also gar nichts dagegen, das es möglich wäre den Schritt von Nehalem auf Sandy bei Haswell zu wiederholen.

Zumal das Problem am OC bei Ivy auch am Cache liegen könnte der mit selber Taktrate läuft wie die ALUs.

Skysnake
2012-04-24, 19:47:33
Mit Glück sogar mit gleichem Zuwachs beim OC. Dann dürften wir definitiv 5,5-6 Ghz erleben.

Wenn ich einen 6Ghz Haswell QuadCore mit +10%IPC bekomme kann es mir scheiß egal sein ob Intel 6-8 Kerne für wenig Geld auf den Markt bringt oder nicht. :D
BOAH.... Jetzt fängt das schon wieder an...

Sollte man jetzt nach IB nicht endlich mal gelernt haben, dass die Sache mit dem gesteigerten OC in die Tonne wandern kann???

Das war früher mal so, aber nicht mehr heute. Dafür gibt es einfach zu viele Einflussfaktoren, die früher keine Rolle gespielt haben....
Wenn wir das gleiche OC Potenzial/Taktraten wie heute haben sollte man absolut zufrieden sein....

Muss man halt einen Floorplan, wie z.B. beim Bulldozer entwerfen, bei dem die Cores separiert sind und der Cache in der Mitte.
Das Problem sind aber meines Wissens nach gar nicht die Kerne an und für sich, sondern gerade die Caches mit ihrem SDRAM. Wenn du ne SDRAM-Zelle schaltest, fließt da kurzzeitig recht viel Strom. Danach leakt ne SDRAM-Zelle ziemlich genügsam vor sich hin. Aber beim Schalten ist das Ding schon eher hässlich. Da die Taktraten der Caches immer weiter hoch getrieben wurden/werden ist das nicht sonderlich toll. Auch sind die Tri-Gate-Transistoren im Cache verbaut. Ergo ist da die Packdickte noch weiter gestiegen, und Caches sind eh schon auf Packdichte optimiert wie blöd...

Cache durchsuchen kostet auch realtiv viel Strom.

Caches sollten daher eigentlich eher das Problem sein, als die Cores. Zumal bei den Cores ja nie alle Funktionseinheiten dauerhaft ausgelastet sind.

Register könnten allerdings auch noch problematisch sein, sowie die SSE-Pipelines, wenn massiv davon Gebrauch gemacht wird.

Kann man aber alles nicht so genau sagen, da man nie weiß, wie die ganzen sachen geplaced und geroutet sind. Man nutzt ja den Weg eines Signals möglichst schon zur Verarbeitung des Selbigen. Wirklich echte Wires legt man ja nach möglichkeit nicht.

Nightspider
2012-04-24, 19:49:25
BOAH.... Jetzt fängt das schon wieder an...

Sollte man jetzt nach IB nicht endlich mal gelernt haben, dass die Sache mit dem gesteigerten OC in die Tonne wandern kann???

Das war früher mal so, aber nicht mehr heute. Dafür gibt es einfach zu viele Einflussfaktoren, die früher keine Rolle gespielt haben....
Wenn wir das gleiche OC Potenzial/Taktraten wie heute haben sollte man absolut zufrieden sein....

Stimmt. Sandy Bridge ist schon 16 Monate alt. Ein ganz andere Zeitrechnung.

:facepalm:

Sandy Bridge scheint dir ja nicht sehr lange im Gedächtnis geblieben zu sein.

Duplex
2012-04-24, 20:00:56
Es spricht also gar nichts dagegen, das es möglich wäre den Schritt von Nehalem auf Sandy bei Haswell zu wiederholen.
Der Schritt ist garnicht so groß gewesen, ohne SSE/AVX bei gleichem Takt 10-15%, gibt es zweifel das sowas bei Haswell nicht möglich sei? Ein neues L2 Cache Design & Frontend/Backend Tuning können deutliche verbesserungen gegenüber den Vorgängern möglich machen.
Nehalem konnte dank QPI statt FSB, Speichercontroller & L3 Cache deutlich mehr Leistung demonstrieren, die größten Sprünge waren nur Core2 & Nehalem und nicht Sandy Bridge, wenn Sandy kein großes OC Potential hätte, dann wäre SB heute nicht so beliebt.

Ronny145
2012-04-24, 20:06:24
Bei Sandy Bridge kam noch der höhere Takt hinzu. Das hat in der Summe dann den großen Unterschied gemacht.

AnarchX
2012-04-27, 09:29:57
PCWatch geht wohl auch weiterhin von 40 EUs für HSW GT3 aus: http://pc.watch.impress.co.jp/docs/column/kaigai/20120427_529875.html

Da muss Intel aber noch einiges tun, damit die Leistung auch mit dieser Rohleistung skaliert, die Skalierung von IVB GT1 zu GT2 (http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/13/#abschnitt_spieleperformance) ist momentan noch ziemlich bescheiden.

Knuddelbearli
2012-04-27, 19:33:09
passt zwar erst zum haswell nachfolger aber da es dazu noch keine Theater gibt.

was bringt es die Spawas in die CPU zu verlegen?

falls die CPU weiterhin soviel verbrauchen soll wie jetzt hat man dann doch nur merh wärme auf geringere fläche

Zergra
2012-04-27, 21:25:47
passt zwar erst zum haswell nachfolger aber da es dazu noch keine Theater gibt.

was bringt es die Spawas in die CPU zu verlegen?

falls die CPU weiterhin soviel verbrauchen soll wie jetzt hat man dann doch nur merh wärme auf geringere fläche
Wird wohl hauptsächlich auch für den gebraucht in Tablets und Smartphones gebaut ;)

Ronny145
2012-04-28, 00:07:37
PCWatch geht wohl auch weiterhin von 40 EUs für HSW GT3 aus: http://pc.watch.impress.co.jp/docs/column/kaigai/20120427_529875.html

Da muss Intel aber noch einiges tun, damit die Leistung auch mit dieser Rohleistung skaliert, die Skalierung von IVB GT1 zu GT2 (http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/13/#abschnitt_spieleperformance) ist momentan noch ziemlich bescheiden.


Womöglich arbeitet der Treiber noch nicht optimal. Eine doppelte Rechenleistung auf dem Papier hat allerdings längst nicht eine doppelte Spieleperformance zur Folge. Alleine wegen der arg begrenzten Bandbreite unmöglich. Bezweifle aber mal das Intel der GT3 40 EUs verbaut wenn das so wenig bringt gegenüber 20 EUs der GT2 Version. Dazu kommt der eDRAM und womöglich andere Verbesserungen innerhalb der Architektur. Wenn das nicht mindestens die doppelte Spieleistung zu Ivy Bridge ergibt, wäre das ein Witz.

Duplex
2012-04-28, 00:14:48
Nach den aktuellen Spekulationen muss sich Haswell mit der Kaveri APU von AMD messen, also bereits der Trinity Nachfolger mit GCN GPU, bis jetzt hat Intel noch niemanden mit der iGPU beeindrucken können, ich denke auch nicht das Haswell hier einen dickeren gegenüber Kaveri oder Trinity demonstrieren kann, Intel kann hauptsächlich durch der hohen Core Leistung + Leistungsaufnahme punkten.

Ronny145
2012-04-28, 00:35:15
Nach den aktuellen Spekulationen muss sich Haswell mit der Kaveri APU von AMD messen, also bereits der Trinity Nachfolger mit GCN GPU, bis jetzt hat Intel noch niemanden mit der iGPU beeindrucken können, ich denke auch nicht das Haswell hier einen dickeren gegenüber Kaveri oder Trinity demonstrieren kann, Intel kann hauptsächlich durch der hohen Core Leistung + Leistungsaufnahme punkten.


Naja wer will das wissen. Die GT3 Version mit derzeit spekulierten 40 EUs ist sicher keine normale Evolution. Die normale Evolution wäre die GT2 Variante mit 20 EUs. Bei Kaveri muss man erstmal sehen ob sich AMD bezüglich Bandbreite was einfallen lässt. Intel bringt eDRAM (wird sich zeigen was es bringt), bei AMD weiß man noch nichts. Das 17W Duell zwischen IVB und Trinity könnte einen ersten Vorgeschmack bringen, denn da sehe ich Intel deutlich konkurrenzfähiger im Vergleich aufgestellt. Vergleiche zwischen Haswell und Kaveri machen derzeit rein gar kein Sinn.

Skysnake
2012-04-28, 01:59:06
Nach den aktuellen Spekulationen muss sich Haswell mit der Kaveri APU von AMD messen, also bereits der Trinity Nachfolger mit GCN GPU, bis jetzt hat Intel noch niemanden mit der iGPU beeindrucken können, ich denke auch nicht das Haswell hier einen dickeren gegenüber Kaveri oder Trinity demonstrieren kann, Intel kann hauptsächlich durch der hohen Core Leistung + Leistungsaufnahme punkten.
Naja, Intel wird wohl stacked RAM/Chips bringen, wobei die Anbindung wohl über einen Interposer erfolgt. Da kann man dann wohl mit extremen Bandbreitensteigerungen für die iGPU rechnen. Je nach Anwendung sollte damit >>100% Leistungssteigerung drin sein, da das SI von CPU&iGPU entlastet wird. Man wird den kleinen RAM der iGPU nämlich recht wahrscheinlich als eine Art Cache ausführen, und bei der angedachten Größe geht da schon einiges.

Naja wer will das wissen. Die GT3 Version mit derzeit spekulierten 40 EUs ist sicher keine normale Evolution. Die normale Evolution wäre die GT2 Variante mit 20 EUs. Bei Kaveri muss man erstmal sehen ob sich AMD bezüglich Bandbreite was einfallen lässt. Intel bringt eDRAM (wird sich zeigen was es bringt), bei AMD weiß man noch nichts. Das 17W Duell zwischen IVB und Trinity könnte einen ersten Vorgeschmack bringen, denn da sehe ich Intel deutlich konkurrenzfähiger im Vergleich aufgestellt. Vergleiche zwischen Haswell und Kaveri machen derzeit rein gar kein Sinn.
eDRAM ist das nicht, man hat den RAM ja nicht auf dem gleichen Chip wie den Rest, sondern wird das wohl daneben pflanzen wie schon gesagt. (Zumindest wäre mir nichts anderes bekannt).

Intel kann je nach Anwendung daraus aber sicherlich teilweise einen extremen Vorteil ziehen. Es ist daher wichtig, das AMD in diesem Bereich zügig nachzieht. Da GF für 20nm aber auch stacked Chips angekündigt hat, bin ich da verhalten optimistisch, dass die Beiden im Abstand von 1, maximal 2 Jahren beide stacked Chips einführen werden.

Mancko
2012-04-28, 10:23:09
Nach den aktuellen Spekulationen muss sich Haswell mit der Kaveri APU von AMD messen, also bereits der Trinity Nachfolger mit GCN GPU, bis jetzt hat Intel noch niemanden mit der iGPU beeindrucken können, ich denke auch nicht das Haswell hier einen dickeren gegenüber Kaveri oder Trinity demonstrieren kann, Intel kann hauptsächlich durch der hohen Core Leistung + Leistungsaufnahme punkten.

Die müssen auch keinen damit beeindrucken. Die IvyBridge GPU hat bereits jetzt ein Leistungsniveau erreicht, das für die Kundschaft dieser PCs einschließlich Laptops völlig ausreichend ist. Gerade im Bereich der Bürorechner und Laptops für Geschäftszwecke ist primär die CPU Leistung in Kombination mit Leistungsaufnahme interessant. In vielen Unternehmen sind die PCs über eine standardisierte Softwareversorgung mit so viel Zeug vollgemüllt, dass man mit CPU Leistung immer punktet. M$ wird zudem mit zukünftigen Betriebssystemen weiter nach mehr CPU Leistung verlangen.
Dagegen ist der Grafikteil eigentlich nur interessant wenn man ein bisschen Low-Level Gaming betreiben will. Für anspruchsvollere Szenarien wird sowieso eine eigene Grafikkarte fällig.

Skysnake
2012-04-28, 12:06:45
Wenns doch nur die CPU-Leistung meist in den Firmen wäre.

Meiner Erfahrung nach hängst heutzutage eher am NFS bzw. allgemein am Netzwerk. Da wird nämlich gern gespart, und es tut sich auch schon sehr lange kaum etwas in diesem Bereich.

y33H@
2012-04-28, 12:12:04
Einigen wir uns auf "auch" die CPU-Leistung ;-)

Skysnake
2012-04-28, 12:19:18
Naja, ich hab in der Uni nen Core2Duo und nen SB Quad stehen. Entweder es läuft auf beiden alles supi, oder aber beide spacken ab, weil das NFS rum zickt. Bei uns hängste echt total von NFS ab....

Ausgenommen natürlich die langen Berechnungen/Simulationen, die dann halt lange brauchen, aber das ist wieder was anderes. So was macht man ja in den meisten Büros nicht.

dargo
2012-05-15, 23:37:11
Wird Haswell noch auf DDR3 setzen?

AnarchX
2012-05-15, 23:38:38
In der Desktop-Mainstream-Version schon, vielleicht ist der IMC schon DDR4-fähig und kann auf einem Broadwell-Board mit DDR4 genutzt werden.

ndrs
2012-05-16, 09:04:34
Ein Kombiinterface könnte schwierig werden. DDR4 wird vermutlich auf eine neuartige Punkt-zu-Punkt-Verbindung, anstatt auf einen Bus setzen, ist also nicht Pin-kompatibel.

Siehe http://www.heise.de/ct/meldung/Mehr-Unterstuetzung-fuer-DDR4-SDRAM-und-Hybrid-Memory-Cube-1574434.html

john carmack
2012-05-23, 16:43:27
Kommt Haswell mit DDR4 unterstützung?

Coda
2012-05-23, 18:22:16
http://www.3dcenter.org/news/ddr4-speicher-bereits-im-jahr-2013-bei-intels-haswell-architektur

Ronny145
2012-06-03, 02:03:16
eDRAM ist das nicht, man hat den RAM ja nicht auf dem gleichen Chip wie den Rest, sondern wird das wohl daneben pflanzen wie schon gesagt. (Zumindest wäre mir nichts anderes bekannt).



"EnableHswEDRAM" im Grafiktreiber hört sich allerdings verdächtig danach an. Für was sollte sonst Hsw stehen, wenn nicht für Haswell?


Ich glaube ww11 ist etwas neuer als die vorherigen Leaks. Änderungen sind mir jedoch nicht aufgefallen.


http://s14.directupload.net/images/120603/rel7ybrs.png
http://www.edi-atl.com/pdfs/INTEL_Presentation.pdf

=Floi=
2012-06-03, 03:26:55
das mit den neuen sockeln ist ja schon nicht mehr feierlich. langsam reicht es wieder...

Skysnake
2012-06-03, 08:59:26
"EnableHswEDRAM" im Grafiktreiber hört sich allerdings verdächtig danach an. Für was sollte sonst Hsw stehen, wenn nicht für Haswell?

Dir ist schon klar, dass das vom Marketing ist? Also von Leuten, die 0 Plan haben?

Von eDRAM spricht man, wenn DRAM, also nicht SRAM, direkt auf einem Chip zusammen mit der CPU/GPU ist. Bei Hasswell soll das aber nicht direkt auf dem Chip sein, sondern entweder per TSV oder per Interposer realisiert werden. Wirklich von eDRAM im klassischen Sinne kannste da nicht sprechen, wird aber natürlich von den Marketing-Leuts trotzdem so genannt.

Ok, ich habs grad doch nochmal auf Wikipedia nachgelesen. http://de.wikipedia.org/wiki/EDRAM

Der Begriff ist doch etwas weiter gefasst. Dort wird von "Modul" gesprochen, als entweder das von mit angesprochene TSV/Interposer, aber auch schlicht ein Multi-Chip-Package, wie das bei den Core2Quads der Fall ist, nur dass da halt kein DRAM verbaut wurde.

Jetzt ist nur die Frage, wie genau Package ausgelegt wird. Wenn es wie bei den alten Slot CPUs auch sein, kann, also auf nem kleinen PCB miteinander verbunden (da war es glaub aber auch kein DRAM), dann wissen wir noch nicht, ob es TSV/Interposer wird oder nicht.

Meines Wissens nach wird TSV aber nicht verwendet, also in dem Sinne, dass das Ding auf den CPU-DIE drauf geklatscht wird. Es soll wohl daneben gepackt werden ähnlich wie beim Core2Quad. Was nur nicht klar ist, ist ob dann Interposer verwendet wird, oder eben doch genau wie bei Core2Quad. Ich gehe, nachdem ich den Wiki link nochmals selbst gelesen habe dann doch eher von der Variante genau wie beim Core2Quad aus.

Aber schon lustig, dass der Begriff so weit gefasst ist :ugly: Normal wird eben mit eDRAM eine wirklich ECHTE integration direkt auf dem selben Chip gemeint, wobei eben genau das auch das besondere ist, da SRAM und DRAM eigentlich in zwei unterschiedlichen Produktionsverfahren hergestellt werden. Das IBM das gelungen ist, dies zu kombinieren war schon eine ganz schöne Leistung.


Ich glaube ww11 ist etwas neuer als die vorherigen Leaks. Änderungen sind mir jedoch nicht aufgefallen.


http://s14.directupload.net/images/120603/rel7ybrs.png
http://www.edi-atl.com/pdfs/INTEL_Presentation.pdf
Jo sollte das Neuste sein. Danke :up:

das mit den neuen sockeln ist ja schon nicht mehr feierlich. langsam reicht es wieder...
Wieso? :ugly:

Also im Moment kann man sich wirklich nicht beschweren. Alle zwei Generationen ein neuer Sockel ist ok.

Vor allem gibt es mit Haswell ja WIRKLICH! mehr als genug Gründe für einen neuen Sockel.

Ronny145
2012-06-03, 10:30:24
Dir ist schon klar, dass das vom Marketing ist? Also von Leuten, die 0 Plan haben?


Dir ist klar, dass der Begriff aus dem zerlegten Treiberfile kommt? Ohne reverse engineering bekommt das niemand zu Gesicht. Das Marketing müsste dann ja schon den Treiber mit programmieren. Sorry, das halte ich für abwegig.

Skysnake
2012-06-03, 11:42:41
Der Teil hätte auch nen strike bekommen sollen :ugly:

Ja, das passt wohl schon so als eDRAM, aber nicht in dem Sinne, wie es normal verwendet wird, also als DRAM direkt on DIE, sondern in der allgemeinen/erweiterten Bedeutung, wo das Packaging mit drin ist, auch wenn den Begriff so eigentlich niemand verwendet im Allgemeinen.

Es ist halt kein eDRAM direkt auf dem DIE, was aber wie gesagt die meisten/alle damit in Verbindung bringen. darum gings mir.

AnarchX
2012-06-03, 12:32:54
Vielleicht sind ähnlich wie bei der Xbox360 auf dem EDRAM-Die (zusätzliche) ROPs verbaut?

Skysnake
2012-06-03, 12:52:50
Ne glaub ich nicht.

Das soll wirklich "nur" quasi ein großer Cache werden. Das langt auch. Die Bandbreitenprobleme sollten sich im Allgemeinen damit gut in der Griff bekommen lassen. Ich hoffe AMD bringt sowas auch endlich, damit Sie ihre Bandbreitenlimitierung ihrer iGPU weg bekommen.

Ronny145
2012-06-19, 17:59:20
Haswell-EP Infos von Bigpao:

http://s1.directupload.net/images/120619/qzz4kbjx.jpg

http://s1.directupload.net/images/120619/47cjxcy6.jpg

http://s7.directupload.net/images/120619/ohira3te.jpg
http://www.chiphell.com/thread-497401-1-1.html

Nightspider
2012-06-19, 18:08:40
Gibt es nun handfeste Aussagen ob Haswell auch noch mit DDR3 auf den Markt kommen wird?

Auf DDR4 hab ich echt kein Bock, den können sie behalten.

AnarchX
2012-06-19, 18:09:40
14 physische Cores? Da wird es wohl zukünftig kein EX-Versionen mehr geben?

Gibt es nun handfeste Aussagen ob Haswell auch noch mit DDR3 auf den Markt kommen wird?

Auf DDR4 hab ich echt kein Bock, den können sie behalten.
Der Endkunden-HSW wird noch DDR3 nutzen.

Ronny145
2012-06-19, 18:18:10
14 physische Cores? Da wird es wohl zukünftig kein EX-Versionen mehr geben?



Wo kommen die 14 Kerne her? EX gibt es mit Sandy Bridge auch nicht, nur EP. Vielleicht beim refresh wieder.