Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Haswell - 22nm, DX11.1 und AVX2 in H1/2013 - HSW-Refresh Q2/2014
Seiten :
1
2
3
4
[
5]
6
7
8
Ronny145
2013-03-30, 00:27:46
Es hieß zuletzt Broadwell nur als BGA. Man beachte in der Folie die planned Broadwell CPU Drop-in compatibility Bemerkung für den LGA1150 Server Ableger.
http://s14.directupload.net/images/130330/rxtrzvp4.png
http://www.worldhostingdays.com/downloads/2013/hStag2a1.pdf
Skysnake
2013-03-30, 10:12:08
Das war doch schon immer klar :ugly:
Erst NACH Broadwell wird es spannend, ob man BGA bekommt oder nicht.
Und wenn Skylake (?) nochmal LGA bekommt, dann ist der Nachfolger auch gesichert.
Ronny145
2013-03-30, 11:08:22
Das war doch schon immer klar :ugly:
Nein war es nicht. Und es ist immer noch nicht 100% klar. Die Vorstellung der pdf ist zwar nur wenige Tage alt, aber theoretisch kann sich ein veralteter Slide mit nicht mehr aktuellen Infos eingestreut haben, weil das keine klassische Intel Roadmap ist sondern eher eine pdf mit ausgesuchten Folien für ein Vortrag. Oder Broadwell für LGA ist ein renaming. Eine sichere Bestätigung gibt es noch nicht. Wenn Broadwell für LGA kommt soll es mir/uns recht sein. Wäre wieder mal bezeichnend für die Gerüchteküche um Intel in letzter Zeit. Sehr vieles bestätigt sich im Nachhinein nicht. Alleine vom Clown könnte man eine ganze Seite füllen.
Erst NACH Broadwell wird es spannend, ob man BGA bekommt oder nicht.
Hä? Das ist doch erst recht klar. Es war zuletzt immer nur die Frage, ob Broadwell nur für BGA erscheint. Skylake für LGA ist mehr oder weniger sicher. Es war höchstens klar, dass Skylake wieder für LGA kommt. Die letzte News diesbezüglich von digitimes (http://www.digitimes.com/news/a20130322PD200.html?mod=3&q=INTEL) war höchst widersprüchlich.
Intel will reportedly shift from LGA to BGA for packaging 14nm-based Broadwell processors in the first half of 2014, causing anxiety for motherboard makers because desktop users will not be able to upgrade BGA-packaged processors, the sources said. However, Intel's latest roadmap has dismissed such worries, the sources indicated.
Also hier erst ein Dementi für Broadwell BGA only. Und dann folgendes hinterher:
22nm Haswell processors to be launched in June 2013 and 14nm Skylake processors to be launched in 2015 will be LGA packaged, while entry-level 14nm Broadwell processors to be launched in 2014 will be BGA packaged, the sources noted.
Hier hört es sich auf einmal danach an, als wenn erst Skylake wieder für LGA erscheint. Kann auch sein das der Newsschreiber seine Quelle falsch verstanden hat oder der Quellengeber seine Quelle. Nur in welche Richtung weiß man nicht.
Es war zuletzt immer nur die Frage, ob Broadwell nur für BGA erscheint. Skylake für LGA ist mehr oder weniger sicher.
Genau so haben sich die Gerüchte für mich auch angehört, bzw. es wurde halt spekuliert, dass Broadwell nur mobile kommt. Ein neuer LGA-Sockel für Skylake war ziemlich sicher. Alles ab Skymont ist bisher komplett offen.
Skysnake
2013-03-30, 12:47:59
Moment mal ;)
Also es ist klar, das Haswell auf LGA kommt, und zwar so sicher wie das Amen in der Kirche. ;)
Damit kommt auch Broadwell als dessen Nachfolger als LGA. Man kann aber wohl davon ausgehen, dass die beste iGPU wieder nur den Mobile-Varianten vorbehalten bleibt, oder aber eben auch auf dem Desktop als BGA kommt. (Man denke mal an DDR4/GDDR5). Das bedeutet aber nicht, das es keine LGA CPUs mehr geben wird.
Mit Skylake wird es spannend. Hier kann sich die TOP-iGPU vielleicht wieder in einem LGA finden, sofern es überhaupt LGA gibt. Man denke hier an Hybrid-Memory-Cube. Man wird aber ziemlich sicher weniger LGA CPUs bekommen, als noch mit Broadwell. Die BGA Chips fressen die LGAs von unten her auf. Eventuell wird aber auch das Top-Modell BGA, kommt halt ganz drauf an, ob man bei DDR4/GDDR5 bzw HMC bleibt, und was die Anforderungen an die Boards sind usw usw usw. Da sind ja viele Sachen noch nicht fix.
Wenn Skylake als LGA nochmal kommt, können wir uns auf jeden Fall PCI-E 4.0 mit dessen Nachfolger (Skymont?) abschminken. Son LGA-Pad ist Gift bei hohen Frequenzen, und wir haben bei PCI-E 4.0 dann ja nochmals deutlich gesteigerte Frequenzen :ugly:
Nach Skymont glaub ich allerdings nicht mehr als LGA Sockel. Dann sollte nämlich mal PCI-E 4.0 eintrudeln. Sind dann ja immerhin ~5 Jahre die dann PCI-E 3.0 auf dem Buckel hat. Da wirds dann wirklich Zeit für einen radikalen Schnitt. Wir wollen ja auch nicht die Kosten explodieren lassen.
Kuck nochmal hier rein. http://www.3dcenter.org/news/intel-denkt-tatsaechlich-ueber-verloetete-desktop-prozessoren-nach
Das wurde alles schon hinlänglich durchgekaut.
Ronny145
2013-03-30, 16:56:10
Moment mal ;)
Also es ist klar, das Haswell auf LGA kommt, und zwar so sicher wie das Amen in der Kirche. ;)
Damit kommt auch Broadwell als dessen Nachfolger als LGA.
Du hast die Diskussion offensichtlich nicht richtig mitverfolgt. Ob du davon ausgehst oder nicht, hat keine Relevanz. Das bestätigt gar nichts. Vielleicht verfolgst du die Sache nochmal von vorne. Angefangen hat es mit einer pc watch impress Meldung. Später haben Anand, digitimes, "der Clown" und andere ein Broadwell BGA only mehr oder weniger bestätigt. Das wurde gar nicht mehr als Spekulation verfasst, sondern so als ob es sicher wäre. Du bist damals mit Dringt das auch mal endlich zu den Fachzeitschriften durch (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9556210#post9556210) auf so eine News angesprungen und jetzt plötzlich bist gerade du es der sagt: das war doch schon immer klar. Das passt hinten und vorne nicht. Dir war das wie man sieht alles andere als klar.
Skysnake
2013-03-31, 01:47:26
Dann lies nochmal. ;)
Früher oder später wird es kommen. Da kann man nicht viel machen. Die Frage ist nur wann.
Da Haswell nochmal als LGA kommt, kommt auch Broadwell. Für Skylake besteht, wie ich es schon sagte eben die große Frage, wie groß LGA noch vorhanden ist, oder ob überhaupt. Da Intel auf ihrem 2 Generationen Trip ist, ist damit Skymont eben auch fix an Skylake gekoppelt. Selbst Intel wird die eine Generation auf einem Sockel Story nicht bringen, wenn es nicht unabdingbar ist.
Schau nochmal auf das was ich bereits damals geschrieben habe. Da war nie expliziet von Haswell/Broadwell die Rede, sondern erst von dem was danach kommt.
@Topic:
Ich hab vor ~4 Wochen nen sehr interessanten Vortrag zu Packagedesign gehört, und da waren so kleine Pads an den Balls eines Sockels nen Thema, welches einem Kopfschmerzen bereitet beim Design, und die Dinger sind deutlich kleiner gewesen als so nen LGA Pad...
Leider kann ich dir nen Vortrag nicht verlinken, da er nicht öffentlich zugänglich ist, aber vielleicht findet sich ja was im Netz zu dem Thema.
Ronny145
2013-04-01, 00:35:01
Da Haswell nochmal als LGA kommt, kommt auch Broadwell.
Warum? Weil du automatisch davon ausgehst, dass Intel auf immer und ewig 2 CPU Generationen im selben Sockel belässt? Das ist nirgendwo gesetzlich verankert und ein ganz schlechtes Argument.
Was mich immer wundert ist der Broadwell Eintrag im Treiber. Bei allen bisherigen Generationen gab es immer Einträge für Mobile und Desktop. Inklusive der zukünftigen - bis eben auf Broadwell, der nur den Desktop Eintrag besitzt. Dass Broadwell aber für mobile kommt sollte klar sein. Keine Ahnung was das zu bedeuten hat. Ich dachte das mit dem Desktop wäre nur vertauscht. Macht allerdings nur Sinn wenn Broadwell tatsächlich ausschließlich mobile vorbehalten bleibt, weil sonst braucht es Einträge für mobile und Desktop.
http://s7.directupload.net/images/130401/ffl5fvso.png
Ronny145
2013-04-01, 01:01:00
Broadwell skaliert bis GT4 hoch. Würde eher für eine Verwechslung sprechen.
http://s14.directupload.net/images/130401/dcippy4m.png
Ronny145
2013-04-02, 17:10:28
Sandy ist eine Nehalemweiterentwicklung. Nehalem eine Conroeweiterentwicklung. Haswell sicherlich eine Sandyweiterentwicklung.
Ich verstehe die Frage nicht ganz.
@robbitop
Ich dachte Sandy wurde unabhängig von Nehalem entwickelt und Haswell unabhängig von Sandy. Es sind 2 doch Teams.
Core2 Israel
Sandy Israel
Nehalem USA
Haswell USA
Robbitop hat schon recht. Wurde auf der IDF erklärt, hier im Video bei 3:50: http://intelstudios.edgesuite.net/idf/2012/sf/ti/SPCS001/index.htm#
our starting point was the Sandy Bridge and Ivy Bridge generation
Bezüglich woher u.a. die verbesserte iGPU Effizienz kommen soll, siehe 36:20-37:30. Die Erklärung bei 23:25 macht auch nochmal klar, dass Haswell auf Effizienz (oder in anderen Worten auf mobile) ausgerichtet ist und weniger auf Performance.
Hübie
2013-04-02, 17:37:55
Das macht die Prognose von 10% mehr IPC bei ~15% weniger TDP doch schon deutlich genug ;) Wie war das mit den VRMs welche jetzt integriert sind?
Ronny145
2013-04-05, 15:43:23
http://s1.directupload.net/images/130405/m9wrmyy4.png
http://chinese.vr-zone.com/58507/intel-haswell-will-have-three-bga-cpu-for-core-i7-4770r-4670r-and-i5-4570r-with-graphics-5200-04052013/
GT3 für Desktop als BGA Version? Ja dann wäre GT4 doch realistisch für Broadwell als Desktop Variante, allerdings eher nur als BGA Version.
Undertaker
2013-04-05, 16:47:43
Auch interessant: Zwei relativ langsame Quad-Cores mit nur 4 MB Cache... Das ist unerwartet.
Ronny145
2013-04-05, 16:59:19
Die GT3 Quad für mobile hatten auch schon einen geringeren Basistakt. Vermutlich ist für den angedachten Einsatzzweck eine 65W TDP reizvoller, etwas als HTPC. Die 65W Quad mit GT2 takten kaum anders. Bis auf den 4570S Turbo.
Da steht ja auch "Total Cache" was ja meistens für L2+L3 steht. Das macht es noch ungewöhnlicher :)
Ronny145
2013-04-05, 17:01:53
Ne das ist nur der L3/LLC. Bei der Roadmap dieser Art steht das immer so beschrieben.
y33H@
2013-04-05, 17:07:30
Desktop mit 65W, GT3 samt EDRAM und 1,3 GHz ... bin mal gespannt ob das GPU-seitig mit den (kleineren) 65W-Richlands konkurrieren kann.
Undertaker
2013-04-05, 17:55:26
Bei 1,3 GHz und EDRAM? Da sollte imo sogar einiges mehr als die kleinen Richlands erreichbar sein. Schon ein aktueller i3-3225 mit HD 4000 (und relativ niedrigem GPU-Takt) liegt auf Trinity A4-Niveau bzw. leicht darüber. Knapp das doppelte davon wäre Trinity A8-Niveau... Sofern die GT3 denn so gut skaliert. Und zu Richland fehlen ja bislang auch noch genauere Tests.
fondness
2013-04-05, 18:07:35
Bei 1,3 GHz und EDRAM? Da sollte imo sogar einiges mehr als die kleinen Richlands erreichbar sein. Schon ein aktueller i3-3225 mit HD 4000 (und relativ niedrigem GPU-Takt) liegt auf Trinity A4-Niveau bzw. leicht darüber. Knapp das doppelte davon wäre Trinity A8-Niveau... Sofern die GT3 denn so gut skaliert. Und zu Richland fehlen ja bislang auch noch genauere Tests.
Bei einem vollen full-Node Vorsprung und derselben TDP wäre alles andere auch erbärmlich. Und dennoch muss man die 384SPs mit 844Mhz Takt erst mal schlagen. Intel GPU-Architektur ist alles andere als flächeneffizient.
Ronny145
2013-04-05, 18:28:27
TDP und Fertigung sagt noch nichts aus. Ganz entscheidend ist wie viel Fläche der GPU zugeteilt wird und natürlich wie groß das Die insgesamt ist. Bislang hat die CPU und der Rest bei Intel deutlich mehr Fläche eingenommen während AMD für Trinity etwa die Hälfte alleine der Grafik zuteilt. Bei einer 30% Zuteilung eines GT2 Quads und einer Größe von nur 160 mm² bleibt vom Fertigungsvorteil nicht mehr viel übrig. Die GT3 könnte zum ersten mal auf eine ähnliche Zuteilung kommen.
VooDoo7mx
2013-04-05, 18:53:35
Bei einem vollen full-Node Vorsprung und derselben TDP wäre alles andere auch erbärmlich. Und dennoch muss man die 384SPs mit 844Mhz Takt erst mal schlagen. Intel GPU-Architektur ist alles andere als flächeneffizient.
HD 4600 mit 1250 MHz und Vorserientreibern ist nur noch 25-30% hinter 800MHz Trinity.
Da wird HD 5200 mit 1300MHz doppelt so vielen Einheiten und 128MB edram locker vor 844MHz Richland liegen.
Spasstiger
2013-04-05, 19:21:14
Ne das ist nur der L3/LLC. Bei der Roadmap dieser Art steht das immer so beschrieben.
Der L3-Cache ist doch bei Haswell immer noch L2-inklusive, oder? Dann macht es für die gesamte effektive Cachemenge sowieso keine Unterschied.
Hübie
2013-04-06, 02:19:07
TDP und Fertigung sagt noch nichts aus.
Bitte was? :confused: Beweise und belege deine Aussage! Käse sag ich mal von hier aus.
Undertaker
2013-04-06, 10:33:34
Bei einem vollen full-Node Vorsprung und derselben TDP wäre alles andere auch erbärmlich. Und dennoch muss man die 384SPs mit 844Mhz Takt erst mal schlagen. Intel GPU-Architektur ist alles andere als flächeneffizient.
Wieso "erbärmlich"? Bekanntermaßen hat Intel bzgl. Grafik-Know-how noch so einiges aufzuholen und ist bei Performance pro Fläche noch nicht auf AMD- oder Nvidia-Niveau – ebensowenig wie AMD bei der CPU konkurrenzfähig ist.
Durch den Prozessvorteil und die sehr sparsamen CPU-Kerne kann man das allerdings gerade im wichtigen Mobilbereich ziemlich gut ausgleichen. Imo stehen die Chancen nicht schlecht, dass die GT3 (ggf. + EDRAM) nicht nur die schnellste ULV-GPU, sondern auch die schnellste Notebook-IGP überhaupt wird. Zumindest in realen Spielen, wo ein Teil des TDP-Budgets auch für die CPU geopfert werden muss.
Spasstiger
2013-04-06, 12:58:14
Im Mobil-Bereich rechne ich auch mit einem Kopf-an-Kopf-Rennen bei der IGP-Leistung zwischen Intels Haswell mit GT3 und AMDs Richland mit Radeon HD 8650G. Es ist nur eine Frage der Zeit bis Intel alle Bereiche dominiert.
mapel110
2013-04-06, 13:00:59
Wie groß ist eigentlich noch der Abstand zu den low performance Grafikkarten? Der muss doch immer noch gewaltig sein, wenn ich mir die Medium Details Benchmarks der IGPs ansehe.
Undertaker
2013-04-06, 13:19:01
Die HD 5200 könnte imo durchaus an die langsamsten Kepler- bzw. Mars-GPUs herankommen, d.h. 3DMark-Scores in der 1500 Punkte Region erreichen.
Ronny145
2013-04-06, 13:30:05
Bitte was? :confused: Beweise und belege deine Aussage! Käse sag ich mal von hier aus.
Habe ich doch geschrieben warum. Was ist da so schwer verständlich? Noch einfacher formuliert: wenn Intel 10nm CPUs bringt und nur 10 mm² der GPU zuteilt, ist welche GPU Performance zu erwarten? Da wirst du trotz Fertigungsvorteil keine konkurrenzfähige GPU rausbringen. Was soll es noch zu beweisen geben? AMD gleicht den Nachteil mit einer größeren Die size, einer anteilig am gesamten Die größeren GPU und im Desktop mit einer höheren TDP aus. Bislang hat Intel bei weitem zu wenig in die GPU investiert, schau dir Trinity an. Die Hälfte an Die wird für die GPU beansprucht.
fondness
2013-04-06, 13:32:09
Habe ich doch geschrieben warum. Was ist da so schwer verständlich? Noch einfacher formuliert: wenn Intel 10nm CPUs bringt und nur 10 mm² der GPU zuteilt, ist welche GPU Performance zu erwarten? Da wirst du trotz Fertigungsvorteil keine konkurrenzfähige GPU rausbringen. Was soll es noch zu beweisen geben? AMD gleicht den Nachteil mit einer größeren Die size, einer anteilig am gesamten Die größeren GPU und im Desktop mit einer höheren TDP aus. Bislang hat Intel bei weitem zu wenig in die GPU investiert, schau dir Trinity an. Die Hälfte an Die wird für die GPU beansprucht.
Das passt doch hinten und vorne nicht. Skaliere mal IvyBridge auf 32nm hoch und schau dir die Größe der GPU nochmal an. Im übrigen hat man durch den kleinen Fertigungsprozess auch Vorteile bei der TDP und den Taktraten und es ging immerhin um den Vergleich der GPU bei der selben TDP. Also zu behaupten der Fertigungsprozess sagt nichts aus ist schon ziemlich Käse.
Ronny145
2013-04-06, 13:34:33
Also zu behaupten der Fertigungsprozess sagt nichts aus ist schon ziemlich Käse.
Er sagt alleine nichts aus. Und das ist nun mal so.
fondness
2013-04-06, 13:35:52
Er sagt alleine nichts aus. Und das ist nun mal so.
Wenn ich den exakt selben Chip einmal mit 22nm und einmal in 32nm fertige bei der selben TDP, welcher ist wohl im Vorteil? :freak:
Wir müssen doch nicht wirklich darüber diskutieren das der Fertigungsprozess ein eklatanter Vorteil ist.
Ronny145
2013-04-06, 13:44:47
Wenn ich den exakt selben Chip einmal mit 22nm und einmal in 32nm fertige bei der selben TDP, welcher ist wohl im Vorteil? :freak:
Wie mehrfach geschildert ist das kein Garant solange deutlich weniger in die GPU investiert wird. Die GT3 könnte erstmalig eine vergleichbare GPU Aufteilung bekommen. Keine Ahnung was ihr immer mit dem Hochskalieren wollt, ihr könnt das nicht einfach so ohne Hintergrundinfos 1:1 auf andere Prozesse hochskalieren: http://www.electronicsweekly.com/blogs/david-manners-semiconductor-blog/2013/02/the-intel-nanometre.html#comment-27203114
VooDoo7mx
2013-04-06, 19:25:47
Im Mobil-Bereich rechne ich auch mit einem Kopf-an-Kopf-Rennen bei der IGP-Leistung zwischen Intels Haswell mit GT3 und AMDs Richland mit Radeon HD 8650G. Es ist nur eine Frage der Zeit bis Intel alle Bereiche dominiert.
Im Mobil Bereich ist Intel jetzt schon gut dabei. Da muss AMD die Taktraten schon um fast 50% absenken um im TDP Bereich zu bleiben während Intel hier gar nicht runterdreht.
Zu meist werden nur die billig APUs A6 und A4 verbaut, die schon so enorm abgespeckt sind, das die vom HD4000 jetzt schon vernascht werden.
Die Modelle mit den größeren APUs werden dann mit dedizierter Grafik gepaart. Für schrottige Dual Grafphics Performance mit Mikrorucklern aus der Hölle.
Quasi alle Vorteile der AMD APU verpuffen im nichts.
Die LV Trinitys sind noch schlimmer. Noch weniger Takt.
Beim Asus A38N mit 4655M throttlet bei gleichzeitiger Belastung der CPU und IGP (Diablo III) der GPU Takt auf bis zu 200MHz runter.
Wo soll da AMD bei der 3D Leistung noch irgendwo im Vorteil sein?
=Floi=
2013-04-06, 19:55:26
warum baut intel nicht mehr GPGPU features ein?
edit
das throttling ist aber ein eigenes thema und ne eigene dumme angewohnheit. die wird auch viel zu stark durch die hersteller beinflusst, weil nur billige kühler verbauen.
VooDoo7mx
2013-04-06, 20:17:45
Das Throttling ist auch ein Problem der APU an sich. Beim A8-4655 setzt AMD ein Budget von 19W an. Viel zu wenig wenn CPU und GPU ausgelastet werden, also muss gethrottlet werden um die 19W nicht zu überschreiten.
AMD will ja unbedingt Intel mit den Ultrabooks kopieren obwohl deren APUs einfach noch zu fett für diesen Bereich sind.
Bei Richland könnte es vielleicht etwas besser werden, jedoch hat AMD da bisher noch keinerlei Mobile LV SKUs vorgestellt.
Schaffe89
2013-04-06, 20:36:00
HD 4600 mit 1250 MHz und Vorserientreibern ist nur noch 25-30% hinter 800MHz Trinity.
Trinity ist je nach Test 80 bis 100% schneller ( bei Anandtech im Mittel sogar 115%) schneller.
Laut einem Preview von Tomshardware ist die HD 4600 lediglich in Full HD 20% schneller, in low Res sinds 25%.
Ich halte deine Aussage etwas zu optimistisch, wobei meine ruhig als pessimistisch angesehen werden darf.
Meine Meinung nach wird der Vollausbau von Haswell die HD 4000 um etwa 50% schlagen.
die HD 4600 hat aber wenig Chancen da etwas zu reißen, Trinity wird wohl immernoch 50 bis 80% schneller sein.
Richland ist nochmal 20% vor Trinity und wird selbst 50% Vorsprung auf den Haswell Vollausbau haben, im Notebookbereich wirds knapp, ich denke aber trotzdem dass Haswell hier maximal nen Gleichstand erreichen kann.
Kaveri kann das Ruder auch im Notebook Bereich wieder gen AMD Richtung lenken.
Undertaker
2013-04-06, 21:23:38
Wenn man bedenkt, dass das Haswell-Sample bei THG nur ~83% der Speicherbandbreite (http://www.tomshardware.com/reviews/core-i7-4770k-haswell-performance,3461-2.html) von Ivy Bridge besaß und die GT2 zudem nur 25% mehr Shader als die Ivy Bridge GT2 besitzt, lassen die 20-25% Performancezuwachs einiges erwarten. Immerhin bietet die Haswell GT3 eine nochmals verdoppelte Einheitenzahl (also 150% mehr als IB GT2), im Vollausbau den EDRAM und zudem eben auch mehr Hauptspeicherbandbreite als das Vorabmodell.
Skysnake
2013-04-06, 21:35:46
Der eDRAM macht die ganze Sache halt völlig unberechenbar. Keiner hat ne Idee, wie gut/schlecht das Implementiert wurde, und vor allem nicht, wie effizient sich das mit den aktuellen Sachen nutzen lässt.
Ich finde da kann man keine halbwegs seriöse Hochrechnung betreiben, bei so einer großen Neuerung.
Ronny145
2013-04-06, 21:52:21
So ist es. Unmöglich einzuschätzen. Normalerweise verpufft viel Rechenleistung bei den schnelleren iGPUs. Angenommen die GT3 bekommt 100% mehr Rechenleistung, kommt im Spiel davon vielleicht die Hälfte an. Intel hängt ja offiziell bei DDR3-1600 fest. Prinzipiell rechne ich eher mit +50-60% zur HD4600. Es sei denn der eDRAM haut richtig rein.
Undertaker
2013-04-06, 22:41:29
Ja, ganz grob in diese Richtung würde ich auch spekulieren. Zusammen mit der Mehrleistung der HD 4600 wäre das dann etwa eine Verdopplung zur HD 4000. Wirklich genaue Abschätzungen sind mit den derzeit offiziell bekannten Infos aber natürlich kaum möglich.
Ronny145
2013-04-09, 00:00:07
http://www.chinadiy.com.cn/html/39/n-8439.html
http://www.chinadiy.com.cn/html/53/n-8453.html
http://www.chinadiy.com.cn/html/55/n-8455.html
http://www.chinadiy.com.cn/html/58/n-8458.html
Die haben einige Tests angestellt. HD4600 @1200 Mhz, DDR3-1600 Vantage: http://www.chinadiy.com.cn/batch.download.php?aid=63383
Mit dem gleichen Treiber macht meine HD4000 @1150 Mhz ~4300 Punkte. Sind also +30% was etwa in dem erwarteten Bereich der HD4600 liegt. Gilt natürlich nur für Vantage.
http://www.3dmark.com/3dmv/4648076
Player18
2013-04-09, 15:45:36
Achtung wer Haswell vor Juni kauft bekommt Chipsätze mit einem USB Fehler!
CPU (i74770K) Das Gerücht mit dem integrierten Spannungsregler wurden bislang nicht bestätigt.
boxleitnerb
2013-04-09, 15:55:42
Das könnte irrelevant sein, wenn die Mainboardhersteller Zusatzchips für USB 3.0 verbauen. Ist auf jeden Fall nicht so ein Drama wie bei Sata-Gate ;)
Undertaker
2013-04-09, 16:11:35
Die haben einige Tests angestellt. HD4600 @1200 Mhz, DDR3-1600 Vantage: http://www.chinadiy.com.cn/batch.download.php?aid=63383
Mit dem gleichen Treiber macht meine HD4000 @1150 Mhz ~4300 Punkte. Sind also +30% was etwa in dem erwarteten Bereich der HD4600 liegt. Gilt natürlich nur für Vantage.
Vantage ist imo gar nicht mal so uninteressant, da z.B. idR stärker Speicher-limitiert als der 3DM11. Allerdings war schon die HD 4000 im Vantage extrem gut, darum sollte man mit Verallgemeinerungen natürlich vorsichtig sein.
Palpatin
2013-04-09, 16:58:38
Das könnte irrelevant sein, wenn die Mainboardhersteller Zusatzchips für USB 3.0 verbauen. Ist auf jeden Fall nicht so ein Drama wie bei Sata-Gate ;)
Warum? Sind die Zussatzchips für USB güstiger als die für SATA? Naja zummindest haben sie es früher gemerkt.
Zergra
2013-04-09, 17:01:37
Warum? Sind die Zussatzchips für USB güstiger als die für SATA? Naja zummindest haben sie es früher gemerkt.
USB Funktioniert auch so, SATA ist nach ein paar Betriebstunden komplett ausgefallen ;) und SATA 2 wurde komplett vom Chipsatz gesteuert :D
Der USB Fehler ist ja auch wohl bei IVI vorhanden...
Achtung wer Haswell vor Juni kauft bekommt Chipsätze mit einem USB Fehler!
CPU (i74770K) integrierten Spannungsregler wurden bislang nicht bestätigt.
Die Chipsätze werden danach auch noch ausgeliefert werden ;) das kannst du mir glauben, und dann solange bis die Lager leer sind
Loeschzwerg
2013-04-09, 17:06:30
Achtung wer Haswell vor Juni kauft bekommt Chipsätze mit einem USB Fehler!
CPU (i74770K) integrierten Spannungsregler wurden bislang nicht bestätigt.
Boards mit dem C1 Stepping müssen entsprechend gekennzeichnet werden und wer keinen Wert auf den S3 Mode legt für den ist es eh irrelevant. Also ich bin zumindest oldschool und fahre meine Kisten immer komplett herunter :D
boxleitnerb
2013-04-09, 17:09:01
Warum? Sind die Zussatzchips für USB güstiger als die für SATA? Naja zummindest haben sie es früher gemerkt.
Meinst du, das macht den Bock fett bei 100-200 Euro je nach Boardausstattung? Ich denke nicht.
Skysnake
2013-04-09, 17:15:16
Achtung wer Haswell vor Juni kauft bekommt Chipsätze mit einem USB Fehler!
Also ASRock, MSI und BioStar meinten auf der CeBIT, dass Sie KEINE Retail-Boards mit dem defekten Chip ausliefern wollen.
Wenn findet man also wahrscheinlich nur in OEM Boards die defekten Chips.
CPU (i74770K) integrierten Spannungsregler wurden bislang nicht bestätigt.
Hast du mal die Boards mit S1150 dir angeschaut? Die haben nur noch eine rudimentäre Spannungsversorgung, die der CPU nur noch 1,8V (Hatte mir nen Boardpartner gesagt, bin mir bzgl des genauen Wertes aber nicht mehr 100% sicher). Der Rest wird dann auf dem Package/DIE umgewandelt.
Neosix
2013-04-09, 17:19:03
Kann mich bitte jemand aufklären.
http://www.computerbase.de/news/2013-03/vollausbau-der-haswell-grafik-als-hd-5xxx-in-notebooks/
2x Sachen verstehe ich nicht, von GT3 wird es also nochmal mehrere Versionen geben? aka HD5200?
Ich plane mir ein Haswell Ultrabook zu kaufen und hab schon von "GTX650m Grafik" in einem Ultrabook Gehäuse geträumt, aber es scheint die schnellste GT3 wird es gar nicht in ULV Format geben?? Ich dachte es wird wie bei Ivy laufen und die Mobile CPU werden extra von Intel gepusht. Alle Ivy ULV haben ja HD4000 Grafik.
Ronny145
2013-04-09, 17:24:03
Was gibt es da aufzuklären? Die GT3 ist immer gleich in Sachen Einheiten und Features. Der Takt wird sich logischerweise unterscheiden. Wenn du den edram der GT3e meinst, ja den gibt es nur bei den großen Varianten.
y33H@
2013-04-09, 19:52:41
Der USB Fehler ist ja auch wohl bei IVI vorhanden.Der Lynx Point PCH wird bei Sockel 1155 doch gar nicht verbaut.
Player18
2013-04-09, 20:32:58
Also ASRock, MSI und BioStar meinten auf der CeBIT, dass Sie KEINE Retail-Boards mit dem defekten Chip ausliefern wollen.
Wenn findet man also wahrscheinlich nur in OEM Boards die defekten Chips.
Hast du mal die Boards mit S1150 dir angeschaut? Die haben nur noch eine rudimentäre Spannungsversorgung, die der CPU nur noch 1,8V (Hatte mir nen Boardpartner gesagt, bin mir bzgl des genauen Wertes aber nicht mehr 100% sicher). Der Rest wird dann auf dem Package/DIE umgewandelt.
wie siehts mit asus aus ?
Nein hab mir noch keine S1150 boards angeschaut.
2. hab ich vergessen hin zuschreiben das dies nur ein Gerücht ist mit dem Spannungswandler :biggrin:
Skysnake
2013-04-09, 20:42:24
http://extreme.pcgameshardware.de/cebit/264644-cebit-2013-ein-fazit-update8-jetzt-mit-club3d-und-einer-echten-monster-karte.html
Siehe Links zu den einzelnen Herstellern.
ASUS war leider nicht mit Boards auf der Messe, und der Mitarbeiter war auch neu in seiner Position und konnte daher meine Fragen nicht beantworten.
Da müsste ich btw. eh mal bei ihm nachhacken.
horn 12
2013-04-09, 20:45:53
Wann sollten die ersten Boards in Deutschland kaufbar sein, womöglich bereits im C2 Stepping
und werden jene Teurer als die anderen Chipsätze werden ?
Oder nur einen Minimalen Aufschlag aufweisen ?
Player18
2013-04-09, 21:12:09
Ich hab mir mal die S1150 angeschaut, und der Erste Eindruck is Scheisse! Mainboard is viel zu klein
da lob ich bei s2011 die Quad-Ram-Channel Anbidung! Es bietet Massenweise vorteile da versteh ich nicht wieso man das nicht bei jeden neuen boards macht oder 2 Varianten wo dann etwas Teurer sind. Das Mainboard rund um die CPU Rum, da wird schon die Frage, Wie krieg ich ein anständigen CPU Kühler da drauf. Mein Nocta D14 wird da wohl nicht Passen, der CPU kühler würd ja das ganze Board verschliengen. Je nach dem kriegt man nichtmal alle Ram´s ins Board da der abstand zwischen CPU und Ram sehr gering ist. sieht so aus also ob da nur 4 Riegel reinpassen Auch die PCI 3.0 Steckplätze sehen aus als wären sie näher zusammen, was Natürlich sehr beschissen is bei SLI
y33H@
2013-04-09, 21:34:30
Quad-Channel bringt den allermeisten Consumern nichts und ein D14 auch nicht - die bis zu 84W von Haswell DT lassen sich easy leise mit dem Boxed kühlen.
Ronny145
2013-04-09, 21:39:36
http://extreme.pcgameshardware.de/cebit/264644-cebit-2013-ein-fazit-update8-jetzt-mit-club3d-und-einer-echten-monster-karte.html
Siehe Links zu den einzelnen Herstellern.
ASUS war leider nicht mit Boards auf der Messe, und der Mitarbeiter war auch neu in seiner Position und konnte daher meine Fragen nicht beantworten.
Da müsste ich btw. eh mal bei ihm nachhacken.
Eigentlich hätte man erwarten müssen, dass sich Haswell bereits groß am Horizont abzeichnet, und man von Jubelmeldungen bzgl. neuen Mainboards praktisch erschlagen wird. Tatsächlich findet die Presentation der neuen S1150 Boards aber eher unauffällig statt.
Es durften offiziell keine S1150 Boards gezeigt werden. Deswegen gab es wenig zu sehen.
Im Rahmen eines Gesprächs auf der CeBIT stellte ASRock klar, dass man noch viele weitere Mainboards vorbereite, Intel aber eigentlich die Ausstellung aller neuen Platinen vorab untersagt hatte. Gleiche Stimmen waren auch von Notebook-Herstellern zu hören, die gern schon „Haswell“-Designs offenbart hätten, aber ebenfalls nicht dürfen.
http://www.computerbase.de/news/2013-03/auch-asrock-packt-haswell-mainboards-aus/
Also ASRock, MSI und BioStar meinten auf der CeBIT, dass Sie KEINE Retail-Boards mit dem defekten Chip ausliefern wollen
Ich würde es aus Kundensicht nicht unbedingt schlecht finden, kann es mir aus Herstellersicht aber kaum vorstellen, dass die genannten Firmen sich das komplette Retail-Geschäft der ersten 1-2 Monate entgehen lassen.
Skysnake
2013-04-10, 00:24:04
Die Angst, vom Kunden als "schlechte" Firma abgestempelt zu werden ist anscheinend groß. Vor allem, da ja mit SATA-Gate man erst die Kunden verstimmt hat.
robbitop
2013-04-10, 08:54:46
Wird also nix mit eDRAM im Macbook Air offenbar für diese Runde. Vieleicht ja bei Broadwell.
Neosix
2013-04-10, 09:02:21
Tjo das war auch n ziemlicher Schlag für mich, verstehe nicht wieso das nicht früher hier (und auf webseiten) besprochen wurde, stattdessen liest man nur GT3 hier GT3 da und ULVs kriegen GT3. Aber ULV kriegen eben nicht den schnellsten ausbau wie es noch bei Ivy war und eigentlich so für "die Masse" kommuniziert wurde. Aber auch hier wird sich über eDRAM für Desktops unterhaltet. Nicht ganz verständlich für mich, schmeißt ihr jetzt euere Titans raus und benutzt die HD5200 oder was?
ps. Bei Ivys wollte ihr alle noch euren Taschenmesser zücken und den GPU part nach am liebsten per Hand amputieren weil das ja keiner baucht im Desktop bereich.
robbitop
2013-04-10, 09:53:00
Der ist eher für den normalen Notebookbereich. Ich nehme an, dass der thermisch zunächst nicht in den Ultrabook Formfaktor hineinpasst. Intel macht sowas nicht ohne Grund. Bei Broadwell könnte es besser aussehen.
Ronny145
2013-04-10, 13:20:52
Aber ULV kriegen eben nicht den schnellsten ausbau wie es noch bei Ivy war und eigentlich so für "die Masse" kommuniziert wurde.
Doch sie bekommen den schnellsten Ausbau. Hier besteht kein Unterschied zur HD4000 mit Ivy Bridge. Einheitenanzahl zwischen ULV und 47W GT3 sind exakt die gleichen. Der edram hat nichts mit dem Ausbau zu tun. Denn der ist weder in der GT3 noch in der CPU untergebracht. Ihr wisst doch gar nicht was der bringt oder an extra Strom zieht. Wie mehrfach ausgeführt wird eine 800 Mhz ULV GT3 weniger stark bandbreitenlimitiert sein als eine 1300 Mhz GT3. Wenn das sagen wir nur ein 10% speedup für schwächere GT3 bringen würde, wäre das wirtschaftlich totaler Mist den zu verbauen. Oder wenn der extra Strom zieht, was bei ULV's zu niedrigeren GPU Frequenzen führen könnte. Und besprochen wurde das hier vorher zu Genüge, das ist erst seit kurzem bekannt.
Intel hat übrigens zum ersten mal offiziell den edram erwähnt.
http://s1.directupload.net/images/130410/to2wix7e.png
Nightspider
2013-04-10, 14:50:48
Der ist eher für den normalen Notebookbereich. Ich nehme an, dass der thermisch zunächst nicht in den Ultrabook Formfaktor hineinpasst. Intel macht sowas nicht ohne Grund. Bei Broadwell könnte es besser aussehen.
Das wäre doch Quatsch. Der eDRAM wird nicht viel Leistung fressen und bei den ganzen Unibody-Alu Ultrabooks lässt sich die Wärme super abführen.
PS:
11111 !!! :ubeer:
Undertaker
2013-04-10, 15:03:53
Deswegen throttelt wohl auch fast jedes zweite Gerät... :D Und sooo niedrig dürfte der Verbrauch dann doch nicht sein, zudem könnte auch das Package limitieren.
robbitop
2013-04-10, 15:38:27
Also die SoCs im Ultrabookbereich sind bei höherer Last sowieso am Throtteln und ihre Turbos sieht man kombiniert (CPU + GPU) sowieso kaum aufgrund der schmalen TDP. Da wird ein eDRAM wohl wenig bringen und/oder kaum ins Budget passen. Der muss ja auch entsprechend takten bei ordentlicher Bandbreite. Das sind nochmal gute 3..4 W. Wenn nicht mehr. Bezogen auf 17 W TDP ist das schon ordentlich.
Man darf nicht vergessen, dass Haswell immernoch auf dem 22 nm Prozess basiert und mehr Leistung in Punkto CPU und GPU bringen wird. Irgendwo wird das herkommen. Das impliziert, dass er möglicherweise doch etwas eng am schmalen Ultrabook TDP anliegt.
Ich vermute, dass im Ultrabook erst sein Shrink namens Broadwell wirklich "Spass machen" wird.
y33H@
2013-04-10, 17:24:10
Intel hat übrigens zum ersten mal offiziell den edram erwähnt.Aus welcher Präsentation? " Experience the Intel® HD Graphics Capabilities of 4th Generation Intel® Core™ Processors" ist noch nicht als PDF verfügbar.
EDIT
Ok, hab's.
Ronny145
2013-04-10, 17:29:49
Aus welcher Präsentation? " Experience the Intel® HD Graphics Capabilities of 4th Generation Intel® Core™ Processors" ist noch nicht als PDF verfügbar.
SPCS001
y33H@
2013-04-10, 17:35:43
Da sind ein paar schöne Slides drin, wenngleich nicht so viel Neues =) idR grabbe immer erst, wenn alles online ist ^^
Ronny145
2013-04-10, 17:38:37
Da sind ein paar schöne Slides drin, wenngleich nicht so viel Neues =) idR grabbe immer erst, wenn alles online ist ^^
Neu ist da eigentlich gar nichts bis auf die erstmalige edram Erwähnung. Vielleicht gibt es Neuigkeiten in der HD Graphics Capabilities Vorstellung.
y33H@
2013-04-10, 17:50:05
Neu gestaltete Slides meinte ich.
AnarchX
2013-04-10, 20:17:16
Haswell GT3 HS Package:
http://limages.vr-zone.net/body/19604/P1080612.jpg.jpeg
http://vr-zone.com/articles/meet-haswell-s-graphics-thump-card-crystalwell-gt3-edram-/19604.html
Wohl kein Si-Interposer?
Ronny145
2013-04-10, 20:35:57
GT3 Quadcore package um genau zu sein. Der edram nimmt recht viel Platz in Anspruch.
Botcruscher
2013-04-10, 20:37:52
Wie viel MB sind das? Sieht ja abartig groß aus.
Skysnake
2013-04-10, 20:38:52
Wohl kein Si-Interposer?
Nein, kein Interposer, den würde man sehe. Das ist "einfach" ein MultiChip-Package.
Wenn ich mich recht erinnere, hat man auch nicht mit einem Interposer gerechnet.
Undertaker
2013-04-10, 20:44:50
GT3 Quadcore package um genau zu sein. Der edram nimmt recht viel Platz in Anspruch.
...und würde damit, wie schon fast vermutet, wohl kaum noch auf das kleinere ULV-Package passen. Evtl. ist das wirklich der Grund, und/oder eben die Verbrauchsfrage.
boxleitnerb
2013-04-10, 20:49:08
Dumme Frage, aber ist das Große der edram? Die CPU-Dies waren ja bei Intel bisher eher länglich, da würde ich das rechte Ding dafür halten.
Sollte da nicht noch ein dritter IC für die Spannungswandler sein?
Ronny145
2013-04-10, 20:52:11
Wie viel MB sind das? Sieht ja abartig groß aus.
Spekuliert wurden zuletzt 128 MB. Man sieht ja schon an den viel kleineren L3 Caches das ein Cache sehr viel Platz in Anspruch nimmt. Die große Frage ist eben wie viel das ganze in der Praxis bringt. Wäre schön wenn sich der L4 Cache im Bios deaktivieren lassen könnte.
Dumme Frage, aber ist das Große der edram? Die CPU-Dies waren ja bei Intel bisher eher länglich, da würde ich das rechte Ding dafür halten.
Das große ist die CPU.
boxleitnerb
2013-04-10, 20:55:22
Das große ist die CPU.
Ist das nicht ungewöhnlich groß oder täuscht das nur?
Skysnake
2013-04-10, 21:01:55
Wohl etwas größer als bisher SB/IB, aber du musst auch bedenken, dass die iGPU ziemlich fett ist. Ist ja die GT3.
y33H@
2013-04-10, 21:06:28
...und würde damit, wie schon fast vermutet, wohl kaum noch auf das kleinere ULV-Package passen. Evtl. ist das wirklich der Grund und/oder eben die Verbrauchsfrage.Auf dem ULV-Package sitzt statt des EDRAM ja der PCH.
Dumme Frage, aber ist das Große der edram? Die CPU-Dies waren ja bei Intel bisher eher länglich, da würde ich das rechte Ding dafür halten.Das kleinere rechts ist der EDRAM, quadratische 4C-CPU wegen der fetten GT3.
EDIT
Die große Frage ist eben wie viel das ganze in der Praxis bringt.Ob Instant Access (ähnlich AMDs Zero Copy) neben dem LLC und RAM auch mit dem EDRAM klappt?
Ronny145
2013-04-10, 21:29:05
Wohl etwas größer als bisher SB/IB, aber du musst auch bedenken, dass die iGPU ziemlich fett ist. Ist ja die GT3.
Etwas größer ist schon die GT2. Wenn die GT2 180 oder 190mm² groß ist, müsste die GT3 bei 220-230 mm² liegen.
y33H@
2013-04-11, 10:49:16
Bissi war zu den iVR.
Ronny145
2013-04-11, 11:21:39
Und hier zum BCLK.
http://s1.directupload.net/images/130411/e2uxg9ox.png
http://s7.directupload.net/images/130411/3tnac8iq.png
Skysnake
2013-04-11, 11:22:27
Viel interessanter ist doch, dass der eDRAM NICHT an der GPU hängt, sondern am LLC Ring-Interconnect!
Das ist meines Wissens nach auch bisher nicht bekannt gewesen, und vor allem ziemlich wichtig!
Danit kann die CPU nämlich theoretisch ebenfalls auf den eDRAM zugreifen. Das wäre schon SEHR fett. Gerade für Sachen die Speicherbrandbreitenlimitiert sind, könnte das einen ziemlich fetten Schub geben.
Ronny145
2013-04-11, 11:26:33
Gibt es dafür eine Quelle?
AnarchX
2013-04-11, 11:35:46
Also kann man nun jeden HSW um 25%/67% via BCLK übertakten (im passenden Board)?
y33H@
2013-04-11, 12:00:41
Viel interessanter ist doch, dass der eDRAM NICHT an der GPU hängt, sondern am LLC Ring-Interconnect! Das ist meines Wissens nach auch bisher nicht bekannt gewesen, und vor allem ziemlich wichtig! Danit kann die CPU nämlich theoretisch ebenfalls auf den eDRAM zugreifen. Das wäre schon SEHR fett. Gerade für Sachen die Speicherbrandbreitenlimitiert sind, könnte das einen ziemlich fetten Schub geben.Alles andere wäre bei Instant Access auch ziemlich dämlich ... wäre blöd, wenn das nur beim RAM und dem L3 klappen würde, aber nicht beim EDRAM :freak:
Davon ab - Quelle?
Ronny145
2013-04-11, 12:02:04
Also kann man nun jeden HSW um 25%/67% via BCLK übertakten (im passenden Board)?
Nichts bekannt. Ich tippe auf Z87 only.
Skysnake
2013-04-11, 14:18:24
Alles andere wäre bei Instant Access auch ziemlich dämlich ... wäre blöd, wenn das nur beim RAM und dem L3 klappen würde, aber nicht beim EDRAM :freak:
Davon ab - Quelle?
Erstes Bild:
http://www.hardwareluxx.de/index.php/news/hardware/prozessoren/26011-intel-bestaetigt-edram-in-einigen-haswell-modellen.html
Und nein, das wäre nicht zwingend doof. Man wusste bisher ja nicht, für was der eDRAM alles genutzt werden soll.
Man hätte durchaus den eDRAM auch nur von der iGPU aus zugänglich machen könne, also das alle Date, die im eDRAM landen sollen ersteinmal durch die iGPU durch müssen.
iGPU und eDRAM teilen sich aber wohl einen Knoten am Ringinterconnect (langer brauner Streifen).
Das wird noch spannend, was da am Ende wirklich für Einschränkungen zu finden sind.
Wahrscheinlich wird man eben pro Takt eben entweder Daten in die iGPU oder in den eDRAM schieben können, weil da eben der Knoten geshared wird.
Mal schauen, welche Hacken die Implementierung hat.
EDIT:
Die Frage ist halt, ob es wirklich als Cache ohne Zutun des Programmierers funktioniert, oder nicht. Ich gehe aber tendenziell schon von ja aus. Man hängt ja schon am Cachekohärenz-Interface dran. Von daher seh ich keinen Grund, warum man das nicht machen sollte.
Der WITZ daran ist dann, dass die Haswell CPU MEHR! "Cache" hätten als IB-E ;D
robbitop
2013-04-11, 14:28:50
Die Frage ist, wie schnell dieser eDRAM ist. Damit meine ich die Zugriffszeit. Bandbreite ist ja im Konsumerbereich selten der Flaschenhals (siehe Vorteile durch Quad-Channel).
y33H@
2013-04-11, 14:36:25
Hängt er am Ringbus, dann sind's bei drei GHz knapp 100 GB/s.
@ Skysnake
Auf der Slide ist der EDRAM eindeutig vom Die getrennt, da ist keine eingetragene Verbindung zu sehen.
Ronny145
2013-04-11, 14:41:02
Wie schnell ist der L3? Ich nehme an der L4 ist deutlich langsamer, dafür deutlich größer.
Skysnake
2013-04-11, 14:52:34
@ Skysnake
Auf der Slide ist der EDRAM eindeutig vom Die getrennt, da ist keine eingetragene Verbindung zu sehen.
Der DRAM-Block ist auch getrennt vom Ringbus, aber hängt trotzdem dran :ugly:
Das ist kein Argument.
Klar brauchst du ein Interface, aber der Hop auf dem Ringbus wird, so sieht es zumindest aus, von eDRAM und iGPU geteilt.
Könnt ihr da Intel nicht mal auf den Zahn fühlen, wie viele Hops der Ringbus genau hat, und wo was wie breit dran hängt?
y33H@
2013-04-11, 15:00:44
Wir fragen bei Intel, wenn es soweit ist, ja.
Undertaker
2013-04-11, 15:39:40
Wie schnell ist der L3? Ich nehme an der L4 ist deutlich langsamer, dafür deutlich größer.
Bei einem 3770K sinds laut Sandra rund 150 GB/s. Dazu ist natürlich auch die Latenz extrem niedrig (wohl etwas um 3-4ns laut Everest).
serp202
2013-04-11, 16:41:02
http://img692.imageshack.us/img692/6964/fpsw8i.jpg
http://img546.imageshack.us/img546/3471/xe6rvi.jpg
Spasstiger
2013-04-11, 16:48:29
Bei einem 3770K sinds laut Sandra rund 150 GB/s. Dazu ist natürlich auch die Latenz extrem niedrig (wohl etwas um 3-4ms laut Everest).
Ich hoffe, du meinst Nanosekunden statt Milisekunden, ansonsten wäre eine SSD schon schneller. ;)
Undertaker
2013-04-11, 19:44:42
Ähm ja, natürlich ns. ;)
horn 12
2013-04-11, 23:59:36
Sorry, aber WANN sollten die Asrock, Asus, MSI Mainboards auf Basis des Socket 1150 kommen, bzw. für den Retail Markt im Neuen Stepping C2 ?
Wird dies noch etwas Mitte/ Ende Mai ?
mapel110
2013-04-12, 00:06:56
c2 soll doch erst im Juli ausgeliefert werden.
Nightspider
2013-04-12, 00:58:13
Offiziell gibts kein Datum wenn ich mich nicht irre.
Intel wird sich sputen schon ein paar Lieferungen im Juni rauszubekommen.
Sonst kauft ja keiner die CPUs, die ja schon jetzt ausgeliefert werden.
Konami
2013-04-12, 01:38:03
Offiziell gibts kein Datum wenn ich mich nicht irre.
Intel wird sich sputen schon ein paar Lieferungen im Juni rauszubekommen.
Sonst kauft ja keiner die CPUs, die ja schon jetzt ausgeliefert werden.
Du irrst dich. (http://qdms.intel.com/dm/d.aspx/C79FC2E6-6B75-4063-8687-660F4668FFC8/PCN112101-00.pdf)
mczak
2013-04-12, 02:45:44
...und würde damit, wie schon fast vermutet, wohl kaum noch auf das kleinere ULV-Package passen. Evtl. ist das wirklich der Grund, und/oder eben die Verbrauchsfrage.
Scheint mir ein seltsames Argument zu sein. intel hat zuerst das package entwickelt und am Ende bemerkt dass der Chip samt edram da gar nicht drauf passt?
Da denke ich doch eher dass es aufgrund des TDP-beschränkten Taktes nicht viel gebracht hätte - man vergesse nicht dass im Gegensatz zu den AMD-APUs immerhin der l3-cache der cpu benutzt werden kann, also braucht man theoretisch noch etwas weniger Speicherbandbreite bei gleicher Geschwindigkeit.
YfOrU
2013-04-12, 08:46:49
Scheint mir ein seltsames Argument zu sein. intel hat zuerst das package entwickelt und am Ende bemerkt dass der Chip samt edram da gar nicht drauf passt?
Auf dem Package (ULT) sitzt neben der CPU bereits der Chipsatz:
http://www.computerbase.de/news/2012-11/umfangreiche-details-zu-intels-haswell-prozessoren/
Somit gibt es grundsätzlich drei Varianten:
CPU + Lynx Point-LP
CPU + eDRAM, Lynx Point auf separaten Package
CPU, Lynx Point auf separaten Package
IMHO ist bezogen auf ULV der auf dem Package integrierte Chipsatz wichtiger als eDRAM. Je kompakter das Systemboard desto mehr Platz bleibt für Akkus. Dem gegenüber dürfte die zusätzliche Performance (eDRAM) aufgrund des engen TDP Limits der ULV CPUs bei 22nm in der Praxis vergleichsweise gering ausfallen. Hier muss man allerdings auch sehen das die Haswell ULV CPUs grundsätzlich für tiefere TDP Regionen als noch bei IB gedacht sind. Es spricht also im Prinzip nichts gegen größere Ultrabooks mit separaten Lynx Point und eDRAM auf dem CPU Package.
Es würde mich zum Beispiel schon sehr wundern wenn das MacBook Pro 13R etwas anderes als eine eDRAM Variante bekommt. Bezogen auf den Formfaktor ist das auch ein Ultrabook und hat trotzdem eine CPU mit 35W TDP.
robbitop
2013-04-12, 09:52:45
Wird man mit Broadwell den Chipsatz in den SoC Kern mit (analog zu Tamesh, Kabini)integrieren? Falls ja, wird es die eDRAM Version auch im Ultrabook geben.
Im 13" MBP-R erwarte ich auch die GT3+eDRAM Version. Platz und TDP sind hier etwas entspannter als im MBA. Vor allem verglichen mit der 11" Version.
y33H@
2013-04-12, 11:32:47
Viel interessanter ist doch, dass der eDRAM NICHT an der GPU hängt, sondern am LLC Ring-Interconnect! Das ist meines Wissens nach auch bisher nicht bekannt gewesen, und vor allem ziemlich wichtig! Danit kann die CPU nämlich theoretisch ebenfalls auf den eDRAM zugreifen. Das wäre schon SEHR fett. Gerade für Sachen die Speicherbrandbreitenlimitiert sind, könnte das einen ziemlich fetten Schub geben.Also der EDRAM hängt laut Intel an einem "für low power, low latency und high bandwith optimierten" Bus (offenbar NICHT der Ringbus - hab nachgehakt), die CPU wie die iGPU können darauf zugreifen. Wie ich schon sagte: Alles andere wäre bei Instant Access auch ziemlich dämlich ...
Skysnake
2013-04-12, 14:18:53
Und wie ist der BUS an den Ringbus angeschlossen, oder ist da überhaupt eine Verbindung da, und wenn nein, wie wird die Cachecohärenz bewerkstelligt, und mit welchem Takt läuft dieser Bus, und ist es ein echter Bus, oder auch ein Ringbus, und wie breit ist er dann, und welche Zugriffsbeschränkungen gibt es dann zwischen CPU und iGPU auf den eDRAM?
Kurz um, das wirft dann aber direkt ganz schön viele Fragen auf.
y33H@
2013-04-12, 14:30:48
Wenn ich mehr weiß, melde ich mich ...
Skysnake
2013-04-12, 14:46:36
Wäre super, weil das ein EXTREM kritischer Punkt ist.
Je nachdem, wie das genau an der Stelle implementiert ist, kann das zwischen "OMFG ist das GEIL" und "und was soll ich jetzt damit?" schwanken :ugly:
Wäre super, weil das ein EXTREM kritischer Punkt ist.
Je nachdem, wie das genau an der Stelle implementiert ist, kann das zwischen "OMFG ist das GEIL" und "und was soll ich jetzt damit?" schwanken :ugly:Jo seh ich auch so, bin mal gespannt, was dabei am Ende raus kommt.
Man könnte mal spekulieren, dass Intel dafür keine extra Taktdomäne einführt, also könnte man sich aus dem auf der letzten Seite geposteten Bildchen was aussuchen:
http://s1.directupload.net/images/130411/e2uxg9ox.png
Das Nächstbeste nach dem Ringtakt wäre wohl der DDR3-Takt. 1600++ Mhz wären zwar nicht gerade schnell, aber es ist ja nur ein L4. Außerdem soll es ja möglichst stromsparend sein ...
Edit: Mit welchem Takt läuft eigentlich der System-Agent, da steht nichts dabei. Ringtakt ?
Undertaker
2013-04-13, 19:57:03
Was schreibt eigentlich Fuad in letzter Zeit für einen alten und uninformierten Mist zusammen? :biggrin:
http://www.fudzilla.com/home/item/31066-haswell-crystal-well-has-l4-cache-for-igpu
y33H@
2013-04-14, 01:31:05
Der greift doch gerne altes Zeug auf.
reaperrr
2013-04-14, 14:04:21
Der greift doch gerne altes Zeug auf.
Oder nimmt die Infos aus einer News und macht dann zu jeder dieser Infos eine eigene Newsmeldung, die er dann über mehrere Tage/Wochen verteilt.
Nightspider
2013-04-15, 18:42:24
Gibt es mittlerweile handfestere Spekulationen oder Fakten, in welchem Prozess der eDRAM gefertigt wird?
Nachdem seit 1,5 Jahren bei Intel in 22nm gefertigt wird könnte man ja annehmen, das Intel auch dafür die eigenen Werke nutzt oder wäre der Prozess noch immer zu teuer/overkill/unnötig für eDRAM, der ja sowieso nicht viel Strom fressen dürfte?
Ronny145
2013-04-16, 14:56:15
Z97, H97 Chipsätze sind die Nachfolger. Für Broadwell nehme ich an.
http://chinese.vr-zone.com/59732/intel-broadwell-pch-codename-confirm-is-z97-h97-will-have-10gbits-sata-express-interface-04162013/
y33H@
2013-04-16, 15:52:08
@ Nightspider
Ich weiß es nicht und habe auch keine Rechenspielchen bisher angestellt, tippe aber auf 32 nm (so wie der PCH auch).
Nightspider
2013-04-17, 09:53:15
Besteht die Chance das man nur durch den BLCK auch noch ein paar Prozente beim Übertakten rausholen kann wie früher beim FSB übertakten?
Oder ist der auch so schnell genug, selbst für die übertakteten Kerne und Caches?
Schade das Intel nur DDR3 1600 supportet, wo es doch selbst DDR 2400 schon recht günstig ab 125 Euro (16GB) gibt.
Besteht die Chance das man nur durch den BLCK auch noch ein paar Prozente beim Übertakten rausholen kann wie früher beim FSB übertakten?
Was für Prozente meinst du? Performance? Wenn ja, würde ich eher nicht davon ausgehen, da so ziemlich alle anderen Taktraten ja über den angepassten Teiler reduziert werden. Beim FSB-OC hat sich ja auch die Bandbreite zum Speicher und den Steckkarten erhöht. Der Speichercontroller ist aber jetzt eh in der CPU mit eigenem Teiler und der PCIe-Takt wird ebenfalls reduziert.
Ich schätze mal, dass sich die möglichen Verbesserungen im gleichen Bereich wie bei Sandy/Ivy bewegen, wo der BLCK bis ca 105MHz hochging.
Knuddelbearli
2013-04-17, 11:35:07
ja und nein
wenn du grundtakt von 3,5Ghz hast sind +25% 4375Mhz
falls also vorher 4300 stabil war 4400 nicht könnts so klappen
wobei man das ja auch direkt über die +/- 5% auf dem Referenztakt machen konnte
Nightspider
2013-04-17, 11:38:18
Ich rede natürlich von höherem BLCK bei gleich bleibender Taktrate (Absenken des Multiplikators), ob man da noch etwas herausholen könnte.
y33H@
2013-04-17, 13:27:18
Schade das Intel nur DDR3 1600 supportet, wo es doch selbst DDR 2400 schon recht günstig ab 125 Euro (16GB) gibt.Offiziell, es gehen per Teiler aber bis zu DDR3-3200.
Offiziell, es gehen per Teiler aber bis zu DDR3-3200.
Die Frage ist, ob der integrierte Controller das stemmt. Für Speichertaktrekorde halten ja derzeit meist Visheras her.
mfG,
Raff
robbitop
2013-04-17, 14:28:00
@Raff
Aprospros Vishera:
Eine halbwegs detailierte Beschreibung zu deinem Vishera Projekt würde im 3DCF (oder auf eurer Hauptseite) sicherlich viele interessieren. Ein aufgepumpter Underdog, sein aufgepumpter Vorgänger gegen Core i's.
Kommt in der Hinsicht noch etwas? :)
y33H@
2013-04-17, 14:38:39
Die Frage ist, ob der integrierte Controller das stemmtUnter LN2 oder DICE :biggrin:
http://hwbot.org/submission/2327027_hicookie_memory_clock_ddr3_sdram_1676.9_mhz
http://hwbot.org/submission/2350988_iubitel_memory_clock_ddr3_sdram_1637.4_mhz
@ Topic
Wie wäre das Feedback zu einem K-Dualcore? =)
Knuddelbearli
2013-04-17, 15:14:20
ich würd ihn vermutlich kaufen
wenn er mit GT3 + eRAM kommt sogar garantiert ^^
Wie wäre das Feedback zu einem K-Dualcore? =)
Wenn HT auch an Bord ist extrem Positiv ..... obwohl ich ja jetzt auf 2 oder 2+ Generation nichts mehr machen werde.
Hm evtl. doch negativ weil ich mich ärgere? ;D
Iruwen
2013-04-17, 19:04:09
Versteh ich grad nicht, wozu einen Dualcore?
Twodee
2013-04-17, 19:28:33
Versteh ich grad nicht, wozu einen Dualcore?
Weil 4 Threads (mit hohem Takt) für das meiste mehr als ausreichend sind?
Nightspider
2013-04-17, 19:35:23
Bis in ~8 Monaten die ersten PS4 Portierungen mit 8 Thread-Support kommen.
PrefoX
2013-04-17, 19:36:47
Weil 4 Threads (mit hohem Takt) für das meiste mehr als ausreichend sind?
das hat sich aber auch schon eine weile geändert, wir sind nicht mehr im jahr 2010
Iruwen
2013-04-17, 19:37:08
Ich dachte gerade auch nur an Spiele und anspruchsvolle Software, für "Office" reichen natürlich zwei Kerne - wenns danach geht könnte man aber auch einfach gar nicht aufrüsten.
Mein i7-920 ist von 2009, nichtmal damals hab ich auch nur eine Sekunde drüber nachgedacht mir einen Dualcore zu kaufen. Ich erwarte durch den Sprung auf Haswell
- höheres OC (für GW2 reichen 3,7GHz nicht, 4,5GHz aufwärts)
- höhere Energieeffizienz (keine Kunst)
- eine weniger heiße Northbridge :D Der X58 glänzt da echt nicht.
SB/IB würden das auch schon erfüllen, aber wenn Haswell schon vor der Tür steht, mal abwarten was der kann.
Twodee
2013-04-17, 19:42:17
Bis in ~8 Monaten die ersten PS4 Portierungen mit 8 Thread-Support kommen.
Da bin ich echt gespannt ob das so kommen wird...
Twodee
2013-04-17, 19:45:48
das hat sich aber auch schon eine weile geändert, wir sind nicht mehr im jahr 2010
Richtig. Aber schau dir doch mal die Game-Benches an, meistens sitzt ein I3 vor einem X4/8 FX6/8. Klar wird sich das irgendwann ändern, aber wenn der I3 dann einen offenen Multi hat und auf 5GHz geht....
Außerdem ein X4 750K ist auch recht beliebt, dank OC. Ein offener I3 würde dem in nichts nachstehen, außer im Stromverrbauch vermutlich :D
@ Topic
Wie wäre das Feedback zu einem K-Dualcore? =)
Dazu gabs hier doch schon 2-3 Umfragen. Mit SMT und nem günstigen Preis wärs vermutlich der Hit.
Aber falls sich auch die normalen Chips ohne K schön über den Bus übertakten lassen, braucht man eventuell kein "k-Modell". Es sein denn die gehen dann in Richtung 6 Ghz :freak:
Undertaker
2013-04-17, 20:22:09
Bis in ~8 Monaten die ersten PS4 Portierungen mit 8 Thread-Support kommen.
So, wie alle PS3/360 Ports der letzten Jahre 6-7 Threads unterstützen? ;)
Zudem: Ein i3 mit 4 GHz hätte in etwa die gleiche Leistung wie ein voll ausgelasteter 8-Kern-Kabini bei 2 GHz.
Allerdings wäre ein i3 mit freiem Multiplikator imo dennoch nur zu Preisen von maximal 100 Euro interessant. Sollten sich die kleinsten Quad-Cores für ~150€ wirklich per BCLK und auch weiterhin um ~4 Multi-Stufen übertakten lassen, wäre das der Kracher schlechthin. Mit 25 Prozent mehr BCLK und einem maximalen All-Core-Multiplikator von vielleicht 38 ergäbe das 4,75 GHz. :)
Felixxz2
2013-04-17, 21:05:19
Weil 4 Threads (mit hohem Takt) für das meiste mehr als ausreichend sind?
Nichtmal beim Gamen. Und schon garnicht bei Anwendungen. Da kann man auch nen 3570K OC locker wegpusten. Schaue z.B. oft Filme mit SVP (FI am PC). Das ist zwar GPU-beschleunigt, trotzdem kann ich mit nem 4,25GHz 3570K nicht max. Qualität gehen. Da wären 8 Kerne genial.
IMO mag so ein DC bei Spielen noch ganz nein sein, aber nächstes Jahr ändert sich das sehr wahrscheinlich sehr radikal. Wenn Games auf Konsole auf 8 echte Kerne zurückgreifen können, wird ein DC+HT wschl. relativ schwarz sehen.
mapel110
2013-04-17, 21:08:48
Kommt auf die Generation DC an. Core2 ist jetzt schon am Ende mit zwei Kernen. Ivy Bridge DC dagegen macht noch gut Laune beim Spielen und dürfte das auch noch ein paar Jahre machen.
Nightspider
2013-04-17, 21:16:20
So, wie alle PS3/360 Ports der letzten Jahre 6-7 Threads unterstützen? ;)
5 Threads würden schon locker reichen um ein DualCore mit SMT in die Knie zu zwingen. Spätestens bei 6 Threads ist ein DualCore mit SMT überfordert.
Schließlich muss die CPU der Konsole bei 100% Auslastung nur ~30fps liefern. ;)
Wer auch am PC nur mit ~30fps spielt, dem dürfte natürlich am Anfang noch ein DualCore mit SMT reichen.
Aber einige Spiele werden von Anfang an auf 8 Kerne ausgelegt sein.
Bei der PS3 gab es auch von Anfang an Spiele, die alle SPEs ausgenutzt haben.
Zumal die Xbox360 der kleinste gemeinsamer Nenner mit nur 3 echten Kernen war. Da ist klar, das nur wenige Spiele >4 Threads boten.
Battlefield 3, was zu alten Konsolengeneration gehört, und zwar eindeutig, bietet sogar schon 8 Kern-Support, welcher auch einwandfrei funktioniert.
Intel wird durch die ganzen PS4 Ports sicherlich mehr Ivy-E und Haswell-E verkaufen, da die HighEnder 6 echte Kerne wollen + SMT.
Knuddelbearli
2013-04-17, 21:18:25
smt != echte kerne
wenn SMT eh nur 20-30% bringt erstellt man ja nicht 2 gleichberechtigte threads. also skaliert es dann auch auf dem pc nur sehr gering
und einstellige prozent brachte ein sixcore eigentlich immer
Nightspider
2013-04-17, 21:22:36
Falls du mich meinst: ich rede natürlich davon, wenn Spiele 5 oder 6 Threads haben und gehe von dem Fall aus, das jeder Thread einen Kern komplett auslastet.
Ronny145
2013-04-17, 22:06:00
Weil 4 Threads (mit hohem Takt) für das meiste mehr als ausreichend sind?
Das wäre doch schon ein default i3. Wofür soll ein k i3 nützlich sein? Für Spiele? Das Teil müsste man mindestens auf 5-6 Ghz hochprügeln um einen i5 oder i7 mit 4 Ghz in den meisten heutigen Spielen Paroli bieten zu können. Vor 2 Jahren zum Sandy Bridge Start wäre das vielleicht eine Überlegung wert gewesen, heute nicht mehr.
Twodee
2013-04-18, 08:13:56
Das wäre doch schon ein default i3. Wofür soll ein k i3 nützlich sein? Für Spiele? Demnach sind auch alle Athlon X4 und FX 4x00 für Spiele unbrauchbar? Btw. in Crysis 3 (http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-Test-CPU-Benchmark-1056578/) beim Grasen, wäre ein taktgleicher Ivy I3 nicht langsamer als ein FX4300. Und mit 4 bis 5GHz vermutlich wesentlich leichter zu halten als ein OCed FX.
Das Teil müsste man mindestens auf 5-6 Ghz hochprügeln um einen i5 oder i7 mit 4 Ghz in den meisten heutigen Spielen Paroli bieten zu können. Das muss er doch für ~100€ auch gar nicht!
Vor 2 Jahren zum Sandy Bridge Start wäre das vielleicht eine Überlegung wert gewesen, heute nicht mehr.Demnach soll Intel AMD das Low-Budget Feld mit X4 und FX4x00 überlassen?
y33H@
2013-04-18, 09:46:15
Der HSW-K-i3 wird sicherlich nicht unter 100 Euro zu haben sein, eher 150+.
Der HSW-K-i3 wird sicherlich nicht unter 100 Euro zu haben sein, eher 150+.
Kannst du bestätigen, dass ihr noch kein NDA bezüglich Haswell unterschrieben habt? ;)
Undertaker
2013-04-18, 10:03:21
5 Threads würden schon locker reichen um ein DualCore mit SMT in die Knie zu zwingen. Spätestens bei 6 Threads ist ein DualCore mit SMT überfordert.
Schließlich muss die CPU der Konsole bei 100% Auslastung nur ~30fps liefern. ;)
Wie gesagt, ich glaube noch nicht so recht an eine perfekte Auslastung in den ersten Jahren. Da du BF3 erwähnst: Perfekte 8-Kern-Skalierung haben wir auch hier keineswegs. Zudem kam das Spiel viele Jahre nach Vorstellung der PS3/360 mit ähnlich hoher Threadzahl wie die neue Generation. Das jetzt die Parallelisierung einen plötzlichen Sprung machen soll, ist doch eher zweifelhaft.
Langfristig sieht das natürlich anders aus. Irgendwann wird ein i3-Nachfolger mehr als 2C/4T haben müssen...
robbitop
2013-04-18, 10:16:52
Ein Haswell Core i3 K mit SMT wäre interessant. Die Execution Unit von Haswell wurde ja deutlich aufgebohrt. SMT könnte also deutlich mehr bringen. Der dürfte sich dann auch gut auf hohen Takt bringen lassen (weil K). 150€ fände ich aber übertrieben, da das fast das Preisgefilde des i5 K wäre.
150€ fände ich aber übertrieben, da das fast das Preisgefilde des i5 K wäre.Jupp, aber da wir über Intel reden, glaub ich die Preislage sofort, die alten dualcores mit i5-Label waren/sind auch schon in dem Preisbereich und das war noch ohne K:
http://geizhals.at/de/intel-core-i5-650-bx80616i5650-a451549.html
y33H@
2013-04-18, 11:39:39
Kannst du bestätigen, dass ihr noch kein NDA bezüglich Haswell unterschrieben habt?Das stammt nicht von Intel bzw irgendwelchen NDA-Nummern ;-)
Das stammt nicht von Intel bzw irgendwelchen NDA-Nummern ;-)
Die Vermutung kam nur, da du über den Preis nicht im Konjunktiv geschrieben hattest.
robbitop
2013-04-18, 14:38:01
Jupp, aber da wir über Intel reden, glaub ich die Preislage sofort, die alten dualcores mit i5-Label waren/sind auch schon in dem Preisbereich und das war noch ohne K:
http://geizhals.at/de/intel-core-i5-650-bx80616i5650-a451549.html
Deswegen hat auch kein Mensch die Dinger gekauft. :D
Twodee
2013-04-18, 15:51:29
Jupp, aber da wir über Intel reden, glaub ich die Preislage sofort, die alten dualcores mit i5-Label waren/sind auch schon in dem Preisbereich und das war noch ohne K:
http://geizhals.at/de/intel-core-i5-650-bx80616i5650-a451549.html
Den gibt es aktuell als Ivy auch: http://geizhals.at/de/?cat=cpu1155&xf=25_2~1133_Core+i5#xf_top
DualCore+HT+Turbo = kleinster I5
aufkrawall
2013-04-18, 16:05:47
Battlefield 3, was zu alten Konsolengeneration gehört, und zwar eindeutig, bietet sogar schon 8 Kern-Support, welcher auch einwandfrei funktioniert.
Selbst mit nur vier Kernen/Threads ist die Auslastung im MP nicht unbedingt ideal.
Undertaker
2013-04-18, 16:09:02
Das ist allerdings ein spezielles LV-Modell, darum preislich nicht wirklich direkt mit den normalen Quad-Cores zu vergleichen.
Es ist durchaus denkbar, dass Intel für einen möglichen i3"K" Preise von ~150 Euro aufruft, aber attraktiv wäre ein solche CPU in jedem Fall nicht. Zumindest, wenn die non-K-Quads wirklich per BCLK übertaktbar wären. :)
y33H@
2013-04-18, 16:21:13
Zumindest, wenn die non-K-Quads wirklich per BCLK übertaktbar wären.Das bezweifle ich ...
Undertaker
2013-04-18, 17:21:36
Mit einer Beschränkung auf die K-Modelle wäre die neue BCLK-Freiheit aber ziemlich sinnlos... Nunja, das muss man abwarten. Auf LGA2011 wurde der i7-3820 ja auch nicht ausgeschlossen, auch wenn das sicherlich nicht direkt vergleichbar ist.
In Kürze dürfte man dazu mehr wissen... ;)
y33H@
2013-04-18, 17:26:01
Der 3820 ist auch ein semi-K, da offener Multi bis 44 ;-)
Knuddelbearli
2013-04-18, 22:09:07
Das jetzt die Parallelisierung einen plötzlichen Sprung machen soll, ist doch eher zweifelhaft.
Wieso? vorher waren das 3 Kerne mit HT bzw 1 Kern mit 3 fach SMT und dazu 7 SPEs.
Im ersteren Fall hat man dann 3 TZreads die auf vollast laufen und die übrigen 3 Threads müssen nur so um die 20% der ersteren 3 bringen.
Auch wenn dir Architektur inorder ist und dadurch HT eigentlich viel bringen sollte, der code wird relativ stark an die Architektur angepasst. Und da ist es für die Entwickler natürlich einfach 1 Kern stark zu optimieren, statt viel zeug in den 2ten HT Thread zu schaufeln.
Jetzt haben wir dagegen 8 echte Kerne.
Denke da sollte sich schon einiges tun. Alle Exklusiven Nextgen AAA Titel sollten bis zu 6 Kerne nahezu linear skalieren. Mit 8 würde ich am Anfang aber auch nicht rechnen alleine schon bei der PS4 wegen Aufzeichnung der letzten 30 sec Spielzeit usw das braucht ja auch CPU Leistung
Undertaker
2013-04-18, 22:43:10
Im ersteren Fall hat man dann 3 TZreads die auf vollast laufen und die übrigen 3 Threads müssen nur so um die 20% der ersteren 3 bringen.
Achtung, ich glaube hier gibt's gleich Missverständnisse: 1. Es gibt bei SMT keine langsamen und schnellen Threads - wenn du zwei Threads pro Kern laufen lässt, dann sind diese genau gleichberechtig. 2. SMT bringt zwar weniger Zuwachs als ein zweiter Kern, erfordert aber für den optimalen Performancegewinn aber den gleichen Grad an Parallelisierung. Bei drei Kernen + SMT braucht es also eine ebenso perfekte Parallelisierung auf 6 Threads wie bei einem nativen 6-Kerner, sofern man keine Performance verschenken möchte.
Weiterhin denke ich, dass man den Willen zur Parallelisierung nicht immer mit dem Können dazu gleichsetzen darf. Wenn bisher in den meisten Spielen (inkl. Konsolenports) kaum 4 Kerne sinnvoll ausgelastet werden, dann liegt das wohl vor allem daran, dass jede weitere Steigerung immens schwierig und teuer ist. Genau das spricht für mich gegen plötzliche Sprünge.
Um aber nun wieder den Bogen zum eigentlichen Thema zu bekommen: Das ein i3 auch als K-Modell für Spieler nur bei einem Preis deutlich unter den günstigsten Quad-Cores interessant ist, ist sicher allgemeiner Konsens.
Ronny145
2013-04-18, 22:49:16
Interessante Desktop Plattform Roadmap von Vr-zone (http://chinese.vr-zone.com/60095/haswell-e-lituya-bay-will-support-ddr4-memory-supposed-arrive-2014-q4-04192013/).
http://s1.directupload.net/images/130418/ybttcjel.jpg
Skylake für LGA wird bestätigt. (War schon länger klar mehr oder weniger, aber es gab doch den ein oder anderen Zweifler zuletzt.) Interessant ist die Bezeichnung Haswell refresh, wo man eigentlich Broadwell erwartet hätte. Die 14nm Legende oben ist bündig mit Skylake eingezeichnet und ganz unten mit einem Atom. Das sieht nicht unbedingt nach Broadwell für LGA1150 aus, sondern eher nach refresh mit neuen Chipsätzen und vielleicht höher taktenden Haswell Modellen. Schade das nicht die komplette Folie drauf ist.
Interessante Desktop Plattform Roadmap von ...
Haswell-E = 14nm ?
Knuddelbearli
2013-04-18, 23:18:30
das 14nm zieht sich zu skylake runter,
Aber wieso nennt Intel Broadwell einfach nur Haswell refresh? strange
Ronny145
2013-04-18, 23:20:41
Haswell-E = 14nm ?
Haswell-EP ist ein 22nm Produkt, von daher wird die komplette Haswell-E Familie sicherlich in 22nm gefertigt werden. Intel fertigt zuerst die kleineren Chips im neuesten Prozess.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9351210#post9351210
Skylake und ganz unten der Atom startet bündig mit 14nm in der Roadmap.
Felixxz2
2013-04-18, 23:26:37
Mit 8 würde ich am Anfang aber auch nicht rechnen alleine schon bei der PS4 wegen Aufzeichnung der letzten 30 sec Spielzeit usw das braucht ja auch CPU Leistung
Das macht nicht die CPU. Da ist sind extra Hardwareencodereinheiten dafür drin, die AFAIK alle GCN/Kepler Karten am PC auch haben.
Nightspider
2013-04-19, 02:36:31
War 14nm nicht erst für 2014 geplant? Wenn die 14nm Atome erst 2015 kommen wäre das schlecht für Intels Strategie im mobilen Segment.
dildo4u
2013-04-19, 03:14:07
War 14nm nicht erst für 2014 geplant? Wenn die 14nm Atome erst 2015 kommen wäre das schlecht für Intels Strategie im mobilen Segment.
Hä Atom ist aktuell noch nich mal bei 22nm,da wird's kaum 2014 schon wieder ne Umstellung geben.Intel stellt nicht alle Fabriken mit einmal auf 14nm um,in den die später umgestellt werden,werden dann halt weiter Atoms produziert.
Ronny145
2013-04-19, 09:37:24
War 14nm nicht erst für 2014 geplant? Wenn die 14nm Atome erst 2015 kommen wäre das schlecht für Intels Strategie im mobilen Segment.
Ist doch geplant. Broadwell mobile kommt zuerst im 14nm Prozess. Atom Airmont mit 14nm stand vor längerer Zeit für 2014 auf der Marketingroadmap. Nachdem Valleyview erst Ende oder Anfang 2014 erscheint, ist das längst nicht mehr realistisch gewesen. (wobei man zwischen Desktop und mobile Roadmap unterscheiden müsste, denn Valleyview für Desktop kommt ja auch später) Der Atom holt aber immer mehr auf beim Prozess. Das setzt sich mit Airmont so fort, vielleicht ein halbes Jahr ist der noch hinten dran. Valleyview ist 1,5 Jahre hinten dran wenn er Ende des Jahres für Tablets erscheint.
Die etwas ältere News von digitimes würde jetzt mehr Sinn machen:
22nm Haswell processors to be launched in June 2013 and 14nm Skylake processors to be launched in 2015 will be LGA packaged, while entry-level 14nm Broadwell processors to be launched in 2014 will be BGA packaged, the sources noted.
http://www.digitimes.com/news/a20130322PD200.html
Das wäre so wie anfangs erwartet. Broadwell nur für BGA, die aber nicht primär für Desktop vorgesehen sind.
Broadwell könnte sogar nur ein einfacher Shrink und Ersatz für die GT3-Variante mit GDDR5 und DDR4-Unterstützung des Haswell sein, der Verdacht drängt sich mir langsam auf. Broadwell ist demnach gar kein echtes Tick, sondern nur ein Zwischenspiel. Erst Skylake ist das Tick. So klingt auch diese Golem-Meldung hier:
http://www.golem.de/news/intel-roadmap-kein-haswell-nachfolger-fuer-desktops-bis-2015-1304-98855.html
Damit würde Intel Tick/Tock endgültig ad-acta legen. Die Zeiträume, in denen sich die Fertigung rentieren muss werden auch bei Intel länger.
Ein Haswell-Refesh ist mMn ein ganz normaler 22nm-GT2-Haswell mit DDR4-Unterstützung, sonst gibts da sicherlich keine Änderung. Intel sieht ja lt. IDF-Speicherroadmap schon in 2014 den Umstieg auf DDR4, das würde zu meiner Annahme hervorragend passen. Offenbar ist auch der Sockel1150 erfreulicherweise schon auf DDR4 vorbereitet. Noch erfreulicher ist, dass Skylake den Sockel weiterverwendet. Mit Skylake werden dann auch endlich mal 6 oder 8 Kerne in den Desktop wandern hoffentlich.
Ronny145
2013-04-22, 14:44:35
Ne ist unwahrscheinlich. Lies nach was der Intel ingenieur zu Broadwell geschrieben hat. Außerdem kommt mit Broadwell eine GT4 Grafik hinzu. Intel wird noch mehr Die Fläche der GPU zuteilen. Für den Desktop bleibt es bei Haswell in 22nm so wie es aussieht.
Undertaker
2013-04-22, 15:07:03
Broadwell könnte sogar nur ein einfacher Shrink und Ersatz für die GT3-Variante mit GDDR5 und DDR4-Unterstützung des Haswell sein, der Verdacht drängt sich mir langsam auf. Broadwell ist demnach gar kein echtes Tick, sondern nur ein Zwischenspiel. Erst Skylake ist das Tick.
Verwechselst du gerade Tick und Tock?
Ein Tick ist immer nur ein Shrink mit allenfalls kleineren Verbesserungen, z.B. DDR4 oder noch etwas schnellere GPU-Varianten. Genau das erwartet uns mit Broadwell. Erst Skylake wird dann auch wieder größere Architekturveränderungen bringen.
Soweit nichts neues, und an diesem bewährten Schema – neue Architektur im bewährten Prozess, neuer Prozess mit bekannter Architektur – wird sich wohl auch erstmal nichts ändern. Zumindest solange nicht, wie neue Fertigungsprozess noch im aktuellen Rythmus von reichlich 2 Jahren folgen.
Offenbar bringt Skylake eben keine großen Architekturveränderungen mit sich, darum geht es ja ;). Broadwell ist offenbar eine Art vor-Tick. Und das Shema ist nur dann bewährt, wenn sich das shrinken auch lohnt. Broadwell zeigt glasklar, dass das einfach nicht mehr der Fall ist. Die Zeiträume, in denen die ein Fertigungsprozess läuft, werden mit steigenden Kosten zwangsläufig länger, da er sich rentieren muss. Da bei Intel aber auf absehbare Zeit die Fabs eh nicht ausgelastet laufen, ist das gar nicht nötig so schnell vorwärts zu sprinten und vielleicht wirds auch für Intel schwerer die Qualität zu garantieren.
Erschwerend hinzu kommt noch, dass man gar keine neue Architektur braucht, wenn die Aktuelle kaum noch zu verbessern ist. Haswell bietet schon fast peak-IPC wahrscheinlich, Skylake merzt aller Wahrscheinlichkeit nach die letzten Schwachstellen aus und bringt in erster Linie mehr Kerne. Was danach kommt ist offen.
Undertaker
2013-04-22, 15:10:57
Welche Architekturdetails kennst du denn schon von Skylake, die dir dies sagen? Das ändert auch nichts daran, dass Broadwell ein ganz normaler Tick ist. Und Skylake bringt definitiv keinen neuen Prozess, also kann ich deine Behauptung Skylake=Tick nicht wirklich verstehen. Wie gesagt, du hast wohl gerade Tick und Tock verwechselt?
Broadwell zeigt glasklar, dass das einfach nicht mehr der Fall ist. Die Zeiträume, in denen die ein Fertigungsprozess läuft, werden mit steigenden Kosten zwangsläufig länger, da er sich rentieren muss. Da bei Intel aber auf absehbare Zeit die Fabs eh nicht ausgelastet laufen, ist das gar nicht nötig so schnell vorwärts zu sprinten.
Was zeigt sich mit Broadwell?
Ein neuer Prozess rentiert sich gleich in mehrerlei Hinsicht: Mehr Transistoren/Chips pro Wafer. Höheres Transistorbudget und damit mehr Performance. Bessere Energieeffizienz. Damit insgesamt auch höhere Verkaufspreise. Gerade im Mobilbereich gibt es kaum einen wichtigeren Faktor als die verfügbare Prozesstechnik. Aber ja, mittelfristig werden sich die Zeiträume wohl verlängern, weil die Forschung immer mehr Probleme lösen muss. Evtl. sehen wir irgendwann auch mal mehr als zwei Generationen pro Prozess.
Welche Architekturdetails kennst du denn schon von Skylake, die dir dies sagen? Das ändert auch nichts daran, dass Broadwell ein ganz normaler Tick ist. Und Skylake bringt definitiv keinen neuen Prozess, also kann ich deine Behauptung Skylake=Tick nicht wirklich verstehen. Wie gesagt, du hast wohl gerade Tick und Tock verwechselt?
Ich dirkutiere mit dir nicht weiter darüber.
Was zeigt sich mit Broadwell?
Ein neuer Prozess rentiert sich gleich in mehrerlei Hinsicht: Mehr Transistoren/Chips pro Wafer. Höheres Transistorbudget und damit mehr Performance. Bessere Energieeffizienz. Damit insgesamt auch höhere Verkaufspreise. Gerade im Mobilbereich gibt es kaum einen wichtigeren Faktor als die verfügbare Prozesstechnik. Aber ja, mittelfristig werden sich die Zeiträume wohl verlängern, weil die Forschung immer mehr Probleme lösen muss. Evtl. sehen wir irgendwann auch mal mehr als zwei Generationen pro Prozess.
Jo, damit hast du wunderbar die Standardklamotten heruntergebetet und vergessen, dass es Geld ist, das man gerne damit verdienen möchte. Wenn der Prozess in der Entwicklung sehr teuer ist, der Markt aber nicht mehr hergibt als jetzt, dann steigen die Kosten und stagnieren die Umsätze. Das bedeutet, du machst weniger Gewinn. Noch mehr Gasgeben und Kosten verursachen ist in so einer Situation einfach blöd wenn man so einen Vorsprung hat und wird auch von den Aktionären nicht honoriert. Also tritt man eben großflächig auf die Bremse. Architektonisch ist man ebenfalls bei den derzeitigen Prozessen auf dem Olymp, auch da brauchts keine großen Anstengungen mehr und viel ist auch einfach nicht mehr drin. Haswell spricht da eine sehr klare Sprache.
Wenns immernoch nicht angekommen ist kann ichs auch nicht ändern. In jedem Fall beende ich die Diskussion mit dir, weil ich mit dem Diskussionsstil nichts anfangen kann, das ist aber in allen Foren, z.B. Luxx, so, nicht nur hier.
Undertaker
2013-04-22, 15:41:42
Sehr gerne. Auf nachträglich editierte Postings und ähnliches kann ich sehr gerne Verzichten, ebenso das fehlende Eingeständnis, dass du dich bzgl. Tick/Tock gerade mächtig verrannt hast. Nur noch einmal zusammengefasst:
Broadwell: 14nm-Shrink der Haswell-Architektur -> Tick
Skylake: neue Architektur im 14nm Prozess -> Tock
Und damit bitte zurück zum eigentlichen Thema Haswell. :)
Ronny145
2013-04-22, 15:48:00
Offenbar bringt Skylake eben keine großen Architekturveränderungen mit sich
Auf welcher Quelle basiert deine Erkenntnis? Es gibt doch nirgend etwas belastbares dazu, verständlich wenn Skylake 2 Jahre entfernt liegt. Das einzige was mir bekannt ist, ist die Anmerkung vom Clown:
The radically different Sky Lake and Skymont architectures will fit very well with this paradigm, very well indeed.
http://semiaccurate.com/2012/09/07/haswell-gt3-uses-shaders-to-save-power/
Broadwell ist offenbar eine Art vor-Tick.
Ein Tick ist ein shrink der alten Architektur. Mehr ist das erstmal nicht. Und das ist Broadwell zweifelsohne.
Und das Shema ist nur dann bewährt, wenn sich das shrinken auch lohnt. Broadwell zeigt glasklar, dass das einfach nicht mehr der Fall ist.
Broadwell zielt auf den mobilen Markt ab. Intel möchte ihre Core Architektur bis in den Tablet Bereich reindrücken. Haswell ist imho noch nicht voll dafür geeignet (bei 7W SDP oder 10W TDP ist das recht viel für ein Tablet). Broadwell mit nochmals gesunkener Leistungsaufnahme könnte den Job sehr wohl erfüllen. Und natürlich weiter steigende Onboard Grafik. Die beiden Sachen sind ziemlich das wichtigste im mobile Bereich für Intel. Darauf kommt jeder, der ein bisschen nachvollziehen kann, worauf Intel ihre Schwerpunkte setzt. Schon Haswell ist ein mobile Design. Intel hat Haswell nur an den Stellen aufgebohrt, die der Effizienz nicht abträglich sind. Hier die Aussage vom Intel Ingenieur zu Broadwell:
What do you usually do with your system? If you like to overclock, Haswell is worth it (can't tell you why but read the Haswell Anandtech preview very carefully for buried treasure). On-die graphics is improving quite a bit as well. If you're into energy efficiency or even more graphics, Broadwell. I think the tech community will be very pleasantly surprised with Broadwell.
Nightspider
2013-04-22, 16:09:37
Hä Atom ist aktuell noch nich mal bei 22nm,da wird's kaum 2014 schon wieder ne Umstellung geben.Intel stellt nicht alle Fabriken mit einmal auf 14nm um,in den die später umgestellt werden,werden dann halt weiter Atoms produziert.
Die Betonung liegt auf "noch". ;)
Wenn ich mich nicht irre war der 22nm Atom für Q3 oder Q4 2013 geplant und der 14nm Atom(Nachfolger) sollte ursprünglich schon im Jahresmitte 2014 kommen, wenn ich mich nicht irre.
Intel hat ja selbst zugegeben, das man bisher die falsche Strategie in Bezug auf den Smartphone/Tablet Markt gefahren ist.
Zumal sich eben besondern die kleinen Chips dazu eignen, um in einem neuen Fertigungsprozess (14nm) als erstes in Massenproduktion zu gehen.
Und genau dieses Vorteil einer Fertigungsgröße braucht Intel auch um QualComm, Samsung und Apple die Stirn zu bieten bzw. diese zu übertreffen.
Auf welcher Quelle basiert deine Erkenntnis? Es gibt doch nirgend etwas belastbares dazu, verständlich wenn Skylake 2 Jahre entfernt liegt. Das einzige was mir bekannt ist, ist die Anmerkung vom Clown:
http://semiaccurate.com/2012/09/07/haswell-gt3-uses-shaders-to-save-power/
Das ist natürlich korrekt. Es gibt keine Quellen zu Skylake und späteres.
Ein Tick ist ein shrink der alten Architektur. Mehr ist das erstmal nicht. Und das ist Broadwell zweifelsohne.
Deshalb sage ich ja, dass man das mit Tick/Tock nicht mehr so einfach darstellen kann. Ivy ist kein echter Tick und Haswell ist kein echtes Tock. Man sollte sich von dieser Art Schubladendenken verabschieden. Skylake könnte auf der CPU-Seite weiterhin auf Haswell-Pfaden wandeln (verbessert natürlich) aber GPU-technisch einen riesen Sprung machen.
Broadwell zielt auf den mobilen Markt ab. Intel möchte ihre Core Architektur bis in den Tablet Bereich reindrücken. Haswell ist imho noch nicht voll dafür geeignet (bei 7W SDP oder 10W TDP ist das recht viel für ein Tablet). Broadwell mit nochmals gesunkener Leistungsaufnahme könnte den Job sehr wohl erfüllen. Und natürlich weiter steigende Onboard Grafik. Die beiden Sachen sind ziemlich das wichtigste im mobile Bereich für Intel. Darauf kommt jeder, der ein bisschen nachvollziehen kann, worauf Intel ihre Schwerpunkte setzt. Schon Haswell ist ein mobile Design. Intel hat Haswell nur an den Stellen aufgebohrt, die der Effizienz nicht abträglich sind. Hier die Aussage vom Intel Ingenieur zu Broadwell:
Das bezieht sich alles auf die Grafik. Intel nutzt die FinFETs mit 14nm richtig aus, in dem man die Takte der Grafik so niedrig macht, dass man die Spannung auf 0.5/0,6V verringern kann. Damit hat man zwar ohen Ende Platz verbraten aber diese tonnenweise zusätzlichen Transistoren kosten fast keinen Strom. Im Mobilbereich scheint sich das echt zu rentieren. Broadwell ist der erste Ableger und bei Skylake wird diese Strategie Programm. AMD hat keine FinFETs, also lohnt es sich auch nicht auf niedrige Spannungen zu optimieren. Dafür hat AMD bei Weitem noch die effizientere Architektur mit GCN(2) und kommende Varianten. Sobald FinFETs auch für AMD verfügbar sind (z.B. 16nm TSMC), könnte sich da ebenfalls einiges ändern. Intel ist hier der Vorreiter und nutzt die neuen Fertigungsprozesse mit ihren Stärken.
Was Atom angeht will Intel da richtig Gas geben. Das ist auch vom Markt her sehr sinnvoll, denn solange man die 14nm FinFETs vor allen anderen hat, ist das im Smartphonebereich, wo Intel bisher nicht präsent ist, ein gewaltiger Sprung. Deshalb kann es schon sein, dass die 22nm-Atoms recht zügig durch 14nm-Varianten (der gleichen Architektur) ersetzt werden.
Nightspider
2013-04-23, 13:28:43
Mit Broadwell kommt man dann vielleicht auf 5W SDP und 7W TDP.
Das ist immer noch viel für Tablets aber immerhin sind diese dann von der Leistung mit vollwertigen Notebooks zu vergleichen.
Und auch für normale Desktop-Office Anwendungen wird bei weitem genügend Power vorhanden sein.
Theoretisch sollten auch Konsolenspiele (PS3 Generation) locker auf Broadwell Tablets laufen.
Ronny145
2013-04-23, 13:34:24
Deshalb sage ich ja, dass man das mit Tick/Tock nicht mehr so einfach darstellen kann. Ivy ist kein echter Tick und Haswell ist kein echtes Tock.
Warum? Was ist für dich ein echter Tick und echter Tock?
AnarchX
2013-04-23, 18:15:39
Gerücht zum eDRAM-Aufpreis:
Intel is rumored to be charging $50 for the eDRAM adder on top of GT3, which would deliver very good margins for Intel.
http://www.anandtech.com/show/6911/intels-return-to-the-dram-business-haswell-gt3e-to-integrate-128mb-edram
Undertaker
2013-04-23, 18:18:33
Intel's performance target for Haswell GT3e is NVIDIA's GeForce GT 650M
Nur weil die 650M mal in irgendeinem Vergleichsvideo (oder wo war das? Edit (http://www.anandtech.com/show/6600/intel-haswell-gt3e-gpu-performance-compared-to-nvidias-geforce-gt-650m)) aufgetaucht ist, denke ich nicht, dass man in derartige Regionen vorstoßen kann – auch nicht mit eDRAM. Das wäre mehr als Faktor 3 ggü. der HD 4000...
dildo4u
2013-04-23, 18:22:57
650M werden teilweise mit DDR3 kombiniert schätze das könnte das Ziel sein.Was schon nicht schlecht wäre wenn dadurch endlich die Nvidia Preise sinken.
Undertaker
2013-04-23, 18:28:10
Dann allerdings mit bis zu 950 MHz Turbo... Wir wollen nicht vergessen, dass der GK107 ~1,3 Mrd. Transistoren stemmt und im Falle der 650M ~30-35 Watt verbraucht. Trotz Prozessvorteil kann ich mir da noch nicht ganz vorstellen, wie die GT3e in solche Regionen vorstoßen soll.
Ronny145
2013-04-23, 18:31:36
In dem Artikel sind fast nur Spekulationen inklusive dem Preis.
Intel is rumored to be selling this part for around $50
Wir sind genauso schlau wie vorher. Ähnlich verhält es sich mit der Performance Prognose und der Bandbreite.
dildo4u
2013-04-23, 18:32:54
Die NV mit DDR3 ist sicher schneller in niedriger Auflösung,aber 2013 wird fast alles im "High-End" ca 800€+ mit 1080p Displays ausgeliefert wo,die Bandbreite ne größere Rolle spielt.
y33H@
2013-04-23, 18:47:45
512 Bit wäre doppelt so viel wie der Ringbus jetzt hat oder würde hier einfach wegen der bidirektionalen Anbindung der Wert verdoppelt? Meines Wissens [laut Intel] ist der EDRAM an den Ringbus gekoppelt, was bei 2.XXX MHz auf grob 60 GB/s kommt - so wie von mir erläutert (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9729531&postcount=1095).
dildo4u
2013-04-23, 18:55:02
60GB/sec wäre ja immerhin 2X DDR3.
http://de.wikipedia.org/wiki/Nvidia_Geforce_M
512 Bit wäre doppelt so viel wie der Ringbus jetzt hat oder würde hier einfach wegen der bidirektionalen Anbindung der Wert verdoppelt? Meines Wissens [laut Intel] ist der EDRAM an den Ringbus gekoppelt, was bei 2.XXX MHz auf grob 60 GB/s kommt - so wie von mir erläutert (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9729531&postcount=1095).
Die Haswellkerne selbst sind wg. vollem 256-bit-FMA auch auf 512bit aufgebohrt, würde also Sinn machen, auch den Ringbus zu verbreitern.
Nightspider
2013-04-24, 05:33:53
50 Dollar nur für den eDRAM? Ist das nicht ein bisschen sehr viel?
Botcruscher
2013-04-24, 08:24:15
Das ist ja erst mal Spekulatius. Wenn die Chips zum überwiegenden Teil eh in die überteuerten Ultrabooks wandern passt das schon. Abseits davon werden bei dem Preis wohl keine Grafikchips verdrängt.
Undertaker
2013-04-24, 08:29:22
In Ultrabooks gibt's keinen eDRAM.
AnarchX
2013-04-24, 12:51:46
x264 mit AVX2-Optimierungen: http://de.scribd.com/doc/137419114/Introduction-to-AVX2-optimizations-in-x264
Ronny145
2013-04-24, 13:12:10
AVX2 dürfte nochmal einen richtigen Schub für x264 bringen. Das wird interessant.
eDRAM angeblich in 22nm, Infos zur Speicherdichte und Die-Größe
http://www.heise.de/newsticker/meldung/Intel-fertigt-wieder-DRAM-1849032.html
horn 12
2013-04-25, 09:46:47
Was dürften die Haswell 1150-er Mainboard zum Release der Neuen Intel CPU wohl kosten, 130-180 Euro, je nach Ausstattung und Hersteller,- oder wird der Preis doch höher sein als bei 1155-er Boards.
Zumal der Bug besteht,- oder wird man preislich dann punkten können bis neues Stepping verkauft wird. Wäre auch eine Möglichkeit, Preislich 30% günstiger zu sein!
y33H@
2013-04-25, 09:53:55
Von 60 bis über 200 Euro, Minimum 130 ist Unfug.
horn 12
2013-04-25, 10:08:42
Meinte ordentliche Boards, mit SLI / Crossfire Möglkichkeit!
Nicht komplette Standard Boards.
Sollten die Boards in ca. 1 Monat kaufbar sein,- oder wie lange wird es noch ca. dauern ?
Skysnake
2013-04-25, 10:19:11
Was dürften die Haswell 1150-er Mainboard zum Release der Neuen Intel CPU wohl kosten, 130-180 Euro, je nach Ausstattung und Hersteller,- oder wird der Preis doch höher sein als bei 1155-er Boards.
Zumal der Bug besteht,- oder wird man preislich dann punkten können bis neues Stepping verkauft wird. Wäre auch eine Möglichkeit, Preislich 30% günstiger zu sein!
Die Boards werden tendenziell eher billiger. Die gesamte Spannungsversorgung für die CPU fällt SEHR SEHR viel einfacher aus, und muss meist auch nicht mehr gekühlt werden. Dazu müssen weniger Zusatzchips für USB3.0/SATA3 verbaut werden. Das wirkt sich alles preismindernd aus.
Wenn man sich die Boards auf der CeBIT angeschaut hat, dann sind die ziemlich simpel aufgebaut. Die ganzen "High-End"-S1150 MBs haben ja gleich ne Killer-NIC und/oder nen hochwertigen Soundchip mit drauf.
Die Hersteller versuchen so die Preise hoch zu halten, und sich von der Konkurrenz zu differenzieren. Unterm Strich sollten "normale" Boards aber günstiger werden, sofern es Sie überhaupt noch ohne Killer-NIC/extra Soundchip gibt.
Die Boards werden tendenziell eher billiger. Die gesamte Spannungsversorgung für die CPU fällt SEHR SEHR viel einfacher aus, und muss meist auch nicht mehr gekühlt werden. Dazu müssen weniger Zusatzchips für USB3.0/SATA3 verbaut werden. Das wirkt sich alles preismindernd aus.
Wer weiß ob nicht Intel sich die Ersparnis durch teurere Chipsätze wieder reinholt. Gibt's zu deren Preise schon Infos?
Ronny145
2013-04-25, 11:42:53
eDRAM angeblich in 22nm, Infos zur Speicherdichte und Die-Größe
http://www.heise.de/newsticker/meldung/Intel-fertigt-wieder-DRAM-1849032.html
Nichts neues.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9743464#post9743464
3770k vs 4770k Benchmarks:
http://www.futuredrift.com/showthread.php?4133-Is-the-INTEL-Haswell-finally-kicking-off-the-32GB-DDR3-3000-era-!-Check-it-out&p=7418#post7418
Die Benchmarks sind wohl von coolaler (http://www.coolaler.com/content.php/2200-INTEL-Haswell).
AVX2 dürfte nochmal einen richtigen Schub für x264 bringen. Das wird interessant.
Ja, die Entwickler waren schon bei Bulldozer auf XOP gespannt, aber dann eher enttäuscht.
Bin mal gespannt, wie sich der VIA Chip im AVX2-Code macht. Die werden doch wenigstens mal ein paar Samples verteilen ^^
Nichts neues.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9743464#post9743464
Ahja, Sorry. Den Artikel hatte ich damals nicht gelesen, weil er weißen Text auf weißem Untergrund enthält ...
Undertaker
2013-04-25, 14:00:01
3770k vs 4770k Benchmarks:
http://www.futuredrift.com/showthread.php?4133-Is-the-INTEL-Haswell-finally-kicking-off-the-32GB-DDR3-3000-era-!-Check-it-out&p=7418#post7418
Die Benchmarks sind wohl von coolaler (http://www.coolaler.com/content.php/2200-INTEL-Haswell).
Nicht übel, 8-9% höhere IPC bei CB sind schonmal ganz nett. Dabei hätte mich allerdings mal noch der Vergleich bei Single-Thread-Rendering interessiert... So erkennt man nicht genau, wie viel davon auf einen evtl. höheren SMT-Gewinn entfällt.
y33H@
2013-04-25, 14:03:48
Meinte ordentliche Boards, mit SLI / Crossfire Möglkichkeit! Nicht komplette Standard Boards.SLI und CF kann doch eh praktisch alles, was kein B75 oder so ist - bei IVB ab 90m Euro im Falle eines Z77.
Hübie
2013-04-25, 14:25:08
Na ja als 08-15 SandyBridge User stellt das auch kein "Upgrade" da wenn man Energieverbrauch mal nicht mit einkalkuliert. Ich bin dennoch sehr gespannt wie sich die Architektur verhält. Vor allem die neue iGPU macht Laune auf mehr. Wird eigentlich Lucid wieder mit an Board sein?
Na ja als 08-15 SandyBridge User stellt das auch kein "Upgrade" da wenn man Energieverbrauch mal nicht mit einkalkuliert.
Tja, ist bei Intel doch schon die letzten ~4 Jahre so, die Leistung stagniert. Mit nem 1156/1366 CPU @4Ghz ist man nachwievor gut bedient.
Größere Veränderungen gabs nur durch den Herstellungsprozess. Dadurch wurde der Stromverbrauch deutlich reduziert und die zusätzliche Fläche wurde für ne immer bessere / größere GPU investiert, die den den normalen 3DC-Besucher aber 0 interessiert.
Anstatt der GPU 2 zusätzliche Kerne und 10MB L3, dann wär vermutlich jeder hier zufrieden.
Undertaker
2013-04-25, 14:44:05
Die LGA2011 Käufer sicherlich nicht. :D Ganz im Ernst: Solange es mit 4 Kernen möglich ist, das aktuelle Preisniveau der jeweiligen Mittelklasse-Plattform beizubehalten, wird Intel einen Teufel tun und mehr Kerne verbauen. Gewinnmaximierung, wie man das auch so schön nennt.
Ronny145
2013-04-25, 15:06:38
Tja, ist bei Intel doch schon die letzten ~4 Jahre so, die Leistung stagniert. Mit nem 1156/1366 CPU @4Ghz ist man nachwievor gut bedient.
Sandy Bridge war ein guter Sprung im Mainstream. 12-15% mehr IPC und 500 Mhz mehr Takt gab es bei gleichzeitig verringerten Verbrauch. Das hat damals die Messlatte für AMD arg nach oben gelegt, daran knabbern sie noch heute. Bis Lynnfield war AMD mit den X4 Deneb durchaus konkurrenzfähig.
Die LGA2011 Käufer sicherlich nicht. :D Ganz im Ernst: Solange es mit 4 Kernen möglich ist, das aktuelle Preisniveau der jeweiligen Mittelklasse-Plattform beizubehalten, wird Intel einen Teufel tun und mehr Kerne verbauen. Gewinnmaximierung, wie man das auch so schön nennt.
Über kurz oder lang wird auch Intel die Kernzahl erhöhen. Die Frage ist nur wann. Ich könnte mir für Haswell-E 8 Kerne fürs Highend und 6 Kerne für die oberen Mainstream (Skylake) Modelle vorstellen. Der Vorteil von Intel ist ja, sie brauchen mit Skylake nicht groß an der Takt- oder IPC Schraube drehen, sondern könnten die Kerne von 4 auf 6 Kerne erhöhen. Aber das ist alles Zukunftsmusik.
Sandy Bridge war ein guter Sprung im Mainstream. 12-15% mehr IPC und 500 Mhz mehr Takt gab es bei gleichzeitig verringerten Verbrauch. Das hat damals die Messlatte für AMD arg nach oben gelegt, daran knabbern sie noch heute. Bis Lynnfield war AMD mit den X4 Deneb durchaus konkurrenzfähig.
Jo deswegen hab ich @4Ghz geschrieben ;-)
Wenn man OC weglässt muss man die Taktsteigerung natürlich erwähnen.
Knuddelbearli
2013-04-26, 10:44:57
naja sandy packt halt 4,7ghz bei besserer ipc
das schon ein guter unterschied
2phil4u
2013-04-26, 12:19:20
Es wird soviel über die GT3 Grafikeinheit geredet, obwohl die doch für uns Enthusiasten überhaut nicht interessant ist.
Fakt ist, dass Intel die High End Kunden mit 2 Jahrer alter Hardware nachversorgt, siehe Ivy-Bridge E.
Broadwell wird ja noch schlimmer, alles wird in die IGP gesteckt und das ganze nichtmal für Desktopprozessoren angeboten.
AMD hat keine finanziellen Mittel mehr, um in einem neuen teuren Prozess (bsp 14-16 nm Finfet) einen richtig fetten Prozessor zu bauen, bsp einen Steamroller mit richtig fetter Leistung pro Kern oder 16 Kernen.
Stattdessen bauen sie irgendwelche APU Lowendchips, die dann gleich mit ARM und Nvidia konkurrieren müssen und Intel wird spätestens mit Broadwell eine sehr gute Grafikleistung bieten.
Intel könnte sicher viel mehr, aber sie setzten eben alles auf den mobilen Markt, der einfach mehr Volumen hat.
Man wird sehen, wie hoch sich Broadwell takten lässt, Haswell E kommt wieder mit Verzögerung.
FAlls es noch irgendwelche Zweifel über die L4-Funktionalität gegeben haben sollte:
http://i.imgur.com/y6Vn2jT.jpg
http://www.aida64.com/downloads/aida64extremebuild2430wz0k3xtrlnzip
Es wird soviel über die GT3 Grafikeinheit geredet, obwohl die doch für uns Enthusiasten überhaut nicht interessant ist.
Momentan vielleicht nicht, aber es ist ein wichtiger Schritt für die Zukunft.
Ich würde das nicht mehr so Schwarz und Weiß mit integrierter GPU vs dedizierte GPU sehen. Man kann seit kurzem ja beides gleichzeitig nutzen (zum Teil dank Windows 8).
Hübie
2013-04-26, 21:58:05
FAlls es noch irgendwelche Zweifel über die L4-Funktionalität gegeben haben sollte:
http://i.imgur.com/y6Vn2jT.jpg
http://www.aida64.com/downloads/aida64extremebuild2430wz0k3xtrlnzip
Ich check deinen Beitrag grad net ;D Wo is da n L4? Das is n stinknormaler 3930k...
boxleitnerb
2013-04-26, 22:01:55
Das Feld existiert aber ;)
Hübie
2013-04-26, 22:05:54
Ach so das gabs vorher nicht oder wie? ;D Dann is ja alles klar.
boxleitnerb
2013-04-26, 22:07:27
Denk ich jetzt mal :D
Skysnake
2013-04-27, 08:45:46
Ja, das gabs vorher nicht.
Duplex
2013-04-27, 08:55:07
Es sieht danach aus das Intel bei Haswell nur die SMT Performance verbessert hat, die IPC pro Kern sollte sich kaum ändern. Haswell-E im Servermarkt wird gegenüber Ivy Bridge-E ebenfalls keine größere Performance Sprünge vollziehen können was Integer Performance angeht.
Wieso hält Intel den CPU Takt der S1150 CPUs so niedrig? 4,5Ghz Turbo sollte in 22nm doch machbar sein....
Botcruscher
2013-04-27, 09:35:53
Weil man ohne Konkurrenz kein Potential verschenkt. Schön geschmeidig melken.
PrefoX
2013-04-27, 11:03:59
Weil man ohne Konkurrenz kein Potential verschenkt. Schön geschmeidig melken.
nur wen willst du melken? es wird doch kein user von sandy oder ivy auf haswell wechseln...
mapel110
2013-04-27, 11:07:32
nur wen willst du melken? es wird doch kein user von sandy oder ivy auf haswell wechseln...
Doch, da gibt es einige. Einfach weil Neu sexy ist. ^^
Der PC-Markt schrumpft. Da muss man nicht mit unnötig besseren Produkten(AMD ist abgeschlagen) höhere Preise anstreben.
Nö, aber sandy bridge launch (consumer-)notebooks werden dieses Jahr ausgetauscht. Oder wurden längst ausgetauscht - je nach Branche.
Duplex
2013-04-27, 11:44:13
Mein 2700k kann ich mit 5600Mhz booten, 5200Mhz gehen dauerhaft bei 1, 43v, ich werde kein Haswell kaufen. Schade das sich im CPU Bereich nichts mehr tut. Irgendwann wenn nötig kaufe ich mir evtl. eine 8C/16T 14nm CPU, alles andere lohnt nicht. AMD wird leider auch nicht mehr Konkurrenz machen können, Sie haben nie ein Herz für hohe IPC gehabt, erst vermutlich Excavator wird K10 IPC erreichen, was haben die sich damit nur ausgedacht....
erst vermutlich Excavator wird K10 IPC erreichen, was haben die sich damit nur ausgedacht....Das fragst Du im entsprechenden AMD Thread. Postings von Steamroller IPC-Tests wären da auch willkommen :)
Schaffe89
2013-04-27, 12:58:11
Sie haben nie ein Herz für hohe IPC gehabt, erst vermutlich Excavator wird K10 IPC erreichen, was haben die sich damit nur ausgedacht....
Man erreicht doch jetzt schon in einigen Fällen K10 PC. Wahrscheinlich erreicht bereits Piledriver 2.0 K10 IPC.
Ronny145
2013-04-27, 19:26:57
http://s7.directupload.net/images/130427/3cfs5ghp.jpg
http://chinese.vr-zone.com/61232/haswell-intel-hd-graphics-performance-can-better-than-nvidia-gt640-and-amd-radeon-hd6670-04282013/
GT1.5 (12 EUs) das unterste Level?
So nebenbei weil mir das gerade aufgefallen ist. Die HD5100 ist die 25W Option für HSW ULT.
iHSWGT3UT = "Intel(R) HD Graphics 5000"
iHSWGT3UT25W = "Intel(R) HD Graphics 5100"
boxleitnerb
2013-04-27, 19:45:26
Gibt es eigentlich irgendwo einen schönen Vergleich wo die iGPUs im Vergleich zu den dGPUs stehen?
time_me
2013-04-27, 20:28:09
Hier hättest du die HD 4000 im Vergleich mit den erwähnten HD 6570 und GT430 (gleicher Chip wie auf der GT 630), allerdings schon etwas älter: http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/13/
boxleitnerb
2013-04-27, 20:37:20
Hach Marketingfolien...damit die HD4600 so schnell wie die HD6570 wäre, müsste sie knapp doppelt so schnell sein wie die HD4000. Find ich jetzt eher unwahrscheinlich.
Ich finds übrigens auch schade, dass man kaum Tests mit aktuellen Treibern sieht. dGPUs werden recht häufig neu getestet, aber iGPUs eigentlich nie. Der 15.31 soll bei Ivy einen großen Schub gebracht haben, gebencht hat's keiner...
Skysnake
2013-04-27, 22:54:55
Du vergisst die Unbekannte eDRAM.
Wie gross die Auswirkungen sind kann keiner von uns sagen.
y33H@
2013-04-27, 22:55:44
@ boxleitnerb
15.31? Meinst du den 3071er? https://downloadcenter.intel.com/Detail_Desc.aspx?DwnldID=22670
http://semiaccurate.com/2013/04/15/putting-intels-new-hd-4000-drivers-to-the-test/
@ Skysnake
HD 4600 ist GT3, nicht GT3e. Zudem ändert der EDRAM u.a. nichts an der EU-Anzahl ;-)
=Floi=
2013-04-27, 23:07:43
Du vergisst die Unbekannte eDRAM.
Wie gross die Auswirkungen sind kann keiner von uns sagen.
übertreib mal ned. mehr als die theoretische leistungsfähigkeit geht eh nicht. solange intel nicht massiv rechenleistung verbaut geht die grafik sowieso unter.
Ronny145
2013-04-27, 23:14:19
HD 4600 ist GT3, nicht GT3e.
GT2
Skysnake
2013-04-27, 23:21:33
@ boxleitnerb
15.31? Meinst du den 3071er? https://downloadcenter.intel.com/Detail_Desc.aspx?DwnldID=22670
http://semiaccurate.com/2013/04/15/putting-intels-new-hd-4000-drivers-to-the-test/
@ Skysnake
HD 4600 ist GT3, nicht GT3e. Zudem ändert der EDRAM u.a. nichts an der EU-Anzahl ;-)
Ah, verlesen.
Danke.
Ja, die 4600er hat natuerlich keinen eDRAM :ugly:
Da muesste Intel schon kraeftig an den EUs gefeilt haben, damit das klappt.
Knuddelbearli
2013-04-28, 00:35:02
GT5200 GT3 mit eRAM
GT5100 GT3 ohne eRAM
GT4200-GT4600 GT2
boxleitnerb
2013-04-28, 07:12:44
@ boxleitnerb
15.31? Meinst du den 3071er? https://downloadcenter.intel.com/Detail_Desc.aspx?DwnldID=22670
http://semiaccurate.com/2013/04/15/putting-intels-new-hd-4000-drivers-to-the-test/
In den News überall steht 15.31, z.B. hier:
http://www.tomshardware.com/news/HD-4000-OpenCL-Drivers-Power-Consumption-Increased-Performance,21763.html
Den Test von SA kenne ich, aber ich finde deren Spieleauswahl mau und die Diagramme arg unübersichtlich. Da vertraue ich eher euch oder CB.
ZipKaffee
2013-04-28, 07:51:48
nur wen willst du melken? es wird doch kein user von sandy oder ivy auf haswell wechseln...
Ich wechsel wohl erst wenn Skylake 2015 erscheint oder AMD was tolles aus dem Hut zaubert. Es sei denn die "next Gen" Spiele Engines profitieren in Zukunft stark von 8 Kernen bzw. HT. dann "muss" früher gewechselt werden.
Botcruscher
2013-04-28, 11:39:50
Sich als K Besitzer über den Normaltakt zu beschweren ist aber auch schizo. Das man da nicht Zielgruppe ist sollte man selber merken.
Wen interessieren eigentlich 10% Leistungsgewinn bei der iGPU? Abseits der Randgruppe Notebooks bleiben die Dinger entweder schnell genug oder eh viel zu langsam. Im Mobilbereich wird dazu nach 3 min betrieb eh runter getaktet da zu warm.
Ronny145
2013-04-28, 11:50:55
Wen interessieren eigentlich 10% Leistungsgewinn bei der iGPU?
Wie kommst du auf 10%?
Im Mobilbereich wird dazu nach 3 min betrieb eh runter getaktet da zu warm.
Mein SB Notebook 35W mit HD3000 taktet nicht runter.
Undertaker
2013-04-28, 11:52:26
Wen interessieren eigentlich 10% Leistungsgewinn bei der iGPU? Abseits der Randgruppe Notebooks bleiben die Dinger entweder schnell genug oder eh viel zu langsam. Im Mobilbereich wird dazu nach 3 min betrieb eh runter getaktet da zu warm.
Werden nicht mittlerweile mehr Notebooks als Desktops verkauft? Wir reden hier ganz sicher nicht von einer Randgruppe, sondern ganz im Gegenteil von dem dominierenden Marktsegment. Warum wohl wird immer mehr Wert auf die IGP gelegt? Warum wohl sind Intels letzte Mainstream-CPUs eigentlich allesamt verkappte Notebook-Chips?
Übrigens: Die Kühlung ist Aufgabe der Notebookhersteller. Es gibt durchaus auch Ultrabooks oder kompakte Subnotebooks mit 35W-CPUs, die keinerlei Temperaturprobleme haben. Von der TDP her sind alle Turbostufen je nach Anwendung real erreichbar.
Botcruscher
2013-04-28, 12:59:32
Wie kommst du auf 10%?
Der Treibertest eine Seite zuvor.
Mein SB Notebook 35W mit HD3000 taktet nicht runter.
Dann bist du einer der wenigen und kannst froh sein. Gerade bei den Geräten mit kleiner TDP passen CPU und GPU nicht mehr zusammen. Die Dinger müssen bei Vollast drosseln.
Werden nicht mittlerweile mehr Notebooks als Desktops verkauft? Wir reden hier ganz sicher nicht von einer Randgruppe, sondern ganz im Gegenteil von dem dominierenden Marktsegment. Warum wohl wird immer mehr Wert auf die IGP gelegt?
Den Mobilmarkt kann man auch wieder schön aufspalten. Intel legt wert drauf weil man hier noch schön wachsen kann und irgendwann mal CPU/GPU zusammenwachsen. Dem Großteil der Nutzer ist die Leistung der iGPU auch hier egal. Die wird vom Kistenschieber halt mitgenommen. Eine abschaltbare Grafikkarte ist(für Spieler) in jeder Hinsicht überlegen.
Fragen wir anders herum: Was bringt mir die mehr intrigierte Leistung? Auf dem Desktop mal überhaupt nichts (da richtige GraKa) und Mobilmarkt ist es nett weil billig. Die Monopolstellung von Intel macht es auch nicht besser. Der Kunde zahlt die Fläche und könnte dafür glatt einen 8 Kerner bekommen.
Warum wohl sind Intels letzte Mainstream-CPUs eigentlich allesamt verkappte Notebook-Chips?
Es gibt keine gesonderten Notebook/Desktop-Chips. Die Definition dahinter möchte ich mal sehen. Verbrauchsreduktion ist immer Ziel da Gegendstand der Herstellung. Die Frage ist nur wie viel Abwärme man vertragen kann.
boxleitnerb
2013-04-28, 13:15:01
10% sind 10%, egal in welchem Segment. Bei den dGPUs werden neue SKUs deswegen aufgelegt und wenn mal ein Treiber im Schnitt 4-5% bringt, wird ein großes Trara drumgemacht (Cat 12.11). Und SA hat ja sogar 18% gemessen, das ist extrem beachtlich mMn, das kann man nicht einfach wegreden.
Undertaker
2013-04-28, 13:36:12
Den Mobilmarkt kann man auch wieder schön aufspalten. Intel legt wert drauf weil man hier noch schön wachsen kann und irgendwann mal CPU/GPU zusammenwachsen. Dem Großteil der Nutzer ist die Leistung der iGPU auch hier egal. Die wird vom Kistenschieber halt mitgenommen. Eine abschaltbare Grafikkarte ist(für Spieler) in jeder Hinsicht überlegen.
Fragen wir anders herum: Was bringt mir die mehr intrigierte Leistung? Auf dem Desktop mal überhaupt nichts (da richtige GraKa) und Mobilmarkt ist es nett weil billig. Die Monopolstellung von Intel macht es auch nicht besser. Der Kunde zahlt die Fläche und könnte dafür glatt einen 8 Kerner bekommen.
Dem Großteil der Nutzer wäre die Mehrleistung eines 8-Kerners wohl noch viel mehr egal als die schnellere IGP. ;) Hier darf man eben nicht nur persönliche Wünsche ansetzen, ich selbst hätte im Desktop auch lieber einen schnelleren CPU-Teil. Notebooks werden aber immer schlanker, eine zusätzliche GPU damit in vielen Geräten schwieriger (und teurer).
Es gibt keine gesonderten Notebook/Desktop-Chips. Die Definition dahinter möchte ich mal sehen. Verbrauchsreduktion ist immer Ziel da Gegendstand der Herstellung. Die Frage ist nur wie viel Abwärme man vertragen kann.
Man erkennt schon eine sehr klare Notebook-Ausrichtung von Intels Mainstream-Plattformen, Stichworte Kernzahlen, GPU-Dimensionierung und Taktung, Leistungsvergleich der schnellsten Notebook- und Desktop-Chips. Muss man das wirklich näher ausführen? :confused:
Botcruscher
2013-04-28, 13:50:20
Dem Großteil der Nutzer wäre die Mehrleistung eines 8-Kerners wohl noch viel mehr egal als die schnellere IGP. ;)
Die könnten ja dann einen sau günstigen 4kerner kaufen. ;)
Man erkennt schon eine sehr klare Notebook-Ausrichtung von Intels Mainstream-Plattformen, Stichworte Kernzahlen, GPU-Dimensionierung und Taktung, Leistungsvergleich der schnellsten Notebook- und Desktop-Chips. Muss man das wirklich näher ausführen? :confused:
Das ist alles Marketing. Die Kernzahl stagniert weil man nicht mehr geben will. Mit Jaguar werden 4Kerner im Billigsegment Einzug halten. Die GPU ist Zwang. Es gibt kein günstigeres Angebot ohne. Taktung hat mit der CPU nichts zu tun. Das ist eine reine Verbrauchsfrage.
Selbst Atom findet sich im Serversegment. Es gibt einfach kein Kriterium was die Segmente bei der Hardware trennen würde.
Ronny145
2013-04-28, 16:33:52
Der Treibertest eine Seite zuvor.
Ich lese dort 18%. Kostenlose Steigerungen durch Treiber nimmt jeder gerne mit, egal ob 5% oder 20%.
Dann bist du einer der wenigen und kannst froh sein. Gerade bei den Geräten mit kleiner TDP passen CPU und GPU nicht mehr zusammen. Die Dinger müssen bei Vollast drosseln.
Na siehste, also was soll die Pauschalaussage? Hast du hunderte Geräte am Markt persönlich selbst getestet und kannst das beurteilen? Drosselungen bei Standardmodellen sind eher die Seltenheit. Bei ULV Notebooks liegt es logischerweise auch an der TDP. Die neue 25W Klasse mit der GT3 finde ich daher einen guten Kompromiss.
Ronny145
2013-04-28, 21:27:34
http://pc.watch.impress.co.jp/img/pcw/docs/597/640/html/2.jpg.html
Laut Goto ist Broadwell mobile 1-Chip BGA von low bis high power.
Bei der M-Serie fehlt Broadwell. Dann wäre H von 2-chip auf 1-cip der einzige Unterschied.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.