Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Haswell - 22nm, DX11.1 und AVX2 in H1/2013 - HSW-Refresh Q2/2014
Seiten :
1
2
3
4
5
[
6]
7
8
Hayab
2013-04-29, 01:13:29
Die HD5000 soll 40 execution units haben + eDRAM (HD4000 16EU). Wenn die Leistung dann noch ein wenig pro diese exection unit steigt, wird das teil die Low budget dGPUs ueberholen koennen, die meistens nur 16 oder weniger ROPs haben und mit DDR3 bestueckt sind.
Knuddelbearli
2013-04-29, 02:40:09
ein NV GF 620 vielleicht ( die wenn es mich nicht ganz täuscht ja eine 40nm karte ist ) mehr nicht
Eben die Low Budget, macht Bild(und kleines Spiel in hässlich)-Einsteiger Karten. :wink:
Hat sich doch eh abgezeichnet wenn man sieht das beide, ATI und NV die Zeichen der Zeit erkannt, und in 28 nm keine Mini d-GPu Chips mehr gebracht haben bzw. für den verbleibenden, rückläufigen, Bedarf altes Zeug umbenannten.
robbitop
2013-04-29, 08:54:17
AMD wird leider auch nicht mehr Konkurrenz machen können, Sie haben nie ein Herz für hohe IPC gehabt, erst vermutlich Excavator wird K10 IPC erreichen, was haben die sich damit nur ausgedacht....
Nie? Eigentlich erst seit Bulldozer. K7 hatte deutlich höhere IPC als der P3 und P4. Der Athlon 64 setzte da noch einen oben drauf. Der K10 steigerte das.
Allerdings ist Intel seit sie aufgewacht sind und mit Tick-Tock seit Conroe alles plattwalzen eben unerreichbar. Sie haben IIRC ~ 50x so viel Ressourcen wie AMD und sind meistens einen Fullnode im Vorteil. Was soll man da machen? :freak:
Rampage 2
2013-04-29, 19:15:14
Ist Haswell eigentlich deutlich besser übertaktbar als Ivy Bridge? Bei Letzterem soll es ja ein Abwärme-Problem geben, so dass alles über 4.6 GHz instabil wird. Ich will einen QuadCore i5 bei 4.8 GHz dauerhaft halten können.
Knuddelbearli
2013-04-29, 19:41:49
nix genaues weiss man nicht
4,8Ghz Quadcore kauf doch nen Sandy
Oder doch nen Ivy weil mit den +3-5 % IPC biste dann auch bei ~4,8 "Sandy-Ghz". ;D
Knuddelbearli
2013-04-29, 23:25:50
ihm ging es ja um den takt
Rente
2013-04-29, 23:42:59
Ist Haswell eigentlich deutlich besser übertaktbar als Ivy Bridge? Bei Letzterem soll es ja ein Abwärme-Problem geben, so dass alles über 4.6 GHz instabil wird. Ich will einen QuadCore i5 bei 4.8 GHz dauerhaft halten können.
IHS ab, Flüssigmetal drunter, IHS wieder drauf und Ivy hat kein wirkliches Abwärmeproblem mehr.
Ohne dazu eine genaue Statistik zu haben behaupte ich, dass die Temp.-Probleme bei Ivy zu 90% an der absolut besch... Wärmeleitpaste unter dem IHS hängen, bei mir hat der Umbau mal eben für über 10°C weniger gesorgt.
Es wäre also durchaus sehr interessant ob Intel bei Haswell den IHS wieder verlötet, gelesen hab ich dazu bisher leider nichts.
Knuddelbearli
2013-04-30, 00:08:36
klar liegt das an der WLP, und höchstens ganz minimal daran das es ein deutlich kleineres die ist.
Mehr Faktoren ( außer natürlich Leistungsaufnahme ) gibt es ja nicht
Nightspider
2013-04-30, 00:44:11
Ich frag mich wieviel mehr Leistung Haswell hätte, wenn Intel die komplette IGP Fläche in Cache investiert hätte.
Wäre natürlich nett wenn die CPUs bei deaktivierter IGP auch auch den EDRAM zugreifen könnten.
Bleibt die Frage wieviel der für CPU-Verhältnisse langsame und für RAM Verhältnisse schnelle bringen würde.
Hayab
2013-04-30, 01:12:05
Ich frag mich wieviel mehr Leistung Haswell hätte, wenn Intel die komplette IGP Fläche in Cache investiert hätte.
Wäre natürlich nett wenn die CPUs bei deaktivierter IGP auch auch den EDRAM zugreifen könnten.
Bleibt die Frage wieviel der für CPU-Verhältnisse langsame und für RAM Verhältnisse schnelle bringen würde.
Intel ist momentan in der "gluecklichen" Lage, die CPU Performancesteigerungen in ganz duennen Scheibchen zu verkaufen. Deshalb tut sich da recht wenig.
Technische Durchbrueche kann man nur auf der IGP Seite erwarten, mal schauen ob die ihre Roadmap einhalten koennen.:D
Knuddelbearli
2013-04-30, 01:37:08
8 kerne wären theoretisch auf der selben die fläche ohne GPU wohl möglich
Skysnake
2013-04-30, 09:09:04
Ich frag mich wieviel mehr Leistung Haswell hätte, wenn Intel die komplette IGP Fläche in Cache investiert hätte.
Wäre natürlich nett wenn die CPUs bei deaktivierter IGP auch auch den EDRAM zugreifen könnten.
Bleibt die Frage wieviel der für CPU-Verhältnisse langsame und für RAM Verhältnisse schnelle bringen würde.
Vom eDRAM kann man mehr erwarten, als von etwas größeren SRAM Caches.
Man ist bei den SRAM-Caches einfach an einem Punkt angekommen, wo "kleine" Vergrößerungen, (also bis zur Verdoppelung) einfach nicht mehr wirklich viel bringen. Dafür sind die Problemgrößen dann gleich viel zu groß.
Man flasht sich also freudig den Cache.
Der eDRAM ist zwar langsamer, aber eben deutlich größer, womit die Chance steigt, das man sein Problem komplett in den eDRAM bekommt, oder zumindest sehr sehr sehr viel des Problems, so das man nur noch selten auf den RAM zugreifen muss.
ihm ging es ja um den takt
Dann soll er sich nen FX kaufen und nen Vertrag mit dem örtlichen Krankenhaus abschließen, damit ihm die bissl Helium überlassen/verkaufen. ;D
IHS ab und was gescheites drunter hab ich schon drüber nachgedacht ..... aber will ich dann doch nicht. Garantie und so. :freak:@self, aber is so.
Derzeit reichts auch so noch ....
Tja und 8 Haswell Kerne mit brauchbarem Takt wäre natürlich aktuelles Ziel aller Wünsche, da können sie auch erstmal wieder ihr SMT behalten und, theoretisch, auch noch die Kerne bissl verschlanken.
Aber alleine mit den "Performancesteigerungen" der letzten Zeit, von der IGP ab und Stromverbrauch ab, könnte Intel statt Haswell sogar einen <4 Ghz Sandy bringen und liefe auf das selbe raus. :freak:;D
Rampage 2
2013-04-30, 14:50:38
IHS ab, Flüssigmetal drunter, IHS wieder drauf und Ivy hat kein wirkliches Abwärmeproblem mehr.
Ohne dazu eine genaue Statistik zu haben behaupte ich, dass die Temp.-Probleme bei Ivy zu 90% an der absolut besch... Wärmeleitpaste unter dem IHS hängen, bei mir hat der Umbau mal eben für über 10°C weniger gesorgt.
Es wäre also durchaus sehr interessant ob Intel bei Haswell den IHS wieder verlötet, gelesen hab ich dazu bisher leider nichts.
Genau dieses Problem meine ich! Wird es dasselbe Problem (IHS, WLP) auch bei Haswell-CPU's geben oder hat Intel dieses mal vernünftiges Material eingebaut?
boxleitnerb
2013-04-30, 15:02:38
Ich dachte inzwischen wäre jedem klar, dass nicht die WLP das Problem ist bei Ivy, sondern der zu große Spalt zwischen Die und Unterseite des IHS.
Wundert mich, dass es nicht schon spezielle Kühler mit einer Erhebung in der Mitte gibt, welche in Kombination mit fiesem Anpressdruck diesem Mist entgegenwirken. :ugly:
MfG,
Raff
Undertaker
2013-04-30, 15:27:26
Blöderweise werden Boards und CPU auf einen gewissen Anpressdruck spezifiziert sein, den ein wirtschaftlich denkender Kühler-Entwickler wohl besser nicht überschreiten will (denn reihenweise zerstörte Boards/CPUs könnten teuer werden)... ;)
Iruwen
2013-04-30, 16:29:27
Meinem Wasserkühler liegen verschiedene O-Ringe bei mit denen man die Vorspannung des Kühlerbodens erhöhen kann.
http://www.aquacomputer.de/handbuecher.html?file=tl_files/aquacomputer/downloads/manuals/cuplex_kryos_deutsch_20120328.pdf
Ich dachte inzwischen wäre jedem klar, dass nicht die WLP das Problem ist bei Ivy, sondern der zu große Spalt zwischen Die und Unterseite des IHS.
Da ist ist dein völliger ernst, oder? :freak:
Ähnliche Probleme und "Formulierungen":
- Ich hab den Kühler nicht zu lax angezogen montiert; der große Spalt zwischen IHS und Boden vom Kühler ist das Problem.
- Die WLP ist nicht das Problem, nur die Dicke der Schicht von 5 Tuben zwischen IHS und Kühlerboden.
- Die WLP ist nich das Problem, nur die Verteilung als 1 mm dicker Streifen am Rand des IHS ...
- Die Form des IHS ist nicht das Problem, leider ist der Kühlerboden nicht wiene Elipse geformt/angepasst worden.
- Die Kraterartigen Einschläge im Kühlerboden sind nicht das Problem, die Fehlenden Gegenstücke am IHS sind es.
Die WLP _IST_ das Problem.
Das fängt mit der reduzierten Wärmeleitung im Vergleich zu verlöten an,
geht weiter mit der Tatsache das Intel den letzten Dreck nimmt und sich auch noch wenig kümmert ob die vernünftig und in richtiger Menge verteilt ist,
und gipfelt, wie du selber schon erkannt hast, darin das es offensichtlich noch völlig völlig ungeignet ist (siehe Quads die mit Beipackkühler tw throtteln oder irre-heiß dahinrodeln) für die Problemstellung; nähmlich als Ersatz für verlöten.
Also daher: Nein, wenn du mit nem Kreutzschlitzschraubenzieher nen Schlitzschrauben nicht aufkriegst IST es trotzdem der falsche Schraubenzieher!
Zumindest die meisten Leute würden das so sehen und nicht mit einer falschen Schraube argumentieren .... :freak:
€: Evlt. habs ich jetzt falsch verstanden bzw. in den falschen Hals gekriegt. Falls dus nur verstellen wolltest um Missverständniss zu vermeiden, hab ichs wohl falsch verstanden. Dann ;). Ich lass es aber mal so stehen.
Flüssigmetal + mit hohem Anpressdruck die IHS-DIE-Verbindung aushärten lassen hat hier jem. 15-20 ° gebracht .... aber auch 2 tote CPUs ....
boxleitnerb
2013-04-30, 17:56:52
Ich meine nicht die WLP zwischen IHS und Kühlerboden und auch nicht den Spalt zwischen Kühlerboden und IHS. Sondern zwischen Die und Unterseite des Heatspreaders (IHS).
Hier wurde es untersucht:
http://forums.anandtech.com/showpost.php?p=34053183&postcount=570
Das Material selbst ist nicht das Problem, denn wenn man den Kleber weglässt und der IHS tiefer sitzt, bekommt man mit der Intel TIM dieselben Temperaturen wie mit anderen Pasten.
Rente
2013-04-30, 18:39:28
Ich meine nicht die WLP zwischen IHS und Kühlerboden und auch nicht den Spalt zwischen Kühlerboden und IHS. Sondern zwischen Die und Unterseite des Heatspreaders (IHS).
Hier wurde es untersucht:
http://forums.anandtech.com/showpost.php?p=34053183&postcount=570
Das Material selbst ist nicht das Problem, denn wenn man den Kleber weglässt und der IHS tiefer sitzt, bekommt man mit der Intel TIM dieselben Temperaturen wie mit anderen Pasten.
Das ist mit hoher Wahrscheinlichkeit Unsinn, tut mir Leid.
Ich hab genauso wie vorher Hochtemperatursilikon auf dem Träger aufgebracht und der komplette Rand des IHS sitzt darauf auf, der Abstand ist also quasi wieder genauso hoch wie vorher (u.U. sogar minimal größer da ich ja Grobmotoriker bin...), trotzdem ist die Temperatur über 10° niedriger als vorher - wohlgemerkt mit dem gleichen Kühler, der gleichen WLP zwischen IHS und Kühlerboden und der gleichen Art diese auch aufzutragen.
Das Intel TIM unter meinem IHS war komplett ausgetrocknet und bröcklig, wenn das die gleiche Wärmeleitfähigkeit wie die Noctua-WLP hat, dann ist die milde gesagt absoluter Mist, darüber hinaus hat Flüssigmetal bzw. die verlötete Variante meines Wissens nach einen deutlich besseren Wärmeübergangskoeffizient.
Diese Lücke kann natürlich je nach Prozessor unterschiedlich hoch sein, daran könnte dieser Test hängen, die Temperaturprobleme generell dieser Lücke zuzuschreiben halte ich aber für absolut falsch.
boxleitnerb
2013-04-30, 19:00:31
Dann kannst du ja sicher erklären, warum die NT-H1 dort sogar schlechtere Resultate gezeigt hat als die Intel TIM bei selber Prozessorhöhe. Solange du nicht die Dicke des gesamten Konstrukts vorher und nachher gemessen hast, sind deine Ergebnisse nicht wirklich aussagekräftig.
Rente
2013-04-30, 19:18:33
Dann kannst du ja sicher erklären, warum die NT-H1 dort sogar schlechtere Resultate gezeigt hat als die Intel TIM bei selber Prozessorhöhe. Solange du nicht die Dicke des gesamten Konstrukts vorher und nachher gemessen hast, sind deine Ergebnisse nicht wirklich aussagekräftig.
Falsch aufgetragen, zu wenig/zu viel Anpressdruck oder Intel setzt unterschiedliche WLP ein, trägt sie unterschiedlich auf, es gibt viele Möglichkeiten.
Die Behauptung des Autors geht so weit, dass es laut ihm quasi absolut keinen Einfluss durch die WLP gibt und es eben nur an dieser Lücke bzw. am IHS an sich liegt, dies beweist er ja auch in dieser Messreihe (davon mal abgesehen das man sieht wie mies die H100 gegenüber einer richtigen Wakü ist):
http://i272.photobucket.com/albums/jj163/idontcare_photo_bucket/Intel%20Core%20i7-3770K/DirecDiemounttemperatures.png
Nur ist das für mich nicht nachvollziehbar. Natürlich könnte die Silikonschicht bei mir nur 0.04mm hoch sein, das halte ich aber für unwahrscheinlich, da ich es alles andere als dünn aufgetragen habe und auch die alte Schicht nicht rückstandslos entfernt hatte (ich wollte den Träger nicht beschädigen).
Darüber hinaus kann ich beim Einsatz von Phobya-LM zwischen DIE und IHS im Nachhinein leider nichts mehr messen, das ganze ist inzwischen eine Einheit, Trennung würde der DIE wohl eher nicht überleben, von daher kann ich letztendlich in der Tat nicht schlüssig argumentieren, ich kann es schlicht nicht stichhaltig beweisen...
Davon mal komplett absehen und um mal wieder On-Topic zu werden: Verlöten wäre trotzdem wünschenswert für Haswell, dann bräuchte man sich mit so einem "Mist" überhaupt nicht beschäftigen.
Godmode
2013-04-30, 19:38:21
Träum:
5.5-6.0 GHz wären nett. Wir dümpeln schon so lange bei 4.5-5.0 GHz rum.... :frown:
Nightspider
2013-04-30, 21:04:56
Träum:
5.5-6.0 GHz wären nett. Wir dümpeln schon so lange bei 4.5-5.0 GHz rum.... :frown:
Stell dir mal vor Haswell schafft nicht mehr. Dann müssten wir dank fehlendem Broadwell beim Desktop nochmal 2 Jahre bis Skylake warten. :eek:
Skysnake
2013-04-30, 21:08:31
Und wo wäre das Problem?
Nightspider
2013-04-30, 21:23:46
4 Jahre Langeweile seit Sandy Bridge wäre das Problem. :usad:
Ich hab Sandy auch seit Day 1 und habe schon lange wieder Lust rumzubasteln. :D
Schaffe89
2013-04-30, 21:48:44
Dann mach dich mal auf eine Enttäuschung gefasst, mehr wie 4,8ghz, max. 5ghz werden auch mit Haswell 24/7 nicht drinnen sein.
Nightspider
2013-04-30, 21:52:34
Dann mach dich mal auf eine Enttäuschung gefasst, mehr wie 4,8ghz, max. 5ghz werden auch mit Haswell 24/7 nicht drinnen sein.
Sagt welche zuverlässige Quelle? Bisher gibt es weder Mainboards, noch finale CPUs.
Godmode
2013-04-30, 21:56:57
Und wo wäre das Problem?
4-Way-SLI will auch gefüttert werden, von daher wäre ich 6 GHz nicht abgeneigt. :biggrin:
Botcruscher
2013-04-30, 22:20:24
Sagt welche zuverlässige Quelle? Bisher gibt es weder Mainboards, noch finale CPUs.
Wenn ich da an das Marketingfeuerwerk von Conroe denke. Damals, als es noch Wettbewerb gab und Intel OC Ergebnisse massenhaft geleakt hat.
Undertaker
2013-04-30, 22:50:48
Sagt welche zuverlässige Quelle? Bisher gibt es weder Mainboards, noch finale CPUs.
Man kann angesichts des gleichbleibenden Prozesses und der steigenden IPC durchaus spekulieren, dass sich OC-mäßig nicht viel tun wird. Wieviel genau, gilt es natürlich abzuwarten. Positive Überraschungen sollte man eher auf GPU-Seite einplanen als bei der CPU.
Godmode
2013-04-30, 22:53:17
Man kann angesichts des gleichbleibenden Prozesses und der steigenden IPC durchaus spekulieren, dass sich OC-mäßig nicht viel tun wird. Wieviel genau, gilt es natürlich abzuwarten. Positive Überraschungen sollte man eher auf GPU-Seite einplanen als bei der CPU.
Ka, vielleicht ist die Haswell Pipline ja für höhere Clocks ausgelegt und der Prozess müsste auch noch besser sein, als noch bei Ivy.
Nightspider
2013-04-30, 22:53:36
Man kann angesichts des gleichbleibenden Prozesses und der steigenden IPC durchaus spekulieren, dass sich OC-mäßig nicht viel tun wird. Wieviel genau, gilt es natürlich abzuwarten. Positive Überraschungen sollte man eher auf GPU-Seite einplanen als bei der CPU.
Naja Sandy brachte einen viel größeren IPC Sprung UND deutlich bessere Taktraten. Von daher muss das Eine kein Indikator für das Andere sein. :)
Wenn ich da an das Marketingfeuerwerk von Conroe denke. Damals, als es noch Wettbewerb gab und Intel OC Ergebnisse massenhaft geleakt hat.
Marketing wie beim Conroe gab es schon bei Sandy nicht.
Also ich gebe die Hoffnung noch nicht auf, auch wenn die OC-Erwartungen nach Ivy deutlich geringer ausfallen.
Undertaker
2013-05-01, 09:49:57
Naja Sandy brachte einen viel größeren IPC Sprung UND deutlich bessere Taktraten. Von daher muss das Eine kein Indikator für das Andere sein. :)
Sandy war ggü. Lynnfield auch Tick und Tock gleichzeitig, also neue Architektur und neuer Prozess.
Nightspider
2013-05-01, 09:59:27
Wat?
Nehalem kam 2008 in 45nm
Westmere kam 2009 in 32nm
und Sandy 2010 in 32nm mit neuer Architektur und war damit nicht Tick und Tock.
Undertaker
2013-05-01, 10:13:15
Von Westmere gab es aber kein Mainstreammodell, sondern nur den nativen 6-Kerner (Clarkdale kann man nicht werten, da vom externen IMC eingebremst).
Und wenn du schon Westmere nimmst, darfst du z.B. nicht von "deutlich" höheren Taktraten reden. Ggü. dem 990X hat SBe nur wenig zugelegt.
Konami
2013-05-01, 10:29:25
Von Westmere gab es aber kein Mainstreammodell, sondern nur den nativen 6-Kerner (Clarkdale kann man nicht werten, da vom externen IMC eingebremst).
http://geizhals.at/de/?cat=cpu1156&xf=2_32&sort=artikel :confused:
Und die Position des IMC dürfte erstmal nicht viel mit der CPU-Übertaktbarkeit zu tun haben, oder? Ach egal, we'll see...
Hübie
2013-05-01, 13:03:56
Hab eben auf Techreport gelesen das es nur wenige PSUs gibt welche die neuen C6/C7-states unterstützen da diese selten so wenig Stromstärke auf der 12-Volt-Schiene liefern (0,05 Amperé). Na das kann ja (h)eiter werden. ASUS & Co werden dass dann wohl standardmäßig deaktivieren. Hoffentlich belassen die aber die Option im EFI!
Link: http://techreport.com/news/24738/few-psus-support-haswell-c6-c7-low-power-states
Story: http://vr-zone.com/articles/is-your-power-supply-ready-for-haswell-/19848.html
mapel110
2013-05-01, 13:08:10
http://www.computerbase.de/news/2013-04/haswell-mit-neuen-anforderungen-an-netzteile/
In den bisherigen Statements beschränken sich die Freigaben auf DC-DC-Netzteile. Enermax bescheinigt seinen Serien Revolution 85+, 87+, Pro/Modu 87+, MaxRevo, Platimax, Triathlor FC und Triathlor (ab 385 Watt) problemlose Funktion. Sea Sonic bestätigte auf Anfrage von ComputerBase die Kompatibilität von G-Series, X-Series und Platinum-Series, Antec die von High Current Pro Platinum, True Power Gold, Earth Watts Platinum und High Current Gamer M. Corsair kann bisher die Reihen GS, TX, HX, AX und AXi freigeben.
Konami
2013-05-01, 13:16:53
http://www.computerbase.de/news/2013-04/haswell-mit-neuen-anforderungen-an-netzteile/
Also jedes halbwegs aktuelle, halbwegs brauchbare Netzteil.
Hübie
2013-05-01, 13:49:53
Das bestätigt auch mein Motto: Nix wird so heiß gegessen wie es gekocht wird ;) Danke für die Ergänzung.
Zergra
2013-05-01, 13:51:19
werden eigentlich alle Haswell CPU´s den offenen BLCK haben ? oder nur die K-Modelle ?
Konami
2013-05-01, 13:54:45
Nur die K-Modelle laut Chinesen (http://www.chinadiy.com.cn/html/45/n-8845.html).
Hübie
2013-05-01, 13:57:16
Was heißt offen? Ist da nicht einfach nur eine Trennung zu SATA / PCIe?
Zergra
2013-05-01, 14:00:24
Nur die K-Modelle laut Chinesen (http://www.chinadiy.com.cn/html/45/n-8845.html).
Dachte ich mir :mad:
Was heißt offen? Ist da nicht einfach nur eine Trennung zu SATA / PCIe?
Naja so das ich mehrer Stufen habe und ihn getrennt nutzen kann. Es sollen ja +33% und + 67% mehr BLCK möglich sein, aber wohl nur bei den K-Modellen.
So ein Pentium mit 4.5Ghz wäre schon was :D
Undertaker
2013-05-01, 14:04:10
Nur die K-Modelle laut Chinesen (http://www.chinadiy.com.cn/html/45/n-8845.html).
Hmpf. Das wäre enttäuschend (wenn auch irgendwie nachvollziehbar). Wofür braucht man diese Option bei den K-Modellen überhaupt?
Hübie
2013-05-01, 14:04:54
Ja aber der ist halt nicht offen sondern hat wohl noch mal einen zusätzlichen Teiler.
Aber warte doch einfach ab. Vielleicht gibt es ja ein "Zwischending" ;)
@Undertaker: Um nicht an der Multiplikator-Grenze zu scheitern ;D Kingpin und Co wollen ja wieder KaputtmachÜbertaktungs-Rekorde aufstellen
Ronny145
2013-05-01, 14:12:27
Der maximale Multi wurde auf 80 angehoben mit Haswell. BCLK nur für K ist Schwachsinn. Eine Limitierung auf Z87 Boards hätte ich noch verstanden.
Hübie
2013-05-01, 14:16:27
Öhm... sollte ich etwa dazuschreiben dass es ironisch gemeint war? ;)
Konami
2013-05-01, 14:30:49
Man hat insgesamt doppelt soviele Taktstufen fürs Feintuning. Aber das ist natürlich kein bahnbrechender Vorteil... also: scheißegal.
Knuddelbearli
2013-05-01, 14:55:28
man kann mit dem teiler auch die dile leistung erhöhen! :freak:
Undertaker
2013-05-02, 06:47:53
http://www.anandtech.com/show/6926/intel-iris-iris-pro-graphics-haswell-gt3gt3e-gets-a-brand
http://www.notebookcheck.com/Intel-Weitere-Performance-Details-zur-Haswell-Grafik.91896.0.html
http://www.computerbase.de/news/2013-05/intel-zeigt-performancespruenge-der-haswell-grafik/
Ein neuer Name für HD 5100/5200: Iris/Iris Pro :freak:
Aber die Performance sieht mal ziemlich überragend aus, falls unter sinnvollen Bedingungen getestet.
Skysnake
2013-05-02, 08:46:26
Krass ist halt der Unterschied zwischen i7-4770k und i7-4770R. Vor allem weil die R Version eine um 9W niedrigere TDP hat.
Ich vermute mal, das die R Version die mir eDRAM ist, und/oder in der K Version nur die GT2 verbaut wird.
Undertaker
2013-05-02, 09:05:35
4770K: HD 4600, 20 EUs
4770R: HD 5200, 40 EUs, eDRAM
Aber viel interessanter sind ohnehin die Mobilversionen... GT 640M Performance für die GT3e! Aber auch die normale GT3 verspricht einiges. Sofern sich der 3DMark denn auch auf Spiele übertragen lässt.
Skysnake
2013-05-02, 09:11:12
Danke, wo steht denn das?
Habs beim schnellen drüber lesen leider nicht gefunden gehabt.
Danke :up:
Undertaker
2013-05-02, 09:19:34
Für die Desktop-Modelle z.B. hier:
www.pcgameshardware.de/Haswell-Codename-255592/News/Intel-Haswell-Core-i7-4770R-Core-i7-4670R-Core-i5-4570R-BGA-1063881/
Skysnake
2013-05-02, 09:23:54
Der i7-4770R wird eine BGA Version.
http://www.computerbase.de/news/2013-05/details-zur-iris-pro-grafikeinheit-von-intels-haswell-prozessoren/
Hamster
2013-05-02, 09:45:56
och menno, ich hätte mir den HD 5200 auch in mobilen cpus gewünscht :(
Undertaker
2013-05-02, 09:51:04
Gibt es doch. Nur eben nicht in Ultrabooks und sicher auch nicht billig. ;)
Skysnake
2013-05-02, 09:52:36
Ein "funny" fact:
Intels iGPU in Haswell unterstützt DX11.1 ;D
Damit ist nVidia der einzige Hersteller, der kein DX11.1 bietet im Desktop :ugly:
Nightspider
2013-05-02, 09:53:39
Wayne interesierts? :)
Hamster
2013-05-02, 09:55:29
Gibt es doch. Nur eben nicht in Ultrabooks und sicher auch nicht billig. ;)
oh, dann habe ich das falsch verstanden.
dann bin ich ja beruhigt :)
wobei (u)lv-cpus mit ner HD5200 durchaus ihren reiz hätten :)
Undertaker
2013-05-02, 09:58:17
Der eDRAM passt wohl nicht ins Package und frisst evtl. auch zuviel Strom... Aber auch die HD 5000/5100 in Ultrabooks durfte sehr flott werden.
Der i7-4770R wird eine BGA Version.
Das ist schon ne Weile bekannt und wurde auch hier im Fred abgehandelt.
Siehe http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9721551#post9721551
Am interessantesten fand ich ja den letzten Absatz aus dem CB-Artikel:
Im Rahmen der Veranstaltung wurden darüber hinaus viele weitere, vor allem auch technische Details, zum Beispiel zum Thema EDRAM, offenbart, die jedoch allesamt noch nicht heute bekannt gegeben werden dürfen.
robbitop
2013-05-02, 10:08:42
Warte auf Broadwell. Dank Shrink bekommt man dort bestimmt auch in Ultrabooks den eDRAM (+80 EUs). Die IGP würde ohne eDRAM sonst ziemlich verhungern. Die TDP geht mit 14 nm sicher auch nochmal ordentlich runter, so dass man in den Ultrabooks entweder mehr Laufzeit oder höhere Taktraten bekommen wird.
Hamster
2013-05-02, 10:11:29
Warte auf Broadwell. Dank Shrink bekommt man dort bestimmt auch in Ultrabooks den eDRAM (+80 EUs). Die IGP würde ohne eDRAM sonst ziemlich verhungern. Die TDP geht mit 14 nm sicher auch nochmal ordentlich runter, so dass man in den Ultrabooks entweder mehr Laufzeit oder höhere Taktraten bekommen wird.
das wäre wünschenswert!
(ich habe da im hinterkopf ein macbook air, welches nebenbei dann auch noch gut spieletauglich wäre :))
robbitop
2013-05-02, 10:43:14
leicht OT:
Ich finde, das 13" Air ist kaum noch leichter und kompakter als das rMBP 13". Dafür hat letzteres deutlich mehr "bums". Ein MBA11 oder rMBP13" mit Broadwell wäre IMO nicht schlecht. MBA11 ist ein toller Formfaktor. Zum Spielen aber einfach zu klein. (ich vermute, dass die non retina Modelle eh auslaufen werden und die rMBPs in den Preisen etwas runter kommen - das gleiche wird auch mit den MBAs passieren)
Neosix
2013-05-02, 10:53:36
Menno jetzt hab ich fast 1 Jahr auf Haswell für Ultrabooks gewartet und da sagst du mir, ich soll noch 1 Jahr warten :_(
Mal sehen ob es überhaupt brauchbare Ultrabooks geben wird wenn sich die Hersteller an die Intels Touchvorgabe halten...
Sunrise
2013-05-02, 11:23:21
Schade, dass man die große Iris Pro nur für BGA anbietet. Da hätte ich gerne mal ein paar Tests gefahren. Solange die Quicksync- bzw. Encoding-Performance nicht beeinträchtigt ist, kann es mir am Ende aber dann auch egal sein. Ich muss noch überlegen, ob ich mir Haswell gönne, da will ich erst noch ein paar Übertaktungstests sehen. Dadurch, dass x264 auf Haswell so stark beschleunigt wird, werde ich evtl. Haswell zur Überbrückung nehmen (habe noch einen alten i7-920), bis Ivy-E erhältlich ist.
Schon jemandem aufgefallen, dass Iris und Retina (Apple) sich marketingtechnisch perfekt ergänzen? Da werden sich beide Seiten unterstützend zu Wort melden und jeder auch für den jeweils anderen werben (Intel wirbt für den Einsatz in Retina Macbooks, während Apple Intels Iris als perfekten Untersatz für Retina sieht.)
leicht OT:
Ich finde, das 13" Air ist kaum noch leichter und kompakter als das rMBP 13". Dafür hat letzteres deutlich mehr "bums". Ein MBA11 oder rMBP13" mit Broadwell wäre IMO nicht schlecht. MBA11 ist ein toller Formfaktor. Zum Spielen aber einfach zu klein. (ich vermute, dass die non retina Modelle eh auslaufen werden und die rMBPs in den Preisen etwas runter kommen - das gleiche wird auch mit den MBAs passieren)
Ja, das mit dem Air sehe ich ähnlich. Da würde ich jederzeit das 13" rMBP vorziehen. Die cMBPs (non-Retina) sollen aber weiterlaufen, dort scheint es wohl einfach noch zuviel Bedarf zu geben, den ich auch nachvollziehen kann. Das cMBP ist für mich eher noch ein richtiges Pro-Laptop, während das rMBP so stark auf Adapter-Lösungen setzt, dass das in bestimmten Situation extrem nervig werden kann. Wenn ich vor einem Serverrack oder mehreren Core-Switches stehe, habe ich lieber ein cMBP dabei, der Adapter fürs LAN geht mir einfach nur auf den Senkel. Mag ja super sein für Designer, Grafik- und Video-Enthusiasten, für mich geht man mit dem rMBP aber so einige Kompromisse ein, die mich stören.
robbitop
2013-05-02, 11:25:46
Ich habe letztens in einer News gelesen (ob das stimmt oder nicht, muss man sehen), dass die cMBPs auslaufen werden.
MSABK
2013-05-02, 11:32:39
Schade, dass man die stärkste GPU nicht in einem flachen Notebook sehen wird. Gilt das dann auch für das retina Book oder kommt da auch dann nicht die stärkste GPU?
Sunrise
2013-05-02, 11:37:15
Ich habe letztens in einer News gelesen (ob das stimmt oder nicht, muss man sehen), dass die cMBPs auslaufen werden.
Das sind derzeit nur Analysten-Vermutungen, die aber derzeit noch nicht bestätigt sind.
Hier steht genau das Gegenteil:
http://www.macrumors.com/2013/04/28/notebook-refresh-to-be-highlight-of-wwdc-non-retina-macbook-pro-to-continue/
Ist persönlich gesehen auch eine Preisfrage. Das cMBP kannst du problemlos erweitern (immer aktuelle SSD, wie aktuell z.B. die M500 960GB, sehr viel RAM, immer aktuelle CPUs, sehr flexibel durch die Anschlüsse) während du beim Retina einmal kaufst und dann auf Lebzeiten damit glücklich sein musst. (Ja, man könnte das rMBP zu Apple bringen für Erweiterungen, aber die überzogenen Preise bin ich nicht bereit zu bezahlen.)
Aus Apple-Sicht sind die Retina-Screens auch nicht unbegrenzt verfügbar (was ist das schon), da wäre es deshalb klüger die cMBP aktuell noch anzubieten.
Schade, dass man die stärkste GPU nicht in einem flachen Notebook sehen wird. Gilt das dann auch für das retina Book oder kommt da auch dann nicht die stärkste GPU?
Der eDRAM kostet eben deutlich mehr (geht auf die Margen, wenn auch minimal, bei den rMBP-Preisen). Fragt sich aber, ob Apple es sich nehmen lassen wird, das Teil zu verbauen, denn Apple war einer derjenigen, die auf Intel eingeredet hatten, die GT3-Lösungen für Laptops verfügbar zu machen. Solange die TDP passt, kannst du dir selbst zurecht-spekulieren, ob es zumindest vom Gehäuse und der Wärmeabführung her passt.
Undertaker
2013-05-02, 12:11:46
Die GT3e wird es bei Apple imo im MBP 15" geben, in der 13"-Variante vermutlich dann das 28W-Modell mit der Iris 5100. Erst einmal abwarten, ob der Performanceunterschied wirklich so groß ist.
Ronny145
2013-05-02, 12:33:16
Die Performance Angaben sind um einiges besser als erwartet. i7-4770R erreicht fast den dreifachen 3dmark11 Wert im Vergleich zum i7-3770k. Wenn man Faktor 2,9 für i7-3770k anlegt, der bei um die 800 Punkte liegt, müsste der Wert irgendwo zwischen 2200-2300 Punkte liegen. Ich glaube Trinity mit A10-5800k kommt auf 1500 Punkte. Das ist schon bemerkenswert, zumal AMD im 3dmark11 durchschnittlich besser geht.
Die HD5100 hat jetzt 28W statt der 25W. Und siehe da, es gibt wie erwartet eine GT3 namens HD5000 mit 15W. Die soll immerhin noch +50% im 3dmark11 zulegen. Echt erstaunlich.
Interessante Randnotiz das Intel ihr Grafikteam mehr als verfierfacht hat.
So betonte man mehrmals, dass sich in den letzten Jahren das Grafikteam mehr als vervierfacht hat, schlichtweg mit dem Ziel, Marktführer zu werden.
Knuddelbearli
2013-05-02, 13:07:26
Aber viel interessanter sind ohnehin die Mobilversionen... GT 640M Performance für die GT3e! Aber auch die normale GT3 verspricht einiges. Sofern sich der 3DMark denn auch auf Spiele übertragen lässt.
du glaubst wohl auch an den Weihnachtsmann ... :biggrin:
Undertaker
2013-05-02, 13:09:00
Die Performance Angaben sind um einiges besser als erwartet. i7-4770R erreicht fast den dreifachen 3dmark11 Wert im Vergleich zum i7-3770k. Wenn man Faktor 2,9 für i7-3770k anlegt, der bei um die 800 Punkte liegt, müsste der Wert irgendwo zwischen 2200-2300 Punkte liegen. Ich glaube Trinity mit A10-5800k kommt auf 1500 Punkte. Das ist schon bemerkenswert, zumal AMD im 3dmark11 durchschnittlich besser geht.
Kleine Korrektur: Intel vergleicht anscheinend den Graphics-Score, nicht den Gesamt-Score. Letzterer könnte u.U. ein wenig schlechter skalieren.
du glaubst wohl auch an den Weihnachtsmann ... :biggrin:
Warum? Der 3DM11 ist ein exzellenter GPU-Indikator. Einzig ein nicht ganz ausgeschöpfter Turbo könnte in der Praxis zur Bremse werden; aber das hat man in der Vergangenheit selbst bei den ULV-Modellen in realen Spielen kaum erlebt.
dildo4u
2013-05-02, 13:13:59
Die hatten schon Dirt 3 gegen eine 650m gezeigt nicht nur 3D Mark.Selbsts wenn Intel ein Tick langsamer ist wird der akku so viel länger halten,das viele auf die extra GPU verzichten werden wenn sie ein wirklich Mobiles Gerät wollen.
Ronny145
2013-05-02, 13:19:41
Kleine Korrektur: Intel vergleicht anscheinend den Graphics-Score, nicht den Gesamt-Score. Letzterer könnte u.U. ein wenig schlechter skalieren.
Ok ändert aber nicht so viel am Verhältnis zum A10-5800K.
http://www.legitreviews.com/article/2047/5/
dildo4u
2013-05-02, 13:40:55
Warum ist TDP von der BGA Desktop Version so viel niedriger?
Ronny145
2013-05-02, 13:45:51
Weniger CPU Takt, etwas weniger Cache, mobile binning. 65W sind für all in one System schmackhafter als 84W. Die BGA GT3e für desktop ist nichts anderes als eine mobile CPU, da wären 65W sehr hoch.
fondness
2013-05-02, 14:09:19
Die Performance Angaben sind um einiges besser als erwartet. i7-4770R erreicht fast den dreifachen 3dmark11 Wert im Vergleich zum i7-3770k. Wenn man Faktor 2,9 für i7-3770k anlegt, der bei um die 800 Punkte liegt, müsste der Wert irgendwo zwischen 2200-2300 Punkte liegen. Ich glaube Trinity mit A10-5800k kommt auf 1500 Punkte. Das ist schon bemerkenswert, zumal AMD im 3dmark11 durchschnittlich besser geht.
Ja schon bemerkenswert wie man mit einem vollen full-node Vorsprung bei trotzdem mehr Die-Fläche und dicken eDRAM wohl knapp schneller ist. Auch sehe ich nicht wo AMD in 3dmark besser liegt als im Durchschnitt. Eher ist das Gegenteil der Fall, Intel liegt beim 3dmark besser als in vielen Spielen.
Ronny145
2013-05-02, 14:25:21
Ja schon bemerkenswert wie man mit einem vollen full-node Vorsprung bei trotzdem mehr Die-Fläche und dicken eDRAM wohl knapp schneller ist. Auch sehe ich nicht wo AMD in 3dmark besser liegt als im Durchschnitt. Eher ist das Gegenteil der Fall, Intel liegt beim 3dmark besser als in vielen Spielen.
Im 3dmark11 liegt AMD besser, in Vantage Intel. Kommt drauf an was du betrachtest. AMDs die size ist minimal größer als der GT3 Quad, außer du zählst den edram mit. AMD wird immer als so viel effizienter dargestellt, darfst du nicht vergessen. Hochskaliert liegt Intel 40-45% vor dem A10-5800K im 3dmark11 was ich nicht als knapp bezeichnen würde. Ich hätte eine knappe Sache zwischen den beiden vermutet. Ich glaube AMD wird trotz Kaveri nächstes Jahr ins Hintertreffen geraten (in Notebooks). Broadwell soll noch einen größeren GPU Sprung hinlegen. In Sachen OpenCL Computing sieht es trotz deutlich mehr Rechenpower jetzt schon nicht pralle aus: http://semiaccurate.com/2013/04/29/a-look-at-intels-opencl-performance/
Im Notebook dürfte die HD4000 auf die bessere OpenCL Leistung kommen.
Undertaker
2013-05-02, 14:29:08
Ja schon bemerkenswert wie man mit einem vollen full-node Vorsprung bei trotzdem mehr Die-Fläche und dicken eDRAM wohl knapp schneller ist.
Die Kunst ist, dieses Grafik-Know-How in so kurzer Zeit aufzubauen. Noch vor einigen Jahren war Intel sowas von hinterher, was Leistung, Features und Treiber angeht - da ist dieser Sprung schon erstaunlich. Aber klar, ohne all diese Ressourcen wäre das nicht möglich.
Auch sehe ich nicht wo AMD in 3dmark besser liegt als im Durchschnitt. Eher ist das Gegenteil der Fall, Intel liegt beim 3dmark besser als in vielen Spielen.
Nein. Im 3DMark 11 ist der A10-4600M rund 50 bis 70% schneller als Intels HD 4000. In Spielen sind es nur 20-30%. Warum? Weil bei AMD der Turbo nur in synthetischen Grafik-Benchmarks greift, bei paralleler CPU-Last in Spielen aber nicht.
fondness
2013-05-02, 14:35:04
Im 3dmark11 liegt AMD besser, in Vantage Intel. Kommt drauf an was du betrachtest. AMDs die size ist minimal größer als der GT3 Quad, außer du zählst den edram mit. AMD wird immer als so viel effizienter dargestellt, darfst du nicht vergessen. Hochskaliert liegt Intel 40-45% vor dem A10-5800K im 3dmark11 was ich nicht als knapp bezeichnen würde. Ich hätte eine knappe Sache zwischen den beiden vermutet. Ich glaube AMD wird trotz Kaveri nächstes Jahr ins Hintertreffen geraten (in Notebooks). Broadwell soll noch einen größeren GPU Sprung hinlegen. In Sachen OpenCL Computing sieht es trotz deutlich mehr Rechenpower jetzt schon nicht pralle aus: http://semiaccurate.com/2013/04/29/a-look-at-intels-opencl-performance/
Im Notebook dürfte die HD4000 auf die bessere OpenCL Leistung kommen.
Okay, möglich das ich das mit den verschiedenen 3dmark-Versionen verwechselt habe. Richland setzt noch mal was drauf bei AMD, deshalb dürfte es schon knapp werden. Und natürlich zähle ich den eDRAM mit, ohne eDRAM dürfte Intel wohl auch nicht schneller sein nehme ich an. Ansonsten wäre alles andere als ein Vorsprung von Intel eine Blamage sondergleichen, angesichts des enormen Materialaufwandes ist es so schon alles andere als beeindruckend was Intel abliefert.
Die Kunst ist, dieses Grafik-Know-How in so kurzer Zeit aufzubauen. Noch vor einigen Jahren war Intel sowas von hinterher, was Leistung, Features und Treiber angeht - da ist dieser Sprung schon erstaunlich. Aber klar, ohne all diese Ressourcen wäre das nicht möglich.
Ist da wirklich was effizienter geworden? Sieht wohl eher so aus als würde man das Problem mit schierer Gewalt erschlagen. Die GPU nimmt mit dem eDRAM wohl >200mm² in 22nm in Anspruch. Das entspricht ziemlich exakt einer GK104-GPU von NV in 28nm. Dafür ist die Leistung alles andere als etwas besonderes.
Okay bei den Feature ist man auf der höhe der Zeit. Die Treiber bieten allerdings nach wie vor nur das absolut notwendigste an.
robbitop
2013-05-02, 14:36:50
Es war doch nur eine Frage der Zeit, bis wann Intel AMD dort einholt. Der Fertigungsvorsprung ist einfach zu brachial.
Was den Fortschritt in der Grafikbranche angeht: das hat man früher nie ernst genommen. Offenbar hat die Intel Führung vor ein paar Jahren verstanden, dass es doch nicht so unwichtig ist, wie gedacht. Die guten Leute hat man ja stetig mit dem reichlich vorhandenen Geld eingekauft.
Ronny145
2013-05-02, 14:52:32
Ist da wirklich was effizienter geworden? Sieht wohl eher so aus als würde man das Problem mit schierer Gewalt erschlagen. Die GPU nimmt mit dem eDRAM wohl >200mm² in 22nm in Anspruch. Das entspricht ziemlich exakt einer GK104-GPU von NV in 28nm. Dafür ist die Leistung alles andere als etwas besonderes.
Okay bei den Feature ist man auf der höhe der Zeit. Die Treiber bieten allerdings nach wie vor nur das absolut notwendigste an.
Wenn du du den edram mitzählst und mit dedizierten Karten vergleichst, müsstest du auch den GDDR5 Speicher bei den dedizierten mitrechnen. Jeglicher extra Speicher zählt nicht zur GPU die size oder Logik. Zumal der edram als L4 Cache der CPU fungiert. Keine Ahnung wie man da auf den Trichter kommt, den edram zur GPU size draufzurechnen. Selbst mit den 75 mm² vom edram wären es unter 200 mm². IVB GT2 liegt bei 45 mm². Die HSW GT2 dürfte kaum größer sein, maximal 55 mm². HSW GT3 setzt 50 mm² oben drauf. Wären mit edram 180 mm².
dildo4u
2013-05-02, 15:05:31
Die Performance ist erstaunlich man darf nicht vergessen,das nur ein Bruchteil der Texturen überhaupt in den eDram Speicher passen,es wird also ständig in den DDR3 Speicher kopiert.Im Gegensatz zu einer Konsole haben PC Games null Anpassung an diese neue Chip Konstruktion.
robbitop
2013-05-02, 15:11:47
Es könnte auch ein Teil des Framebuffers enthalten sein. Der ist ja eh am fragmentiertesten vom Zugriff her. Das würde die Bandbreite zum DDR3 deutlich schonen. Wenn jetzt bspw nur der Z Buffer drin liegt, oder das Bild in Tiles zerlegt wird, passt das da schon rein.
Wenn es für Texturen genutzt wird, ist es halt ein großer Cache. Sowas bringt immer viel.
fondness
2013-05-02, 15:17:54
Die Performance ist erstaunlich man darf nicht vergessen,das nur ein Bruchteil der Texturen überhaupt in den eDram Speicher passen,es wird also ständig in den DDR3 Speicher kopiert.Im Gegensatz zu einer Konsole haben PC Games null Anpassung an diese neue Chip Konstruktion.
So klein ist der eDRAM nicht, in 128MB geht schon einiges rein. Die Leistung wird - wenn die Werte von Intel stimmen und sich auf Spiele übertragen lassen - vielleicht 20% über einem Richland liegen. Richland belegt in 32nm ca. die gleiche Die Fläche wie Haswell ohne eDRAM in 22nm. Haswell benötigt allerdings wohl den eDRAM um vorbei zu ziehen. Richland hat nur den DDR3-Speicher. Was da erstaunlich sein soll erschließt sich mir nicht.
Ronny145
2013-05-02, 15:25:24
Dafür hat Richland die größere DDR3 Bandbreite. Lass den A10-5800k oder zukünftigen Richland mit DDR3-1600 laufen und schau an was rauskommt. Einige AMDler haben doch behauptet, die GT3e würde noch nichtmal am mobile Richland vorbeikommen.
robbitop
2013-05-02, 15:26:32
Wird die IGP in der APU nicht auch durch die Bandbreite gebremst? Kaveri kommt nicht ohne Grund mit GDDR5.
Ronny145
2013-05-02, 15:29:17
Wird die IGP in der APU nicht auch durch die Bandbreite gebremst? Kaveri kommt nicht ohne Grund mit GDDR5.
Ja klar. Beim Haswell GT3 kann man vom gleichen ausgehen, auch wenn der edram das lindern sollte. Trotzdem kein Vergleich zu dedizierten Karten, die exklusiv auf schnellen und üppigen GDDR5 Speicher zugreifen können.
robbitop
2013-05-02, 15:54:48
Im Prinzip müsste man GT3 ohne eDRAM mit Richland vergleichen.
Skysnake
2013-05-02, 15:58:18
Es war doch nur eine Frage der Zeit, bis wann Intel AMD dort einholt. Der Fertigungsvorsprung ist einfach zu brachial.
Was den Fortschritt in der Grafikbranche angeht: das hat man früher nie ernst genommen. Offenbar hat die Intel Führung vor ein paar Jahren verstanden, dass es doch nicht so unwichtig ist, wie gedacht. Die guten Leute hat man ja stetig mit dem reichlich vorhandenen Geld eingekauft.
Intel schießt aber sein "Pulver" mit dem eDRAM. Den "Joker" hat AMD noch in der Hinterhand. Sie müssen aber spätestens nächste Jahr auch eDRAM bringen auf dem Package, sonst bricht ihnen das Bandbreitenlimit einfach den Hals....
Wie auch oben schon gesagt, man muss GT3 und Richland vergleichen, wenn man sich anschauen will, wie AMD und Intel rein technologisch gegeneinander dastehen. Bringt aber natürlich rein Performancemäßig nichts. Intel hat halt den eDRAM und AMD aktuell nicht...
robbitop
2013-05-02, 16:02:28
AMD hat doch ab Kaveri die GDDR5 Option. Da ist eDRAM nicht mehr notwendig.
Skysnake
2013-05-02, 16:07:46
WHAT? :ugly:
Ich hab mich jetzt hoffentlich verlesen...
Son 128MB eDRAM ist noch immer SEHR SEHR geil... Allein was sich dadurch an Energie sparen lässt, und auch bei den Zugriffen sollte man viel feingranularer arbeiten können.
GDDR5 entschärft das Problem, aber es löst das Problem nicht.
Man hat NIE NIE NIE NIE NIE NEVER EVER genug Bandbreite. Erst wenn die ALU-Leistung so gering ist, das man wirklich alle Daten direkt aus dem RAM holen kann, dann hat man genug Bandbreite. Vorher besteht immer Optimierungsbedarf.
PS:
Ja mir ist klar, das es irgendwann sehr widersinnig wird, da man kaum noch zulegt, aber selbst das GDDR5 Interface wird nicht ausreichen. Vor allem bei feingranularen Zugriffen sollte der eDRAM ein Segen sein.
Ronny145
2013-05-02, 16:23:33
Im Prinzip müsste man GT3 ohne eDRAM mit Richland vergleichen.
Vielleicht lässt sich der L4 Cache im Bios deaktivieren. So wie es aussieht reicht die 28W Version der GT3 ohne edram, um AMDs Top Trinity/Richland im wichtigeren Notebook Segment auszukontern.
Undertaker
2013-05-02, 17:21:00
Wenn Intels 3DMark11-Werte stimmen, ist schon die GT3-Version mit 28W 25-30% schneller als die 7660G des A10-4600M. Wenn man nun noch den in realen Spielen entfallenden Turbo auf AMD-Seite abzieht, dafür aber eine etwas höhere Performance für Richland einrechnet, landet wohl selbst die GT3 ohne eDRAM um einiges vor dem A10-5750M/8650G.
fondness
2013-05-02, 17:36:29
Wenn Intels 3DMark11-Werte stimmen, ist schon die GT3-Version mit 28W 25-30% schneller als die 7660G des A10-4600M. Wenn man nun noch den in realen Spielen entfallenden Turbo auf AMD-Seite abzieht, dafür aber eine etwas höhere Performance für Richland einrechnet, landet wohl selbst die GT3 ohne eDRAM um einiges vor dem A10-5750M/8650G.
Du redest wieder von mobil-Varianten, wo Intel dank des 22nm Prozesses natürlich wesentlich höher takten kann. Alleine schon das Intel den eDRAM benötigt um bei ungefähr der selben Die-Fläche am alten VLIW4-Design von AMD vorbei zu ziehen und das bei 32nm vs. 22nm ist eigentlich peinlich. Man muss sich nur mal vor Augen führen was ein Haswell in 32nm an Silizium belegen würde. Aber abwarten wie es im Deatil aussieht.
Ronny145
2013-05-02, 17:45:49
Du redest wieder von mobil-Varianten, wo Intel dank des 22nm Prozesses natürlich wesentlich höher takten kann. Alleine schon das Intel den eDRAM benötigt um bei ungefähr der selben Die-Fläche am alten VLIW4-Design von AMD vorbei zu ziehen und das bei 32nm vs. 22nm ist eigentlich peinlich. Man muss sich nur mal vor Augen führen was ein Haswell in 32nm an Silizium belegen würde. Aber abwarten wie es im Deatil aussieht.
Ich glaube nicht das Intel den edram benötigt, um vorbeizuziehen. HD5100 sollte trotz geringerer TDP reichen. Das ganze immer nur auf den Prozess zu schieben ist mir zu einseitig. Die CPU ist schonmal effizienter, was mehr Spielraum für die GPU freilässt. Bei der Power Effizienz legt Intel mit Haswell durch Architekturänderungen große Verbesserungen hin.
fondness
2013-05-02, 17:49:08
Ich glaube nicht das Intel den edram benötigt, um vorbeizuziehen. HD5100 sollte trotz geringerer TDP reichen. Das ganze immer nur auf den Prozess zu schieben ist mir zu einseitig. Die CPU ist schonmal effizienter, was mehr Spielraum für die GPU freilässt. Bei der Power Effizienz legt Intel mit Haswell durch Architekturänderungen große Verbesserungen hin.
Wir werden es bald erfahren. Bei der CPU ist es sicher nicht (nur) der Prozess, keine Frage. Bei der GPU aber ganz klar. Das GPU-Design von Intel ist nach wie vor nach Effizienzkriterien haushoch unterlegen, selbst gegen das VLIW-Design von AMD.
Undertaker
2013-05-02, 17:55:47
Hat denn mal jemand nachgerechnet? Wie groß ist die GPU bei Haswell, wie groß bei AMD? Wie viel Energie wird in beiden Fällen verbraucht?
Diese Angaben könnte man dann grob von dem Prozessunterschied bereinigen und anschließend abschätzen, wie groß etwaige Effizienzunterschiede sind. Dabei sollte man den eDRAM natürlich außen vor lassen, die GT3-Variante heranziehen und bei beiden den gleichen Speicher (also DDR3-1600) heranziehen.
Bei Haswell bin ich mir erstmals nicht mehr so ganz sicher, ob da wirklich ein "haushoher" Effizenznachteil bzgl. Perf/Watt und Perf/Fläche herausspringt. Für einen Gleichstand wirds vmtl. aber auch (noch) nicht reichen.
dildo4u
2013-05-02, 18:04:16
Wir werden es bald erfahren. Bei der CPU ist es sicher nicht (nur) der Prozess, keine Frage. Bei der GPU aber ganz klar. Das GPU-Design von Intel ist nach wie vor nach Effizienzkriterien haushoch unterlegen, selbst gegen das VLIW-Design von AMD.
Mach nur wenig Sinn das bei na APU zu trennen,wichtig ist TDP Gesamt.Nicht was einzelne Teile brauchen.Überhaupt wird es Duster für AMD wenn Intel im Notebook Bereich externe GPU's unnötig macht.Irgendwie kann ich mir nich vorstellen,das sich Heute noch viele 3kg schwere Desktop Replacments kaufen wo ne 7970 mobile Sinn macht.Imo wird das Ultrabook die für den Massenmakt einzige wichtige x86 PC Plattform werden,da Desktop für normalen End User immer unwichtiger wird.Alles da drunter wird von Tabelts abgedeckt.
http://www.notebookcheck.net/IDC-predicts-tablet-sales-will-surpass-desktops-and-notebooks-by-2014.90139.0.html
boxleitnerb
2013-05-02, 18:06:18
Na da bist du aber etwas zu voreilig. Mit einer iGPU wird man niemals dGPUs ersetzen können, höchstens die untersten Modelle, mit denen man eh kaum gescheit spielen kann. Und die Ultrabooks disqualifizieren sich schon vom Preis her für den Massenmarkt.
Ronny145
2013-05-02, 18:17:36
Hat denn mal jemand nachgerechnet? Wie groß ist die GPU bei Haswell, wie groß bei AMD? Wie viel Energie wird in beiden Fällen verbraucht?
Ja ich. HSW GT3 liegt bei 105mm². Hier sollte man 5-10% Ungenauigkeit einkalkulieren, weil es bislang nur Fotos vom gesamten HSW GT3 die gibt. Trinity liegt bei 103,32 mm² für die GPU.
Diese Angaben könnte man dann grob von dem Prozessunterschied bereinigen und anschließend abschätzen, wie groß etwaige Effizienzunterschiede sind.
Wir kennen Intels ProzessSkalierung von 32nm auf 22nm nicht genau. Üblich sind 1.5. Entspräche etwa 150 mm² in 32nm.
Undertaker
2013-05-02, 18:21:40
Na da bist du aber etwas zu voreilig. Mit einer iGPU wird man niemals dGPUs ersetzen können, höchstens die untersten Modelle, mit denen man eh kaum gescheit spielen kann. Und die Ultrabooks disqualifizieren sich schon vom Preis her für den Massenmarkt.
Wenn ich mich gerade nicht komplett irre, sind wohl auch schon Core i3 mit der HD 5000, also einer GT3-Version durchgesickert. Selbst wenn hier die Taktraten etwas niedriger ausfallen, könnte das eine recht brauchbare GPU-Leistung für die ~500€-Ultrabook-Klasse ergeben.
Ja ich. HSW GT3 liegt bei 105mm². Hier sollte man 5-10% Ungenauigkeit einkalkulieren, weil es bislang nur Fotos vom gesamten HSW GT3 die gibt. Trinity liegt bei 103,32 mm² für die GPU.
Wir kennen Intels ProzessSkalierung von 32nm auf 22nm nicht genau. Üblich sind 1.5. Entspräche etwa 150 mm² in 32nm.
Ah ja, das ist doch schonmal ein Anhaltspunkt. Entsprechend der anscheinend höheren Leistung landet man da bei vielleicht 20-30 % Effizienznachteil bezogen auf den Flächenbedarf.
32nm auf 22nm ist ein voller full-node, da ist wesentlich mehr als 1,5 "üblich". Rechnerisch wäre es 32²/22², also Faktor 2,116.
So darfst du ziemlich sicher nicht rechnen. Ich weiß allerdings auch nicht, ob Faktor 1,5 hinkommt. Man könnte höchstens mal die CPU-Kerne von Sandy zu Ivy Bridge ausmessen und vergleichen, die wurden ja nur minimal überarbeitet (und dürften damit prozessbereinigt kaum gewachsen sein).
fondness
2013-05-02, 18:21:52
Wir kennen Intels ProzessSkalierung von 32nm auf 22nm nicht genau. Üblich sind 1.5. Entspräche etwa 150 mm² in 32nm.
32nm auf 22nm ist ein voller full-node, da ist wesentlich mehr als 1,5 "üblich". Rechnerisch wäre es 32²/22², also Faktor 2,116. Und ALUs skalieren auch sehr gut, einzig bei Dingen wie dem SI gibt es hier natürliche Grenzen.
Ronny145
2013-05-02, 18:30:38
32nm auf 22nm ist ein voller full-node, da ist wesentlich mehr als 1,5 "üblich". Rechnerisch wäre es 32²/22², also Faktor 2,116.
Ne das stimmt nicht. Faktor 2 gibt es nur in der Theorie, die Praxis sieht anders aus. Wenn man sich Sandy und Ivy anschaut sind Faktor 1,5 realistisch. Der CPU part ist quasi der gleiche geblieben während die GPU um Faktor 1,6 angewachsen ist. Rechne Faktor 1,6 der Sandy GPU drauf und teile durch 1,5. Ich kann dir sagen es kommt raus 158,7 mm². Ivy Bridge ist 160 mm² groß.
fondness
2013-05-02, 18:30:54
So darfst du ziemlich sicher nicht rechnen.
Natürlich darf ich so rechnen. Solange es zu keinen Pinout-Limitierungen kommt ist das der Skalierungsfaktor. Allemal besser als eine willkürliche Zahl heraus zu piken.
Ne das stimmt nicht. Faktor 2 gibt es nur in der Theorie, die Praxis sieht anders aus. Wenn man sich Sandy und Ivy anschaut sind Faktor 1,5 realistisch. Der CPU part ist quasi der gleiche geblieben während die GPU um Faktor 1,6 angewachsen ist. Rechne Faktor 1,6 der Sandy GPU drauf und teile durch 1,5. Ich kann dir sagen es kommt raus 158,7 mm². Ivy Bridge ist 160 mm² groß.
Wie kommst du auf 1,6 bei der GPU? Alleine schon PCIe 3.0 vs. PCIe 2.0, die höhere IPC gibt es auch nicht umsonst - also der restliche Teil ist defintiv gewachsen.
YfOrU
2013-05-02, 18:42:51
Na da bist du aber etwas zu voreilig. Mit einer iGPU wird man niemals dGPUs ersetzen können, höchstens die untersten Modelle, mit denen man eh kaum gescheit spielen kann. Und die Ultrabooks disqualifizieren sich schon vom Preis her für den Massenmarkt.
Was sind in einem Markt der sich vom klassischen ATX Desktop immer mehr zu mobilen Produkten entwickelt genau die untersten Modelle ?
Etwas wie eine dedizierte GT 650M fällt da heute nicht mehr rein. Auf einer GPU dieser Kategorie muss praktisch jeder Titel vernünftig spielbar sein. Alles deutlich darüber ist weder bezogen auf die TDP und den damit verbundenen Nachteilen noch auf den Preis der Endgeräte für die Masse akzeptabel. Der Desktop ist nicht mehr der Maßstab. GPU Leistung auf dem Niveau der mobilen Mainstream und Performance dGPUs lässt sich durchaus integrieren und das ersetzt dann den Großteil der dGPUs im mittelfristig nach Volumen wichtigsten (GPU) Segment.
Das Hauptproblem (Skalierung) bei den integrierten GPUs ist die Speicherbandbreite und dafür haben Intel und AMD Lösungen. eDRAM bzw. GDDR5 setzt niemand für Low-End Produkte ein. Sollte der Markt für dGPUs in ein paar Jahren noch eine Relevanz haben würde es mich im übrigen nicht wundern wenn Intel einsteigt. Die IP ist dann sowieso vorhanden, konkurrenzfähig und lässt sich in mehreren Geschäftsfeldern einsetzen.
Ronny145
2013-05-02, 18:47:35
Wie kommst du auf 1,6 bei der GPU? Alleine schon PCIe 3.0 vs. PCIe 2.0, die höhere IPC gibt es auch nicht umsonst - also der restliche Teil ist defintiv gewachsen.
Wie ich darauf komme? Ausgerechnet von die Fotos. AMD gibt im übrigen 17% für SB und 27% für IVB an, die Werte habe ich genommen. Daraus ergibt sich eine um Faktor 1,6 größere GPU in Ivy Bridge. Die decken sich mit meiner die Foto Berechnung. Du kannst mir gerne den restlichen Teil von IVB und SB vergleichen. Ich bin gespannt auf das Ergebnis. Ich bezweifle aber schon im Voraus, das sich viel am Faktor 1,5 ändern wird.
boxleitnerb
2013-05-02, 19:24:03
Was sind in einem Markt der sich vom klassischen ATX Desktop immer mehr zu mobilen Produkten entwickelt genau die untersten Modelle ?
Etwas wie eine dedizierte GT 650M fällt da heute nicht mehr rein. Auf einer GPU dieser Kategorie muss praktisch jeder Titel vernünftig spielbar sein. Alles deutlich darüber ist weder bezogen auf die TDP und den damit verbundenen Nachteilen noch auf den Preis der Endgeräte für die Masse akzeptabel. Der Desktop ist nicht mehr der Maßstab. GPU Leistung auf dem Niveau der mobilen Mainstream und Performance dGPUs lässt sich durchaus integrieren und das ersetzt dann den Großteil der dGPUs im mittelfristig nach Volumen wichtigsten (GPU) Segment.
Das Hauptproblem (Skalierung) bei den integrierten GPUs ist die Speicherbandbreite und dafür haben Intel und AMD Lösungen. eDRAM bzw. GDDR5 setzt niemand für Low-End Produkte ein.
Nur weil der Markt kleiner wird, wird er nicht gänzlich irrelevant. Die Anforderungen werden mMn weiter wachsen, speziell durch die neuen Konsolen und die Umsetzungen.
Du kannst es drehen und wenden wie du willst - solange es Mainstreamkarten wie die GTX660 oder HD7850 gibt, die 100+ W und 200mm2 verbraten dürfen, werden alle integrierten GPUs in den Rankings unten agieren.
Selbst AMDs beste iGPUs reichen für 1366x768 ohne AA gerade so aus, wenn die Spiele nicht gerade total anspruchslos oder alt sind. Dem Noob, der 10 von 30fps nicht unterscheiden kann, ist das wohl egal. Aber rein objektiv gesehen sind iGPUs immer noch viel zu langsam.
Ronny145
2013-05-02, 19:27:10
Du kannst es drehen und wenden wie du willst - solange es Mainstreamkarten wie die GTX660 oder HD7850 gibt, die 100+ W und 200mm2 verbraten dürfen, werden alle integrierten GPUs in den Rankings unten agieren.
Ja das ist der Desktop Markt. Ich glaube er sprach vom (deutlich wichtigeren) mobile Markt. Da sieht es doch anders aus. Mainstream GPUs sehe ich da nicht außer Reichweite für iGPUs. Mal sehen wie es mit der GT3 oder GT3e aussieht. Wenn nicht sollte sich das mit Broadwell erledigt haben.
boxleitnerb
2013-05-02, 19:31:05
Ja das ist der Desktop Markt. Ich glaube er sprach vom (deutlich wichtigeren) mobile Markt. Da sieht es doch anders aus. Mainstream GPUs sehe ich da nicht außer Reichweite für iGPUs. Mal sehen wie es mit der GT3 oder GT3e aussieht. Wenn nicht sollte sich das mit Broadwell erledigt haben.
Der Desktopmarkt ist aber insofern relevant, dass du ein gewisses Performanceniveau erreichen musst, wenn du dGPUs ersetzen willst und dabei nicht diese kleinen Auflösungen fahren willst. Auch mobile dGPUs dürfen mehr Fläche und Strom verbraten, also müssen sie zwangsläufig deutlich schneller sein. Um hier aufzuholen, müsste eins oder mehrere von drei Dingen passieren:
1. Die iGPUs müssten bedeutend mehr Fläche und TDP erlaubt bekommen, vergleichbar mit den dGPUs.
2. Die diskreten mobilen GPUs müssten mindestens 2 Jahre lang komplett stagnieren und dann dort weitermachen, wo sie aufgehört haben.
3. Die iGPUs müssen irgendeinen bedeutenden Vorteil bekommen, den die dGPUs nicht haben, z.B. eben riesige Bandbreiten durch eDRAM, HSA usw.
Ich sehe höchstens 3., aber auch das wird noch viele Jahre dauern. Im Grunde profitieren iGPUs und dGPUs von denselben Dingen, nämlich Prozesstechnologie und generellem Graphics-Knowhow. Wenn du eins größer machst, mehr Einheiten verbaust, höher taktest, als das andere, kann da naturgemäß keine komplette Annäherung stattfinden.
YfOrU
2013-05-02, 19:34:41
Nur weil der Markt kleiner wird, wird er nicht gänzlich irrelevant. Die Anforderungen werden mMn weiter wachsen, speziell durch die neuen Konsolen und die Umsetzungen.
Du kannst es drehen und wenden wie du willst - solange es Mainstreamkarten wie die GTX660 oder HD7850 gibt, die 100+ W und 200mm2 verbraten dürfen, werden alle integrierten GPUs in den Rankings unten agieren.
Der Markt für dGPUs wird auf absehbare Zeit nicht komplett irrelevant, verliert aber weiter an Bedeutung (gemeinsamer Nenner).
Die Konsolen sind ziemlich statisch. Bevor die eine weite Verbreitung gefunden haben liefert Intel schon Broadwell (14nm) aus. Das ist dann bezogen auf die integrierte GPU Leistung trotz Konsolenbonus nicht mehr so weit weg.
Das der Desktop dann alleine die Anforderungen weiter nach oben schrauben kann hat in der Vergangenheit schon nicht funktioniert und in Zukunft erst recht nicht.
Selbst AMDs beste iGPUs reichen für 1366x768 ohne AA gerade so aus, wenn die Spiele nicht gerade total anspruchslos oder alt sind. Dem Noob, der 10 von 30fps nicht unterscheiden kann, ist das wohl egal. Aber rein objektiv gesehen sind iGPUs immer noch viel zu langsam.
Mehr Einheiten zu integrieren wäre einfach gewesen. Es ist die Speicherbandbreite bei der sich lange (IGP) nicht viel verändert hat. Einen potentes SoC Design im Notebook/PC Format ist aber mit etwas wie DDR3 DC nicht zu realisieren und deshalb erfolgt hier endlich ein Umdenken.
boxleitnerb
2013-05-02, 19:38:41
Der Markt für dGPUs wird auf absehbare Zeit nicht komplett irrelevant, verliert aber weiter an Bedeutung (gemeinsamer Nenner).
Die Konsolen sind ziemlich statisch. Bevor die eine weite Verbreitung gefunden haben liefert Intel schon Broadwell (14nm) aus. Das ist dann bezogen auf die integrierte GPU Leistung trotz Konsolenbonus nicht mehr so weit weg.
Das der Desktop dann alleine die Anforderungen weiter nach oben schrauben kann hat in der Vergangenheit schon nicht funktioniert und in Zukunft erst recht nicht.
Mehr Einheiten zu integrieren wäre grundsätzlich kein Problem. Es ist die Speicherbandbreite.
Du kannst auch bei dGPUs mehr Einheiten verbauen, und diese werden ebenfalls mehr Bandbreite bekommen (GDDR6, HMC usw.). Das ist wie ein Wettrüsten - die andere Seite rüstet immer mit und bleibt nicht stehen. Und mehr Einheiten bedeutet auch mehr Fläche und mehr Verbrauch. Ich sehe nicht, dass Intels Prozessvorteil ggü. TMSC wirklich größer wird. Und AMD ist eh bei all ihren Produkten an dieselben Fertiger gebunden.
Ronny145
2013-05-02, 19:39:15
Der Desktopmarkt ist aber insofern relevant, dass du ein gewisses Performanceniveau erreichen musst, wenn du dGPUs ersetzen willst
Ja für Desktop eben. Er sprach vom mobilen Segment. Schau dir an was heute verbaut wird. Ich sehe sehr oft eine GT 620M oder GT 630M verbaut.
boxleitnerb
2013-05-02, 19:42:38
Ja für Desktop eben. Er sprach vom mobilen Segment. Schau dir an was heute verbaut wird. Ich sehe sehr oft eine GT 620M oder GT 630M verbaut.
Ich hab doch gesagt, "höchstens die untersten Modelle", also stimme ich doch zu. Aber dildo4u sprach von Desktop Replacement und 7970M, daraufhin bin ich ja erst in die Diskussion eingestiegen. Wie gesagt, das unterste Segment kannst du ersetzen, dafür reicht die Leistung. Aber alles darüber kannst du ohne Kompromisse bei Größe und Verbrauch der iGPUs vergessen, weil die "Konkurrenz" sich eben auch weiterentwickelt. Ist doch nur logisch, oder?
YfOrU
2013-05-02, 19:47:04
Du kannst auch bei dGPUs mehr Einheiten verbauen, und diese werden ebenfalls mehr Bandbreite bekommen (GDDR6, HMC usw.). Das ist wie ein Wettrüsten...
Es geht hier um die Proportionen. Früher wurden absolute Low-End GPUs neben (Relation) gigantischen CPU Blöcken integriert. Das ist heute nicht mehr der Fall. Genauso wie eine APU Anbindung über GDDR5 nicht einem Wettrüsten entspricht sondern die Folge einer geänderten Ausrichtung ist. Die APU bekommt dGPU Speicherbandbreite. Relation: kleine CPU Blöcke - gigantische GPU.
Ich hab doch gesagt, "höchstens die untersten Modelle", also stimme ich doch zu. Aber dildo4u sprach von Desktop Replacement und 7970M, daraufhin bin ich ja erst in die Diskussion eingestiegen. Wie gesagt, das unterste Segment kannst du ersetzen, dafür reicht die Leistung. Aber alles darüber kannst du ohne Kompromisse bei Größe und Verbrauch der iGPUs vergessen, weil die "Konkurrenz" sich eben auch weiterentwickelt. Ist doch nur logisch, oder?
Das unterste Segment ist GT 620M.
2. Die diskreten mobilen GPUs müssten mindestens 2 Jahre lang komplett stagnieren und dann dort weitermachen, wo sie aufgehört haben.
Wenn die GT3e auch nur halbwegs in den Bereich einer GT 650M kommt ist alles im Rahmen.
3. Die iGPUs müssen irgendeinen bedeutenden Vorteil bekommen, den die dGPUs nicht haben, z.B. eben riesige Bandbreiten durch eDRAM, HSA usw.
Dynamische Verteilung der TDP innerhalb des SoCs nach Anforderung. Da bleibt als Beispiel für den CPU Turbo richtig viel Spielraum wenn die GPU nicht gefragt ist.
mczak
2013-05-02, 19:52:08
Naja also die Kerne scheinen tatsächlich nicht so viel wie erwartet kleiner geworden zu sein bei 32nm->22nm. Ausgehend von den H2 und H4 Varianten von SNB/IVB (die haben jeweils dieselbe IGP der Unterschied ist also nur 2 Kerne / 4 MB L3) ist der Grössenunterschied 67mm² vs. 42mm², das ist tatsächlich bloss ein Faktor 1.6.
Wieso genau das so ist weiss ich aber nicht, bei den Testwavern mit sram war's noch ziemlich genau ein Faktor 2 von 32nm zu 22nm.
Da gibt's aber wohl jede Menge anderer Parameter die Gate-Länge z.B. hat scheinbar bloss von 30nm auf 25nm abgenommen. Sind ja ausserdem FinFETs statt planar, und vielleicht wurde da halt auch eher auf geringen Strombedarf als auf möglichst geringen Platzbedarf optimiert.
boxleitnerb
2013-05-02, 19:52:16
Es geht hier um die Proportionen. Früher wurden absolute Low-End GPUs integriert. Das ist heute nicht mehr der Fall. Genauso wie eine APU Anbindung über GDDR5 nicht einem Wettrüsten entspricht sondern die Folge einer geänderten Ausrichtung ist. Die APU bekommt dGPU Speicherbandbreite.
Naja das ist Definitionssache. Für mich sind die besten APUs heute immer noch Low-End, gemessen an den existierenden Lösungen. Ist es echt so schwer zu verstehen, dass du mit den kleinen Budgets der iGPUs die Lücke niemals wirst schließen können? Darum ging es ursprünglich, Desktop Replacement. Deutlicher kann ich es nicht sagen, es wurden ja schon alle Argumente genannt.
YfOrU
2013-05-02, 20:12:27
Naja das ist Definitionssache. Für mich sind die besten APUs heute immer noch Low-End, gemessen an den existierenden Lösungen. Ist es echt so schwer zu verstehen, dass du mit den kleinen Budgets der iGPUs die Lücke niemals wirst schließen können? Darum ging es ursprünglich, Desktop Replacement. Deutlicher kann ich es nicht sagen, es wurden ja schon alle Argumente genannt.
Die dGPUs welche in den leistungsstarken DTRs stecken sind für die Masse zu teuer bei gleichzeitig zu vielen Nachteilen aufgrund der hohen TDP.
Das ist wie am Desktop die High-End Nische. Das wird niemand integrieren und macht auch keinen Sinn. Mainstream bis Performance unter mobilen Gesichtspunkten mit entsprechender Speicherbandbreite aber durchaus. Hier sollte man nicht vergessen das die Geräte insgesamt portabler werden und der typische DTR Formfaktor somit noch weiter in der Nische landet.
Ronny145
2013-05-03, 00:24:40
Naja also die Kerne scheinen tatsächlich nicht so viel wie erwartet kleiner geworden zu sein bei 32nm->22nm. Ausgehend von den H2 und H4 Varianten von SNB/IVB (die haben jeweils dieselbe IGP der Unterschied ist also nur 2 Kerne / 4 MB L3) ist der Grössenunterschied 67mm² vs. 42mm², das ist tatsächlich bloss ein Faktor 1.6.
Ich komme auf Faktor ~1,5. Je nach die Foto minimale Schwankung von 47,8-49,9 mm² bei den IVB Kernen. Beim Die Bild der besten Qualität komme ich auf 49 mm² welches ich als Maßstab nehme. Sandy Bridge habe ich auf 72 mm² gemittelt. Konnte ich nur mitteln, weil je nach die Photo eine Schwankung zwischen 31,5%-34,8% drin liegt. Faktor 1,5 deckt sich mit der GPU Rechnung.
Knuddelbearli
2013-05-03, 00:36:16
..
Ronny145
2013-05-03, 01:28:17
3dmark11 eines i7-4930MX (GT2 1350 Mhz).
http://s7.directupload.net/images/130503/5gtzbsb6.jpg
http://benyouhui.it168.com/thread-3998249-1-1.html
Das vergleichbarste von Ivy Bridge was ich finden konnte ist der i7-3720QM (GT2 1250 Mhz)
http://www.legitreviews.com/images/reviews/1932/stock-3dmark.jpg
Das deckt sich gut mit der Intel Folie. Hier wäre das ein Faktor 1,8. In der Intel Folie ist etwa ein Faktor 1,6 angegeben wegen anderer Frequenzen (1300 Mhz GT2 vs 1300 Mhz GT2).
Nightspider
2013-05-03, 02:44:14
Ein anderer Punkt ist sicherlich der, das der eDRAM Anfangs sicherlich noch nicht perfekt ausgenutzt wird.
Ich kann mir vorstellen, das Intel über neue Treiber noch ein paar Prozente rausholen wird.
Schließlich ist ein so großer und schnell L4 Cache für die IGP Neuland für alle Parteien.
mczak
2013-05-03, 03:33:42
Ich komme auf Faktor ~1,5. Je nach die Foto minimale Schwankung von 47,8-49,9 mm² bei den IVB Kernen. Beim Die Bild der besten Qualität komme ich auf 49 mm² welches ich als Maßstab nehme. Sandy Bridge habe ich auf 72 mm² gemittelt. Konnte ich nur mitteln, weil je nach die Photo eine Schwankung zwischen 31,5%-34,8% drin liegt. Faktor 1,5 deckt sich mit der GPU Rechnung.
Nun die Zahlen die ich habe sind von Wikipedia und scheinen direkt vom intel-Datenblatt zu stammen. Bei der Rechnung kann es aber natürlich sein dass da mehr/weniger ungenutzte Fläche anfällt.
Aber du könntest ja gnädigerweise etwas aufrunden, Ivy hat ja z.B. eine doppelt so breite simd-Dividiereinheit, die ist sicher nicht ganz gratis wie auch andere minime Verbesserungen.
Es ist aber offenbar in jedem Fall weniger als ein Faktor 2, aus was für Gründen auch immer.
Undertaker
2013-05-03, 08:27:58
3dmark11 eines i7-4930MX (GT2 1350 Mhz).
http://s7.directupload.net/images/130503/5gtzbsb6.jpg
http://benyouhui.it168.com/thread-3998249-1-1.html
Das vergleichbarste von Ivy Bridge was ich finden konnte ist der i7-3720QM (GT2 1250 Mhz)
http://www.legitreviews.com/images/reviews/1932/stock-3dmark.jpg
Das deckt sich gut mit der Intel Folie. Hier wäre das ein Faktor 1,8. In der Intel Folie ist etwa ein Faktor 1,6 angegeben wegen anderer Frequenzen (1300 Mhz GT2 vs 1300 Mhz GT2).
3940XM (1350 MHz): 880 Punkte (748 GPU)
www.notebookcheck.com/Kurztest-Performance-UEbersicht-und-Skalierung-der-Intel-HD-Graphics-4000.79664.0.html
boxleitnerb
2013-05-03, 09:03:29
Wo landet ein A10-5800K inzwischen?
VooDoo7mx
2013-05-03, 09:35:43
Wo landet ein A10-5800K inzwischen?
Wieso Desktop mit mobile vergleichen?
A10-4600M ist in einen 1 Jahr alten Test (http://www.pcper.com/reviews/Mobile/AMD-Trinity-Mobile-Review-Trying-Cut-Ivy/Performance-Competition-Processor-General-Ap) kaum schneller als Ivy Bridge GT2@1250MHz. Mit ziemlich alten Treiber wohlgemerkt.
Da wird Haswell GT2 locker ausreichen um mindestens mit Richland Mobile mitzuhalten.
Haswell GT3e wird locker ausreichen um Kaveri mit seiner 8 CU GCN Grafik zu übertrumpfen. Und der kommt ein halbes Jahr später.
AMD hat mit seinen APUs fertig. Intel ist jetzt auch da schneller.
fondness
2013-05-03, 09:40:50
Haswell GT3e wird locker ausreichen um Kaveri mit seiner 8 CU GCN Grafik zu übertrumpfen.
Ähm nein. Die mobil Variante vielleicht.
Ronny145
2013-05-03, 10:25:43
Nun die Zahlen die ich habe sind von Wikipedia und scheinen direkt vom intel-Datenblatt zu stammen. Bei der Rechnung kann es aber natürlich sein dass da mehr/weniger ungenutzte Fläche anfällt.
Hast du ein Link?
Aber du könntest ja gnädigerweise etwas aufrunden, Ivy hat ja z.B. eine doppelt so breite simd-Dividiereinheit, die ist sicher nicht ganz gratis wie auch andere minime Verbesserungen.
Es ist aber offenbar in jedem Fall weniger als ein Faktor 2, aus was für Gründen auch immer.
Ja viel weniger als Faktor 2. 1,5 oder 1,6 ist mir prinzipiell egal. Vielleicht skaliert 14nm wieder besser who knows. Mehr als 1,75 würe ich da aber auch nicht erwarten.
3940XM (1350 MHz): 880 Punkte (748 GPU)
www.notebookcheck.com/Kurztest-Performance-UEbersicht-und-Skalierung-der-Intel-HD-Graphics-4000.79664.0.html
Faktor 1,7 also mit gleichem GPU Takt. In der Intel Folie sind es 1,6 was Sinn macht. Mit aktuellem Treiber macht Ivy Bridge ein paar Pünktchen mehr als mit dem 8.15.10.2761. +60% bei 25% mehr EUs im 3dmark11 zeigt gut auf, dass Intel andere Stellen in der Grafik aufgebohrt hat (non-slice Einheiten verdoppelt, Textursampler Durchsatz bis zu 4x höher, neuer Resource Streamer). Das scheint sich im 3dmark11 besonders stark auszuwirken.
Godmode
2013-05-03, 10:59:43
Haswell auf 7,0 Ghz übertaktet:
http://www.computerbase.de/news/2013-05/intel-haswell-core-i7-4770k-bereits-auf-7.0-ghz-uebertaktet/
boxleitnerb
2013-05-03, 11:01:53
Das ist schon erstaunlich, wie krass Intel in nur 3 Generationen aufgeholt hat. Im Mobilsegment wird man bis auf Weiteres die schnellste Lösung haben und 2014 Kaveri wohl ziemlich auf die Pelle rücken. Ich denke mit Broadwell holen sie sich in allen Bereichen die Krone.
fondness
2013-05-03, 11:04:57
Das ist schon erstaunlich, wie krass Intel in nur 3 Generationen aufgeholt hat.
Es wird eben wesentlich mehr Die-Fläche und Transistoren aufgewendet. Ob sich effizienzmäßig viel getan hat muss sich erst zeigen.
Im Mobilsegment wird man bis auf Weiteres die schnellste Lösung haben und 2014 Kaveri wohl ziemlich auf die Pelle rücken. Ich denke mit Broadwell holen sie sich in allen Bereichen die Krone.
Broadwell ist klar. Wenn sie es mit einem 14nm Broadwell nicht schaffen einen 28nm Kaveri zu schalgen können sie gleich dicht machen.
Iruwen
2013-05-03, 13:47:32
Haswell auf 7,0 Ghz übertaktet:
http://www.computerbase.de/news/2013-05/intel-haswell-core-i7-4770k-bereits-auf-7.0-ghz-uebertaktet/
Aus den Kommentaren, 5GHz unter Luft sollen kein Ding sein:
http://translate.google.de/translate?sl=zh-CN&tl=en&prev=_t&hl=de&ie=UTF-8&eotf=1&u=http://www.chinadiy.com.cn/html/27/n-8927.html&act=url
Godmode
2013-05-03, 14:04:04
Dann sollten mit Wasser auch 5.5-5.8 drinnen sein. Na da bin ich mal gespannt ob ich wirklich auf Haswell wechseln muss.
Konami
2013-05-03, 14:19:55
YESSS! :D
Heißt für mich eindeutig: Heatspreader wieder verlötet. Und taktmäßig kann man endlich rausholen, was 22nm verspricht. Sehr schön.
boxleitnerb
2013-05-03, 14:23:04
Da werde ich gut überlegen müssen, ob ich von meinem 3930K umsteige. Der packt nur so ca. 4.4 GHz ohne verrückte Spannungen. 20% mehr Takt und 15% mehr IPC wären knapp 40% mehr Performance. Da sind die beiden zusätzlichen Kerne vom Sandy-E fast egal.
Nightspider
2013-05-03, 14:26:18
Sandy schafft 5 Ghz auch unter Luft.
Falls ich mit Wakü aber tatsächlich ~5,5 Ghz schaffe wird definitiv auf Haswell umgerüstet.
Nightspider
2013-05-03, 14:26:46
sry Doppelpost
boxleitnerb
2013-05-03, 14:30:23
Aber Sandy-E nicht unbedingt, jedenfalls nicht, ohne dass der Verbrauch explodiert. Und dann wird mein Netzteil laut ;)
mironicus
2013-05-03, 14:30:37
Da wird einem schon der Mund wässrig. ^^
Kann man eigentlich mit noch niedrigeren Idle-Stromverbräuchen rechnen bei den neuen Haswell-Boards? Sind die neuen Chipsätze noch stromsparender und die CPUs selbst haben neue Stromsparmodi eingebaut, oder?
Konami
2013-05-03, 14:30:59
Sandy schafft 5 Ghz auch unter Luft.
Warum sieht man dann überall nur 4500 ± 200 Mhz? Ist schon ein Unterschied, ob man nur als Extrem-Overclocker mit großer Spannungserhöhung grad so auf 5 GHz kommt, oder jedermann "super easy".
Nightspider
2013-05-03, 14:32:51
Weil wenige Modelle 5 Ghz schaffen?
Genauso kann das eine Testsample von Haswell einer von von wenigen Modellen sein, die höhere Taktraten schaffen.
robbitop
2013-05-03, 14:52:27
Ich wüßte gern mal, wo man noch mehr Leistung braucht als mit einem 4,5 GHz Sandy/Ivy, dass alle so heiß auf einen 5,x GHz Haswell sind.
boxleitnerb
2013-05-03, 14:56:30
Strategiespiele z.B. Ich freue mich sehr auf Rome 2, das kann bei den Animationen nicht mehr wie einen oder maximal zwei Threads auslasten und ruckelt bei größeren Schlachten selbst auf einem 4,5 GHz Intel.
Oder Shooter wie BF3@120fps. So Geschichten halt.
Nightspider
2013-05-03, 14:57:36
SLI-Systeme, Emulatoren, SupremeCommander, Benchmarkfans und für Leute die Langeweile und einen hohen Basteldrang haben.
Außerdem brauch ich mal wieder nach 2 Jahren nen Grund meine Wakü umzubauen und das Wasser zu tauschen. :ulol:
Ronny145
2013-05-03, 15:02:26
Da wird einem schon der Mund wässrig. ^^
Kann man eigentlich mit noch niedrigeren Idle-Stromverbräuchen rechnen bei den neuen Haswell-Boards? Sind die neuen Chipsätze noch stromsparender und die CPUs selbst haben neue Stromsparmodi eingebaut, oder?
Der Chipsatz wird in 32nm statt 65nm gefertigt. Intel spricht von 25% lower TDP und 50% lower avg power. Irgendwo gab es TDP Werte.
Ich wüßte gern mal, wo man noch mehr Leistung braucht als mit einem 4,5 GHz Sandy/Ivy, dass alle so heiß auf einen 5,x GHz Haswell sind.
Spiele oder Rendering/Konvertierung. Titan oder Multi-GPU user brauchen jedes bisschen CPU power in manchen Spielen.
Nightspider
2013-05-03, 15:06:12
Wieviel Watt haben denn Z77 Boards im Durchschnitt verbraten?
robbitop
2013-05-03, 15:18:07
Für was braucht man 120 fps? Da würde ich die fps eher in BQ stecken.
Ansonsten: was mit einem 4,5 GHz Sandy/Ivy noch nicht flüssig läuft und nicht alle Threads ausnutzt, ist offenbar lausig optimiert.
Spiele
Genauer. Welches Spiel läuft nicht flüssig?
oder Rendering/Konvertierung.
Da sind mehr Kerne sinnvoller.
Titan oder Multi-GPU user brauchen jedes bisschen CPU power in manchen Spielen.
Da würde ich eher in BQ investieren.
boxleitnerb
2013-05-03, 15:24:06
Für was braucht man 120 fps? Da würde ich die fps eher in BQ stecken.
Ansonsten: was mit einem 4,5 GHz Sandy/Ivy noch nicht flüssig läuft und nicht alle Threads ausnutzt, ist offenbar lausig optimiert.
Kompetitive Online-Shooter. Profis wollen von 60fps nichts wissen ;)
Bzgl. Programmierung: Ohne entsprechende Kenntnis der Engine kann man das nicht sagen. Und selbst wenn, bringt mir dieses Wissen auch nichts, es läuft ja immer noch mies.
Ich habe zwei Titans und es gibt doch das ein oder andere Spiel, wo ich die 60fps nicht halten kann aufgrund der CPU. Skyrim mit Mods, Shogun 2 (gern mal nur 25fps in dichten Schlachten), Serious Sam 3...das sind natürlich eher Ausnahmefälle, meist geht es schon. Aber ein Enthusiast ist mit "meist" eben nicht immer zufrieden.
aufkrawall
2013-05-03, 15:30:55
Kompetitive Online-Shooter. Profis wollen von 60fps nichts wissen ;)
Glaube nicht, dass mehr als 60fps bei BF3 einen spielerischen Nutzen bringen.
Bei Crap wie der Source-Engine sieht das natürlich anders aus. Ich denke, dadurch hat das Image von 60fps etwas gelitten.
boxleitnerb
2013-05-03, 15:33:20
Frag mal die Leute, die regelmäßig BF3 spielen Bei 120fps ist der Inputlag geringer als 60fps, klare Sache. Ich selbst habe die Erfahrung mit der UE3 gemacht, da kann ich es deutlich spüren.
aufkrawall
2013-05-03, 15:37:19
Frag mal die Leute, die regelmäßig BF3 spielen Bei 120fps ist der Inputlag geringer als 60fps, klare Sache. Ich selbst habe die Erfahrung mit der UE3 gemacht, da kann ich es deutlich spüren.
Natürlich wird der geringer, nur spielt das mit Sicherheit nur noch eine verschwindend geringe bis gar keine Rolle.
Ich spiele übrigens selber regelmäßig BF3, und zwar mit 60fps und Vsync. Da kommt dann so was raus ;) :
http://battlelog.battlefield.com/bf3/battlereport/show/1/60775407/376921254/
Edit: Ist allerdings adaptives AFR-Vsync.
boxleitnerb
2013-05-03, 15:43:18
Natürlich wird der geringer, nur spielt das mit Sicherheit nur noch eine verschwindend geringe bis gar keine Rolle.
Ich spiele übrigens selber regelmäßig BF3, und zwar mit 60fps und Vsync. Da kommt dann so was raus ;) :
http://battlelog.battlefield.com/bf3/battlereport/show/1/60775407/376921254/
Je nach Können und Gegnern muss es in den Ergebnissen keine so große Rolle spielen, das stimmt schon. Allerdings darf man auch das Spielgefühl nicht ignorieren. In manchen Engines können sich 60+ fps einfach deutlich angenehmer anfühlen.
Abgesehen davon ist Fortschritt immer gut. Und wer die Performance nicht braucht, muss ja nicht übertakten.
Wenn du wie ich bei 60fps deckelst, kannst du trotzdem je nach Spiel profitieren:
http://www.hardware.fr/articles/863-19/jeux-3d-crysis-2-arma-ii-oa.html
Andere Beispiele habe ich ja vorher schon genannt.
aufkrawall
2013-05-03, 15:46:22
Wenn du wie ich bei 60fps deckelst, kannst du trotzdem je nach Spiel profitieren:
http://www.hardware.fr/articles/863-19/jeux-3d-crysis-2-arma-ii-oa.html
Andere Beispiele habe ich ja vorher schon genannt.
Auf jeden Fall.
Bei BF3 Gulf of Oman 64 gehen die fps auch schonmal mit dem 2500k@4,8Ghz unter 60fps, sehr ärgerlich.
Spätestens seit Crysis 3 ist auch wieder klar, dass man selbst bei Shootern nie genug CPU-Leistung haben kann.
mironicus
2013-05-03, 15:47:35
Firefox startet schneller mit einem 5,0 GHz-Prozessor. Man kann für alles einen Grund finden... ^^
2phil4u
2013-05-03, 15:50:21
Fraglich ist halt, ob IVY-E Prozessoren nicht auch wesentlich besser übertaktbar sein werden, als die bisherigen.
1. kann man schlechte immer noch im Serverbereich verkaufen und 2. wird sich die Fertigung wohl verbessert haben und bei den IVY-E wohl Hotspots besser umgangen werden.
An die 5 ghz locker mit Luft glaube ich auch erst, wenn ich es sehe.
Und dann faende ich es unfair von Intel nicht standarmaessig mehr Takt zu bieten.
Botcruscher
2013-05-03, 15:51:13
Genauer. Welches Spiel läuft nicht flüssig?
Alles was nur einen Kern nutzt und/oder wo man keine Beschränkungen bei der Expansion hat. Supcom, Cities XL, X³, Cities in Motion(2 schaft auch den Quad), Sins of a Solar Empire, Total War Nachfolger...
An die 5 ghz locker mit Luft glaube ich auch erst, wenn ich es sehe.Und dann faende ich es unfair von Intel nicht standarmaessig mehr Takt zu bieten.
Kannst ja eine Heul-Petition ans Management schreiben.
Iruwen
2013-05-03, 17:11:32
Für was braucht man 120 fps? Da würde ich die fps eher in BQ stecken.
Ansonsten: was mit einem 4,5 GHz Sandy/Ivy noch nicht flüssig läuft und nicht alle Threads ausnutzt, ist offenbar lausig optimiert.
...
Genauer. Welches Spiel läuft nicht flüssig?
Guild Wars 2, mit 4,5GHz SB kann man so gerade die 30FPS halten, bei ~30% GPU-Last. Ist zwar im Grunde multithreaded mit >30 Threads, aber an einer wichtigen Stelle eben nicht. Insofern: ja, lausig optimiert - aber wenn ich >5GHz dagegenschmeißen kann ist das eine naheliegendere Option als das Spiel zu fixen.
Mit 3,5GHz (i7-920):
http://i.imgur.com/I1f1SC1l.jpg (http://imgur.com/I1f1SC1)
Godmode
2013-05-03, 17:52:09
Glaube nicht, dass mehr als 60fps bei BF3 einen spielerischen Nutzen bringen.
Bei Crap wie der Source-Engine sieht das natürlich anders aus. Ich denke, dadurch hat das Image von 60fps etwas gelitten.
Ich kann es nicht sagen wie es in BF3 ist, aber ich merke eigentlich in jedem Shooter einen Unterschied zwischen 60 und 120 fps/hz. (Natürlich ein entsprechender Monitor vorausgesetzt). Selbst Diablo3 ist mit 120 doppelt netter, als nur mit 60. Für mich sind 120hz das Nonplusultra und es fühlt sich fast schon wieder wie ein CRT an.
Ich wüßte gern mal, wo man noch mehr Leistung braucht als mit einem 4,5 GHz Sandy/Ivy, dass alle so heiß auf einen 5,x GHz Haswell sind.
SLI, 3-Way, 4-Way, Benchmarks, etc.
Du bist doch mittlerweile schon lange genug dabei, um zu verstehen was gewisse Leute haben wollen.
Nightspider
2013-05-03, 17:55:29
Glaube nicht, dass mehr als 60fps bei BF3 einen spielerischen Nutzen bringen.
Lol.
aufkrawall
2013-05-03, 18:26:40
Ich kann es nicht sagen wie es in BF3 ist, aber ich merke eigentlich in jedem Shooter einen Unterschied zwischen 60 und 120 fps/hz. (Natürlich ein entsprechender Monitor vorausgesetzt). Selbst Diablo3 ist mit 120 doppelt netter, als nur mit 60. Für mich sind 120hz das Nonplusultra und es fühlt sich fast schon wieder wie ein CRT an.
Wie gesagt: Natürlich fühlt sich das besser an. Selbst 75fps/Hz fühlen sich klar besser als 60 an.
Mir kam es auch mit einem schnelleren IPS flüssiger vor als auf meinem Asbach-VA mit gleichen fps/Hz.
Dass man spielerisch mit schnellem Monitor im Vorteil ist, wage ich aber stark zu bezweifeln. BF3 fühlt sich mit fps-Limiter & 60hz mit 70fps schon derart direkt an...
Marketing-BS. Jede Wette, dass mit so nem Ding meine Stats keinen Furz besser würden.
Konami
2013-05-03, 19:05:58
Diskutiert ihr jetzt ernsthaft den Sinn von Performance? :D
Spätestens wenn VR-Brillen einigermaßen verbreitet sind, wo Latenz absolut kritisch ist, und die ersten 120-Hz-Modelle rauskommen, dürfte sich jeder Zweifel über den Bedarf in Rauch auflösen.
Godmode
2013-05-03, 19:13:10
Diskutiert ihr jetzt ernsthaft den Sinn von Performance? :D
Spätestens wenn VR-Brillen einigermaßen verbreitet sind, wo Latenz absolut kritisch ist, und die ersten 120-Hz-Modelle rauskommen, dürfte sich jeder Zweifel über den Bedarf in Rauch auflösen.
Ich verstehe auch nie wie man nur so was fragen kann. Mittlerweile müsste doch jeder wissen, dass es genug Leute gibt, die immer nach mehr Leistung lechzen, das ist wie bei den Autos.
Ich wüßte gern mal, wo man noch mehr Leistung braucht als mit einem 4,5 GHz Sandy/Ivy, dass alle so heiß auf einen 5,x GHz Haswell sind.
Diablo 3. :freak:
Das hat Spikes auf einem Core die ich schon als irgendwie "weniger flüssig" wahrnehm - und mich wahnsinnig ärgert. SLI und entsprechende Settings natürlich. Da bräuchte es auch grademal "etwas mehr", und 500+ Mhz + etwas mehr IPC klingen gut (von 4,5 GHz Ivy aus).
Obwohl, ich hab schon, und wechsle nicht mehr in den nächsten Jahren ....
Das fällt zwar alles unter lausig optimiert, aber bisher (K-Haswell DC in Zukunft evtl?) ist man mit nem offenen Quad in solchen Situationen noch am schnellsten Unterwegs. :freak:
Ronny145
2013-05-04, 11:57:18
http://legitreviews.com/images/reviews/2185/intel-haswell-deck-12.jpg
Gab ja doch eine Folie mit Systemangaben.
y33H@
2013-05-04, 14:43:49
Die war beim US-Deck dabei, ja.
DavidC1
2013-05-05, 07:48:03
Ne das stimmt nicht. Faktor 2 gibt es nur in der Theorie, die Praxis sieht anders aus. Wenn man sich Sandy und Ivy anschaut sind Faktor 1,5 realistisch. Der CPU part ist quasi der gleiche geblieben während die GPU um Faktor 1,6 angewachsen ist. Rechne Faktor 1,6 der Sandy GPU drauf und teile durch 1,5. Ich kann dir sagen es kommt raus 158,7 mm². Ivy Bridge ist 160 mm² groß.
It's worth remembering that CPU logic is harder to scale than SRAM due to more irregular structures. SRAM reduction from 32nm to 22nm is quite on the 0.5x. GPU will also scale pretty much 0.5x as well because it has uniform structures(although not quite as SRAM).
Back with Pentium 4, CPU cores scaled 0.5x but starting with Pentium M it became 0.7x. I read rumors that it may also have to do with designing with lower power in mind.
Undertaker
2013-05-05, 10:57:28
Was mir übrigens gerade rückblickend auf die kürzlich veröffentlichten Folien auffällt:
http://www.anandtech.com/show/6926/intel-iris-iris-pro-graphics-haswell-gt3gt3e-gets-a-brand
Wenn diese Zahlen so stimmen, wird die HD 5000 wohl langsamer als die HD 4600. Wie kann denn das sein? Taktraten von unter 700 MHz kann ich mir kaum vorstellen (IB ULVs takteten in Spielen locker >1 GHz), also sollte die 40 EU-Version auf jeden Fall mehr Rechenleistung als die 20 EU-Version besitzen. Bandbreite ist identisch, der Einfluss des größeren L3-Caches der Quad-Cores nicht so immens. :confused:
Kannst du etwas genauer benennen, an welcher Stelle du das rausliest? Ich kann dir nicht folgen oder muss ich dazu den kompletten Artikel lesen?
Undertaker
2013-05-05, 11:23:52
http://abload.de/img/screen20shot202013-05tqecl.png (http://abload.de/image.php?img=screen20shot202013-05tqecl.png)http://abload.de/img/screen20shot202013-059hi7d.png (http://abload.de/image.php?img=screen20shot202013-059hi7d.png)
Die HD 4600 (4900MQ) legt im 3DMark 11 60% ggü. der 1,3 GHz/8 MB HD 4000 zu, die HD 5000 (4650U) nur 50% ggü. der 1,2 GHz/4 MB HD 4000.
Ronny145
2013-05-05, 12:01:02
Du vergleichst eine 47W HD4600 mit der 15W HD5000. Das ist für mich nicht überraschend, wenn die HD4600 mit großem Takt von 1300 Mhz, der stabil gehalten werden kann, da vorne liegt. Der Vergleich macht für micht wenig Sinn. Sinnvoll ist nur der Vergleich mit ULV. In dem 15W TDP Budget ist jetzt noch der Chipsatz enthalten und die Spannungsregler. Wenn die HD5000 trotz 2 Watt (effektiv mit Chipsatz und Spannungsreglern eher 5W) weniger im gleichen Fertigungsprozess vielleicht 20% vor der ULV HD4000 liegt, ist das doch absolut im grünen Bereich.
Undertaker
2013-05-05, 12:19:49
Mit geht es hier a) um das Technische - wie extrem langsam soll die HD 5000 denn takten, um doch relativ deutlich hinter die HD 4600 zu fallen? - sowie b) um die Bezeichnung. Unabhängig von der TDP-Klasse wäre eine höhere Modellnummer bei schlechterer Performance imo etwas unglücklich. Auch wenn es das bei den CPUs schon in ähnlicher Form gibt...
Ronny145
2013-05-05, 12:34:46
Etwa ab 700 Mhz und niedriger würde sie unter die HD4600 mit 1300 Mhz fallen. GT3 ist keine 1:1 Verdopplung. Eine ULV HD4000 kam im Schnitt auf 1 Ghz. Wo wären 700 oder gar 600 niedrig? Das ist immer noch hoch für diese TDP KLasse. Trinity fällt auf 327-424 Mhz bei effektiv 5W höherer TDP. Bei der HD5000 geht es um die 40 EUs bzw. GT3 schätze ich mal. Die GT3 hat die 5 vorne stehen was ich als Abgrenzung gut finde.
Undertaker
2013-05-05, 13:08:16
Im 3DMark 11 wird bei Ivy Bridge praktisch absolut konstant der maximale Turbo gehalten, da die geringe CPU-Last einen Großteil des TDP-Budgets freihält. Von bis zu 1,2 GHz auf maximal 700 MHz wäre ein Rückgang um über 40% - also ja, mich würde das schon erstaunen. Mit der Bezeichnung könntest du aber Recht haben, die 5xxx deutet eben nur den GT3-Ausbau an; das die Leistungsrelation dennoch nicht zwingend passt, bleibt für mich unglücklich gewählt.
Skysnake
2013-05-05, 14:56:53
naja, das gibt doch dann die zweite Stelle her oder nicht?
Ronny145
2013-05-05, 17:07:57
Im 3DMark 11 wird bei Ivy Bridge praktisch absolut konstant der maximale Turbo gehalten, da die geringe CPU-Last einen Großteil des TDP-Budgets freihält. Von bis zu 1,2 GHz auf maximal 700 MHz wäre ein Rückgang um über 40% - also ja, mich würde das schon erstaunen.
Es sind eben auch 40 Shader statt der 16 von IVB. Die wahrscheinlich stark gesunkene Taktfrequenz wundert mich nicht. +50% im 3dmark11 zeigt das die theoretische Rechenleistung dennoch einen guten Sprung hinlegt trotz effektiv 5W geringerer TDP. Bei der ULV muss sich eh in Spielen zeigen, was im Spiel tatsächlich anliegt Am interessantesten von den ULV finde ich den i5-4258U/i5-4288U und i3-4158U mit HD5100 und 28W TDP. Für 13-14 Zoll Geräte finde ich die Modelle sehr passend. Der i7-4558U mit HD5100 dürfte Intel typisch kein gutes Preis-Leistungsverhältnis mitbringen.
2phil4u
2013-05-05, 17:28:49
Bleibt zu hoffen, dass ARM mal ihre Kerne richtig aufbohrt, ist ja nicht mehr schön, wass Intel da fabriziert.
Die Highend CPU,s sind total veraltete Technik und bei den Mainstream - Performance CPUs muss man Leistung für eine Grafikeinheit ausgeben, ob man will oder nicht.
Das Broadwell nicht für Desktop rauskommt ist auch wieder so ein Schlag ins Gesicht für alle Enthusiasten.
Aber die Leute kaufen ja alle Handys, ich glaube 10% benutzen die Dinger sogar beim Sex laut Umfrage.
Trotz der hohen Verkaufszahlen ist ARM zwar sehr gesund, aber was den Umsatz betrifft natürlich immer noch klein gegen Intel, weil die Dinger einfach spottbillig sind.
Das Geld wird dann von Apple und Co verdient, die die Handys zum x-fachen Herstellungspreis verkaufen.
mapel110
2013-05-05, 18:03:38
ARM produziert doch afaik gar nichts?! Sie lizenzieren nur. Da kann dann auch nicht so viel bei rumkommen, wie das bei Intel der Fall ist.
Palpatin
2013-05-06, 09:23:52
Zur Zeit machen sie mit 2,2 Milliarden Chips pro Quartal 140 Millionen Pfund Umsatz :D. Solang die nicht die Lizenzgebühren ordentlich erhöhen wird das auch nicht viel mehr Umsatz.
dildo4u
2013-05-06, 12:28:32
Qualcomm ist schon lange Intel's größter Gegenspieler,die machen schon 5 mal mehr Umsatz als AMD.
http://www.computerbase.de/news/2013-04/qualcomm-erzielt-rekordumsatz/
http://www.3dcenter.org/news/amd-geschaeftsergebnisse-q12013-amd-faellt-umsatzmaessig-auf-vor-athlon-64-zeiten-zurueck
Nightspider
2013-05-06, 16:50:59
Wie wird PCI auf den Z87 Bretten eigentlich realisiert? Mit einem extra Chip?
Bisher scheinen die AsRock Mainboards ja wieder am interessantesten zu sein.
Hoffentlich kommen die nächsten Tage noch weitere OC-Ergebnisse zu Haswell.
Godmode
2013-05-06, 17:35:51
Bisher scheinen die AsRock Mainboards ja wieder am interessantesten zu sein.
Ich finde das Board Layout nicht gut. Wenn man 4 GPUs nutzen will, kannst du die unteren Anschlüsse alle vergessen. Ist bei meinem Asus Rampage 4 Formula übrigens nicht anders.
Nightspider
2013-05-06, 17:40:19
Welche unteren Anschlüssen kannst du denn nicht nutzen?
Dachte du hast Wasserkühler auf den GPUs?
Das Extreme 9 hat sogar 5 PCI-Express 16x Anschlüsse, dann könntest du die oberen 4 nutzen, falls du Wasserkühler auf den Karten hast.
http://twimages.vr-zone.net/2013/05/asrock_z87_extreme_9ac-665x508.png
Mir reicht eh ein Extreme 4, wenn überhaupt. Ich werde eh maximal zwei Grafikkarten auf das Board schnallen.
Bis ich mit dem Studium fertig bin und T-SLI in Frage kommt, gibt es eh schon Skylake.
VooDoo7mx
2013-05-08, 00:33:11
Die Chinesen (http://benyouhui.it168.com/thread-3998249-1-1.html) haben einen 4930MX (Mobile Topmodell 3,0 GHz Basistakt, GT2@1350MHz max, 55W TDP) durch 3D Mark 11 gejagt. Ergebnis P1418.
Trinity Topmodell A10-4600M schafft da um die 1000 Punkte.
Core i3-4XXX mit GT2 auf 1150MHz @35W dürften schon ausreichen um mit dem Richland Topmodell A10-5750M in 3D Performance mindestens gleich zu ziehen, wenn nicht sogar zu schlagen. Von CPU Performance brauchen wir gar nicht erst zu reden.
Kaveri Mobile dürfte sich dann wieder vor GT2 setzen, es ist aber jetzt schon abzusehen das der nicht mal im Ansatz gegen GT3e anstinken kann.
Ronny145
2013-05-08, 00:58:24
Das hatten wir hier schon verlinkt. A10-4600M kommt auf 1060 Punkte (http://www.tomshardware.com/reviews/a10-4600m-trinity-piledriver,3202-7.html) (GPU score ist hier sinnvoller). Vom A10-5750M gab es irgendwo einen 3dmark11 Wert, der bei 1150 Punkte lag und somit gleichauf mit dem 4930MX. Also nein eine GT2 mit 1150MHz liegt drunter. Da muss man aber eh Spielebenchmarks abwarten. Trinity sah in Spielen viel schlechter aus als im 3dmark11. Insgesamt sehe ich Vorteile für Intels GT2. Bei AMD sind die Abstufungen viel größer. A8/A6/A4 fällt von 384 auf 256/192/128 Shader ab. Den A10-5750M gibt es sowieso wohl wieder nur mit extra GPU.
horn 12
2013-05-08, 01:05:47
Da doch die leiben alten BQ Netzteile nicht HASWELL kompatibel sind, muss ich doch gezwungener Maßen auf einen AMD FX Prozessor und somit auf ein AMD System umsteigen.
Zumal mir das HASWELL Sys. das doppelte kosten würde inkl. dem Neuen Netzteil!
Alte Quadcore Q9550 @3,45 Ghz mit Board und Ram geht für knapp 200 Euro an den Mann... daher kostet der umstieg auf AM3+ nicht die Welt.
Ronny145
2013-05-08, 01:09:54
Da doch die leiben alten BQ Netzteile nicht HASWELL kompatibel sind, muss ich doch gezwungener Maßen auf einen AMD FX Prozessor und somit auf ein AMD System umsteigen.
Erzähl doch kein Scheiß. Die alten Netzteile sind alle kompatibel. Das einzige, was bei älteren Probleme machen könnte, ist der C6/C7 Modus.
Erzähl doch kein Scheiß. Die alten Netzteile sind alle kompatibel. Das einzige, was bei älteren Probleme machen könnte, ist der C6/C7 Modus.
Richtig, diese Modi werden wohl optional im UEFI implementiert und können je nach verwendetem Netzteil ein- oder ausgeschalten werden.
Wobei die neuen Netzteil-Anforderungen eigentlich ein guter Grund gewesen wären, mal endlich auf die reinen 12V-Netzteile umzustellen.
Godmode
2013-05-08, 11:51:57
Welche unteren Anschlüssen kannst du denn nicht nutzen?
Dachte du hast Wasserkühler auf den GPUs?
Das Extreme 9 hat sogar 5 PCI-Express 16x Anschlüsse, dann könntest du die oberen 4 nutzen, falls du Wasserkühler auf den Karten hast.
http://twimages.vr-zone.net/2013/05/asrock_z87_extreme_9ac-665x508.png
Mir reicht eh ein Extreme 4, wenn überhaupt. Ich werde eh maximal zwei Grafikkarten auf das Board schnallen.
Bis ich mit dem Studium fertig bin und T-SLI in Frage kommt, gibt es eh schon Skylake.
Nein, habe keine Wasserkühler drauf. Ja alles was ganz unten am Boardrand ist, ist nicht mehr Nutzbar (USB-Header, Power-Header, Fan-Header, Audio-Header, ...). Ich starte meinen Rechner jetzt immer über den Schalter am Netzteil, und die Bios Option "Power on after Power loss" ^^
Wenn du die oberen 4 nutzt, passt die SLI-Bridge nicht meh.
Nightspider
2013-05-08, 13:39:49
Kannst du nicht 3 biegsame einfache SLI Brücken benutzen?
Da wir noch kein Thread zu Airmont Broadwell haben:
Ob Airmont Broadwell die 128MB eDRAM gleich mit im CPU-DIE hat? Denn wenn man die Anzahl der EUs erhöht braucht man auch bei den kleineren Versionen mehr Bandbreite.
Könnte Intel zukünftig (ab Broadwell?) auch eGDDR5 verbauen? Vielleicht verbaut Intel auch einfach ein 256 eDRAM Chip oder zwei 128er mit 2*512 Bit Anbindung (was doppelte Bandbreite ergeben würde).
Das wird auf jeden Fall auch interessant.
edit: ich meinte Broadwell, nicht Airmont.
robbitop
2013-05-08, 13:40:47
Willst du die gleichen Fragen jetzt in zwei Threads stellen? Bleib damit doch eher im Valley View Thread oder gründe einen Airmont Thread.
Nightspider
2013-05-08, 13:42:38
Habs vorhin im falschen Thread gepostet und dort schon gelöscht. ;)
robbitop
2013-05-08, 13:45:32
Das hier (PC/Laptop Produkt) ist eher der falsche Thread dafür als der andere (SFF).
Nightspider
2013-05-08, 13:46:45
OMG, sorry ich war gerade verwirrt :D
Ich meinte hier Broadwell und nicht Airmont. :usad:
robbitop
2013-05-08, 13:49:14
eDRAM hat oftmals andere Prozessanforderungen. Außerdem müsste man dann mehr Masken / Produktionsstraßen für die Variation aufstellen. Nicht unmöglich - ich vermute aber mal unwahrscheinlich.
Nightspider
2013-05-08, 13:51:30
Weißt du ob es viel schwieriger ist zwei 128er Modul zu je 512 Bit anzubinden?
Falls AMD zukünftig GDDR5 für die IGPs on package verbaut wären 256MB mit 128GB/s kein schlechter Schritt von Intel. (doppelte Speichermenge+doppelte Speicherbandbreite)
Undertaker
2013-05-08, 13:53:02
Eine Verdopplung auf 1024 Bit wäre sicher nicht ganz billig... Aber an der Taktrate kann man ja mittelfristig auch noch drehen. Wachsende Kapazitäten sind imo ziemlich sicher absehbar.
Skysnake
2013-05-08, 18:26:11
Weißt du ob es viel schwieriger ist zwei 128er Modul zu je 512 Bit anzubinden?
Falls AMD zukünftig GDDR5 für die IGPs on package verbaut wären 256MB mit 128GB/s kein schlechter Schritt von Intel. (doppelte Speichermenge+doppelte Speicherbandbreite)
GDDRx ist ein Interface, um Signale bei hohen Frequenzen über ein PCB zu jagen.
Es macht absolut keinen Sinn eGDDRx zu machen. Dafür gibt es Dinge wie WideIO usw.
Ronny145
2013-05-10, 18:29:02
4 Ghz Vergleich mit Ivy Bridge: http://www.chinadiy.com.cn/html/24/n-9024-9.html
Memory read liegt hier auch niedriger, könnte mir gut vorstellen dass das normal ist. Das war bei jedem Leak bisher zu beobachten.
Ringbus Übertaktung: http://www.chinadiy.com.cn/html/24/n-9024-18.html
Allerdings sollten Skalierungstests zuerst mit default RAM durchgeführt werden.
http://www.chinadiy.com.cn/html/24/n-9024-11.html
http://www.chinadiy.com.cn/html/24/n-9024-21.html
Gilt auch für iGPU Tests.
dildo4u
2013-05-10, 18:40:34
Da müssen noch Wunder mit dem Treiber passieren 3DMark Performance sehr gut die Games kannste vergessen.
Memory read liegt hier auch niedriger, könnte mir gut vorstellen dass das normal ist. Das war bei jedem Leak bisher zu beobachten.
Ist schon geklärt woran das liegt? Ich könnte mir hier den entkoppelten L3-Takt und daher kommende größere Latenzen als Ursache vorstellen.
Das Performanceplus des CPU Parts ist wie erwartet wirklich sehr schwach. Da kann man sich mit einem i7 Sandy @ 4,5 GHz ja mehr als zurücklehnen.
Schade, dass es so schleppend voran geht und fast nur der iGPU Aufmerksamkeit geschenkt wird.
Undertaker
2013-05-10, 19:06:52
Ist schon geklärt woran das liegt? Ich könnte mir hier den entkoppelten L3-Takt und daher kommende größere Latenzen als Ursache vorstellen.
Wäre auch mein Tipp. Die Schreibrate steigt dagegen wie erwartet leicht an (vergrößertes Reorder-Window).
mironicus
2013-05-10, 21:18:30
Was rechtfertigt eigentlich den neuen Sockel? Kein DDR4, praktisch gleiche Performance...
aufkrawall
2013-05-10, 21:19:49
Ist doch wurst, wenn es selbst mit zweieinhalb Jahren älterem Sockel keinen Aufrüstbedarf gibt.
Zergra
2013-05-10, 21:20:46
Was rechtfertigt eigentlich den neuen Sockel? Kein DDR4, praktisch gleiche Performance...
Spannungswandler in der CPU und auch die Southbridge sollte wohl mit drin sein
Hugo78
2013-05-10, 21:21:12
Was rechtfertigt eigentlich den neuen Sockel? Kein DDR4, praktisch gleiche Performance...
Ich tippe mal auf die integrierten Spannungswandler.
edit: zu spät ...
mironicus
2013-05-10, 21:26:51
Spart das Strom? Könnte man die Idle-Spannung bei Haswell-Mainboards noch weiter nach unten drücken? 15 Watt oder niedriger mit Onboard-Grafik und einer SSD wäre cool (mit einem entsprechendem Pico-Netzteil bis 120 Watt).
Knuddelbearli
2013-05-10, 21:44:44
damit kann zumindest Intel noch geanuer bestimmenw as der kunde dürfen soll und was nicht.
zB wie mit dem heatspreader mit dem sie die OC Möglichkeit beschränken bis sie es irgendwann wieder brauchen.
Einfach Spawas einbauen die selbst bei K CPUs maximal bis ca 100W brauchbar laufen
den Mobo Herstellern kannst du ja schlecht verbieten bessere spawas zu verbauen
Twodee
2013-05-10, 21:49:44
Spart das Strom? Könnte man die Idle-Spannung bei Haswell-Mainboards noch weiter nach unten drücken? 15 Watt oder niedriger mit Onboard-Grafik und einer SSD wäre cool (mit einem entsprechendem Pico-Netzteil bis 120 Watt).
Das ist doch jetzt schon mit ivy i3 mit mini itx und picopsu möglich. 12volt bei einem Ampere hab ich gemessen. Intels Nuc soll sogar nur knapp 7 Watt @Idle ziehen.
Ronny145
2013-05-10, 21:52:47
Einfach Spawas einbauen die selbst bei K CPUs maximal bis ca 100W brauchbar laufen
Um die Übertaktung für K-Modelle zu beschränken braucht es keine integrierten Spannungswandler. Multiplikator auf 40 beschränken und fertig. Ein bisschen Nachdenken vorm Posten kann manchmal ganz nützlich sein.
Zergra
2013-05-10, 21:55:41
Um die Übertaktung für K-Modelle zu beschränken braucht es keine integrierten Spannungswandler. Multiplikator auf 40 beschränken und fertig. Ein bisschen Nachdenken vorm Posten kann manchmal ganz nützlich sein.
Naja dann würden aber die Leute auf die Barikaden gehen ;) So kann es einfach an dem Chip Design liegen. Sie erhöhen den Multi auf 87 und gleichzeitig wird die maximale Stromaufnahme begrenzt :D
Das Performanceplus des CPU Parts ist wie erwartet wirklich sehr schwach. Da kann man sich mit einem i7 Sandy @ 4,5 GHz ja mehr als zurücklehnen.
Schade, dass es so schleppend voran geht und fast nur der iGPU Aufmerksamkeit geschenkt wird.
Na das kann man so auch nicht sagen, FMA und AVX2 ergeben nen sehr dicken Boost. Wenn man es benützt ^^
dildo4u
2013-05-10, 22:12:22
Na das kann man so auch nicht sagen, FMA und AVX2 ergeben nen sehr dicken Boost. Wenn man es benützt ^^
Vermutlich wird sich was Games angeht wenn nur AVX1 durchsetzen,da die neuen Konsolen mit Jaguar kommen.
mczak
2013-05-10, 23:36:48
Na das kann man so auch nicht sagen, FMA und AVX2 ergeben nen sehr dicken Boost. Wenn man es benützt ^^
Wenn man bedenkt was da alles verbessert wurde sind die 5-10% bei "normalem" Code doch eher enttäuschend. Es ist ja nicht nur der vierte Int-Exec Port (also theoretisch +33%) auch sonst wurde doch ziemlich viel investiert (2 load / 1 store statt zusammen 2 load/store pro Takt, wie immer etwas bessere Sprungvorhersage, mehr OoO Resourcen wie ROB-Einträge, Scheduler-Einträge, grösseres PRF, aufgebohrte L2 TLBs). Zeigt halt auf wie enorm schwierig es ist die Performance zu verbessern sobald man so etwa bei theoretischen 2 Instruktionen pro Takt angelangt ist (ist ja nicht ohne Grund dass sich die low-power Designs darauf beschränken).
Knuddelbearli
2013-05-10, 23:58:47
Um die Übertaktung für K-Modelle zu beschränken braucht es keine integrierten Spannungswandler. Multiplikator auf 40 beschränken und fertig. Ein bisschen Nachdenken vorm Posten kann manchmal ganz nützlich sein.
siehe Post unter dir solltest deinen eigenen Tipp dir einfach mal zu Herzen nehmen ;-)
Ronny145
2013-05-11, 00:22:20
siehe Post unter dir solltest deinen eigenen Tipp dir einfach mal zu Herzen nehmen ;-)
Es gibt zig andere Möglichkeiten Übertaktungsergebnisse für K-Modelle zu limitieren, wenn es Intel darauf absehen würde. Die bisherigen Übertaktungsergebnisse von 5+ Ghz deuten nicht im geringsten auf ein 100W Limit hin. Überhaupt, was macht das für ein Sinn. Die K-Modelle sind extra von Intel als Übertakter Modelle vorgesehen. Das lässt sich Intel mit einem kleinen Aufpreis bezahlen. Intel investiert doch nicht in bessere Übertaktungsmaßnahmen (höherer Multi, BCLK für besseres Feintuning) wenn sie die Übertaktung mit Absicht limitieren wollen. Im Gegenteil, positive Übertaktungsergebnisse ist gute Presse. Auf der IDF gab es eine live OC Demo von Haswell. Mit absichtlichen TDP Bremsen erreicht man das nicht. Auch wird nicht gerade der Kaufanreiz für K-Modelle gefördert. Denk doch vorher mal nach beim posten. Dieses wirren Verschwörungstheorien von dir sind echt hirnlos.
Knuddelbearli
2013-05-11, 00:36:58
aus dem selben Grund könnte man fragen wieso Intel die K Prozessoren nicht verlötet statt die billig WLP darunter zukleben, womit sie sich sogar schlechter als der Vorgänger Takten lassen. Soviel zu Verschwörungstheorien ^^ Und ja genau deshalb:
Intel investiert doch nicht in bessere Übertaktungsmaßnahmen (höherer Multi, BCLK für besseres Feintuning) wenn sie die Übertaktung mit Absicht limitieren wollen. Im Gegenteil, positive Übertaktungsergebnisse ist gute Presse.
kann Intel eben nicht wie von dir vorgeschlagen einfach den maximalen Multi reduzieren, und Extrem OCer bekommen eh in 99% der Fälle ihre CPus direkt vom Hersteller. Integrierte Spawas haben im Desktop ( im Gegensatz zu mobile ) einfach keinerlei Vorteile, für OCler sogar extreme Nachteile.
Oder glaubst du wirklich Intel wird für die K Prozessoren extra bessere Spawas verbauen so wie es bisher auf Highend Mobos der Fall war? Nein! sie werden die Spawas wie für alle CPUs für maximal 84W auslegen, das was mehr geht ist dann nur Sicherheitspuffer.
Konami
2013-05-11, 01:22:52
Oder glaubst du wirklich Intel wird für die K Prozessoren extra bessere Spawas verbauen so wie es bisher auf Highend Mobos der Fall war?
>implizierend, Intel wird (abseits der K-Prozessoren, oder überhaupt) minderwertige Spannungswandler verbauen
Die Dinger sind direkt neben einer großen Hitzequelle angesiedelt. Schlechte Qualität kann man sich da grundsätzlich nicht leisten. Sonst geht die Rechnung allein schon wegen der hohen Quote an Garantiefällen nicht auf.
Zum Thema WLP: die Shrinks ("Ticks") sind einfach nicht mehr für den Desktop gedacht. Alles, was da passiert, ist dass der Stromverbrauch reduziert und dickere iGPUs verbaut werden, was für den durchschnittlichen PC-User beides irrelevant ist. Westmere war für Desktop uninteressant, bei Ivy Bridge haben sie das Teil noch für LGA rausgebracht, aber bewusst Produktionskosten gespart – und Broadwell kommt halt gar nicht mehr für LGA. Erscheint mir jedenfalls als sinnvollste Erklärung in dem Zusammenhang.
Ronny145
2013-05-11, 01:42:23
Oder glaubst du wirklich Intel wird für die K Prozessoren extra bessere Spawas verbauen so wie es bisher auf Highend Mobos der Fall war?
Was hat das damit zu tun? Intel hat Gründe genannt für die Integration. Intel erhofft sich Vorteile in feinerer Abstimmung von Spannungen. Wenn du ernsthaft glaubst, Intel integriert die Spannungswandler nur um ein paar Übertakter ärgern zu wollen, bist du auf der falschen Fährte. Es geht immer mehr in Richtung Effizienz und Integration. Natürlich kann es sein, dass bestimmte Maßnahmen für Desktop user Nachteile mit sich bringen (der entkoppelte L3/Ringbus wäre ein Beispiel), aber das macht Intel doch nicht aus der Zielstellung raus, Übertaktung für K-Modelle mit Absicht zu limitieren. Das wäre auch gar nicht weiter nötig. Dafür hat Intel bei den non-K Modellen gesorgt.
Knuddelbearli
2013-05-11, 03:00:13
ich sag nicht das sie es deshalb integrieren aber das sie es sicher auch dazu nutzen um die Nutzer zu steuern.
In dem Fall eben sie zu steuern das sie nicht zu stark OCen damit die Nachfolgegeneration interessant bleibt / wird. Oder das man falls AMD plötzlich ein Geniestreich gelingt mal billig und schnell reagieren kann.
Und ob es dir gefällt oder nicht OC wird dadurch sicher limitiert werden. Intel wird wohl kaum die Spawas für 150W + auslegen wenn die größte CPU 84W verbraucht. Gute aktuelle Mainboards können aber selbst 200W aufwärts ohne Probleme ab, bzw sidn teilweise sogar dafür spezifiziert.
lilgefo~
2013-05-11, 06:05:36
Um die Übertaktung für K-Modelle zu beschränken braucht es keine integrierten Spannungswandler. Multiplikator auf 40 beschränken und fertig. Ein bisschen Nachdenken vorm Posten kann manchmal ganz nützlich sein.
Naja dann würden aber die Leute auf die Barikaden gehen ;) So kann es einfach an dem Chip Design liegen. Sie erhöhen den Multi auf 87 und gleichzeitig wird die maximale Stromaufnahme begrenzt :D
siehe Post unter dir solltest deinen eigenen Tipp dir einfach mal zu Herzen nehmen ;-)
Ronny hat schon voellig recht.
Als ob das keiner merken wuerde, wenn die CPU bei Erreichen einer bestimmten Wattzahl abdreht. Auffaelliger ginge es ja kaum. -.-
Um mal etwas klarzustellen. Auf dem Package von Haswell befinden sich KEINE Spannungswandler. Es sind SpannungsREGLER. Das sind zwei vollkommen unterschiedliche paar Schuhe. Und ich könnte mir sogar vorstellen, dass das OC-Verhalten durch die Integration besser wird, da sie schneller auf etwaige Schwankungen reagieren können.
y33H@
2013-05-11, 09:37:55
Auf dem Träger sitzen die Elkos Kondensatoren, im Die die Regler. Die Wandler sind auf dem Mainboard.
im Die die Regler.
Du meinst die MOSFETs, oder? Unter Regler kann ich mir grad nichts vorstellen - Der Vorgang, eine Spannung konstant zu halten, ist ein Regelvorgang... und die Induktivitäten sind auf dem Board?
y33H@
2013-05-11, 10:40:07
Du hast eine Eingangspannung, die dann im Die in weitere Spannungen unterteilt wird.
anddill
2013-05-11, 12:17:33
Nein, die Dinger sind komplett integriert. Induktivitäten und Leistungshalbleiter sitzen auf dem Chip, die Kondensatoren auf dem Träger. Keine Elkos übrigens, was duch die hohen Frequenzen möglich wird.
Der Vorteil ist daß man so praktisch beliebig viele Spannungsdomains nutzen kann. Haswell soll wohl 5 nutzen.
Außerdem ist man mit den hohen Strömen näher am Verbraucher und muss nicht mit 100A+ über den Sockel.
y33H@
2013-05-11, 13:11:22
Ja, keine Elektrolytkondensatoren - blöd ausgedrückt [Elkos als allgemeiner Begriff für Kondensatoren ist nun mal nicht korrekt] ;(
Knuddelbearli
2013-05-11, 15:48:56
Ronny hat schon voellig recht.
Als ob das keiner merken wuerde, wenn die CPU bei Erreichen einer bestimmten Wattzahl abdreht. Auffaelliger ginge es ja kaum. -.-
wer redet denn davon das sie bei einer bestimmten Spannungszahl plötzlich abdrehen? ...
Langsam glaube ich ihr stellt euch extra doof, zum 3ten mal, wenn die größte CPU 84W benötigt wieso sollte sie Intel für OC bei 130+W auslegen?
Da muss nix extra ab geregelt werden bei X W das OC wird einfach immer schwäche je höher man geht. Bei der WLP dreht die CPU ja auch nicht bei Frequenz x ab. Trotzdem wird OC ( ohne extreme Kühlung ) um gut 100-300Mhz verringert.
Konami
2013-05-11, 15:51:29
wer redet denn davon das sie bei einer bestimmten Spannungszahl plötzlich abdrehen? ...
Langsam glaube ich ihr stellt euch extra doof, zum 3ten mal, wenn die größte CPU 84W benötigt wieso sollte sie Intel für OC bei 130+W auslegen?
Da muss nix extra ab geregelt werden bei X W das OC wird einfach immer schwäche je höher man geht. Bei der WLP dreht die CPU ja auch nicht bei Frequenz x ab. Trotzdem wird OC ( ohne extreme Kühlung ) um gut 100-300Mhz verringert.
Hast du meinen Post eigentlich bewusst übersehen oder verstehst du ihn nur nicht?
Knuddelbearli
2013-05-11, 16:13:06
überlesen :smile:
>implizierend, Intel wird (abseits der K-Prozessoren, oder überhaupt) minderwertige Spannungswandler verbauen
Die Dinger sind direkt neben einer großen Hitzequelle angesiedelt. Schlechte Qualität kann man sich da grundsätzlich nicht leisten. Sonst geht die Rechnung allein schon wegen der hohen Quote an Garantiefällen nicht auf.
Ich sagte ja auf 84W ausgelegt! und Übertakten ist auch bei den K Prozessoren gegen die Garantie das dürfte Intel also recht egal sein ^^
Wenn Intel die Garantiequoten bei den K Prozessoren zu hoch sind werden sie eher damit anfangen mal die CPUs zu überprüfen statt sie einfach immer auszutauschen.
Zum Thema WLP: die Shrinks ("Ticks") sind einfach nicht mehr für den Desktop gedacht. Alles, was da passiert, ist dass der Stromverbrauch reduziert und dickere iGPUs verbaut werden, was für den durchschnittlichen PC-User beides irrelevant ist. Westmere war für Desktop uninteressant, bei Ivy Bridge haben sie das Teil noch für LGA rausgebracht, aber bewusst Produktionskosten gespart – und Broadwell kommt halt gar nicht mehr für LGA. Erscheint mir jedenfalls als sinnvollste Erklärung in dem Zusammenhang.
Und woher nimmst du die Gewissheit? Das ist einfach nur pure Spekulation, natürlich wie auch mein Behauptung. Abgesehen davon das Intel wohl maximal 1 Cent bei der WLP statt verlöten spart, da braucht nur eine von 10.000 CPU aufgrund der teils deutlich höheren Temperaturen, bei OC, früher kaputt gehen und schon macht Intel insgesamt miese.
Dafür sieht aber der Nachfolger gleich viel besser aus, leistet pro Mhz nur das gleiche lässt sich aber wieder um die 100-300Mhz höher takten, die man vorher verloren hat.
Oder ist eine gute Reserve die man sehr einfach freigeben kann wenn AMD mal wieder näher kommt.
Die 2 Gründe sind für mich jedenfalls viel logischer als die 1 Cent gesparten Produktionskosten, die der teils deutlich höheren Temperatur entgegenstehen!
Und der Westmere Tick stimmt einfach so nicht, es gab auch einen 32nm Tick für S2011 mit 6 Kernen namens Gulfdown also sicher nichts fürs Mobile Segment ^^
Und das Problem dort war eher das S1366 lange vor S1156 kam, das hat Intel danach ja mit Sandy dann umgedreht.
Und auch bei Ivy sehe ich bisher keine Anzeichen dafür, also bleibt nur Broadwell wo es wohl auch so kommen wird.
C.D.B.
2013-05-11, 16:47:02
... Außerdem ist man mit den hohen Strömen näher am Verbraucher und muss nicht mit 100A+ über den Sockel.
Also greifen Haswell-Prozis NUR noch die 12V-Schiene ab? (mit 3,3V lassen sich immense Stromflüsse nicht verhindern)
Wäre ja ein (erfreuliches) Ding!
YfOrU
2013-05-11, 17:09:16
Langsam glaube ich ihr stellt euch extra doof, zum 3ten mal, wenn die größte CPU 84W benötigt wieso sollte sie Intel für OC bei 130+W auslegen?
Da muss nix extra ab geregelt werden bei X W das OC wird einfach immer schwäche je höher man geht. Bei der WLP dreht die CPU ja auch nicht bei Frequenz x ab. Trotzdem wird OC ( ohne extreme Kühlung ) um gut 100-300Mhz verringert.
Ist es wirklich so schwer zu verstehen was eine interne Regulierung der Spannung bewirkt ?
Pauschal ist der Unterschied zu früher nur das die CPU nicht mehr mit unzähligen Spannungen über das MB versorgt werden muss sondern mit einer.
Diese CPU Spannung liegt oberhalb aller in der CPU benötigten Spannungen. Die Regulierung in der CPU generiert dann die Spannungen für die einzelnen Teilbereiche. Das schneller und genauer als früher und gleichzeitig gibt es praktisch keine Limitierungen bezogen auf die Anzahl unabhängiger Bereiche. Schneller und genauer heißt zwangsläufig das die Spannungen in der CPU niedriger ausfallen als bei externer Regulierung. Ist das jetzt gut oder schlecht für OC ? ;)
-> Reguliert wird innerhalb der CPU. Die Leistungstransistoren sind weiterhin auf dem MB (12V -> 2,4V ? ~ 50A).
Siehe auch: http://www.anandtech.com/show/6898/intel-details-haswell-overclocked-at-idf-beijing
Spasstiger
2013-05-11, 17:56:13
Also greifen Haswell-Prozis NUR noch die 12V-Schiene ab? (mit 3,3V lassen sich immense Stromflüsse nicht verhindern)
Wäre ja ein (erfreuliches) Ding!
Nope, die Eingangsspannung für die integrierten Spannungsregler liegt typischerweise zwischen 1,8 und 2,3 Volt:
http://abload.de/img/screen20shot202013-047haqy.png
Quelle: http://www.anandtech.com/show/6898/intel-details-haswell-overclocked-at-idf-beijing
Der Stromfluß über den Sockel wird damit gegenüber Ivy Bridge nicht ganz halbiert.
/EDIT: Arg, hatte YfOrUs Posting nicht gesehen.
Den ersten Benchmarks nach kann man für einen Spielerechner getrost auch noch zum Core i7-3770K statt zum Core i7-4770K greifen: http://www.chinadiy.com.cn/html/24/n-9024.html.
boxleitnerb
2013-05-11, 18:05:56
Warum? Die Benchmarks sind was CPU-Spieleleistung angehen, total nichtssagend, da GPU-Limit. Die Leute lernen es einfach nicht.
Spasstiger
2013-05-11, 18:12:34
Selbst in den synthetischen Anwendungstests ist das Bild nicht eindeutig zu Gunsten des 4770K:
http://www.chinadiy.com.cn/html/24/n-9024-7.html.
Solange man die integrierte Grafik nicht nutzen möchte, ist Haswell verzichtbar.
Ronny145
2013-05-11, 18:15:04
Mit einer ollen GTX 660 in Full HD mit 8xAA, 32xCSAA Ultra settings alles schön aufbretzeln und sich wundern das bei dem wahrscheinlich ohnehin schon kaum schnelleren 4770k keine Unterschiede sichtbar sind. Wer so testet bzw. daraus Rückschlüsse ziehen will, hat keine Ahnung von der Materie.
hardtech
2013-05-11, 18:16:18
also noch mehr eine enttäuschung als seinerseits ivy. fortschritt, der begeistert!
Knuddelbearli
2013-05-11, 18:54:09
Den ersten Benchmarks nach kann man für einen Spielerechner getrost auch noch zum Core i7-3770K statt zum Core i7-4770K greifen: http://www.chinadiy.com.cn/html/24/n-9024.html.
oder zu einem 2600K wenn stark OCen will ... :mad:
mapel110
2013-05-12, 16:13:44
http://www.pcgameshardware.de/Haswell-Codename-255592/Specials/Haswell-kompatbile-Netzteile-0-05-Ampere-Problem-1068972/?utm_source=facebook.com&utm_medium=socialPCGH&utm_campaign=computecsocial
Aktuelle Liste der kompatiblen Netzteile.
Rente
2013-05-12, 16:21:03
Mit dem C6/C7-Modus kompatible Netzteile, was wiederum nicht heißt, dass Haswell nicht auch mit jedem anderen Netzteil laufen würde wenn man den C7-Modus in BIOS deaktiviert.
Ich vermute ehrlich gesagt sowieso das bei den meisten Mainboards standardmäßig zu mindestens C7 erst einmal aus ist und man es händisch aktivieren muss.
Darüber hinaus ist C7 wohl nur im Standby relevant, d.h. mit Abstürzen, wie bei PCGH beschrieben hat man dann selbst wenn C7 aktiv ist und das Netzteil es nicht unterstützt kein Problem, der Rechner wacht nur nicht mehr aus dem Standby auf und muss kalt neu gestartet werden.
€: Bei den Kommentaren zu den jeweiligen Themen bekommt man Angst und Bange, da wird so getan als müsste man sich zwingend ein neues NT für Haswell kaufen...
€²: Korrigiert mich wenn ich falsch liege. :)
Ronny145
2013-05-12, 16:41:19
Ja klar, beschränkt sich maximal auf C6 und C7. Es braucht kein neues Netzteil für Haswell. Logisch, wer auf 2-5Watt Idle Energieersparnis nicht verzichten kann, muss in dem Fall ein neues NT kaufen.
C6 ist doch heute auch schon standardmäßig nicht aktiv, bei meinem Board ist das so. Die News sind halt auf Effekthascherei ausgelegt und Leute mit weniger Ahnung fallen drauf rein.
=Floi=
2013-05-12, 16:44:24
vor allem ist das feature sowas von fürs licht...
ich schalte eh immer komplett den strom aus. ist 1 schalter und nicht 5 für alle geräte die am pc hängen... :facepalm:
C7 nützt eh nichts, wenn der rest mehr saft durch die dose zieht. lautsprecher ftw. ;)
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.