PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Iris Pro 5200 Graphics: (P)Review-Thread


Seiten : [1] 2

AnarchX
2013-06-01, 16:29:23
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=45866&stc=1&d=1370336044

http://software.intel.com/sites/default/files/4th_Generation_Core_Graphics_Developers_Guide_Final.pdf

8 ROPs
16 TMUs
40 EUs (je 16 GFLOPs)
0,5 Dreiecke/Takt
128MiB @ 50GB/s bi-directional
bis zu 1,3GHz Turbo

Die-Sizes:
~264mm² 4C/GT3-Die (wohl gut 50% GPU) @ 22nm
~84mm² Crystallwell EDRAM @ 22nm
2C/GT3-Die-Shot: http://www.computerbase.de/bildstrecke/49792/1/
Gute 100mm² für den IGP-Teil.

Reviews:

i7-4950HQ @ Anandtech (http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested)
Benchmarks : Intel Mobile Haswell (CrystalWell): (GP)GPU: Iris Pro Worthy upgrade? @SiSoft (http://www.sisoftware.co.uk/?d=qa&f=gpu_hsw)
Intel's Core i7-4770K and 4950HQ 'Haswell' processors reviewed @ Techreport (http://techreport.com/review/24879/intel-core-i7-4770k-and-4950hq-haswell-processors-reviewed)
i7-4750HQ @ Computerbase (http://www.computerbase.de/artikel/grafikkarten/2013/intel-iris-pro-5200-grafik-im-test/)
Test Schenker S413 Notebook (Clevo W740SU) i7-4750HQ @ Notebookcheck (http://www.notebookcheck.com/Test-Schenker-S413-Notebook-Clevo-W740SU.97789.0.html)
90 Minutes with the Clevo W740SU, Featuring Iris Pro HD 5200 @ Anandtech (http://www.anandtech.com/show/7182/90-minutes-with-the-clevo-w740su-featuring-iris-pro-hd-5200)

Schaffe89
2013-06-01, 17:03:56
Rund 20% schneller als AMD´s 7660D, hm dann dürfte das ein interessantes Duell zwischen Richland und der HD 5200 werden.
Allerdings kommt Kaveri ja auch noch ende des Jahres, dann dürfte AMD wieder deutlich in Front sein, bis eventuell Broadwell kommt.

Die_Allianz
2013-06-01, 17:11:27
24p Bug ist gefixt?

boxleitnerb
2013-06-01, 17:11:55
Man darf eins nicht vergessen:

Im Mobilbereich ist AMD deutlich langsamer als im Desktop mit dem A10-5800K wegen der TDP. Entweder vergleicht man Mobil vs Mobil oder Desktop vs Desktop. Im Mobilbereich hat AMD keine Chance mit der A10-4600M. Im Desktopbereich müsste man den 4770R hernehmen, der wohl nochmal flotter ist mit seinen 1,3 GHz max Turbo.

Edit:
Weiß jemand, wie hoch die HD5200 im Notebook jetzt maximal taktet? Bei Anandtech habe ich dazu nichts gefunden.

Knuddelbearli
2013-06-01, 17:17:06
? die Mobile 5200 haben doch den selben Turbo wie die Desktop.

Undertaker
2013-06-01, 17:18:18
Wirklich interessant ist die GPU ohnehin im mobilen Sektor. Und dort auch weniger die teure Iris Pro 5200 (gilt auch für die 7660D, da kaum einzeln erhältlich), sondern vielmehr die HD 5000 und Iris 5100. Schlanke, spieletaugliche Ultrabooks ahoi. :)

AnarchX
2013-06-01, 17:20:24
Der 4950HQ hat auch 1,3GHz. Aber die höhere die TDP dürfte bei den R-Modellen etwas helfen, wie man an den 55W-Ergebnissen sieht.

boxleitnerb
2013-06-01, 17:21:14
? die Mobile 5200 haben doch den selben Turbo wie die Desktop.

Auch 1,3 GHz? Wieder was gelernt.
Dann bleibt immer noch die Frage, ob die Mobil- und Desktop-iGPUs unter Last durchgehend gleich hoch takten. Es heißt ja nur "bis zu".

Undertaker
2013-06-01, 17:21:35
Übrigens: HD 4600 ~ 7660G:

http://www.notebookcheck.com/Im-Test-Intel-HD-Graphics-4600.92957.0.html

Auch 1,3 GHz? Wieder was gelernt.
Dann bleibt immer noch die Frage, ob die Mobil- und Desktop-iGPUs unter Last durchgehend gleich hoch takten. Es heißt ja nur "bis zu".

So wie die Zugewinne bei TDP-Anhebung bei Anandtech andeuten, ist das nicht unbedingt der Fall.

Knuddelbearli
2013-06-01, 17:23:19
naja bei so "hoher" performance trägt sicher auch die cpu zum fps gewinn bei

fondness
2013-06-01, 17:26:30
Übrigens: HD 4600 ~ 7660D:

http://www.notebookcheck.com/Im-Test-Intel-HD-Graphics-4600.92957.0.html



Du meinst 7660G. 7660D ist die Desktop-Version und die ist deutlich schneller. Das die HD4600 nur gleichzieht mit einem A10-4600M überrascht mich auch, immerhin hat die dort getestete Intel Core i7-4930MX eine 57W TDP, der AMD A10-4600M kommt mit 35W aus - und das bei 32nm vs. 22nm. Schon Richland wird ausreichen um wieder knapp davon zu ziehen.

boxleitnerb
2013-06-01, 17:30:26
Ne, der getestete 4930MX hat 57W TDP, der A10-4600 hat 35W TDP. Wie der tatsächliche Verbrauch in Spielen aber aussieht, müsste man nochmal untersuchen. Der 4770K ist zwar ein Stück langsamer als der 5800K, dafür verbraucht er auch deutlich weniger in Spielen unter Nutzung der iGPU. Würde nicht verwundern, wenn das im Mobilsektor genauso aussieht.

Edit:
Ah, hast selbst gemerkt :)

Edit 2:
TPU hat schon Richland-Ergebnisse in ihrem Haswell-Review:
http://www.techpowerup.com/reviews/Intel/Core_i7_4770K_Haswell_GPU/20.html

Praktisch keine Verbesserung.

Undertaker
2013-06-01, 17:34:30
Du meinst 7660G. 7660D ist die Desktop-Version und die ist deutlich schneller. Das die HD4600 nur gleichzieht mit einem A10-4600M überrascht mich auch, immerhin hat die dort getestete Intel Core i7-4930MX eine 57W TDP, der AMD A10-4600M kommt mit 35W aus - und das bei 32nm vs. 22nm. Schon Richland wird ausreichen um wieder knapp davon zu ziehen.

Danke, korrigiert.

Die Mehrleistung der HD 4600 ist für die 25%ige Einheitensteigerung eigentlich ziemlich gut - was hast du denn erwartet?

Deine TDP-Vergleich ist natürlich Unfug, da zum Großteil auf die CPU zurückzuführen. Auch ein 15W ULV-Modell wird wohl mehr CPU- und GPU-Leistung als AMDs 35W-Modelle bieten. ;)

fondness
2013-06-01, 17:41:13
Deine TDP-Vergleich ist natürlich Unfug, da zum Großteil auf die CPU zurückzuführen.

Ach weil es zum Großteil die CPU betrifft ist es also Unfug, interessant. Was zählt ist es denn kein Unfug mehr? Nur wenn die TDP vollständig der GPU zu Gute kommt? :)

Auch ein 15W ULV-Modell wird wohl mehr CPU- und GPU-Leistung als AMDs 35W-Modelle bieten. ;)

Interessant, Intel schafft es nicht mal mit einem 57W Modell eine bessere GPU-Leistung zu erzielen, aber mit einem 15W ULV-Modell soll das möglich sein. ;D

Undertaker
2013-06-01, 17:44:50
Ach weil es zum Großteil die CPU betrifft ist ist es also Unfug, also zählt es nur wenn es vollständig auf die GPU geht oder wie?

Wenn du die TDP des gesamten Chips vergleichst, kannst du nicht nur einen Teil davon bewerten.

Interessant, Intel schafft es nicht mal mit einem 57W Modell eine bessere GPU-Leistung zu erzielen, aber mit einem 15W ULV-Modell soll das möglich sein. ;D

Dort wird die GT3 verbaut, die niedriger taktet und damit die Effizienz verbessert. Die CPU-Leistung fällt zwar auf einen Bruchteil des 57W-Modells zurück, ist aber eben immer noch vergleichsweise hoch (zumindest höher als bei den 35W Trinity/Richland ;)).

Knuddelbearli
2013-06-01, 17:53:10
Naja ist die frage worum es geht, geht es um das Produkt oder darum wie gut Intel iGP wirklich ist.

Insgesamt finde ich die AMD IGP noch deutlich besser, ähnlich groß trotzt 32 vs 22nm wenig mehr verbrauch und trotzdem schneller. Da hat Intel noch einige Arbeit vor sich wenn sie sich nicht auf den CPU und Fertigungsvorteil verlassen wollen

Nightspider
2013-06-01, 17:53:49
Da man die Iris Pro nie in Preisleistungsregionen sichten wird, die interessanter sind, wird die Lösung nie eine große Rolle spielen.

Interessant wären aber auch mal Benchmarks von StarCraft 2 und Diablo 3.

Ronny145
2013-06-01, 18:18:43
Rund 20% schneller als AMD´s 7660D, hm dann dürfte das ein interessantes Duell zwischen Richland und der HD 5200 werden.
Allerdings kommt Kaveri ja auch noch ende des Jahres, dann dürfte AMD wieder deutlich in Front sein, bis eventuell Broadwell kommt.


Auf den 5800K kannst du höchstens 5% für Richland draufrechnen, da dieser bereits mit DDR3-2133 vermessen wurde. Davon mal abgesehen lässt sich ohne reale Taktfrequenzen nicht sagen, wie sich die 65W Modelle schlagen. Das 55W Modell liegt 25-30% vor Trinity mit DDR3-2133. Mit Richland sind es dann 20-25% (falls die Spieleauswahl repräsentativ ist).



To remove as many bottlenecks as possible I configured all integrated GPU options (other than Iris Pro 5200) with the fastest supported memory. That worked out to being DDR3-2133 on desktop Trinity and desktop IVB, and DDR3-2400 on desktop Haswell (HD 4600). The mobile platforms, including Iris Pro 5200, all used DDR3-1600.

YfOrU
2013-06-01, 18:28:24
Da man die Iris Pro nie in Preisleistungsregionen sichten wird, die interessanter sind, wird die Lösung nie eine große Rolle spielen.


Der i7-4750HQ dürfte ungefähr den gleichen Listenpreis haben wie der i7-4800MQ oder auch der ältere (IB) i7-3632QM zur Einführung (Q3/12).
Letzterer bewegt sich heute in Preisregionen (Notebooks) ab 500€.


Beispiel anhand eines recht populären Notebooks:

Samsung Serie 5 Ultra 530U4E (14 Zoll, ~700€)
Core i5-3337U, ULV
Radeon HD 8750M (DDR3)

-> 17W + ungefähr 35W -> 52W TDP (in der Realität eher etwas mehr).

Für 47W TDP gibt es mit Iris Pro eine vergleichbare GPU Performance sowie zwei CPU Kerne mehr. Würde nach heutigen Stand grob 50€ Aufpreis (Notebook) kosten und wäre damit vollkommen in Ordnung.

Nightspider
2013-06-01, 19:21:37
Okay das klingt gar nicht so schlimm. Ich hätte gedacht, das der Rest eines Notebooks mehr kostet.

YfOrU
2013-06-01, 19:29:08
Okay das klingt gar nicht so schlimm. Ich hätte gedacht, das der Rest eines Notebooks mehr kostet.

Der ist auch etwas teurer. Intels Listenpreise haben mit der Realität im OEM Bereich wenig gemeinsam. Hier gibt es bei Abnahme entsprechender Stückzahlen etc. sehr großzügige Rabatte und Sondermodelle. Aus dem Grund gibt es zum Beispiel für den i7-4700MQ oder den i7-4750HQ von Anfang an keine offiziellen Preise ;)

Match-Maker
2013-06-01, 21:58:19
24p Bug ist gefixt?
Der ist schon seit Ivy Bridge gefixt (siehe HIER (http://www.computerbase.de/artikel/grafikkarten/2012/test-intel-graphics-hd-4000-und-2500/7/)).

Knuddelbearli
2013-06-01, 22:06:34
nein Match das ist ein Falschinformation siehe auch Kommentare ( auch bei Haswell )

Match-Maker
2013-06-01, 22:19:35
nein Match das ist ein Falschinformation siehe auch Kommentare ( auch bei Haswell )
Was, wo? Warum schreibt Computerbase dann so nen Schrott?! :confused:

Ronny145
2013-06-01, 22:36:29
nein Match das ist ein Falschinformation siehe auch Kommentare ( auch bei Haswell )


Quelle zu Haswell?


http://www.hardocp.com/image.html?image=MTM2OTk1MTIwMDJFSkRSVUNLak5fMV8yX2wuanBn
http://images.anandtech.com/doci/6993/Screen%20Shot%202013-05-31%20at%207.58.44%20PM.png


Ist dort ein Fehler drin? Erste Folie sagt H-Modelle wären Iris Pro. Zweite Folie spezifiziert 4702HQ/4700HQ mit der HD4600.

Nightspider
2013-06-01, 22:59:21
Wie errechnet sich denn eigentlich die EDRAM Bandbreite von 50GB/s und wieso gibt man nicht die effektive Bandbreite an? (Die wohl GDDR mit 110-130GB/s vergleichbar wäre)

AnarchX
2013-06-01, 23:05:19
Die 50GB/s sind die real gemessene Bandbreite des L4. Wohl möglich 128-Bit@3,2Gbps.
Diese effektive Angabe von Intel bezieht sich wohl auf Szenarien, wo man durch die bessere Latenz gegenüber GDDR eine höhe Hitrate auf die Daten hat.

Knuddelbearli
2013-06-01, 23:30:53
Was, wo? Warum schreibt Computerbase dann so nen Schrott?! :confused:

http://www.computerbase.de/forum/showthread.php?t=1214687&p=14025814#post14025814

Ronny145
2013-06-02, 00:53:21
Quelle zu Haswell?



Ich helfe ihn mal aus.



Intel has historically struggled to deliver competitive refresh rate accuracy with its GPUs and chipsets. This is no longer the case with 4th generation Intel Core HD graphics, with refresh rate precision for 24p, 29.97 & 59.94 content that is consistent with, or better than, what other vendors provide out of the box.
http://www.missingremote.com/review/intel-core-i7-4770k-haswell-intel-dz87klt-75k-and-intel-dh87rl-motherboard-first-look

mczak
2013-06-02, 05:25:50
Die 50GB/s sind die real gemessene Bandbreite des L4. Wohl möglich 128-Bit@3,2Gbps.
Diese effektive Angabe von Intel bezieht sich wohl auf Szenarien, wo man durch die bessere Latenz gegenüber GDDR eine höhe Hitrate auf die Daten hat.
Sollten eigentlich 512bit@1.6Gbps sein. Ist halt bidirektional, also 256bit pro Richtung, die Transferrate ist dementsprechend 50GB/s Read + 50GB/s Write.

AnarchX
2013-06-02, 09:19:12
http://www.hardocp.com/image.html?image=MTM2OTk1MTIwMDJFSkRSVUNLak5fMV8yX2wuanBn
http://images.anandtech.com/doci/6993/Screen%20Shot%202013-05-31%20at%207.58.44%20PM.png


Ist dort ein Fehler drin? Erste Folie sagt H-Modelle wären Iris Pro. Zweite Folie spezifiziert 4702HQ/4700HQ mit der HD4600.
Laut Anandtech wohl eine Option für günstigere Ausstattungsvarianten, bei welchen das gleiche BGA-Mainboard wie bei den Iris Pro Chips genutzt werden kann.

Sollten eigentlich 512bit@1.6Gbps sein. Ist halt bidirektional, also 256bit pro Richtung, die Transferrate ist dementsprechend 50GB/s Read + 50GB/s Write.
Vielleicht gibt es zum richtigen Launch der IP 5200 dann mehr Details.

Undertaker
2013-06-02, 09:58:04
Laut Anandtech wohl eine Option für günstigere Ausstattungsvarianten, bei welchen das gleiche BGA-Mainboard wie bei den Iris Pro Chips genutzt werden kann.

http://www.notebookcheck.com/Im-Test-Intel-Haswell-Prozessoren.92148.0.html

Die HQ-Serie unterstützt zudem durchgängig vPro.

Ronny145
2013-06-02, 11:06:27
Die 650M taktet sehr hoch mit 900/2500 GDDR5 in Anands Vergleichsnotebook. GT3e dürfte vergleichbar mit einer ~800 Mhz GT650M DDR3 sein oder 810Mhz GT740M mit DDR3. Schade das Anand die anliegenden GPU Frequenzen nicht mitgeloggt hat. So könnte man abschätzen, ob die 65W BGA Version für Desktop Verbesserungsspielraum hat.

AnarchX
2013-06-02, 15:17:49
Benchmarks : Intel Mobile Haswell (CrystalWell): (GP)GPU: Iris Pro Worthy upgrade?
http://www.sisoftware.co.uk/?d=qa&f=gpu_hsw

Wohl immernoch kein FP64-Support unter OCL. Unter DX-CS weiterhin 1:4 DP.

Ronny145
2013-06-02, 16:56:33
Benchmarks : Intel Mobile Haswell (CrystalWell): (GP)GPU: Iris Pro Worthy upgrade?
http://www.sisoftware.co.uk/?d=qa&f=gpu_hsw

Wohl immernoch kein FP64-Support unter OCL. Unter DX-CS weiterhin 1:4 DP.


Speed (Min / Max / Turbo) 600 - 800MHz


Eine GT3e mit 800 Mhz Turbo steht nicht in der Liste. Scheint ein ES zu sein. Das ist verdammt niedrig. 1050 Mhz für die GT2 auch sehr niedrig.

Schaffe89
2013-06-02, 21:19:25
Auf den 5800K kannst du höchstens 5% für Richland draufrechnen, da dieser bereits mit DDR3-2133 vermessen wurde.

Ja, aber scheinbar nur mit DDR1600, das ist doch ein Witz...^^, das limitiert doch bis zum geht nicht mehr ein Wunder dass Richland da überhaupt schneller ist.

Ronny145
2013-06-02, 21:22:59
Ja, aber scheinbar nur mit DDR1600, das ist doch ein Witz...^^, das limitiert doch bis zum geht nicht mehr ein Wunder dass Richland da überhaupt schneller ist.


Ich beziehe mich auf DDR3-2133. Trinity wurde hier mit DDR3-2133 vermessen. Richland packt 5% GPU Takt oben drauf. In der Praxis sind das keine 5% GPU-Mehrleistung, die du für den A10-6800K hier anrechnen kannst.

Schaffe89
2013-06-02, 22:22:51
Ich beziehe mich auf DDR3-2133.

Kapier ich nicht, der Test läuft mit 1600mhz. Zudem ist nicht bekannt ob Richland pro Takt besser skaliert.

Ronny145
2013-06-02, 22:48:48
Kapier ich nicht, der Test läuft mit 1600mhz. Zudem ist nicht bekannt ob Richland pro Takt besser skaliert.


Kannst du nicht lesen? Ich habe dir das doch extra zitiert.


To remove as many bottlenecks as possible I configured all integrated GPU options (other than Iris Pro 5200) with the fastest supported memory. That worked out to being DDR3-2133 on desktop Trinity and desktop IVB, and DDR3-2400 on desktop Haswell (HD 4600). The mobile platforms, including Iris Pro 5200, all used DDR3-1600.

Schaffe89
2013-06-03, 01:11:05
Und was ist jetzt mit Richland, wurde der auch mit ddr3 2133 getestet?

Ronny145
2013-06-03, 01:37:13
Und was ist jetzt mit Richland, wurde der auch mit ddr3 2133 getestet?


Nohmal ganz von vorne. Anandtech testet den A10-5800K mit DDR3-2133. Damit fällt ein Vorteil für den A10-6800K weg. Es bleibt übrig die 5% GPU Taktsteigerung. Mehr kannst du dort nicht draufrechnen. Hier auch schön zu sehen:

http://www.inpai.com.cn/doc/hard/195048_39.htm


5% könnte auch die 65W GT3e Version noch drauflegen.

matty2580
2013-06-03, 01:54:58
Richland ist ja auch nur ein Trinity 2.0.
Kaveri wird erst wieder interessant werden.
Mit etwas Glück kommt Kaveri noch zum Jahreswechsel.
Spätestens dann sollte AMDs Vorsprung wieder deutlicher werden.

Persönlich finde ich APUs immer noch völlig uninteressant.
Aber Gelegenheitsspieler können sich damit eine dGPU einsparen.

Spasstiger
2013-06-03, 10:16:26
Bin etwas skeptisch, ob die Schätzung von 174 mm² für die GPU seitens Anandtech realistisch ist, auf 28 nm hochgerechnet wäre das fast GK104-Diesize. Ich denke, dass das L4-Interface relativ viel Fläche belegt, wir reden hier immerhin von 2*256 Datenleitungen.
Schön zu sehen, dass der eDRAM als L4-Cache auch Performancevorteile abseits von GPU-Anwendungen bringt. Aber die Performancesteigerung der GPU gegenüber der HD 4600 im i7-4770K fällt geringer aus als gedacht, was wohl an der Limitierung der TDP liegt. Von 47 Watt auf 55 Watt bringt teilweise über 10% höhere Frameraten.
Schade, dass keine echten Desktop-Parts mit GT3e und Saltwell kommen werden, sondern nur der 4770R als verkappte Mobil-GPU mit lediglich 65 Watt TDP. Mit 84 Watt TDP, DDR3-2133+ und OC könnte wirklich die Post abgehen.

AnarchX
2013-06-03, 10:24:07
Intel's Core i7-4770K and 4950HQ 'Haswell' processors reviewed @ Techreport (http://techreport.com/review/24879/intel-core-i7-4770k-and-4950hq-haswell-processors-reviewed)

L4-Cache-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9792016#post9792016

Skysnake
2013-06-03, 10:47:35
Bin etwas skeptisch, ob die Schätzung von 174 mm² für die GPU seitens Anandtech realistisch ist, auf 28 nm hochgerechnet wäre das fast GK104-Diesize. Ich denke, dass das L4-Interface relativ viel Fläche belegt, wir reden hier immerhin von 2*256 Datenleitungen.

Das wird nur ein Bruchteil eines DDR3 Interfaces sein, weil du NICHT! vom Package runter musst. Das ist ein gewaltiger Unterschied ;)

Ronny145
2013-06-03, 14:29:12
Bin etwas skeptisch, ob die Schätzung von 174 mm² für die GPU seitens Anandtech realistisch ist, auf 28 nm hochgerechnet wäre das fast GK104-Diesize.


Ja das haut nicht hin. Schon die Die Größe insgesamt dürfte nicht hinhauen. Wenn er 262 mm² mit der Hand gemessen hat, liegt die wahrscheinlich unter 250 mm² und der edram unter 80 mm². Die GT2 in Haswell ist 53-55 mm² groß. GT3 sollte 50 mm² draufschlagen. Um die 105 mm², mehr dürfte das nicht sein. Das wären ausgehend von 177 mm² etwa 230 mm² insgesamt. Dem GT3e Foto nach zu urteilen sind das 240-250 mm². Das sind 10-20 mm², die in der Luft hängen. Kann sein das andere Stellen größer sind (für edram, oder mehr dead space). Ohne richtiges Die Bild vom inneren pure Spekulation.

AnarchX
2013-06-04, 10:28:57
2C/GT3-Die-Shot: http://www.computerbase.de/bildstrecke/49792/1/
Gute 100mm² für den IGP-Teil.

edit:
Der Developers Guide ist auch online:
http://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=45866&stc=1&d=1370336044

http://software.intel.com/sites/default/files/4th_Generation_Core_Graphics_Developers_Guide_Final.pdf

Skysnake
2013-06-04, 12:43:59
Ach du heilige Scheise :eek:
Das ist ja mal echt abartig, was da für die iGPU drauf geht, vor allem, wenn man bedenkt, dass da ja noch der eDRAM dazu kommt :ugly:

Intel versuchts hier echt mit der Brechstange.

Das lässt aber hoffen, dass sich AMD bald genötigt fühlt auch die DIE-Size Brechstange raus zu holen :biggrin:

Ronny145
2013-06-04, 13:13:29
Ach du heilige Scheise :eek:
Das ist ja mal echt abartig, was da für die iGPU drauf geht, vor allem, wenn man bedenkt, dass da ja noch der eDRAM dazu kommt :ugly:

Intel versuchts hier echt mit der Brechstange.

Das lässt aber hoffen, dass sich AMD bald genötigt fühlt auch die DIE-Size Brechstange raus zu holen :biggrin:


Rein von der Die size ist Trinity genauso groß (103 mm²). Ich komme auf 103-104 mm² für die GT3. Das liegt sehr nah an der Vorausberechnung. Prozessbereinigt ist die GT3 so 50% größer.

2xMSAA wird immer noch nicht in Hardware unterstützt.

Skysnake
2013-06-04, 13:15:14
Siehste. 50% sind kein Pappenstiel ;)

Vor allem fehlt da eben der eDRAM noch in der Betrachtung. Damit wirds dann wohl 100% größer +x

Ronny145
2013-06-04, 13:26:43
Bei der GT3 nicht, du meinst die GT3e. GPU Logik und RAM würde ich nicht zusammenmischen. GPU size bringt mehr.

Undertaker
2013-06-04, 14:48:25
Siehste. 50% sind kein Pappenstiel ;)

Bei allerdings auch etwas höherer Performance. Sicherlich ist das noch nicht ganz das Perf/mm² Niveau von AMD oder Nvidia, aber der Vorteil schrumpft doch spürbar zusammen. Zumal ja z.B. mobil auch schon die HD 4600 auf Trinity-Niveau liegt.

Dass man den eDRAM so nicht direkt werten darf, hat Ronny ja schon gesagt. Genausogut hätte man z.B. auch deutlich schnelleren Speicher unterstützen können (was wohl allerdings ineffizienter wäre).

fondness
2013-06-04, 15:21:03
Bei allerdings auch etwas höherer Performance. Sicherlich ist das noch nicht ganz das Perf/mm² Niveau von AMD oder Nvidia, aber der Vorteil schrumpft doch spürbar zusammen. Zumal ja z.B. mobil auch schon die HD 4600 auf Trinity-Niveau liegt.

Ja aufgrund des Fertigungsvorteils steht Intel mobil besser da, das kannst du aber nicht ernsthaft als Architekturvergleich geltend machen.


Dass man den eDRAM so nicht direkt werten darf, hat Ronny ja schon gesagt. Genausogut hätte man z.B. auch deutlich schnelleren Speicher unterstützen können (was wohl allerdings ineffizienter wäre).

Den eDRAM kannst du trotzdem nicht unberücksichtigt lassen. Trinity hängt deutlich an der Bandbreite, hätte AMD auch so ein eDRAM-Modul wäre man IMO auch mindestens so schnell wie die HD5K. Zumal dort noch immer AMDs alte VLIW4-Architektur zum Einsatz kommt.

Welchen schnelleren Speicher willst du denn unterstützen? Es gibt nicht wirklich Alternativen zu DDR3 bei einem Prozessor, zumindest wenn man den auch sockeln will.

Spasstiger
2013-06-04, 15:22:38
In welcher Form wird eigentlich der Core i7-4770R auf den Markt kommen? Verlötet auf dem Board ist klar, aber wird er den Einzelhandel erreichen oder nur für Systemintegratoren verfügbar sein? Reviews werden wohl auf sich warten lassen, was eigentlich schade ist, da der 4770R mit 65 Watt TDP die leistungsstärkste Iris-Pro-Implementierung darstellt.

Schade, dass Intel immer so restriktiv mit interessanten Features umgeht.
Ein Desktop-i5-K-Modell mit GT3e für 150€ würde das gesamte AMD-APU-Portfolio obsolet machen. Nicht, dass ich das gutheißen würde, aber aus technologischer Sicht geht bei Intel halt einfach mehr als sie offerieren. GT3e ist vermutlich auch gar nicht weit weg von dem, was uns bei der Xbox One erwartet (und der CPU-Part ist klar überlegen).

aufkrawall
2013-06-04, 15:23:46
2xMSAA wird immer noch nicht in Hardware unterstützt.
Läuft eigentlich Codas CSRT-Bench schon auf IVB mit 4xSGSSAA korrekt?

Ronny145
2013-06-04, 15:26:45
Den eDRAM kannst du trotzdem nicht unberücksichtigt lassen. Trinity hängt deutlich an der Bandbreite, hätte AMD auch so ein eDRAM-Modul wäre man IMO auch mindestens so schnell wie die HD5K. Zumal dort noch immer AMDs alte VLIW4-Architektur zum Einsatz kommt.

Welchen schnelleren Speicher willst du denn unterstützen? Es gibt nicht wirklich Alternativen zu DDR3 bei einem Prozessor, zumindest wenn man den auch sockeln will.


Nach dem was ich in Reviews gesehen habe, profitiert die HD4600 fast genauso vom schnelleren RAM wie Trinity. Und die GT3e läuft nur mit DDR3-1600. Man kann es auch andersrum sehen. Die GT2 mit prozessbereinigt kleinerer die size als Trinity, ist nicht mehr so viel langsamer im Desktop Bereich. Dabei eignet sich Gen7_5 besser für GPGPU als AMDs VLIW4.

Läuft eigentlich Codas CSRT-Bench schon auf IVB mit 4xSGSSAA korrekt?


SGSSAA? Bekommst du auf Intel nicht hin.

fondness
2013-06-04, 15:27:34
GT3e ist vermutlich auch gar nicht weit weg von dem, was uns bei der Xbox One erwartet.

LOL? Da sollte schon noch Faktor 2 dazwischen liegen. Trinity 384SPs sind nur VLIW4 und damit deutlich ineffizienter wie die 768 SPs der Xbox One.

Spasstiger
2013-06-04, 15:29:05
LOL? Da sollte schon noch Faktor 2 dazwischen liegen. Trinity 384SPs sind nur VLIW4 und damit deutlich ineffizienter wie die 768 SPs der Xbox One.
GT3e ist aber auch deutlich schneller als Trinity, speziell wenn man sich GT3e mal in einem 100-Watt-Package vorstellt wie es bei der Xbox One zum Einsatz kommen soll. Das Anandtech-Review zeigt deutlich, dass die Performance stark von der TDP begrenzt wird.
Ich sehe Intel mittlerweile (wieder) in der Lage, die Grafikhardware für eine Spielekonsole zu liefern.

aufkrawall
2013-06-04, 15:30:24
SGSSAA? Bekommst du auf Intel nicht hin.
afair fordert der das selber an. Wenns läuft, sollte also 4xSGSSAA gehen.

fondness
2013-06-04, 15:32:18
Nach dem was ich in Reviews gesehen habe, profitiert die HD4600 fast genauso vom schnelleren RAM wie Trinity. Und die GT3e läuft nur mit DDR3-1600. Man kann es auch andersrum sehen. Die GT2 mit prozessbereinigt kleinerer die size als Trinity, ist nicht mehr so viel langsamer im Desktop Bereich.

25% sind bei identischer und viel zu geringer Bandbreite alles andere als wenig.


Dabei eignet sich Gen7_5 besser für GPGPU als AMDs VLIW4.

Ja lol, man sieht ja den gigantischen Zuwachs wenn man die GPU mitrechnen lässt. :D
Wo Intel bei GPGPU vorne liegt, liegt das eindeutig an der CPU und den guten Intel-Compiler für diese, mit GPU-Unterstützung wird man teilweise sogar langsamer:

Die beiden Intel-Prozessoren können in den GPU-Computing-Tests enorm von der sehr starken CPU profitieren, die dem Pendant in AMDs Trinity-APU bei Weitem überlegen ist. So hat der i7-4770K in den meisten Fällen die Nase vorn, wobei dies in erster Linie nicht an der GPU, sondern an der CPU liegt.

Dabei ist auffällig, dass der A10-5800K von AMD die eigentliche Leistung primär von der GPU erhält, während bei Intel die Grafikeinheit in vielen Tests gar hinderlich ist, da diese langsamer als die CPU rechnet.

http://www.computerbase.de/artikel/grafikkarten/2013/intel-haswell-grafik-fuer-desktop-pcs-im-test/3/

Spasstiger
2013-06-04, 15:33:25
Computerbase hat kein keinen Iris Pro (GT3e) getestet. ;) Tatsächlich wollte Computerbase auch Iris Pro testen, aber es hat sich entgegen der Angaben des Lieferanten und entgegen dem Namensschema rausgestellt, dass das gewählte Modell doch nur über den GT2 verfügt: Kommentar: Beim Modell-Chaos ist „Haswell“ Spitze (http://www.computerbase.de/news/2013-06/kommentar-beim-modell-chaos-ist-haswell-spitze/).

Denn in Vorbereitung für unsere Artikel waren wir auf der Jagd nach eben diesen Topmodellen samt größter Grafiklösung und konnten ein Notebook mit Core i7-4700HQ ergattern. Laut Intel bietet dieser als HQ-Prozessor die maximale Grafik. Tut er aber nicht. Mehr als HD 4600 ist nicht drin.
Dieser markante Fehler hatte selbst den Hersteller des Notebooks irritiert, der uns in gutem Glauben mit eben einem dieser beworbenen HQ-Modelle samt Iris Pro aushelfen wollte. Ein von Intel abseits der Presse-Unterlagen unter anderem für den Handel gedachtes Dokument sorgte dann für Aufklärung: Ja, auch HQ-Modelle haben nicht immer die beste Grafikeinheit. :D

Ronny145
2013-06-04, 15:41:49
25% sind bei identischer und viel zu geringer Bandbreite alles andere als wenig.



Bei 28% größerer Die size und DDR3-1866 vs DDR3-1600. Der Flächenunterschied ist wie gesagt nicht mehr groß.


Ja lol, man sieht ja den gigantischen Zuwachs wenn man die GPU mitrechnen lässt. :D
Wo Intel bei GPGPU vorne liegt, liegt das eindeutig an der CPU und den guten Intel-Compiler für diese, mit GPU-Unterstützung wird man teilweise sogar langsamer:



http://www.computerbase.de/artikel/grafikkarten/2013/intel-haswell-grafik-fuer-desktop-pcs-im-test/3/


Ja den sieht man. Trotz deutlich weniger theoretischer Rechenleistung liegt die HD4600 oftmals vorne. Die VLIW4 Architektur ist für GPU Computing Aufgaben nicht gut geeignet. Das sieht man an GCN Vergleichen bei den dedizierten GPUs. Manche OpenCL workloads eignen sich besser auf einer CPU und da hat Intel mit dem 4770k deutlich mehr zu bieten. Hätte Trinity eine ähnlich schnelle CPU und passende CPU Treiber für OpenCL, es sähe genauso aus.

Undertaker
2013-06-04, 15:50:53
Ja aufgrund des Fertigungsvorteils steht Intel mobil besser da, das kannst du aber nicht ernsthaft als Architekturvergleich geltend machen.

Das war natürlich prozessbereinigt gemeint. Die GT2-GPU ist afaik gut 50mm² groß, das wäre auch in 32nm wohl noch weit unter Trinity. Zwar wären Taktrate und damit Leistung in 32nm etwas geringer, bzgl. Perf/mm² schrumpfen die Differenzen aber doch extrem zusammen.


Den eDRAM kannst du trotzdem nicht unberücksichtigt lassen. Trinity hängt deutlich an der Bandbreite, hätte AMD auch so ein eDRAM-Modul wäre man IMO auch mindestens so schnell wie die HD5K.

[...]

Welchen schnelleren Speicher willst du denn unterstützen? Es gibt nicht wirklich Alternativen zu DDR3 bei einem Prozessor, zumindest wenn man den auch sockeln will.

Zumindest DDR3-1866 hätte man gerade für die 28W-Modelle schon freigeben können. Aber nunja. Mal schauen wo die Iris 5100 letztlich landet, imo dürfte aber auch die noch klar über Trinity liegen. Sollte sich das bestätigen, braucht man den eDRAM nicht mit in die Rechnung einbeziehen und kann sich die Vermischung von Logik- und Speicher-Fläche sparen.

YfOrU
2013-06-04, 16:54:17
Ganz guter Artikel auf realworldtech zum eDRAM:
http://www.realworldtech.com/intel-dram/

Assuming our estimates are correct, the co-packaged 128MB eDRAM for Haswell will probably be 70-80mm2 (suggesting that the GT3e Haswell variant is around 210-240mm2). The embedded DRAM data arrays alone are at least 60mm2, and that doesn’t include overhead such as the controller and physical layer interfaces to the host SoC. Intel is rumored to be selling this part for around $50, which should give margins similar to low-end or mid-range client SoCs. While the price is less than a comparable-sized SoC, the cost should be lower since fewer layers of interconnect are needed. Conceptually, it will increase Intel’s manufacturing volumes and fab utilization without substantially sacrificing margins. As an added benefit, Intel’s integrated graphics will become much more robust and competitive.

Da fällt mir wieder ein: "Only real men have fabs" ;) Immerhin leistet sich Intel direkt 128MB.

Ronny145
2013-06-05, 02:08:28
Die 28W Modelle sind jetzt auch alle gelistet und hier das untere Iris Pro Modell:

http://ark.intel.com/products/76087/Intel-Core-i7-4750HQ-Processor-6M-Cache-up-to-3_20-GHz

Kostet $440. Das sind 57 USD über den günstigsten Einstiegs Quadcores mit HD4600. Das liegt absolut im Rahmen finde ich.

ndrs
2013-06-05, 10:55:13
Die 28W Modelle sind jetzt auch alle gelistet und hier das untere Iris Pro Modell:

http://ark.intel.com/products/76087/Intel-Core-i7-4750HQ-Processor-6M-Cache-up-to-3_20-GHz

Kostet $440. Das sind 57 USD über den günstigsten Einstiegs Quadcores mit HD4600. Das liegt absolut im Rahmen finde ich.
Der Link schickt mich irgendwie auf den i7-4750HQ (47W GT3e).

Ich persönlich finde ja den i5-4288U am interessantesten. 2C GT3 28W und Turbo für 342$.

Ronny145
2013-06-05, 11:13:29
Der Link schickt mich irgendwie auf den i7-4750HQ (47W GT3e).



Das ist so gedacht. i7-4750HQ ist das untere Iris Pro Modell.



Ich persönlich finde ja den i5-4288U am interessantesten. 2C GT3 28W und Turbo für 342$.


i5-4288U $342
i5-4258U $342
i3-4158U $342

Vermutlich werden sich die Preise für Großabnehmer unterscheiden. Die gleichen Preise machen da kein Sinn. Nach der Preisliste kosten die 15W und 28W GT3 das gleiche.

robbitop
2013-06-05, 12:06:02
Sollten eigentlich 512bit@1.6Gbps sein. Ist halt bidirektional, also 256bit pro Richtung, die Transferrate ist dementsprechend 50GB/s Read + 50GB/s Write.
Wie funktioniert eigentlich das Interface zwischen Haswell und Crystallwell? Hat Haswell ein 512 bit DDR Interface, welches man auf dem Package entlangzieht oder besteht zwischen beiden eine Art Punkt-zu-Punkt Verbindung und Crystallwell enthällt das Speicherinterface?


2xMSAA wird immer noch nicht in Hardware unterstützt.
Ist MSAA HW Unterstützung nicht seit DX10 Pflicht?


Ich sehe Intel mittlerweile (wieder) in der Lage, die Grafikhardware für eine Spielekonsole zu liefern.
Absolut. Aber warum "wieder"? Waren sie je in der Lage dazu?

AnarchX
2013-06-05, 12:42:02
Ist MSAA HW Unterstützung nicht seit DX10 Pflicht?

Aber nur 4x MSAA: http://forum.beyond3d.com/showpost.php?p=1745236&postcount=40

robbitop
2013-06-05, 12:50:50
:| Wenn man 4x MSAA kann, dann kann man sicherlich auch 2x MSAA. Die Berechnung ist doch die gleiche, nur dass man weniger Samples interpolieren muss.

Undertaker
2013-06-05, 12:53:20
Ich meine, 2x MSAA "geht" schon, aber afair mit den gleichen Einbußen wie 4x MSAA.

Ronny145
2013-06-05, 13:25:26
2xMSAA geht natürlich, aber nicht in Hardware. Läuft im 4xMSAA Modus und wird emuliert. Zukünftig wird Intel 2xMSAA in Hardware anbieten.

ndrs
2013-06-05, 14:16:48
Das ist so gedacht. i7-4750HQ ist das untere Iris Pro Modell.

Achja, die 5100 & 5000 heißen ja nur Iris. Mein Fehler.

i5-4288U $342
i5-4258U $342
i3-4158U $342

Vermutlich werden sich die Preise für Großabnehmer unterscheiden.
Schon klar. den 4258 hätte ich auch noch erwähnen können, aber ich glaube einen i3 würde ich bei den recht starken Turbofrequenzen des i5 nicht haben wollen.

robbitop
2013-06-05, 14:27:38
2xMSAA geht natürlich, aber nicht in Hardware. Läuft im 4xMSAA Modus und wird emuliert. Zukünftig wird Intel 2xMSAA in Hardware anbieten.
Wie peinlich ist das denn bitte? :freak:
Hoffentlich kann Broadwell das. Für alte Spiele ist MSAA immer ganz gut.

Spasstiger
2013-06-05, 14:40:28
Absolut. Aber warum "wieder"? Waren sie je in der Lage dazu?
Sehr theoretisch: http://de.wikipedia.org/wiki/I740. :freak:

robbitop
2013-06-05, 16:03:56
Der 740? Ernsthaft? :freak: IIRC war das Ding ziemlich ... meh.

Lemon Wolf
2013-06-05, 19:18:02
Der 740? Ernsthaft? :freak: IIRC war das Ding ziemlich ... meh.
Naja kommt drauf an wie man es betrachtet. Für die Preislage war der i740 nicht schlecht. War schneller als eine Riva 128 und hatte eine deutlich bessere Darstellungsqualität.

Ronny145
2013-06-06, 20:04:47
Auf den 5800K kannst du höchstens 5% für Richland draufrechnen, da dieser bereits mit DDR3-2133 vermessen wurde.


Hier die Bestätigung: http://www.anandtech.com/show/7032/amds-richland-vs-intels-haswell-gpu-on-the-desktop-radeon-hd-8670d-hd-4600

Solange Trinity mit gleichem Speicher getestet wird, hält sich die Steigerung wenig überraschend sehr in Grenzen. Die Werte sind direkt mit dem Iris Pro Test vergleichbar.

fondness
2013-06-06, 20:16:55
Hier die Bestätigung: http://www.anandtech.com/show/7032/amds-richland-vs-intels-haswell-gpu-on-the-desktop-radeon-hd-8670d-hd-4600

Solange Trinity mit gleichem Speicher getestet wird, hält sich die Steigerung wenig überraschend sehr in Grenzen. Die Werte sind direkt mit dem Iris Pro Test vergleichbar.

Lol?

I ran both AMD platforms using the same Catalyst 13.6 driver with the same DDR3-2133 memory frequency. The HD 4000/4600 numbers are borrowed from my Iris Pro review using DDR3-2400.

Skysnake
2013-06-06, 20:17:54
Das heist jetzt doch nicht etwa das, was ich gerade denke oder doch? :ugly:

Ronny145
2013-06-06, 20:18:32
Die HD4xxx Werte sind irrelevant für Iris Pro.

Ronny145
2013-06-09, 00:55:58
In der Preisliste gibt es Preise von Desktop R Modellen.


http://s14.directupload.net/images/130609/rqiih5ac.png


80-100€ Aufpreis gegenüber den normalen S-Modellen. Sehr deftig.

Nightspider
2013-06-09, 01:03:01
Wenigstens hat man bei denen nicht das Problem mit der schlechten WLP unter dem HS.

Wenn der EDRAM in Spielen etwas bringen würde, könnte man den Aufpreis ja rechtfertigen aber die Frage dürfte sich nicht stellen, mangels fehlender Auswirkungen auf Spiele.

Captain Future
2013-06-09, 10:21:41
Wie funktioniert eigentlich das Interface zwischen Haswell und Crystallwell? Hat Haswell ein 512 bit DDR Interface, welches man auf dem Package entlangzieht oder besteht zwischen beiden eine Art Punkt-zu-Punkt Verbindung und Crystallwell enthällt das Speicherinterface?

Hängt am Ringbus und wird durch Abschalten eines 2MB-L2-Slices an dessen freiem Port angebunden.

AnarchX
2013-06-09, 10:37:25
Wenigstens hat man bei denen nicht das Problem mit der schlechten WLP unter dem HS.

Möglicherweise kann das quadratische Die auch die Wärme besser abtransportieren.

Aber mit diesen Preisen sind die R-CPUs wirklich nur etwas für ein limitierte Formfaktoren.

Ronny145
2013-06-09, 15:57:42
BGA ohne Heatspreader und geringerer Maximalverbrauch sollte helfen.

Nightspider
2013-06-09, 16:21:37
Vielleicht sind die Dice auch selektiert(er), d.h. besser als die im 4770K mit besserem OC Verhalten, wegen geringerer Abwärme. (speku)

Undertaker
2013-06-09, 16:36:02
Die R-Modelle haben einen eigenen Die. Zudem ist OC dort doch gar nicht möglich.

Ronny145
2013-06-10, 16:05:42
Dualcore und Quadcore GT3 nebeneinander:

http://s14.directupload.net/images/130610/t8425dh8.jpg
http://pc.watch.impress.co.jp/docs/column/kaigai/20130610_602912.html

dildo4u
2013-06-10, 16:09:21
Warum ist der edram auf den Dual-core kleiner?

Ronny145
2013-06-10, 16:34:45
Das ist der Chipsatz. Es gibt keine Dualcore GT3 mit edram.

Ronny145
2013-06-18, 13:00:58
http://techreport.com/review/24954/amd-a10-6800k-and-a10-6700-richland-apus-reviewed/4


Im Richland review sind 55W Werte dazugekommen.

Ganon
2013-06-29, 22:00:30
Gibt es eigentlich schon Informationen wann damit Notebooks rauskommen? Bisher scheint ja nur Apple eine Intel HD5000 drinnen zu haben. Aber von 5100 und 5200 lese ich noch nix?

Hab das alles nur nebenbei verfolgt, daher die Frage.

Nightspider
2013-06-29, 22:09:24
Bisher wurde ja nur das MacBook Air gezeigt.
Ich gehe mal davon aus, da selbst das kleine MacBook Pro 13" mit 5200 Iris Pro erscheint.

Ganon
2013-06-29, 22:18:04
Naja gut, mich würde aber auch interessieren wann andere Hersteller damit rausrücken. Von Lenovo hab ich nur gehört "September/Oktober" bis Haswell. Aber ob Iris Pro dabei ist... kA.

Alle anderen verfügbaren Haswells haben entweder nur 4xxx drinnen oder gleich eine NVidia.

Ronny145
2013-06-29, 22:29:19
Asus bringt ein Zenbook mit HD5100. Wann das kommt? Gute Frage. Ich schätze frühestens September, mit Glück im August.

Coda
2013-06-29, 22:47:17
Warum ist der edram auf den Dual-core kleiner?
Das ist nicht der DRAM. Die eine Variante ist Quad Core + Chipsatz, das andere Dual-Core + DRAM.

Ups, wurde schon gesagt ;)

robbitop
2013-06-30, 09:49:03
Bisher wurde ja nur das MacBook Air gezeigt.
Ich gehe mal davon aus, da selbst das kleine MacBook Pro 13" mit 5200 Iris Pro erscheint.
rMBP13 hat nur Dual Core IMO. Da wird Haswell ULT 28 W reinkommen.

HD5200 gibt es nur in den Premium Quadcores. Also wenn dann beim rMBP15.

Ronny145
2013-07-05, 01:14:35
Erste Iris Pro Listung.

Processor: 4th Generation Intel Core i7-4750HQ Processor ( 2.0GHz 6MB L3 Cache - 4 Cores plus Hyperthreading )
Display: 14.1" 1080p Full High Definition LED Backlit IPS Display with Matte Finish (1920 x 1080)
Graphics: Intel Iris Pro Graphics 5200 with 128 MB eDRAM

https://www.system76.com/laptops/model/galu1

$995 der Preis.

VooDoo7mx
2013-07-05, 01:52:55
Erste Iris Pro Listung.


https://www.system76.com/laptops/model/galu1

$995 der Preis.

Das ist eine ziemlich coole Kiste. Preis/Leistung ist sehr gut. Display gut, Gewicht gut, viele Anschlüsse. Dazu noch HDD + mSATA möglich.

Weiß vielleicht jemand was das für ein Barebook ist?

Edith: habs rausgefunden, ist ein Clevo W740SU, Gehäuse scheint zumindestens auch teilweise aus Alu.

Wäre interessant zu wissen, wie gut die relativ dünne Kiste 47W von dem 4750HQ bei Volllast abführen kann.

Skysnake
2013-07-05, 12:24:35
Krass wie dünn das Display ist :wow:

Ganon
2013-07-06, 19:06:24
Erste Iris Pro Listung.
https://www.system76.com/laptops/model/galu1
$995 der Preis.

Genau so ein Notebook (von den technischen Daten) will ich haben... :D Wäre schön, wenn sowas demnächst auch hier erscheint. Mein Wunsch ist halt: 14-15", mattes FullHD, IrisPro, SSD (oder wechselbare HDD).

VooDoo7mx
2013-07-07, 16:22:27
Genau so ein Notebook (von den technischen Daten) will ich haben... :D Wäre schön, wenn sowas demnächst auch hier erscheint. Mein Wunsch ist halt: 14-15", mattes FullHD, IrisPro, SSD (oder wechselbare HDD).

Das wird auf jeden Fall bald hier erscheinen. Ist ja ein Clevo Barebook, dürfte es unter Branding dann sicher bei Schenker, Devlitech usw geben.
Ein polnischer Reseller (http://www.bluemobility.pl/xnote-hyperbook-14-preorder-p-24920.html) hat es schon im Angebot, mit angeblicher Verfügbarkeit Ende Juli. Für 3400 mit 768p Display oder 3850 Zloty mit 1080p Display also ~ 790€ bzw 895€. Sehr interessant finde ich das dieser Shop auf Wunsch das Gerät auch komplett ohne Platte, RAM und/oder W-Lan Adapter ausliefert. So kann man sich selber das besorgen was man braucht und muss nicht extrem überteuerte Aufrüstoptionen bezahlen.

Ronny145
2013-07-09, 19:39:04
http://appleinsider.com/articles/13/07/09/apples-haswell-powered-15-macbook-pro-revealed-in-benchmark-test


Das Apple ein Iris Pro Notebook bringt ist keine Überraschung.

Ronny145
2013-07-10, 10:43:54
Mit dem Windows 8.1 Preview Treiber von vorher 155 Extensions OpenGL 4.0 auf jetzt 183 Extensions OpenGL4.2:


http://s14.directupload.net/images/130710/b4fb5tjt.png

Flusher
2013-07-10, 16:30:00
Ich kann die Euphorie und Vorfreude auf IrisPro Geräte nicht teilen. Zum einen scheinen die nur in homöpathischen Dosen geliefert zu werden, zum anderen ist und bleibt es eine Intel GPU inkl. der entsprechenden Treiberqualität. Da ist der Griff zu einer AMD APU oder gleich einer dedizierten GPU für mobile Geräte deutlich sinnvoller, sofern man auch wirklich damit Spielen will.

Die IrisPro ist eben weder Fisch noch Fleisch - fürs reine Office völliger Overkill, zum Zocken alleine schon wegen den Treiber auch nicht brauchbar. :freak:

boxleitnerb
2013-07-10, 16:38:33
Ist das nicht inzwischen eher ein Mythos, der ohne neuerlichen Beweis immer wieder hervorgeholt wird?

y33H@
2013-07-10, 16:47:09
Schon, ja. Wenn man schon die iGPU-Krone an Intel abgeben muss, dann muss man halt die Treiber bashen ^^ rein von den Features ist das auch korrekt, bei der Aktualisierungsgeschwindigkeit ebenfalls, aber sonst nicht.

Flusher
2013-07-10, 17:33:31
Hab ich was übersehen? Mir sind bisher nur wenige Tests bekannt in denen die IrisPro überhaupt getestet wurde, und die die es gibt, bieten afaik eine schlechte Vergleichbarkeit der Werte aufgrund zu grosser Unterschiede im Testsystem und/oder geringem Benchmarkumfang.

:confused:

Ganon
2013-07-10, 17:44:41
Die IrisPro ist eben weder Fisch noch Fleisch - fürs reine Office völliger Overkill, zum Zocken alleine schon wegen den Treiber auch nicht brauchbar. :freak:

Unter Linux sind die Intel Treiber so ziemlich das beste, was du im OpenSource-Bereich finden kannst. Sowohl von den OpenGL-Features (OpenGL ES 3.0 z.B.) als auch Kompatibilität.

Außerdem werden Notebook mit dedizierten GPUs deutlich heißer, wenn man diese nutzt. Natürlich hat man mit diesen dann auch mehr Performance, aber nicht jeder will mit seinem Notebook die neusten Spiele in höchsten Auflösungen spielen.

Ich für meinen Teil will einfach eine schnelle und unproblematische GPU für den Linux-Betrieb haben. Und da ist Intel einfach ganz vorne mit dabei. Das ist mit AMD oder NVidia Optimus einfach (noch) nicht in diesem Ausmaß gegeben.

YfOrU
2013-07-10, 18:33:48
Hab ich was übersehen? Mir sind bisher nur wenige Tests bekannt in denen die IrisPro überhaupt getestet wurde, und die die es gibt, bieten afaik eine schlechte Vergleichbarkeit der Werte aufgrund zu grosser Unterschiede im Testsystem und/oder geringem Benchmarkumfang.


Da es sich um eine mobile Lösung handelt wäre direkt vergleichbar = identische TDP (-> etwas unter 50W gesamt). Also ein 15W (Haswell ULT) Dualcore mit einer dedizierten GT 640M DDR3 bzw. eher 630M DDR3.

Das ein i7-4750HQ (Haswell Quadcore, 47W) mit Iris Pro 5200 in praktisch jedem denkbaren Szenario flotter agiert dürfte kaum zur Debatte stehen. Ein 15W (i7) ULT Dualcore (wie 4500U) welcher wenigstens grob die gleiche ST Performance wie der i7-4750HQ bietet ist dabei alles andere als ein Produkt von der Resterampe sondern nach Liste nur 42$ günstiger - die dedizierte GPU kommt noch oben drauf.

Der 4750HQ hat damit im gleichen TDP Budget die doppelte CPU Performance (MT) sowie eine etwas schnellere GPU. Für Anwender welche sich ein richtiges Notebook kaufen (portabel und nicht gnadenlos überzüchtet) ist das ein sehr interessantes Paket. Das rMBP (15 Zoll) mit GT 650M GDDR5 hat ungefähr die gleiche CPU Leistung und je nach Setting im Mittel eine um 30% schnellere GPU. Im Gegenzug verdoppelt sich die TDP auf 90 Watt.

Undertaker
2013-07-10, 19:06:42
Ganz so einfach kann man allerdings auch nicht rechnen, würde die genannte CPU-GPU-Kombination doch bei reiner CPU- oder GPU-Last nicht nur langsamer, sondern auch deutlich sparsamer agieren. Unter Last effizienter als zwei einzelne Komponenten ist Haswell/GT3e höchstwahrscheinlich nicht, dafür sind die aktuellen Mittelklasse-Modelle einfach zu stark.

Man kann den 4950HQ aber z.B. auch als Kombination von 4800MQ und GT 640M sehen, die bei gleichzeitiger Belastung beider Komponenten leicht gedrosselt wird. Also eigentlich genau das, was viele Multimedia-Notebooks ohnehin schon tun. ;)

Ich bin ja immernoch gespannt, ob das neue MBP 15 wirklich ausschließlich mit der Iris Pro angeboten wird. In Spielen wäre das ziemlich sicher ein Leistungsrückschritt gegenüber der letztjährigen Lösung.

YfOrU
2013-07-10, 19:31:30
Ganz so einfach kann man allerdings auch nicht rechnen, würde die genannte CPU-GPU-Kombination doch bei reiner CPU- oder GPU-Last nicht nur langsamer, sondern auch deutlich sparsamer agieren.

Da reine GPU Last in der Praxis eher nicht auftritt beschränkt es sich großteils auf die CPU. Ein ULT mit IGP, PCH und Optimus ist hier natürlich immer im Vorteil (Effizienz) aber das Plus an CPU Leistung (HQ) steht in Relation ziemlich gut da. Meiner Ansicht nach müsste die Laufzeit bei den HQ Varianten im typischen mobilen Betrieb (vergleichsweise geringe Last) ähnlich zu IB ULV sein. Bei hoher Last natürlich entsprechend der TDP ;)


Unter Last effizienter als zwei einzelne Komponenten ist Haswell/GT3e höchstwahrscheinlich nicht, dafür sind die aktuellen Mittelklasse-Modelle einfach zu stark.

Aufgrund der dynamischen Verteilung der TDP welche bei getrennten Komponenten nicht möglich ist spielt es eigentlich keine große Rolle. Der limitierende Faktor ist die maximale TDP und bezogen auf kompakte 14 und 15 Zoll Geräte gibt es mit Iris Pro deutlich mehr Spielraum.


Man kann den 4950HQ aber z.B. auch als Kombination von 4800MQ und GT 640M sehen, die bei gleichzeitiger Belastung beider Komponenten leicht gedrosselt wird. Also eigentlich genau das, was viele Multimedia-Notebooks ohnehin schon tun. ;)

Richtig, entweder gedrosselt oder erdrosselt (niedriger GPU Takt + DDR3). Wobei ich Iris Pro aktuell nicht primär in diesem Segment sehe sondern eher im Bereich der größeren und leistungsfähigen Ultrabooks.


Ich bin ja immernoch gespannt, ob das neue MBP 15 wirklich ausschließlich mit der Iris Pro angeboten wird. In Spielen wäre das ziemlich sicher ein Leistungsrückschritt gegenüber der letztjährigen Lösung.

Eigentlich wären aufgrund der großen Unterschiede (TDP) zwei Gehäusedesigns nötig bzw. sinnvoll.

Undertaker
2013-07-10, 19:56:59
Aufgrund der dynamischen Verteilung der TDP welche bei getrennten Komponenten nicht möglich ist spielt es eigentlich keine große Rolle. Der limitierende Faktor ist die maximale TDP und bezogen auf kompakte 14 und 15 Zoll Geräte gibt es mit Iris Pro deutlich mehr Spielraum.

Wie gesagt: Mehr Spielraum als bei aktuellen Modellen mit Quad, Mittelklasse-GPU und Throttling bekommt man eben nicht*. Vorteile sind einfacheres und günstigeres Boarddesign, Einsparung der Grafikumschaltung (auch wenn Optimus doch ziemlich ausgereift und unproblematisch ist) und weniger Schwierigkeiten, das Throttling einer dedizierten Lösung möglichst optimal auf CPU und GPU aufzuteilen. Dell hat da z.B. beim XPS 15 einige Zeit und mehrere BIOS-Versionen gebraucht, das halbwegs stimmig hinzubekommen.

Gleichzeitig schafft man sich aber auch andere Probleme: Viele Notebooks a'la MacBook Pro, Asus Zenbook usw. setzen auf zwei Lüfter, die CPU und GPU kühlen. Wenn man die Abwärme nun in einem Punkt konzentriert, wird es wesentlich schwerer eine kompakte, leise und ausreichend starke Kühlung zu konstruieren. Um das mal zu verdeutlichen: Der Core i7-3615QM im 2012er MBP zieht in Prime je nach Chipgüte knapp unter 45 Watt. Dabei schießt der Chip auf über 100°C und throttelt periodisch. Ein Haswell mit GT3e wird in Spielen konstant am TDP-Limit liegen -> die Folge muss ich wohl nicht weiter ausführen, die Ansprüche an die Kühlung steigen. Bei Verteilung der Hitzequellen, also in Spielen, kann das 2012er MBP dagegen ~60-70W recht problemlos abführen.

*Zumindest in der aktuellen Generation. Wenn Intels GPU-Architekturen bzgl. Perf/Watt weiter aufholen, kann sich das durch den bestehenden Prozessvorteil natürlich ändern.

robbitop
2013-07-10, 20:11:26
Die Intel Treiber sind -genau wie die Hardware- deutlichst besser geworden. Ich tippe darauf, dass bei Broadwell auch bei Ultrabooks der eDRAM Einzug halten wird. Und zumindest in die 28 W Klasse.

YfOrU
2013-07-10, 20:25:19
Um das mal zu verdeutlichen: Der Core i7-3615QM im 2012er MBP zieht in Prime je nach Chipgüte knapp unter 45 Watt. Dabei schießt der Chip auf über 100°C und throttelt periodisch.

Die HQ Modelle haben deutlich mehr Fläche als die IB Quads mit HD 4000. Einmal 47 Watt ist deshalb in jedem Fall einfacher zu handhaben. Die zwei Lüfter werden bei kompakten Designs eigentlich immer benötigt - sind übrigens höchst selten getrennte Kühlkreisläufe (CPU sowie dedizierte GPU). Beispiel rMBP:
http://www.notebookcheck.net/fileadmin/_migrated/pics/IMG_3241_09.jpg
CPU und GPU grillen sich gegenseitig bei einer gemeinsamen TDP erheblich oberhalb der 47 Watt eines HQ.

Anmerken muss man auch das Apple beim rMBP 15 absichtlich etwas einbremst denn das gesamte Gerät würde sonst bei theoretischer Vollast knapp an die 100W verbraten aber selbst das NT hat nur ~85W am Ausgang ;)


*Zumindest in der aktuellen Generation. Wenn Intels GPU-Architekturen bzgl. Perf/Watt weiter aufholen, kann sich das durch den bestehenden Prozessvorteil natürlich ändern.

Iris Pro ist mit den mobilen Mainstream Lösungen (Effizienz) mindestens auf Augenhöhe ansonsten würden die GPU Benchmarks bei Anandtech anders aussehen -> CPU Limit. Das zeigt unter andren auch die Skalierung der GPU Performance über die Erhöhung der TDP (von 47 auf 55W). Im Umkehrschluss bekommt die CPU (bei 47W) recht viel von der gemeinsamen TDP ab.

Undertaker
2013-07-10, 22:42:02
Die HQ Modelle haben deutlich mehr Fläche als die IB Quads mit HD 4000. Einmal 47 Watt ist deshalb in jedem Fall einfacher zu handhaben. Die zwei Lüfter werden bei kompakten Designs eigentlich immer benötigt - sind übrigens höchst selten getrennte Kühlkreisläufe (CPU sowie dedizierte GPU).

Ja, deswegen auch keine Verdoppelung der Kühlleistung (ich sprach von etwa 60-70W für beide Chips am Beispiel des MBP). Dennoch ist es ungleich schwieriger, die gleiche Abwärme von einem Chip abzuführen als von zweien - das ist nunmal ein Nachteil dieser Lösung. Über anderweitige Vorteile sind wir uns ja auch einig. ;)

Übrigens: Auch wenn ich noch keine Iris Pro in den Fingern hatte, würde ich nicht auf bessere Temperaturen aufgrund des größeren Dies spekulieren. Auch die ULV-Modelle mit HD 5000 haben deutlich mehr Fläche als die alte Generation, gleichzeitig etwas weniger TDP und laufen nach bisherigen Erfahrungen mindestens genauso heiß wie Ivy Bridge...


Iris Pro ist mit den mobilen Mainstream Lösungen (Effizienz) mindestens auf Augenhöhe ansonsten würden die GPU Benchmarks bei Anandtech anders aussehen -> CPU Limit. Das zeigt unter andren auch die Skalierung der GPU Performance über die Erhöhung der TDP (von 47 auf 55W). Im Umkehrschluss bekommt die CPU (bei 47W) recht viel von der gemeinsamen TDP ab.

Hier kann ich dir nicht ganz folgen. CPU-Limits gibt es dort nicht. Der GPU-Takt der Iris Pro bei Anandtech hängt im TDP-Limit, aber auch auf 55 Watt bleibt ein Rückstand von ~20-30% (nicht nachgerechnet) auf die GT 650M. Von den 55 Watt entfallen wohl mindestens 35-40 Watt auf die GPU (ich habe schon bei der HD 4600 rund 30 Watt beobachtet!), dass ist mehr als bei einer ~50% schnelleren Radeon HD 8850M. Sicher liegt das auch am vergleichsweise hohen Takt, mit diesem kann die GPU keinen Effizienzpreis gewinnen.

Nur um das nochmal zu betonen: Rein technisch finde ich die GT3e überaus spannend. Ich bin nur mit den aktuell angebotenen Modellen unzufrieden: 47W in einem Chip sind für schlanke Notebooks idR zu viel. Die GT3e in einem 35W-Chip mit besserer Effizienz und niedrigerem Preis wäre imo viel interessanter.

robbitop
2013-07-11, 12:39:55
Warte auf nächstes Jahr. Haswell ist doch nur der Begin. Nächstes Jahr gibt es GT4 mit >2x Rechenleisung bestimmt im 28 W ULT Bereich. Das ist dann ca. 1,5-2x 650M Speed in einem 1,6 kg schweren Macbook Pro Retina 13". 28W für alles. CPU, GPU, Spannungswandlung.

Gerade im unteren Bereich sind die neuen GPUs bzw SoCs wirklich sehr sehr effizient. GT3 (ohne e) ist sicherlich im 28W ULT Bereich auch dieses Jahr schon ganz gut.

Undertaker
2013-07-11, 12:54:02
Ja, mit dem nächsten Shrink dürfte wirklich ein deutlicher Sprung folgen, gerade bei den TDP-limitierten low-power Chips. Derzeit bringt die GT3/HD 5000 in den 15W-Modellen nur höchst marginale Leistungsgewinne gegenüber der HD 4400, wenn man sich mal die Zahlen von Anandtech anschaut:

http://www.anandtech.com/show/7085/the-2013-macbook-air-review-13inch/4

Offensichtlich agiert die HD 4400 noch in einem sehr effizienten Taktbereich, sodass die breitere Auslegung der HD 5000 kaum Spannungsabsenkungen und damit Effizienzsteigerungen ermöglicht. Zusätzliche Shader machen (zumindest im ULV-Bereich) somit erst mit einem neuen Prozess Sinn.

robbitop
2013-07-11, 13:08:42
Schon die 28 W ULT Version sollte deutlich besser sein.

Spasstiger
2013-07-11, 13:30:20
Nur um das nochmal zu betonen: Rein technisch finde ich die GT3e überaus spannend. Ich bin nur mit den aktuell angebotenen Modellen unzufrieden: 47W in einem Chip sind für schlanke Notebooks idR zu viel. Die GT3e in einem 35W-Chip mit besserer Effizienz und niedrigerem Preis wäre imo viel interessanter.
Mit 35 Watt TDP bleibt wahrscheinlich schon ganz gut Performance auf der Strecke, was dann wiederum den Zusatzaufwand für den eDRAM in Frage stellt.

Ganon
2013-07-11, 13:41:39
http://www.hardwareluxx.de/index.php/news/hardware/notebooks/27047-schenker-praesentiert-das-s413-mit-intel-iris-pro-5200.html

Ich denke das werde ich mir holen, sofern ich keine Blocker in Sachen Linux-Support finde. Lustig ist die Auswahl "ohne OS". Man spart 85 EUR, wofür man dann sich eine 64GB mSATA SSD einbauen kann.

Undertaker
2013-07-11, 13:51:39
@Spasstiger: Voraussetzung wäre, dass der CPU-Basistakt ebenfalls deutlich abgesenkt wird, damit die GPU einen möglichst großen Teil des TDP-Budgets vereinnahmen kann. Dennoch würde die Performance natürlich fallen, vermutlich aber weitaus weniger als die Leistungsaufnahme, da die Iris Pro in derzeitiger Form doch ziemlich hoch taktet.

Allerdings gibt es natürlich zwei Punkte die dagegen sprechen: Zum einen ist es für Intel natürlich attraktiv, sich den zusätzlichen Speicher möglichst teuer als High-End-Modell bezahlen zu lassen. Zum anderen dürfte die GPU bei niedrigerer Taktrate auch weniger am Speicher hängen, sodass der Mehrwert des eDRAMs sinkt.

http://www.hardwareluxx.de/index.php/news/hardware/notebooks/27047-schenker-praesentiert-das-s413-mit-intel-iris-pro-5200.html

Ich denke das werde ich mir holen, sofern ich keine Blocker in Sachen Linux-Support finde. Lustig ist die Auswahl "ohne OS". Man spart 85 EUR, wofür man dann sich eine 64GB mSATA SSD einbauen kann.

Das gleiche 14" Barebone wie bei System76... Also wenn das Versprechen einer leisen Kühlung bei Volllast (ohne Throttling versteht sich) wirklich stimmen sollte, wäre das beeindruckend. :)

Ganon
2013-07-16, 15:31:03
Test ist geplant, Gerät ist auf dem Weg zu uns...


Ich bin gespannt :)

VooDoo7mx
2013-07-18, 02:23:18
Ich bin gespannt :)
Jo ich auch. Die Tests von Notebookcheck sind auch immer sehr gut.

Wenn Verarbeitung, Lautstärke, Diusplay und Throttling Verhalten gut sind, wird die Kiste gekauft.

Hier gibt es das Clevo W740SU auch, sogar günstiger als bei Schenker und anscheinend sofort lieferbar.:
http://www.linux-onlineshop.de/Linux-Hardware/Linux-Notebooks/10-14-Zoll/Tuxedo-Book-BU1402-14-matt-Full-HD-Ultrabook-Intel-Core-i7-4750HQ-Intel-HD-5200-Grafik-zwei-HDD-SSD-bis-16GB-RAM.geek.

Ab 999€
Bei dem Aufrüstoptionen und Preisen macht es da Sinn sich eine mSATA SSD und Funkmodul selber zu kaufen.
In meiner Konfiguration mit 1TB HDD, 8GB RAM, Crucial M4 256GB SSD und Intel 802.11ac Adapter dann insgesamt ca 1230€.
Wirkt zwar viel aber im Vergleich zu anderen Ultrabooks bekommt man auch viel mehr.

Ronny145
2013-07-18, 02:46:36
Nur verkauft system76 das gleiche für 995 USD, macht etwa 760€. Wir müssen mal wieder 1:1 den Dollarpreis übernehmen. 1x4 GB in der Basisaustattung ist echt gefährlich. Gibt bestimmt viele die das so kaufen, was da an Leistung für die iGPU flöten geht.

mczak
2013-07-18, 02:58:47
@Spasstiger: Voraussetzung wäre, dass der CPU-Basistakt ebenfalls deutlich abgesenkt wird, damit die GPU einen möglichst großen Teil des TDP-Budgets vereinnahmen kann. Dennoch würde die Performance natürlich fallen, vermutlich aber weitaus weniger als die Leistungsaufnahme, da die Iris Pro in derzeitiger Form doch ziemlich hoch taktet.
Naja also Anandtech hat ja Tests gemacht mit 47W und 55W Power Target und der Unterschied war doch schon relativ deutlich: http://www.anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/10
So über alles gesehen so etwa 8% mehr Performance für 16% mehr TDP. Auch bei 47W erreicht die GPU also selten den Maximaltakt (selbst bei ein paar der synthetischen Benches ist das offensichtlich nicht der Fall). Bei bloss 35W TDP (das sind -25%) würde ich doch einen ziemlich deutlichen Einbruch erwarten (vielleicht so 15-20%)? Ob da edram wirklich noch lohnt weiss ich nicht.
btw mich würde auch noch interessieren wie sich das Teil (mit edram) bei single-channel Bestückung verhält. Die Schenker Standardkonfiguration ist nur single-channel, beim Clevo kann man das nicht mal explizit konfigurieren (na gut ich bin sicher die 16GB-Variante ist DC...). Theoretisch sollte ja mit edram die Abhängigkeit vom Speicher geringer sein. Ist ja sowieso bei den intel Chips tendenziell etwas kleiner als bei den AMD-APUs, jedenfalls bei den "alten" VLIW-basierten (bei den High-End Richland/Trinity Chips ist der Unterschied zwischen SC und DC ja glatt ein Faktor 2), aber ich vermute mal trotzdem nicht wirklich zu empfehlen.

Neosix
2013-07-18, 03:53:07
Nur verkauft system76 das gleiche für 995 USD, macht etwa 760€. Wir müssen mal wieder 1:1 den Dollarpreis übernehmen. 1x4 GB in der Basisaustattung ist echt gefährlich. Gibt bestimmt viele die das so kaufen, was da an Leistung für die iGPU flöten geht.

Die Preise in Übersee sind immer ohne Steuer. Da kommen auch noch "paar" % drauf. Das Ganze relativiert sich dann relativ schnell.

Ansonsten sieht das Gerät wirklich interessant aus, wäre dann auch etwas was ich mir kaufen würde.

Ganon
2013-07-18, 08:08:25
Nur verkauft system76 das gleiche für 995 USD, macht etwa 760€.

Mit 19% MwSt sind wir schon bei >900. + Zoll und... nunja ;)

Ab 999€
Bei dem Aufrüstoptionen und Preisen macht es da Sinn sich eine mSATA SSD und Funkmodul selber zu kaufen.

Joahr, fragt sich wie gut man das umbauen kann. Außerdem sind die Preise nicht so unterschiedlich zwischen mysn und dem da. Andere Standardkonfig. Was mir bei mysn so gefällt ist, dass man sich direkt den Hersteller der SSD und das Modell aussuchen kann. Das erspart Bastelarbeit.

Neosix
2013-07-19, 16:10:30
Computerbase hat heute einen Test der Intel Iris Pro 5200 mit dem Schenker S413 veröffentlicht.

http://www.computerbase.de/artikel/grafikkarten/2013/intel-iris-pro-5200-grafik-im-test/

Fazit: Irgend wo zwischen GeForce GT 730M und der GeForce GT 740M

fondness
2013-07-19, 16:33:16
Ca. gleich schnell wie ein A10-6800K mit DDR3-2400....naja.

Ronny145
2013-07-19, 16:47:44
Ca. gleich schnell wie ein A10-6800K mit DDR3-2400....naja.


Und das gegen ein 47W Notebook Modell mit DDR3-1600 und dem langsamsten Iris Pro Modell für Notebooks. Nach Spezifikation wäre der 6800k schon darunter. Das hätte Monate vor dem launch niemand erwartet.

iFanatiker
2013-07-19, 16:56:39
Ca. gleich schnell wie ein A10-6800K mit DDR3-2400....naja.

Welche TDP hat nochmals dieser A10 und welche der getestete Haswell? Welcher Speicher kam nochmals da im Schenker Notebook zum Einsatz. Die Ergebnisse sind von Intel richtig gut. Performance auf dem Niveau zwischen 735M und 740M und deutlich geringere Kosten und auch Probleme bzgl. der Kühlung in Notebooks als wenn man sowas wie 740M einsetzt. In jeden Fall ein großer Wurf von Intel. Die Probleme werden noch Treiber lösen welcher Mittlerweile bei Intel auch absolut ok sind.

Neosix
2013-07-19, 17:05:28
Haswell TDP in dem Fall 47 Watt. DDR3-1.600 im Dual Channel.

Interessante Punkte: Die GPU Reserviert sich gleich 2GB Ram, 4GB sind hier klar nicht mehr zu empfehlen. Man sollte hier die 30€ Auspreis für 8GB nehmen. Laut dem Test taktete die GPU im Batterie Betrieb ohne Turbo-Boost also nur mit 200Mhz. Das ist für mich nicht ganz ok. Unterwegs ne Runde D3 hat man dann immer weniger Power als in der Steckdose. Wobei für D3 wohl auch der Basistackt reichen sollte. Liegt das an der Config vom Schenker oder tun das Alle GT3(e) Lösungen?

fondness
2013-07-19, 17:14:49
Welche TDP hat nochmals dieser A10 und welche der getestete Haswell? Welcher Speicher kam nochmals da im Schenker Notebook zum Einsatz. Die Ergebnisse sind von Intel richtig gut. Performance auf dem Niveau zwischen 735M und 740M und deutlich geringere Kosten und auch Probleme bzgl. der Kühlung in Notebooks als wenn man sowas wie 740M einsetzt. In jeden Fall ein großer Wurf von Intel. Die Probleme werden noch Treiber lösen welcher Mittlerweile bei Intel auch absolut ok sind.

Kein Wunder, da steckt ein fettes eDRAM-Modul direkt am Träger. Das Ding benötigt inkl. eDRAM in 22nm deutlich mehr Die-Fläche als der Richland in 32nm. Dafür finde ich das nicht gerade beeindruckend. Aber okay, Intel kann sich das leisten. Größer Wurf, naja, offensichtlich ist die Grafik ohne eDRAM noch immer dem betagten AMD Prozessor unterlegen, immerhin erreicht dieser dieselbe Leistung trotz Bandbreitenlimitierung.

Neosix
2013-07-19, 17:20:38
Wo ist das Problem? Mir aus Kundensicht ist es egal wie die Leistung zu Stande kommt. Und Intel ist es offensichtlich gelungen innerhalb von 2 Generationen AMD was Grafikleistung angeht einzuholen (*). Und Haswell ist ja nur der erste SOC Design von Intel und erst der erste Schritt. Schon nächstes Jahr werden wir wahrscheinlich sehen wozu das Ganze dann fähig ist.

*Liest man nochmal die Posts von vor 2-3 Jahren so haben die meisten User hier Intel diese Fähigkeit überhaupt nicht zugetraut. Doch Intel hat bisher ~50% Leistung jede Generation drauf gepackt. Und das Konsequent. Sicherlich wenn man von 0 startet ist es einfacher, doch haben sie bereits AMD Niveau erreicht.

Ronny145
2013-07-19, 17:30:19
Interessante Punkte: Die GPU Reserviert sich gleich 2GB Ram, 4GB sind hier klar nicht mehr zu empfehlen.


Das ist Bios abhängig. Womöglich liegt der reservierte Speicher bei 4GB niedriger. Empfehlenswert ist das sowieso nicht, weil nur 1x4 GB im Basisangebot. Wo steht das mit dem reserviertem Speicher eigentlich? 2GB erscheint mir unrealistisch.


Laut dem Test taktete die GPU im Batterie Betrieb ohne Turbo-Boost also nur mit 200Mhz. Das ist für mich nicht ganz ok. Unterwegs ne Runde D3 hat man dann immer weniger Power als in der Steckdose. Wobei für D3 wohl auch der Basistackt reichen sollte. Liegt das an der Config vom Schenker oder tun das Alle GT3(e) Lösungen?

Da wäre ich vorsichtig. Das lässt sich vielleicht über das Energieprofil abändern. Leider erwähnt der Tester nicht, ob das im Performance Profil genauso aussieht falls ich jetzt nichts übersehen habe.

Kein Wunder, da steckt ein fettes eDRAM-Modul direkt am Träger. Das Ding benötigt inkl. eDRAM in 22nm deutlich mehr Die-Fläche als der Richland in 32nm.

Über all die Jahre hatte AMD die deutlich fettere GPU, da bist du komischerweise immer ruhig geblieben. jetzt muss irgendwo das Haar in der Suppe gesucht werden, um Intel schlecht zu reden. Fakt ist jedenfalls das AMD diese Leistung in einem Notebook nicht realisieren kann. Dabei wird immer vergessen, dass auch die CPU deutlich überlegen ist.

Neosix
2013-07-19, 17:34:41
Steht im Test
"Unser Testexemplar setzt darüber hinaus auf einen acht Gigabyte großen DDR3-Speicher, der sich aus zwei Vier-GB-Riegel mit einer Geschwindigkeit von DDR3-1.600 zusammen setzt. Die GPU reserviert sich gleich zwei Gigabyte vom RAM."

Womöglicht liegt das mit 2GB in der Tat an der 8GB config. Dennoch würde ich heute nicht weniger haben wollen.

Ronny145
2013-07-19, 17:42:03
Steht im Test
"Unser Testexemplar setzt darüber hinaus auf einen acht Gigabyte großen DDR3-Speicher, der sich aus zwei Vier-GB-Riegel mit einer Geschwindigkeit von DDR3-1.600 zusammen setzt. Die GPU reserviert sich gleich zwei Gigabyte vom RAM."

Womöglicht liegt das mit 2GB in der Tat an der 8GB config. Dennoch würde ich heute nicht weniger haben wollen.



Ich muss das anzweifeln. Der dynamische liegt bei fast 2GB, 1,7GB um genau zu sein. Der maximal direkt adressierbare im Bios bei allen Desktop Mainboards liegt bei 1GB. Standard sind meist 64MB. Es macht kein Leistungsunterschied ob 64MB oder 2GB adressiert sind, die 2GB muss ich da echt bezweifeln. Das wäre pure Verschwendung. Ich tippe auf eine Verwechslung vom Tester.

Ganon
2013-07-19, 17:52:45
OK, die Leistung scheint ja nun in Ordnung zu sein. Schade, dass der Test im Nebensatz nichts über die Lautstärke unter Last gesagt hat. Also doch noch auf Notebookcheck.com warten. Aber momentan ist es eh nicht lieferbar.

Ganon
2013-07-19, 18:06:39
Da ich den Stromverbrauch der Technik nicht so wirklich kenne. Der Prozessor hat ja eine TDP von 47W. Jetzt ist im Test dort die Rede von bis zu etwas über 80W Verbrauch unter Last. Was verbraucht da jetzt unter Last noch die restlichen ~30W, was dies im idle nicht tut?

Neosix
2013-07-19, 18:09:39
Ja das fand ich auch schade wegen der Lautstärke, warte ich doch auch schon seit längerem auf ein brauchbares Gerät. Dennoch ist das ein CPU/GPU Test, ich hoffe Notebookcheck wird da nichts negatives finden.

Weitere Frage wäre auch ob das Gerät bei Schenker oder eben hier http://www.linux-onlineshop.de/Linux-Hardware/Linux-Notebooks/10-14-Zoll/Tuxedo-Book-BU1402-14-matt-Full-HD-Ultrabook-Intel-Core-i7-4750HQ-Intel-HD-5200-Grafik-zwei-HDD-SSD-bis-16GB-RAM.geek zu bestellen. Tuxedo Book BU1402 ist ja im Grunde baugleich oder gibts da n unterschied zum Schenker? Hier kann ich sogar komplett auf ein OS verzichten und so Geld sparen.

Twodee
2013-07-19, 18:14:33
Da ich den Stromverbrauch der Technik nicht so wirklich kenne. Der Prozessor hat ja eine TDP von 47W. Jetzt ist im Test dort die Rede von bis zu etwas über 80W Verbrauch unter Last. Was verbraucht da jetzt unter Last noch die restlichen ~30W, was dies im idle nicht tut?
Haben die den Notebook-LCD mit oder nicht mitgemessen?

Ganon
2013-07-19, 18:30:07
Hier kann ich sogar komplett auf ein OS verzichten und so Geld sparen.

Geht beim Schenker auch.

Haben die den Notebook-LCD mit oder nicht mitgemessen?

Haben sie mitgemessen. 18W im Idle und wohl 82W in Crysis 3. Jetzt die Frage wo bei 47W TDP da der Rest herkommt

Neosix
2013-07-19, 18:45:16
Geht beim Schenker auch.

Stimmt, mein Fehler, überlesen. Ohne OS, 8GB Ram, Samsung 840pro 256gb SSD kostet:
Schenker 1.243
Tuxedo 1.207

Also im Grunde das Gleiche, nur das ich beim Schenker sogar n dual Band AC Wlan Modul mitbestellen kann, wenn ich das richtig sehe? Wäre bei nem Arbeitsgerät was ich min 4 Jahre im Einsatz habe, ebenfalls n Argument für den Schenker.

Spasstiger
2013-07-19, 18:53:31
Rein von der Energieeffizienz her liegt ja das Asus-Notebook mit der GT 750M vorne, braucht bei Crysis 3 nur 7 Watt mehr als das Schenker mit Iris Pro 5200.
Stellt sich noch die Frage, ob das Display in den Stromverbrauch eingefloßen ist oder ob man bei Verwendung eines externen Displays gemessen hat. Generell sind über 80 Watt recht stolz für ein Notebook ohne High-End-Grafik.

Der eDRAM scheint auch bei der CPU-Leistung teilweise zu helfen, siehe CLBenchmark @ Computerbase. Dort wurden auch jeweils die CPU-Ergebnisse ermittelt.

Vision:
Intel Core i7-4700HQ @ CPU (Asus) - 1269 Punkte
Intel Core i7-4750HQ + Iris Pro @ CPU (Schenker) - 1416 Punkte

Programming Principles:
Intel Core i7-4700HQ @ CPU (Asus) - 19543 Punkte
Intel Core i7-4750HQ + Iris Pro @ CPU (Schenker) - 25373 Punkte

Dabei taktet der Core i7-4700 um 200 MHz bis 400 MHz höher, sollte also in CPU-Benchmarks rund 10% schneller sein.

Ronny145
2013-07-19, 19:08:36
Rein von der Energieeffizienz her liegt ja das Asus-Notebook mit der GT 750M vorne, braucht bei Crysis 3 nur 7 Watt mehr als das Schenker mit Iris Pro 5200.



Also in Crysis 3 nicht, da ist die Iris Pro leicht schneller und verbraucht weniger. Mal sehen wie die Notebookcheck Verbrauchswerte aussehen.

CB testet Notebooks mit LCD, siehe hier: http://www.computerbase.de/artikel/prozessoren/2013/intel-haswell-prozessoren-fuer-notebooks-im-test/8/

Sind generell sehr hoch. A10-4600M mit 35W TDP 75 Watt?

edit: http://www.notebookcheck.net/Trinity-in-Review-AMD-A10-4600M-APU.74852.0.html

Kommt wohl hin.

Twodee
2013-07-19, 19:13:13
Also in Crysis 3 nicht, da ist die Iris Pro leicht schneller und verbraucht weniger. Mal sehen wie die Notebookcheck Verbrauchswerte aussehen.
Dazu kommt unterschiedliche NB-Hersteller, sowie unterschiedliche CPUs. Ein Vergleich ist da schwer möglich.

Spasstiger
2013-07-19, 19:19:46
Wenn mit Display gemessen wird, würde das auch den höheren Verbrauch des Notebooks mit i7-4700HQ als beim System mit i7-4770K erklären (beide mit HD 4600). Aber dann wäre es ziemlich dämlich, dass sich der Redakteur darüber wundert. Andererseits werden die idle-Werte direkt mit den unterschiedlich großen Displays erklärt.

gedi
2013-07-19, 19:55:22
Stimmt, mein Fehler, überlesen. Ohne OS, 8GB Ram, Samsung 840pro 256gb SSD kostet:
Schenker 1.243
Tuxedo 1.207

Also im Grunde das Gleiche, nur das ich beim Schenker sogar n dual Band AC Wlan Modul mitbestellen kann, wenn ich das richtig sehe? Wäre bei nem Arbeitsgerät was ich min 4 Jahre im Einsatz habe, ebenfalls n Argument für den Schenker.

Unabhängig vom Test auf Notebookcheck würde ich mir ein Clevo-NB nicht mehr antun wollen.

Neosix
2013-07-19, 20:00:58
Kannst du das auch bitte etwas ausführlicher machen? Gerne auch in einem separatem Thread.

Imo ist das aktuell rein von der Hardware das interessanteste Gerät mit Haswell. Auf Geizhals finden sich zwar schon einige Haswell Modelle doch bisher verbaut einzig Apple die 5xxx Lösungen. Etwas unverständlich in meinen Augen kosten doch Premium Notebooks von Samsung oder Sony teilweise sogar mehr als die Apfel Kontrahenten.

misterh
2013-07-19, 21:57:29
Vielleicht kriege ich ende Juli auch so ein Ding.

dann könnt ihr mir ja sagen was ihr so wissen wollt.

Win 7 Ultimate 64bit kommt dann drauf wenn soweit ist.

Neosix
2013-07-19, 22:42:28
Schenker ist in der Tat ausverkauft aktuell, letzte Woche stand noch 2-3 Tage lieferzeit. Merkwürdig.

gedi
2013-07-19, 23:42:43
Kannst du das auch bitte etwas ausführlicher machen? Gerne auch in einem separatem Thread.

Imo ist das aktuell rein von der Hardware das interessanteste Gerät mit Haswell. Auf Geizhals finden sich zwar schon einige Haswell Modelle doch bisher verbaut einzig Apple die 5xxx Lösungen. Etwas unverständlich in meinen Augen kosten doch Premium Notebooks von Samsung oder Sony teilweise sogar mehr als die Apfel Kontrahenten.

Ich hatte ein P702. Zu Schenker selbst: Sehr netter und kompetenter Support - wenn es ein Clevo sein muss, dann würde ich Schenker auf jeden Fall in die engere Wahl mit einschließen.

Zum Clevo selbst:

- grauenhaftes BIOS (für das P702 gibt es afaik noch immer kein fehlerfreies)
- grauhafte Kühler/Lüfter, welche ihren Namen nicht verdienen. S.h. unterdimensioniert und daher laut!
- AC97-Sound
- schwache Lautsprecher
- klapprige Tastatur
- im Vgl. zu einem AW schwache Verarbeitung

Neosix
2013-07-20, 04:34:02
Ka ob es am Schenker oder Intel liegt das sie nicht genügen CPUs haben.

http://www.mysn.de/detail.asp?bestellnr=SCHENKER-S413

Lieferhinweis:
Wieder lieferbar ab 23. August 2013. Bitte bestellen Sie rechtzeitig vor!

Die erste Charge ist offensichtlich komplett Ausverkauft, hoffentlich kriegen die Tester paar Geräte. Für alle anderen Interessenten heißt es jetzt mindestens 5 Wochen Gedulden.

@gedi danke für dein Bericht
"grauhafte Kühler/Lüfter, welche ihren Namen nicht verdienen. S.h. unterdimensioniert und daher laut!"

Ja das ist meine größte Sorge, 50Watt CPU in ein Ultrabook Gehäuse quetschen wird bestimmt nicht ohne thermische Folgen bleiben.

Knuddelbearli
2013-07-20, 11:22:34
Oder es wurde nur als gutes testexemplarem verkauft damit Intel was zu werben hat

Ganon
2013-07-20, 12:27:19
Unabhängig vom Test auf Notebookcheck würde ich mir ein Clevo-NB nicht mehr antun wollen.

Das Problem ist, dass kaum ein anderer Hersteller es gebacken bekommt mal ein Notebook mit diesen Merkmalen hinzubekommen. Alleine schon bei FullHD und matter Bildschirm scheiden sehr viele Notebooks aus. Selbst das so viel gelobte Lenovo. Und wenn man dann noch versuchen will eine Nvidia GPU zu vermeiden... tjoahr.

gedi
2013-07-20, 17:26:51
Ich habe mir bei meinem AW einfach eine matte Schutzfolie auf die Scheibe geklebt.

Warum AW und nicht mehr Clevo:

-Sehr gute Verarbeitung (findet sich sonst nur bei Macbooks)
-Top-Community (vor allem die englischsprachigen Foren)
-Vorzügliche Komponenten, insbesondere auch die Kühler/Lüfter
-Sehr guter Support
-Dank unlocked A10 ein BIOS, welches sich primär an Übertakter wendet
-Sehr einfacher Teardown
-Von Werk aus unlocked VGA-BIOS, welches die Spannung sehr leicht im VGA-Profil auf 0.001V genau justieren lässt (des weiteren gibt es auch noch den VGA-BIOS_Patcher, welcher erlaubt, sein eigenes BIOS zu erstellen und zu flashen)
-Für ein NB außergewöhnlich gute Lautsprecher
-kompromissloser Desktopersatz
-Kein Enduro (die iGPU und die zwei 7970er werden durch FN+F7 plus Reboot, welcher Dank SSD sehr schnell vonstatten geht, gewechselt)
-Mit iGPU 4 Std. Akku-Laufzeit

Nachteile: Viel zu schwer und sauteuer :(.

VooDoo7mx
2013-07-20, 19:18:57
Also weil ein Clevo Gerät was du hattest deiner Meinung nach schlecht war, gilt das automatisch für alle anderen und zukünftigen Clevo Notebooks?
Besonders das W740SU ist eine komplette Neuentwicklung die noch nicht auf dem Markt war.
Außerdem ist das Vergleich ziemlich Äpfel mit Birnen. Du ziehst deine Erfahrungen aus einen Clevo DTR Teil, eine ganz andere Geräteklasse. Die Leute die sich hier für ein Clevo W740SU interessieren, möchten sicher kein 5kg Desktop Replacement kaufen. Diese Gerätekategorie ist auch gar nicht die Zielgruppe von Iris Pro.

Fazoit: Absoluter Schwachsinn von einen DTR auf ein 1,9kg Gerät zu schließen

Ja das ist meine größte Sorge, 50Watt CPU in ein Ultrabook Gehäuse quetschen wird bestimmt nicht ohne thermische Folgen bleiben.

Naja das W740SU ist schon mal kein Ultrabook, da es quasi keine der Intel Kriterien erfüllt und ist mit über 20mm Dicke allein schon zu fett dazu.
Desweiteren gibt es auch mehrere Ultrabooks die noch eine dedizierte Grafik beherbergen und damit in die selben Verbrauchsregionen kommen.

Das W740SU nutzt auch das von Intel entwickelte Hyperbarbic Cooling. Da dient quasi die gesamte Rückseite nur für die Luftein- und Auslässe. Sieht man ja auch sehr gut an den Bildern.
Bei diesen Kühlprinzip wird über einen Luftkanal Frischluft eingesaugt um Komponenten zu kühlen und an anderer Stelle wieder rausgeblasen.
Bei einen normalen Notebook sammelt sich die Hitze ohne Frischluft auf einer Stelle und wird dann hinausbefördert.

Dieses Kühlprinzip arbeitet auch mit 2 Lüftern:
http://img2.wmxstatic.com/di1.ashx/89/43460/560/0

Clevo wirbt ja selber: Quiet: Best in class acoustic performance
Auch wenn dies nur Eigenwerbung ist, gehe ich jetzt nicht davon aus das genau das Gegenteil davon eintritt.

gedi
2013-07-20, 21:22:51
Mir ist schon klar, dass ein AW hier für die wenigsten User in Frage kommt und dass der Vgl. hinkt, da meines schlicht einen Desktopersatz darstellt und die Suche/Auswahl hier wohl andere Dinge priorisiert.

Zwecks dem Kühlsystem: Da kann ich nur lachen. Es bringt halt alles nichts, wenn der Kühlkörper an sich völlig unterdimensioniert ist. Zudem bin ich nicht informiert, wie es sich mit den Temperaturen der neuen Prozessorgeneration verhält.


Btw. hat meine Frau so nen 15" Samsung-NB mit i5-ivy und die ist ganz zufrieden mit dem Teil. Zudem macht es für mich verarbeitungstechnisch einen sehr soliden Eindruck.

Wahrscheinlich würde meine Wahl eher aus so etwas fallen.


Natürlich kann es sein, dass Clevo für sich das Rad neu erfunden hat, glauben möchte ich es allerdings nicht.

robbitop
2013-07-21, 19:58:13
Schlaues Kühlprinzip. Die Lüfter saugen schön z.T. die warme Abluft wieder hinein, da Zu- und Abluftkanäle direkt nebeneinander sind.

Neosix
2013-07-21, 20:10:44
Das ist doch noch gar nichts. Hier Sony Modell was wir besitzen.

http://i.imagebanana.com/img/fapx88kp/Sony_EC1_86.jpg

Das Geniale Konzept bei dem die komplette Luft durch 1(!) Öffnung ein und ausgesaugt wird. Diese kleinen runden Löcher saugen die Luft ein, der untere Lamellen Teil bläst die raus. Nicht nur das man mit dem Laptop nicht in einer Ecke sitzen kann, weil sich dann warme Luft staucht, die hälfte der Ausgeblasenen Luft wird natürlich schön Recycelt und wieder rein geblasen. Einfach nur genial Sony, nie wieder...
ps. ich brauch nicht zu sagen, dass der Notebook sehr laut ist, da der Lüfter quasi im Dauer drehen ist.
pps. sorry ich weiß OT aber das brennt mir schon seit 2 Jahren auf der Zunge mich mal über diesen Mist auszulassen.

Ronny145
2013-07-22, 17:13:20
Core i5-4200H 2/4, 2.8GHz, BGA1364, 47 Watt
http://www.cpu-world.com/news_2013/2013071901_Details_of_Intel_Celeron_2955U_and_Core_i5-4200H_CPUs.html


Iris oder Iris Pro ist hier die Frage. Oder gar nur HD4xxx :freak:

iFanatiker
2013-07-23, 09:58:57
Zwecks dem Kühlsystem: Da kann ich nur lachen. Es bringt halt alles nichts, wenn der Kühlkörper an sich völlig unterdimensioniert ist. Zudem bin ich nicht informiert, wie es sich mit den Temperaturen der neuen Prozessorgeneration verhält.

Test vom Alienware14 Modell welches richtig viel Asche mehr gegenüber Clevo kostet:

http://www.notebookcheck.com/Test-Alienware-14-Notebook.97459.0.html

und was lesen wir?

Zitat:

Damit sich die Komponenten nicht allzu stark erhitzen, nutzt Alienware ein paar Tricks. So kam es bei unserem Stresstest nicht nur zu einer Deaktivierung der Turbo Boost Funktion, sondern auch zu einem Throttling der Grafikkarte. Knapp 600 MHz (Kern) sind umgerechnet ein Minus von 30 %. Als Folge der »Optimierungen« erreicht die GeForce GTX 765M höchstens 67 °C. Der Core i7-4700MQ wurde mit 80-90 °C ein ganzes Eck wärmer. Kritisch sind die Temperaturen allerdings nie.

Da der Prozessor unter Volllast den Turbo deaktiviert, wurden im Stresstest etwas geringere, aber immer noch sehr laute 50 dB angezeigt. Ohne Kopfhörer oder eine hohe Speaker-Einstellung kommt es häufig zu einer Überlagerung des Spielesounds. Empfindliche Nutzer sollten deshalb einen großen Bogen um das Gerät machen.

Dafür kostet das AW mal eben locker 800 € mehr und wiegt fast ein Kilo mehr.

Sorry...aber AW ist einfach überteuerter Mist. Die anderen Modelle haben auch thermische Probleme.....Daneben fabrizieren Flextronics and Compal (AW Hersteller) als Fertiger in der Regel größeren Mist zusammen als Clevo. Auch deine Kritikpunkte kann ich nicht nachvollziehen. Alles an großen Clevo Barebones lässt sich komplett selbst von halben Laien zerlegen, es gibt eine riesige Community um die Clevo Modell, Bios Mods ohne Ende usw. Selbst die MSI Barebones sind mittlerweile besser als die Rotze von Alienware.

gedi
2013-07-24, 12:14:59
Sorry, aber du hast absolut keine Ahnung. Um meine Meinung näher zu spezifizieren bräuchte es aber einen neuen Thread ,da dies zu sehr OT geht.

misterh
2013-07-24, 14:50:52
meins wurde heut abgeschickt.
nur noch paar tage warten :)

misterh
2013-07-25, 13:29:50
Ist nun angekommen

http://abload.de/thumb/img-20130725-wa000272jsh.jpg (http://abload.de/image.php?img=img-20130725-wa000272jsh.jpg)

http://abload.de/thumb/20130725_133554hhxo5.jpg (http://abload.de/image.php?img=20130725_133554hhxo5.jpg)

nur kriege ich leider nicht hin, windows zu installieren.

Weder per Externe Laufwerk noch USB Stick.

Immer kommt die meldung das Laufwerk fehlt. Wenn ich auf Install klicke.
Hilfe-Thread Installationsprobleme: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9855152#post9855152

Ronny145
2013-07-28, 10:52:57
Da wäre ich vorsichtig. Das lässt sich vielleicht über das Energieprofil abändern. Leider erwähnt der Tester nicht, ob das im Performance Profil genauso aussieht falls ich jetzt nichts übersehen habe.



http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9858281#post9858281


Lässt sich umstellen. Notebooks testen kann eben nicht jeder.

Undertaker
2013-07-29, 19:33:44
Gibt zwei neue Tests der Iris Pro Graphics 5200:

http://www.notebookcheck.com/Test-Schenker-S413-Notebook-Clevo-W740SU.97789.0.html
http://www.anandtech.com/show/7182/90-minutes-with-the-clevo-w740su-featuring-iris-pro-hd-5200

Was ziemlich cool ist: Mit dem Intel Extreme Tuning Utility (sieht man hier (http://images.anandtech.com/doci/7182/XTU.jpg)) kann man sowohl CPU als auch GPU untervolten oder aber die TDP hochsetzen. Ergo niedrigere Temps und/oder mehr Turbo möglich. :)

Edit: Was übrigens auch interessant aber weniger schön ist: Der eDRAM bringt keine CPU-Leistung, aber frisst scheinbar auch ohne Grafiklast ordentlich Strom.

Nightspider
2013-07-29, 20:51:38
Kein CPU-Performance-Schub?
Wie low ist das denn? Da kann man nur hoffen das Intel bessere Treiber rausbringt.

Undertaker
2013-07-29, 21:02:31
Meinst du? Ich denke eher, dass Prefetcher & Co. einfach so gut sind und die L1- bis L3-Cache fast alles abfangen, dass die CPU mit einem so riesigen L4-Cache gar nichts mehr anfangen kann. Schnellerer Speicher bringt ja auch praktisch 0.

Ronny145
2013-07-29, 21:19:46
Das hat man schon im techreport Test sehen können. Nur in einigen sehr speziellen Anwendungen kann die CPU vom edram beschleunigt werden. Luxmark oder Euler 3d MT zeigten einen edram Vorteil im CPU workload. Was daran low sein soll ist mir nicht klar. Der edram wurde wegen der GPU verbaut. Für die CPU ist das nur Bonus.

Nightspider
2013-07-29, 22:22:10
Ihr zwei habt ja Recht. Das Wunschdenken in mir hatte gesiegt. x)

Spasstiger
2013-07-30, 00:30:04
Ich sehe auch bei dem AnandTech-Test tendentiell einen Vorteil für den eDRAM, z.B. beim x264-Benchmark Pass 1. Man sollte nicht übersehen, dass der Vergleich nicht ganz fair ist, weil der 4770K mehr L3-Cache hat als der 4750HQ. Hinzu kommt die höhere TDP beim 4770K, so dass er ggf. öfters boosten kann. Selbst bei gleichem Takt würde man also den 4770K vorne sehen, wenn der eDRAM beim 4750HQ nichts bringen sollte. Dass meistens der 4750HQ geringfügig schneller ist, spricht dafür, dass der eDRAM einen Effekt hat. Aber wahrscheinlich wäre es rein aus Sicht der CPU-Leistung sinnvoller, volle 8 MiB L3-Cache anzubieten und keinen Teil des TDP-Budgets für den eDRAM zu opfern.

misterh
2013-07-30, 00:41:52
Was ziemlich cool ist: Mit dem Intel Extreme Tuning Utility (sieht man hier (http://images.anandtech.com/doci/7182/XTU.jpg)) kann man sowohl CPU als auch GPU untervolten oder aber die TDP hochsetzen. Ergo niedrigere Temps und/oder mehr Turbo möglich. :)

TDP lässt sich bis 512w ändern (hab und werde nie versuchen)

soweit ich verstanden habe, kann man auch übertakten mit cpu und igp

Bilder folgen gleich.

http://abload.de/thumb/10tjxa.png (http://abload.de/image.php?img=10tjxa.png)

http://abload.de/thumb/26njqn.png (http://abload.de/image.php?img=26njqn.png)

http://abload.de/thumb/35ejbe.png (http://abload.de/image.php?img=35ejbe.png)

gedi
2013-07-30, 02:03:57
Was du via Intels XTU einstellen kannst ist irrelevant, relevant ist der Wert, welches dir dein BIOS als Maximum vorgibt. Soll heißen, du kannst gerne eine TDP von 512W eingeben, max. ankommen tun trotzdem nur vermutlich 99W! Außer natürlich du hast im Bios eine Option, welche die Settings via Software überschreiben lässt, was aber bei einem Clevo nicht der Fall sein wird.

Undertaker
2013-07-30, 08:18:54
soweit ich verstanden habe, kann man auch übertakten mit cpu und igp

Kann man zwar einstellen, wird aber nicht übernommen. Aber undervolting und TDP anheben ist sehr praktisch...

Loeschzwerg
2013-07-30, 08:43:42
@misterh: Wie gefällt dir das Schenker persönlich? Bin am überlegen mir dies ebenfalls zuzulegen :) 1. bräuchte ich ein demnächst mal ein neues und 2. möchte ich ebenfalls ein wenig mit der IrisPro herumspielen.

Gibt es schon weitere angekündigte Notebooks oder evtl. sogar Desktop Systeme?

misterh
2013-07-30, 09:57:49
Was du via Intels XTU einstellen kannst ist irrelevant, relevant ist der Wert, welches dir dein BIOS als Maximum vorgibt. Soll heißen, du kannst gerne eine TDP von 512W eingeben, max. ankommen tun trotzdem nur vermutlich 99W! Außer natürlich du hast im Bios eine Option, welche die Settings via Software überschreiben lässt, was aber bei einem Clevo nicht der Fall sein wird.

OK hab kapiert. hab ja nur gemeint das ich nie ausprobieren werde, wenn auch mit 512w gehen würde.

@misterh: Wie gefällt dir das Schenker persönlich? Bin am überlegen mir dies ebenfalls zuzulegen :) 1. bräuchte ich ein demnächst mal ein neues und 2. möchte ich ebenfalls ein wenig mit der IrisPro herumspielen.

Gibt es schon weitere angekündigte Notebooks oder evtl. sogar Desktop Systeme?

Hab von Tuxedo, nicht von Schenker. Sonst ist 1:1 gleich.

bisjetzt bin ich zufrieden damit. kann nicht meckern zurzeit.

CSS zock ich ab und zu mal mit 1920x1080 4xMSAA/16xAF und FPS bleibt durchschnitt 100FPS.

andere game waren auch spielbar, Metro2133, Mafia2, Grid1 usw (je nachdem welche details einstellung)

Loeschzwerg
2013-07-30, 10:31:41
Ok, danke. Schenker und Tuxedo nehmen sich vom Preis nichts.

misterh
2013-07-30, 11:19:41
Kann man zwar einstellen, wird aber nicht übernommen. Aber undervolting und TDP anheben ist sehr praktisch...

hab eben probiert. und es wird übernommen.

getestet hab ich mit gpu-z sensor und so

13x eingegeben dann war volllast 1300mhz anstatt 1200.

genauso bei cpu funktionierte mit 4x 3.2ghz anstatt nur bei 1 kern 3,2ghz

http://abload.de/thumb/3.2v0ubx.png (http://abload.de/image.php?img=3.2v0ubx.png)
http://abload.de/thumb/1300y1jxj.png (http://abload.de/image.php?img=1300y1jxj.png)

Ronny145
2013-07-30, 12:08:10
In der Präsentation gibt es ein paar Erklärungen zu OpenCL und Iris Pro.


http://s1.directupload.net/images/130730/yci57n64.png

http://s14.directupload.net/images/130730/fnbwirq9.png
http://software.intel.com/sites/default/files/Faster-Better-Pixels-on-the-Go-and-in-the-Cloud-with-OpenCL-on-Intel-Architecture.pdf

Und OpenGL mit Iris Pro in Photoshop:


http://s1.directupload.net/images/130730/bgg9ewhi.png


http://s1.directupload.net/images/130730/3wt348un.png
http://software.intel.com/sites/default/files/Journey-of-Pixels-in-Adobe-Photoshop-from-CPU-GPU-to-Cloud-on-Intel-HD-Graphics.pdf


GT3 für Xeon E3 v3 gibt es doch gar nicht?!

Undertaker
2013-07-30, 14:02:53
hab eben probiert. und es wird übernommen.

getestet hab ich mit gpu-z sensor und so

13x eingegeben dann war volllast 1300mhz anstatt 1200.

genauso bei cpu funktionierte mit 4x 3.2ghz anstatt nur bei 1 kern 3,2ghz

Bzgl. CPU: Ich dachte du meinst "echtes" übertakten, aber den 4C-Turbo auf den 1C-Turbo zu setzen ist ja auch schon ein nettes Extra. Die GPU scheint aber wirklich nicht gelockt zu sein, dass ist natürlich ein nettes Feature. :) Wobei ich da statt minimaler Taktgewinne auf 1,3 - 1,35 GHz lieber auf niedrigere Spannungen und einen konstant anliegenden Takt gehen würde.

VooDoo7mx
2013-07-30, 21:01:59
Mich würden auch mal undervolting Ergebnisse interessieren. :)

misterh
2013-08-03, 15:49:05
untervolting und so mache ich nicht

wenn ihr irgendwas wissen wollt zu Iris Pro 5200, lass mich wissen.

gebe euch dann info/ergebnisse dazu

Ronny145
2013-08-05, 02:12:36
Die L4 Cache Geschwindigkeit und Latenz vermessen mit Aida64 würde ich gerne wissen.

misterh
2013-08-05, 11:37:46
Die L4 Cache Geschwindigkeit und Latenz vermessen mit Aida64 würde ich gerne wissen.

Hab aber kein vollversion oder so
http://abload.de/img/l4kta2p.png

Skysnake
2013-08-05, 11:53:26
hm...

Soooo viel ist das jetzt aber nicht für den L4.

Kann man da in einem Takt eigentlich gleichzeitig lesen/schreiben und aus dem RAM in den Le schreiben/lesen?

Also das man eben schonmal Daten parallel aus dem RAM prefetched?

Ronny145
2013-08-05, 13:24:26
Zum Vergleich i5-4670 3,6 Ghz DDR3-2133

Memory
Read: ~31K
Write: ~31K
Copy: ~28K
Latency: 50ns

(Latency skaliert auch mit dem CPU Takt)

Den größten Vorteil gibt es beim read Wert, immerhin 33% schneller als DDR3-2133. Write leicht langsamer, gegenüber default DDR3-1600 wäre das dennoch um einiges schneller. Copy 21-22% schneller als DDR3-2133. Die Latenz vom L4 wird sicherlich deutlich besser sein aufgrund der Nähe zur CPU, afaik hat das Intel als großen Vorteil rausgehoben. Selbst schneller GDDR5 hätte Nachteile laut Intel (was mit deutlich mehr Bandbreite ausgeglichen werden müsste). Der Latency Wert vom L4 wäre sehr interessant.

Memory: 50 ns
L1: 1.1 ns
L2: 3.3 ns
L3: 12.0 ns

So sieht es bei mir aus. Der L4 Cache wird sich wohl irgendwo zwischen L3 und Memory einordnen, wäre sehr interessant der Wert.

robbitop
2013-08-05, 13:33:59
In vielen Anwendungen brachte der L4 bis dato ja nicht sooo viel. Entweder ist der L4 nicht besonders viel schneller als der RAM (Latenz) oder die L1-L3 haben schon eine sehr sehr hohe Hitrate.
Bspw. brachten die 8 MiB des i7 selten größere vorteile ggü den 6 MiB des i5. Auch Westmere mit seinen 12 MiB brauchte dort kaum etwas.

Für Anwendungen mit größerem Cache Footprint könnte es schon was bringen. Scheint aber bei typischen Anwendungen aber nicht der Fall zu sein.

gedi
2013-08-05, 16:06:04
im Vgl. zu Ivy-Bridge legt die Ram-Performance aber deutlich zu (read: ~22k <-> ~19k). Auch sonst überzeugend, bis auf die Latenz. Zum Vergleich mit einem Ivy

http://up.picr.de/15404813im.jpg

Ronny145
2013-08-05, 16:28:07
Die Memory Latenz skaliert wie gesagt mit dem CPU Takt. Deine CPU läuft mit 4.2 Ghz, also überhaupt nicht vergleichbar. Das müsste man mit gleichen Takt messen. Deine Aida Version ist außerdem deutlich älter, für vergleichbare Werte nimm besser die aktuelle Version. Aida sagt selber das alte Versionen nicht zwangsläufig vergleichbar sind.

gedi
2013-08-05, 18:19:52
Hmm hast recht, die Latenz stimmt tatsächlich nicht mit früheren Versionen überein.

http://up.picr.de/15406299js.jpg

misterh
2013-08-05, 18:56:52
Hab aber kein vollversion oder so
http://abload.de/img/l4kta2p.png

hab nochmal neu getestet
diesmal 100mhz mehr, hab aber nicht verändert oder so

http://abload.de/img/24sclvh.png

Ronny145
2013-08-06, 23:51:17
Sisoft Sandra misst auch Cache speed und Latenz. Kannst du mal schauen, ob das den L4 unterstützt?

misterh
2013-08-07, 00:43:16
Sisoft Sandra misst auch Cache speed und Latenz. Kannst du mal schauen, ob das den L4 unterstützt?

meinst du das?

http://abload.de/img/nichtaktiv3cpiv.png

http://abload.de/img/unbenanntm3yx5.png
http://abload.de/img/unbenannt2dxxbo.png

Ronny145
2013-08-07, 12:04:17
meinst du das?




Unter Speichercontroller dachte ich an Cache- und Speicherzugriff und Speicherlatenzzeit. Falls der L4 vermessen wird wäre außerdem die Speicherbandbreite wichtig zum Vergleich.

misterh
2013-08-07, 12:19:40
Unter Speichercontroller dachte ich an Cache- und Speicherzugriff und Speicherlatenzzeit. Falls der L4 vermessen wird wäre außerdem die Speicherbandbreite wichtig zum Vergleich.

http://abload.de/img/1m1o57.png
http://abload.de/img/29nqr8.png

Ronny145
2013-08-07, 12:54:30
Damit kann ich nichts anfangen. Interessant sind die Einzelwerte, die stehen drunter. Um dir das mal zu zeigen:


http://s14.directupload.net/images/130807/b2ngk8fr.png


Ob Sisoft den L4 testet musst du sehen, wenn die fehlen können wir das vergessen.

ndrs
2013-08-07, 13:32:12
Zumindest die Latenzen kann man doch recht gut ablesen:
L1: 4 Takte
L2: 12
L3: 22
L4: 50
RAM: 100

AnarchX
2013-08-07, 13:38:01
Die Latenzen haben doch Anandtech und Techreport schon in den ersten Tests gemessen:
http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/3
http://techreport.com/review/24879/intel-core-i7-4770k-and-4950hq-haswell-processors-reviewed/8

Ronny145
2013-08-07, 13:51:23
L4 und Memory Latenz sieht im Anandtech Test langsamer aus. Die ältere SP3 könnte leicht andere Ergebnisse ausgeben.

Neosix
2013-08-12, 22:23:57
Übrigens ist der Test vom Schenker bei Notebookcheck jetzt da:
http://www.notebookcheck.com/Test-Schenker-S413-Notebook-Clevo-W740SU.97789.0.html
Würde gern euere Meinung hören, alternativen wie bereits erwöhnt gibts kaum, 1-2h Längere Akkulaufzeit wäre würde ein Mobiles Gerät wünschenswerter gewesen, aber bei nem Quad+Iris wohl kaum machbar.

ps. ich würde es ja im Ultrabook Thread posten, aber den müsste man erstmal ausgraben und reanimiren, hier gabs wenigstens paar Interessenten.

edit: noch n test von hardwareluxx
http://www.hardwareluxx.de/index.php/artikel/hardware/notebooks/27246-schenker-s413-im-test.html

Ronny145
2013-08-12, 23:10:56
Der Notebookscheck Test wurde vor 2 Wochen bereits verlinkt.

Neosix
2013-08-12, 23:13:29
Ich könnte schwören ich hab den erst letzte Woche gecheckt, da war noch die Meldung, wir warten noch auf unser Gerät...
vielleicht hatte ich den Browsercache aktualisieren sollen -.-

Ganon
2013-08-13, 11:09:12
Ist aber schon lustig, dass Notebookcheck und Hardwareluxx komplett gegensätzlich vom Display sprechen und unterschiedliche Messwerte haben.

Bin immer noch hin und hergerissen vom Notebook. Noch ist er ja nicht wieder erhältlich. Schön ist ja, dass er nicht sonderlich runtertaktet unter Last, da das ja relativ viele Hersteller so machen.

Ganon
2013-08-24, 15:39:47
So, habe mir das Schenker jetzt bestellt. Ich werde dann berichten :D

Ganon
2013-09-02, 13:50:45
Auch wenn das jetzt alles total Off-Topic ist:

Ich habe jetzt das Schenker S413 und bin total zufrieden. Der Linux-Support ist super, alles wird sofort erkannt und funktioniert auch. Auch die Funktionstasten. (ArchLinux, Kernel 3.10.10, GNOME 3.8)

Beim normalen Arbeiten (Programmieren), Surfen und Co. ist das Ding (für mich) unhörbar leise und kühl (CPU ist bei 35-39°C). Auch über einen längeren Zeitraum (momentan 5h auf Arbeit). Bei Spielen wird das Notebook dann aber doch recht laut. Jedoch ist es "nur" ein lautes Rauschen und keine hochfrequenten Töne wie bei meinem alten MacBook. Es kommt aber wohl auch auf das Spiel an. Bei Tower Wars z.B. geht der Lüfter sofort auch hochtouren. Bei Civ5 bleibt er erst mal "gemäßigt".

Bei etwas höherer Last (z.B. Windows 8 Leistungstest) geht der Lüfter dann die Zeit auch konstant an, jedoch ist das alles im Rahmen von dem was ich von anderen Notebooks kenne.

Der Bildschirm ist super. FullHD und 14" passen für mich wie die Faust aufs Auge :D

Im Prinzip also alles so, wie es der Testbericht von Notebookcheck sagt (außer dem Lüfterdefekt bei denen). Ich hab nur Linux-Support hinzugefügt.

Ronny145
2013-09-04, 13:23:36
http://pc.watch.impress.co.jp/docs/column/kaigai/20130904_613951.html

4+3 grafisch dargestellt.

Botcruscher
2013-09-04, 14:00:03
GT2 Fläche gleich 2 CPU Kerne.
GT3 Fläche gleich 4 CPU Kerne.

AMD könnte mit einer guten CPU und der Fertigungstechnik da runden darum drehen. Für die GT3 würde ein ganzer Bonaire@22nm drauf passen.

Ronny145
2013-09-04, 14:13:44
Das hatten wir schon so oft. Du überschätzt AMD.

Botcruscher
2013-09-04, 14:17:00
Anders herum. Intel ist bei Grafik einfach Dreck² und lässt sich die Entwicklung jetzt noch vergolden.

Ronny145
2013-09-04, 14:33:03
Dreck ist höchstens dein Beitrag. Dir fehlen eindeutig die Argumente.

y33H@
2013-09-04, 15:28:20
Intel ist bei Grafik einfach Dreck² und lässt sich die Entwicklung jetzt noch vergolden.Stimmt, deswegen ist die Iris Pro 5200 ja auch nur die schnellste iGPU am Markt, vor allem bei Compute. Aber hey, ist dennoch Dreck² - Intel macht ja auch nichts an den Treibern :freak:

Knuddelbearli
2013-09-04, 16:16:18
naja für die halbe Bonair leistung ist es dann aber auch wieder nicht soo toll vom technischen Standpunkt aus, Wenn AMD mit einer 600qmm CPU die schnellste iGPU hätte wärs ja auch keine Leistung

ndrs
2013-09-04, 16:35:47
Stimmt das mit der halben Bonaire-Leistung auch noch, wenn man den so weit runtertaktet, dass auch die Leistungsaufnahme im selben Bereich landet?

Knuddelbearli
2013-09-05, 06:19:26
da ist ihmo der Unsicherheitsfaktor wegen Intels Fertigung zu groß. Dazu kommt noch das bei IGPs der Speicher ja nicht mitgemessen wird. und gerade bei kleinen GDDR5 Karten dürfte selbst das einiges ausmachen, im großen und ganzen würde ich aber ja sagen, so mit 600-700Mhz sollte man schon auf unter 20W kommen 1/3 weniger Verbrauch alleine über den geringeren takt ( gibt es außer dem Speichercontroller und dem UVD etwas das nicht am Chiptakt hängt? ) und dann noch Spannung von 1,176V auf unter 1V.

90W hat er bei 1075MHz - 15W? für den GDDR, mit niedriger Frequenz und Spannung sollte locker -66% drinn sein und da ist dann Fertigung noch nichtmal dabei.

Lasse mich aber gerne Verbessern, bin leider im Gegensatz zu einigen anderen hier nicht Beruflich in solche Sachen integriert sondern es ist eher eine Art Hobby ^^

Mal gucken ob ich eventuell Peter Gräber dazu bringen kann ne 7790 nicht mal kurz unter taktet zu vermessen ^^

Ganon
2013-09-05, 09:32:50
Vllt. mal ein kleiner Zwischenbericht:

Treiberseitig kann ich bisher bei dem Chip unter Windows 8 nicht meckern. Worüber ich aber meckern kann, ist dass wohl einige Hersteller in ihren Engines "if gpu == intel" oder "if gpu != (amd || nvidia)" drin haben und hier und dort einfach irgendwelche Sachen "ins Blaue" annehmen.

Ein Beispiel ist Portal 1, das einfach mal die Hardware als DirectX 8 Hardware annimmt. Startet man jedoch mit +max_dxlevel 95, dann geht alles. Metro 2033 beschwert sich bei jedem Start, dass der Chip nicht unterstützt wird und es Fehler geben kann. Das Spiel läuft dann aber trotzdem gut.

Civ 5 hatte anfangs auch einige Optionen deaktiviert, aber nach einem Neustart des Spiels waren diese dann aber irgendwie doch wieder verfügbar. kA was da war, aber es läuft auch.

Bei Portal 2, HalfLife 2 und StarCraft 2 soweit keine Probleme festgestellt.

Habe aber auch alle noch nicht allzu lange gespielt nur mal ein paar Minuten angetestet.

ndrs
2013-09-05, 09:43:41
im großen und ganzen würde ich aber ja sagen, so mit 600-700Mhz sollte man schon auf unter 20W kommen

Das scheint so grob hinzukommen. Ich hab mich grad dusselig nach TDP-Angaben zu AMDs mobile-Sparte gesucht, konnte aber dann doch nur einen vergleichbaren Wert von nVidia finden. Eine GTX760m entspricht in etwa einer untertakteten 650TI mit 628MHZ und hat 55W TDP. Zieht man da noch RAM, Speicher- und PCIe Interface ab und ist beim Fertigungsvorteil großzügig scheint deine Rechnung tatsächlich hinzukommen :)

Ronny145
2013-09-10, 18:02:04
http://s1.directupload.net/images/130910/tamfp23z.png
https://intel.activeevents.com/sf13/connect/fileDownload/session/0758A85165467D49C83141B61D5BCD7B/GVCS002_Reid-SF13_GVCS002_100.pdf


Es braucht keine speziellen Anpassungen für den edram.

Ronny145
2013-09-11, 13:33:41
http://s7.directupload.net/images/130911/hb9skt24.png

These Pocket Gaming PCs are definitely taller than their counterparts which do not have Iris Pro graphics. You have your choice of CPU, which include the i7 4770R @ 3.9GHz, i5 4570R @ 3.7GHz, and the i5 4570R @ 3.2GHz. All three CPU choices will feature the Intel HD 5200 graphics.
http://www.legitreviews.com/gigabyte-brix-with-iris-pro-graphics-spotted-at-idf-2013_123498#f8MW3m7fH5Mg8TbD.99
http://blog.laptopmag.com/gigabyte-brix-iris-graphics?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+LaptopMagazineNews+%28LAPTOP+Magazine+-+The+Pulse+of+Mobile+Technology%29


Gigabyte Brix mit Iris Pro.

Loeschzwerg
2013-09-11, 13:53:29
Juhuu, endlich Iris Pro für den Desktop :) Bin gespannt was man hier noch alles an Leistung herausquetschen kann.

Undertaker
2013-09-27, 19:56:09
Ein eigener Thread für die Iris non-Pro lohnt vermutlich nicht, darum gleich hier:

http://www.notebookcheck.com/Test-Asus-Zenbook-Infinity-UX301LA-Ultrabook.102304.0.html

Ziemlich enttäuschender Vorsprung ggü. der HD 5000. Die Rechenleistung ist wohl da, aber ohne den EDRAM bleibt nicht wirklich viel über...

Nightspider
2013-09-27, 20:00:35
War ja zu erwarten.

Deswegen bin ich mal gespannt wie Intel bei Broadwell die Bandbreite erhöhen will. Angeblich soll ja der gleiche EDRAM verbaut werden. Dann müsste dieser zumindest schneller getaktet werden damit die angeblich doppelt so starke Broadwell GPU nicht auch an der fehlenden Bandbreite verreckt.

Undertaker
2013-09-27, 20:08:48
Wer weiß, wieviel Potential der EDRAM bei der Iris Pro noch für mehr Rechenleistung hätte.

Die eigentliche Frage ist imo eher: Was macht man in der Mittelklasse? EDRAM ist hier wohl preislich nicht drin...

Nightspider
2013-09-27, 20:13:23
Noch zwei Jahre auf HMC warten. ;)

Dann ist das Problem eh dauerhaft vom Tisch weil die Bandbreite die nächsten Jahre stärker wachsen wird als die Leistung.

Ronny145
2013-09-27, 20:51:10
Ein eigener Thread für die Iris non-Pro lohnt vermutlich nicht, darum gleich hier:

http://www.notebookcheck.com/Test-Asus-Zenbook-Infinity-UX301LA-Ultrabook.102304.0.html

Ziemlich enttäuschender Vorsprung ggü. der HD 5000. Die Rechenleistung ist wohl da, aber ohne den EDRAM bleibt nicht wirklich viel über...


Hat der Redakteur die GPU Frequenz aufgezeichnet oder woran macht er das fest? Ohne der Info lässt sich das nicht sagen. Sicherlich bringt der edram ordentlich was, aber ob der alleine für den Unterschied verantwortlich ist, das ist nicht gesagt. Die Ergebnisse sind enttäuschend keine Frage.

Undertaker
2013-09-27, 21:04:09
Ich sehe einen Anno-Screenshot mit 900 MHz und einen Furmark-Shot mit 1000 MHz. Daran dürfte es eigentlich nicht hängen.

Ronny145
2013-09-27, 21:11:30
Bei 900 Mhz wären das trotzdem 30%, die von der theoretischen Leistung verloren gehen. Furmark hat keine CPU Last, dafür enorm hohe GPU Last.

Undertaker
2013-09-27, 21:23:18
Die Iris Pro taktete in Spielen laut Test des Schenker S413 auch nur mit ~1050 MHz ("In aktuellen Titeln konnten wir zwar durchgängig hohe Taktraten von 1.000 bis 1.100 MHz feststellen [...]"). Wären immernoch 70% Leistungsunterschied bei gut 15% mehr Rohleistung.

Ronny145
2013-09-28, 00:55:15
Der größere Cache und schnellere CPU hilft hier und da. Auf mehr als 10% würde ich das nicht beziffern. Wenn die Taktfrequenz so in etwa aussieht besteht eine Lücke von mindestens 50%, die auf den edram zurückzuführen sein könnte. Wenn dem so ist müsste Intel für die 28W GT3 edram verbauen, damit so eine SKU Sinn ergibt.

Undertaker
2013-09-28, 09:18:46
Exakt das war meine Aussage. Es gibt Fälle, da ist die Iris non-Pro (genau wie HD 4400, 4600 und 5000) praktisch nicht schneller als die alte HD 4000. Am ~100% Vorsprung im 3DMark11 sieht man aber, was möglich wäre. Und daraus ergibt sich nun wie erwähnt die Frage, was nun bei Broadwell passiert. Ist die Speicherunterstützung schon gesichert, d.h. kann man evtl. schnelleren DDR3-Support erwarten? Besteht noch Potential bei der Ausnutzung der vorhandenen Bandbreite? Ansonsten könnten die Broadwell-Modelle ohne EDRAM eine ziemliche Enttäuschung werden.

ndrs
2013-09-28, 09:33:42
Naja, ich würde den einen Test nicht unbedingt überbewerten. So weit wie die HD5100 teilweise hinter der 4600 liegt, könnte man meinen, dass ASUS vielleicht die angelegten Taktraten sehr konservativ gewählt hat. Ansonsten müsste Intel schon sehr ineffektiv mit der Speicherbandbreite umgehen, wenn man bedenkt, dass AMDs APUs bei ähnlicher Bandbreite (die hab ich jetzt nicht genau nachgeschlagen) einen brauchbaren Vorsprung hat.

Undertaker
2013-09-28, 09:50:17
Also zumindest der A10-4600M zeigt genau das gleiche Verhalten: Schnell im 3DMark(11), aber in Spielen dann auf einem weit niedrigeren Level und oftmals kaum schneller als die HD 4000. Vielleicht war es etwas vorschnell, das in der Vergangenheit reflexartig auf den CPU-Teil zu schieben (obwohl das sicher auch oft korrekt war). Und dann sind da noch die ebenso enttäuschenden Performancewerte der HD 5000, z.B. auch bei Anandtech:

http://www.anandtech.com/show/7085/the-2013-macbook-air-review-13inch/4

Leider ohne Turbo-Log (oder übersehe ich den?), aber wenn die HD 5000 nicht gerade nur halb so hoch wie die HD 4400 taktet, zeichnet sich auch da eine klare Limitierung ab. Und das kann ja dann eigentlich nur die Bandbreite sein... :confused:

Skysnake
2013-09-28, 10:27:58
Ja durchaus möglich.

Exakt das war meine Aussage. Es gibt Fälle, da ist die Iris non-Pro (genau wie HD 4400, 4600 und 5000) praktisch nicht schneller als die alte HD 4000. Am ~100% Vorsprung im 3DMark11 sieht man aber, was möglich wäre. Und daraus ergibt sich nun wie erwähnt die Frage, was nun bei Broadwell passiert. Ist die Speicherunterstützung schon gesichert, d.h. kann man evtl. schnelleren DDR3-Support erwarten? Besteht noch Potential bei der Ausnutzung der vorhandenen Bandbreite? Ansonsten könnten die Broadwell-Modelle ohne EDRAM eine ziemliche Enttäuschung werden.
Ja das Ergebnis ist wirklich desaströs ohne eDRAM :eek:

So krass hätte ich den Unterschied jetzt nicht erwartet! Vielleicht 25% Vorsprung durch den eDRAM, aber niemals >50%. Dafür war mir die iGPU von Intel eigentlich immer zu schwach vorgekommen.

Jetzt muss man sich aber mal überlegen, was drin wäre, wenn AMD auch nen netten eDRAM mit dazu packen würde :freak: Alter Verwalter das wäre wahrscheinlich ziemlich pornös!

Ich hoffe echt, das sich AMD da mal nen Ruck gibt.

Bzgl Broadwell:
Da kann man eigentlich nichts erwarten. DDR3 ist einfach am Ende. Ein breiteres Interface kommt auch nicht. Man kann also nur den eDRAM in mehr Produkten bringen, und halt die Anbindung des eDRAMs noch verbreitern, oder halt schneller machen.

Wird wahrscheinlich beides passieren. Das Bandbreite/Rechenleistungs-Verhältnis wird imt Broadwell aber ziemlich sicher schlechter werden als mit Haswell.

Erst Skylake oder auch erst dessen Nachfolger wird das Problem wirklich lösen.

ndrs
2013-09-28, 13:02:29
Irgendwas ist da trotzdem komisch, wenn ich mir die Zahlen von 4600, 5000 und 5100 ansehe. Ich beziehe mich dabei mal ausschließlich auf Diablo3, von dem bekannt ist, dass schon ein 2GHz Phenom reicht um dreistellige FPS zu erreichen(Die Benchmarksequenz ist auch harmlos). In höheren Settings sollte das noch deutlicher werden. Damit unterstelle ich mal ein reines GPU-Limit und ausreichend TDP-Spielraum für die IGPs.
Dennoch ist bei gleicher Speicherbandbreite die HD4600 um 16% schneller als die 5100, was mir echt nicht ganz einleuchten will. Wir haben also im (zugegeben unterstellten) CPU-Limit weniger FPS trotz deutlich mehr Rechenleistung und gleicher Speichertransferrate.

Oder übersehe ich hier irgendetwas?
Welche Komponenten sind eigentlich bei der GT3 gegenüber der GT2 nicht verdoppelt, die eventuell wegen niedrigerem Takt limitieren könnten?

Undertaker
2013-09-28, 13:20:41
8 MB zu 4 MB L3-Cache? Auch die Taktrate des Caches müsste bei einem hochtaktenden Quad wohl etwas höher sein. Könnte es außerdem sein, dass ein höherer Uncore-Takt den Speicherdurchsatz leicht verbessert?

Das die Quad-Cores bei gleichem Takt bisschen schneller als die Dual-Cores sind, war zumindest schon bei Ivy Bridge bzw. der HD 4000 so.


Oder übersehe ich hier irgendetwas?
Welche Komponenten sind eigentlich bei der GT3 gegenüber der GT2 nicht verdoppelt, die eventuell wegen niedrigerem Takt limitieren könnten?

Ach ja, da war glaube ich auch einiges. So ziemlich das gesamte Frontend sogar, meine ich. Wird von Intel sicher so ausgelegt sein, dass da kein größerer Flaschenhals entsteht, könnte aber schon ein paar Prozentpunkte Differenz erzeugen.

Ronny145
2013-09-28, 14:34:51
http://www.anandtech.com/show/7085/the-2013-macbook-air-review-13inch/4

Leider ohne Turbo-Log (oder übersehe ich den?), aber wenn die HD 5000 nicht gerade nur halb so hoch wie die HD 4400 taktet, zeichnet sich auch da eine klare Limitierung ab. Und das kann ja dann eigentlich nur die Bandbreite sein... :confused:



Eine kleine Unsicherheit bleibt wegen dem LPDDR3, wie sich der verhält. Beim normalen DDR3 ist es leider so das für Notebooks meist nur CL11 zum Einsatz kommt.

Höherer Uncore Takt sollte die Bandbreite leicht verbessern ja. Ein 45W Quadcore mit etwas geringeren iGPU Takt war sogar schneller als ein 35W Dualcore bei Ivy Bridge. Eine 50% Differenz erklärt sich dadurch trotzdem nicht.

ndrs
2013-09-28, 14:36:05
Stimmt, Cache ist ein Argument. Hatte übersehen, dass die getesteten GT2 alle Quadcores waren. Aber dass das so viel ausmacht will ich immer noch nicht glauben. Naja, ich warte mal weitere Tests ab.
Eigentlich Stand ja ein i5 mit HD5100 auf meiner Einkaufsliste, weil ich mir davon einiges erhofft habe. Aber nach der Vorstellung siehts doch eher nach ner Preisgünstigen CPU mit HD4600 aus ...

Edit: Gibt's irgendwo ne Übersicht welche CPU welchen Uncore-Takt hat?

LPDDR3 ??? Verwenden die ULVs den? Das hör ich zum ersten mal.

Ronny145
2013-09-28, 14:42:57
Haswell ULV unterstützt auch LPDDR3, ja. Ist teurer, dafür mit dem niedrigsten Stromverbrauch.

Undertaker
2013-09-28, 15:27:48
Eine kleine Unsicherheit bleibt wegen dem LPDDR3, wie sich der verhält. Beim normalen DDR3 ist es leider so das für Notebooks meist nur CL11 zum Einsatz kommt.


Die Latenzen des Macbooks sieht man hier auf einigen HWiNFO-Shots:

http://www.notebookcheck.com/Test-Apple-MacBook-Air-11-inch-Mid-2013-1-7-GHz-256-GB-Subnotebook.96277.0.html

Wirklich ziemlich schlecht, hat also vielleicht auch noch das ein oder andere Prozentpünktchen gekostet. Hauptproblem dürfte aber sicher die Bandbreite bleiben, ich denke nicht das schnelle Latenzen mehr als vielleicht 5% bringen.

Alle Erkenntnisse nochmal zusammengefasst würde ich den Vorteil des EDRAMs bei der GT3 auf vielleicht 45% schätzen. Wirklich erstaunlich, selbst mit einem Umstieg auf DDR3-2133 hätte man nur 33% mehr Bandbreite (und vermutlich noch geringere Leistungsgewinne).

Ronny145
2013-09-28, 16:03:24
12-15-15-15-34 ist grottigst für DDR3-1600. Mein DDR3-2133 läuft mit 11-11-11-30. Wenn ich die Timings so belasse und auf DDR3-1600 runtergehe ist das deutlich langsamer als DDR3-1600 CL9.

Undertaker
2013-09-28, 16:10:35
Bei IGP-Messungen meinst du? Interessant wäre der Vergleich zwischen 11-11-11-28 (Standard bei DDR3-1600 in Notebooks) und den genannten 12-15-15-34. Erwarten würde ich da nicht mehr als 5% Unterschied, gemessen habe ich es allerdings nicht. ;)

ndrs
2013-09-28, 16:27:44
Haswell ULV unterstützt auch LPDDR3, ja. Ist teurer, dafür mit dem niedrigsten Stromverbrauch.
In den NB-Check-Tests meine ich aber überall DDR3-1600 gelesen zu haben.
Hauptproblem dürfte aber sicher die Bandbreite bleiben
Mich wurmt halt der relativ große (und in so ziemlich jedem Spiel vorhandene) Vorsprung der 4600 bei identischer Bandbreite. Ich kann mir einfach nicht vorstellen, dass so viel vom Cache kommen soll. Latenzen haben ja angeblich bei GPUs auch keinen großen Einfluss.
Man solte mal beide IGPs nehmen und den Speichertakt ändern.

Ronny145
2013-09-28, 16:40:50
Bei IGP-Messungen meinst du? Interessant wäre der Vergleich zwischen 11-11-11-28 (Standard bei DDR3-1600 in Notebooks) und den genannten 12-15-15-34. Erwarten würde ich da nicht mehr als 5% Unterschied, gemessen habe ich es allerdings nicht. ;)


iGPU ja. CL11 und CL12 sieht auf dem Papier nicht nach so viel Unterschied aus, Sorgen machen mir eher die anderen Timings dahinter.

Auf anandtech gibt es übrigens einen Timing/Bandbreiten Test, der aber leider stumpfsinnig ist.

http://www.anandtech.com/show/7364/memory-scaling-on-haswell/6

Bei Testwerten von 5-10 fps kann das stark verzerren wenn die GPU vorher gnadenlos absäuft. Das muss in spielbaren settings getestet werden.



In den NB-Check-Tests meine ich aber überall DDR3-1600 gelesen zu haben.



Das ist bekannt. Es geht vor allem um die Latenz und ob sich LP anderweitig anders verhält. Theoretisch müsste die gleiche Bandbreite rausspringen. Die Latenz ist schlechter wie wir jetzt wissen.

Undertaker
2013-09-28, 17:18:26
Man muss allerdings auch sagen, das LPDDR3 (fast?) nur bei Apple zu finden ist... Standard ist eher normaler DDR3(L)-1600 mit genannter CL11, unter anderem auch beim Asus mit der Iris 5100 (laut Bildern Elpida GNL-F, d.h. DDR3L-1600 CL11). Hier also kein Nachteil zu den Tests der HD 4600, womit wir wieder beim Thema L3/Uncore wären.


Mich wurmt halt der relativ große (und in so ziemlich jedem Spiel vorhandene) Vorsprung der 4600 bei identischer Bandbreite.

Ähnliches bei der HD 4000, Dual vs. Quad (3 MB vs. 6 MB L3):

http://www.notebookcheck.com/Benchmarkcheck-Metro-Last-Light.92861.0.html

Trotz 100 MHz weniger GPU-Takt ist der Quad ~10% schneller. Ich wette, die ersten Dual Cores mit der HD 4600 werden schon etwas langsamer als die Iris Pro bzw. die HD 4600 bei den Quads.

ndrs
2013-09-28, 20:00:59
Ich wette, die ersten Dual Cores mit der HD 4600 werden schon etwas langsamer als die Iris Pro bzw. die HD 4600 bei den Quads.
Hat beim Launch der i3s irgendeine Seite IGP-Tests durchgeführt? Da müsste man ja das gleiche Verhalten sehen können. Ich konnte auf die Schnelle nix finden.

Undertaker
2013-09-28, 20:19:37
Nun, soweit ich weiß ist noch kein einziges Gerät mit einem non-ULV Dual Core auf dem Markt:

http://geizhals.de/?cat=nb&xf=27_2~28_2000~29_Core+i3-4~29_Core+i5-4~29_Core+i7-4#xf_top

Edit: Ach, du meinst sicherlich Desktops? Da müsste ich auch erstmal googlen.

AnarchX
2014-02-10, 08:59:20
eDRAM Details von der ISSCC '14:
http://s7.directupload.net/images/140209/8y8qj76d.png

http://www.anandtech.com/show/7744/intel-reveals-new-haswell-details-at-isscc-2014

YfOrU
2014-02-10, 12:33:36
The 128MB eDRAM is divided among eight 16MB macros. The eDRAM operates at 1.6GHz and connects to the outside world via a 4 x 16-bit wide on-package IO (OPIO) interface capable of up to 6.4GT/s. The OPIO is highly scalable and very area/power efficient. The Haswell ULT variants use Intel's on-package IO to connect the CPU/GPU island to an on-package PCH. In this configuration the OPIO delivers 4GB/s of bandwidth at 1pJ/bit. When used as an interface to Crystalwell, the interface delivers up to 102GB/s at 1.22pJ/bit. That amounts to a little under 1.07W of power consumed to transmit/receive data at 102GB/s.

Das erklärt weshalb es keine Low-Power Varianten mit eDRAM gibt (bzw. geben kann). Da diese verlötet werden wäre ein etwas größeres Package (CPU+eDRAM+PCH) ansonsten grundsätzlich möglich.
Die 102GB/s dürften bidirektional sein. Damit liegt Intel im gleichen Bereich wie der SRAM der Xbox One. Allerdings bekommt Intel das auf grob 1/4 der Fläche unter womit die 128MB eher weniger Fläche benötigen als die 32MB der Xbox.

Auch interessant sind die 32mW (4GB/s) des OPIO bei angebundener PCH. Ist derart wenig das eine volle Integration der PCH (-> SoC) keine elementaren Einsparungen mehr bringen dürfte.
Ein 2C Haswell ULT (inkl. PCH, GT2) ist im Leerlauf tendenziell eher sparsamer als ein mobiler 4C Kabini SoC. Eigentlich müsste AMD hier (->Kaveri) langsam etwas ähnliches bringen denn UMI dürfte wie Intels DMI für LP nicht gerade das Optimum sein.