PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Haswell - 22nm, DX11.1 und AVX2 in H1/2013 - HSW-Refresh Q2/2014


Seiten : 1 [2] 3 4 5 6 7 8

AnarchX
2012-06-19, 18:22:28
35MiB LLC mit je 2,5MiB pro Core -> 14 Cores.

HPVD
2012-06-19, 18:31:57
35MiB LLC mit je 2,5MiB pro Core -> 14 Cores.
das wäre ja wirklich interessant.
Dann stellt sich aber schnell die Frage was mit "Reduced TPD/ Average Power / Package" gemeint sein kann:
- entweder die 14 Kerne kommen nur mit niedriger Frequenz oder
- das gilt nur für Modelle mit weniger Kernen oder aber
- das gilt nur pro Rechenleistung
- das Gesamtpaket ist einfach Top :-)


=> wann ist denn Zeitlich mit einem Haswell EP zu rechnen?
ist nicht der Ivy-EP erst für Anfang nächsten Jahres geplant?

=> hat jemand eine Ahnung was mit der DDR4 Variante 2133 "MTS" gemeint ist?

Ronny145
2012-06-19, 18:47:34
das wäre ja wirklich interessant.
Dann stellt sich aber schnell die Frage was mit "Reduced TPD/ Average Power / Package" gemeint sein kann:


Das dürfte sich auf den Chipsatz beziehen. Die Intel Chipsätze werden ja noch in 65nm gefertigt, Haswell Chipsätze in 32nm. Bei welcher TDP liegt eigentlich Patsburg? / 8 oder 12 Watt, die neueren 12 Watt.



=> wann ist denn Zeitlich mit einem Haswell EP zu rechnen?
ist nicht der Ivy-EP erst für Anfang nächsten Jahres geplant?

Haswell-EP vermutlich 2014 und Ivy-E 2H 2013.


=> hat jemand eine Ahnung was mit der DDR4 Variante 2133 "MTS" gemeint ist?

megatransfers per second. Das wäre hier DDR4-2133. Der Speichertakt kann sich schnell ändern, nicht wirklich aussagekräftig momentan. Zumal die Angaben eher zu DDR3 passend sind. Für genaue DDR4 Angaben ist es zu früh.

HPVD
2012-06-19, 19:26:10
Haswell-EP vermutlich 2014 und Ivy-E 2H 2013.
.

hmm 2014?
wenn Ivy-EP erst H2 2013 kommt => dann der Haswell-EP erst H2 2014 (sonst wäre es ja für den Ivy nur eine sehr kurze Zeit auf dem Markt)

wenn erst in H2 2014: dann sind die obigen Infos für Hashwell EP doch aber schon ganz schön (zu) früh dran, oder?

Passt das alles zusammen?

Skysnake
2012-06-19, 19:46:49
IB-E sollte eher H1 kommen.

Ronny145
2012-06-19, 20:26:04
IB-E sollte eher H1 kommen.


Weshalb?

Skysnake
2012-06-19, 20:57:46
Weil mir das so zugetragen wurde....

Um genau zu sein eigentlich noch Q1, ich denke das könnte aber auch auf Anfang Q2 raus laufen. So stark würde ich mich da nicht drauf fest legen nach dem was Intel in letzter Zeit so abgeliefert hat...

y33H@
2012-06-19, 21:58:33
Die Frage ist hierbei, ob du von Großrechnern/Aufträgen sprichst oder aber von nennen wir es "Endkunden". Die SNB EP waren für bestimmte Kunden auch schon weit vor März 2012 verfügbar. Die aktuellen Roadmaps sprechen aber von H2/2013 für IVB EP.

Skysnake
2012-06-19, 23:21:42
Dazu gabs nichts spezifisches, war aber schon eher auf Desktop gemünzt. Wirklich klar war das aber nicht.

y33H@
2012-06-20, 00:05:35
Wirklich klar war das aber nicht? Sorry, aber die Roadmaps sind eindeutig.

Ronny145
2012-06-20, 00:09:02
Im Desktop kommt der nicht in 1H 2013. Wäre sonst in der Roadmap verzeichnet.

Skysnake
2012-06-20, 00:43:42
Wie schon gesagt, auf was da genau Bezug genommen wurde, also Desktop oder Server war nicht klar, nur das halt wohl was kommen soll, aber wie du schon sagtest, das kann im Zweifel auch für irgendwelche Cluster sein und aus die Maus.

Ronny145
2012-06-20, 13:41:59
Zurück zum Desktop Haswell.

http://s14.directupload.net/images/120620/yyivb6ho.jpg


Der geplante Launch müsste somit in Q2 liegen. März dürfte ausscheiden wenn es in Q1 keine Chipsätze dafür gibt.

y33H@
2012-06-20, 22:55:49
Wie zu erwarten halt.

boxleitnerb
2012-06-20, 23:00:08
Was für einen Takt schätzt ihr für den 4880K oder wie er auch immer heißen wird? 4GHz Basistakt wären mal nett und sollte machbar sein, sind ja nur 15% mehr.

y33H@
2012-06-20, 23:05:01
Haswell DT hat wieder mehr TDP nach aktuellem Stand, eine dickere iGPU, die HNI wie FMA3 und BMI sowie FMA3 und erneut eine höhere IPC. Wir sind ja schon mit dem E3-1290 v2 bei 3,7/3,9/4,1 GHz - zumindest mit all core boost könnten die 4,0 fallen. Ich habe aber noch keine Slides mit Specs gesehen.

john carmack
2012-06-21, 08:58:12
Was für einen Takt schätzt ihr für den 4880K oder wie er auch immer heißen wird? 4GHz Basistakt wären mal nett und sollte machbar sein, sind ja nur 15% mehr.

Niemals 4Ghz als Basis. (auch 2013 noch 22nm)

Max 3,8Ghz Basis und 4,2 mit Turbo

boxleitnerb
2012-06-21, 09:53:11
Wo bleibt das Taktpotential von 22nm? Wollen sie nicht oder können sie nicht? Wenn Piledriver wirklich grob 30% drauflegt mit 15% IPC und 15% mehr Takt, muss Intel parieren, um den Abstand zu wahren.

AnarchX
2012-06-21, 09:57:12
Wo bleibt das Taktpotential von 22nm? Wollen sie nicht oder können sie nicht? Wenn Piledriver wirklich grob 30% drauflegt mit 15% IPC und 15% mehr Takt, muss Intel parieren, um den Abstand zu wahren.
Laut AMD erwartet uns mit Vishera wohl eine Steigerung von 10-15%: http://www.computerbase.de/news/2011-10/amd-gibt-ausblick-auf-schnellere-bulldozer-nachfolger/
30% vielleicht wenn man auf eine >150W TDP geht. :D

john carmack
2012-06-21, 14:45:28
Wo bleibt das Taktpotential von 22nm? Wollen sie nicht oder können sie nicht? Wenn Piledriver wirklich grob 30% drauflegt mit 15% IPC und 15% mehr Takt, muss Intel parieren, um den Abstand zu wahren.

Was meinst du damit?
Takt ist nicht alles was man beim Pentium4 gesehen hatte...?!

boxleitnerb
2012-06-21, 16:15:00
Laut AMD erwartet uns mit Vishera wohl eine Steigerung von 10-15%: http://www.computerbase.de/news/2011-10/amd-gibt-ausblick-auf-schnellere-bulldozer-nachfolger/
30% vielleicht wenn man auf eine >150W TDP geht. :D

Okay, dachte IPC. Der Trinity-Test von THG zeigt ja schon 10-15% IPC-Steigerung, ich ging davon aus, dass Piledriver auch mehr Takt bekommt.

Was meinst du damit?
Takt ist nicht alles was man beim Pentium4 gesehen hatte...?!

Takt ist nicht alles, aber Takt trägt einen Teil zur Performance bei. Die IPC bei Ivy ist sehr gut, bei Haswell sicher noch besser. Das heißt aber nicht, dass man nicht den Takt auch noch etwas erhöhen könnte. Bei Sandy hat man es ja auch gemacht, von 3,06GHz bei i7-880 zu 3,5GHz beim i7-2700K - das sind knapp 15%.

Undertaker
2012-06-21, 17:51:52
Okay, dachte IPC. Der Trinity-Test von THG zeigt ja schon 10-15% IPC-Steigerung, ich ging davon aus, dass Piledriver auch mehr Takt bekommt.

THG hat die IPC allerdings nur in zwei Anwendungen verglichen. Um eine Aussage für einen mittleren Zugewinn treffen zu können, bräuchte es doch eine etwas breitere Anwendungsbasis. Wenn da im Mittel noch immer 15% herausspringen sollten: Respekt.

Ronny145
2012-06-27, 18:09:19
Ich glaube ww11 ist etwas neuer als die vorherigen Leaks. Änderungen sind mir jedoch nicht aufgefallen.


http://s14.directupload.net/images/120603/rel7ybrs.png
http://www.edi-atl.com/pdfs/INTEL_Presentation.pdf


Die komplette ww11 Roadmap ist hier ersichtlich: http://wenku.baidu.com/view/27e9afe8aeaad1f346933f44.html


Allerdings nicht wirklich was neues zu sehen.

Nightspider
2012-06-27, 18:20:27
Was meinst du damit?
Takt ist nicht alles was man beim Pentium4 gesehen hatte...?!

Was ist denn das für ein schlauer Spruch?

Am besten wir gehen wieder auf 2Ghz runter weil der P4 scheiße war.
:facepalm:

Und mit 5-10% mehr IPC gewinnst du auch kein Keks.

Sandy Bridge wurde auch in keinem neuen Fertigungsprozess hergestellt und bot mehr IPC Power UND deutlich bessere Taktraten.

Von Haswell kann man schon erwarten, das die Architektur die Taktreserven von 22nm ausloten wird. Hoffe ich zumindest.

Denn Potential bietet 22nm genug.

john carmack
2012-06-28, 11:40:14
Was ist denn das für ein schlauer Spruch?

Am besten wir gehen wieder auf 2Ghz runter weil der P4 scheiße war.
:facepalm:

Und mit 5-10% mehr IPC gewinnst du auch kein Keks.

Sandy Bridge wurde auch in keinem neuen Fertigungsprozess hergestellt und bot mehr IPC Power UND deutlich bessere Taktraten.

Von Haswell kann man schon erwarten, das die Architektur die Taktreserven von 22nm ausloten wird. Hoffe ich zumindest.

Denn Potential bietet 22nm genug.



sehr intelligent!

boxleitnerb
2012-07-09, 10:47:05
Was für Vor- und Nachteile gibt es denn, die Stromversorgung der CPU verstärkt in selbige zu integrieren? Die Spulen und Kondensatoren werden sie wohl kaum integrieren können, die Mosfets schon eher.

Was bedeutet dies für

a) Übertakten
b) Stromverbrauch ?

anddill
2012-07-09, 11:23:06
Dann müsstest Du mit den hohen Strömen um die 100A 3x zwischen Board und CPU hin- und her.

boxleitnerb
2012-07-09, 11:33:31
Irgendeinen Grund wird es ja haben, warum Intel das macht. Ich hab was von vereinfachtem Boarddesign gelesen. Das nutzt Intel direkt doch nichts, oder zielt man hier auf kleinere Platinen ab (Ultrabooks, später Tablets und Smartphones)?

AnarchX
2012-07-09, 11:44:51
Eine Haswell-CPU bekommt eine Spannung vom Board, die dann für die verschiedenen Chip-Bereiche/Funktionen gewandelt wird: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9021820#post9021820

Im Endeffekt senkt es wohl die Kosten für das Mobo und erlaubt bei mobilen CPUs noch ein paar Prozent Verbrauchseinsparung, im Idle wohl möglich sehr deutliche relative Einsparungen.

Wenn man sich hier das Pin-Out anschaut: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9022931#post9022931
... dann erlaubt der kleinere Power-Bereich vielleicht auch die Anschlussflächen für den externen, schnellen Gfx-Speicher, der sich hier vielleicht in dem größeren Misc verbirgt.

Skysnake
2012-07-10, 00:28:05
Was für Vor- und Nachteile gibt es denn, die Stromversorgung der CPU verstärkt in selbige zu integrieren? Die Spulen und Kondensatoren werden sie wohl kaum integrieren können, die Mosfets schon eher.

Was bedeutet dies für

a) Übertakten
b) Stromverbrauch ?
Ähm... Dir ist schon klar, das in heutigen (und nicht erst seit gestern, sondern schon lange...) unzählige Kondensatoren und auch Spulen sitzen?

Die Kondensatoren brauchst du allein schon, um die Lastwechsel auf dem Chip auszugleichen. Würde es die nicht geben, dann würde deine CPU einfach hängen bleiben, weil die Spannungen local viel zu stark abfallen würden. Mit den Spulen verhält es sich auch ähnlich. Die brauchst du auch zur Stabiliesierung, Auslgeich der Impedanz usw. usw.

CPUs sind ja EXTREM komplexe elektrische Schaltungen....

Was man sich von der Spannungsversorgung in der CPU erwartet?

Na ganz einfach. Du gehst mit weniger unterschiedlichen Spannungen in die CPU, brauchst also weniger Pins.
Du gehst mit höheren Spannungen rein, hast also weniger Ampere, die du über die Pins jagen musst. Damit kannst du weniger Pins wieder verwenden, da diese nur eine gewisse Amperezahl vertragen, sonst gehen Sie kaputt.
Dann kannst du im Pakage das Routing deutlich einfacher machen, da du entweder weniger Pins/Wires, oder aber dünnere brauchst, was einem das Leben deutlich einfacher macht.
Dann spart man natürlich noch einiges an Kosten, da Kondensatoren und Spulen im DIE praktisch nichts kosten.

Und die Effizienz steigt eben auch noch an, da man die Spannungen erst da wandelt, wo man Sie braucht.

Dafür ist der DIE halt etwas schwieriger zu fertigen, und auch etwas größer.

Screemer
2012-07-10, 09:11:30
war nicht mal der plan komplett von den 3 spannungen weg zu kommen und nur noch auf 12v zu setzen? alle anderen benötigten spannungen sollten dann von den komponenten/board erzeugt werden. ich denke mal dass haswell da schon in die richtung geht.

Ronny145
2012-07-10, 13:23:57
Launch schedule of Intel Haswell processors (http://www.cpu-world.com/news_2012/2012071001_Launch_schedule_of_Intel_Haswell_processors.html)


According to recent roadmaps, that we've seen, Haswell processors will launch in April


Quad-core mobile CPUs with GT3 graphics, as well as accompanying Lynx Point chipset, will be ready for release in March.


Das widerspricht sich. Für die Desktop Modelle sollte April stimmen, da die Chipsätze für Q2 angekündigt sind.

Außerdem noch:

Haswell ULT models for consumer market will be released in June - August 2013 time frame.

y33H@
2012-07-10, 13:47:23
ULT = ULV?

Haswell DT im April klingt realistisch, passend dazu die mobile Quads und die ULVs dann im (späten) Sommer. Stimme dir ergo zu.

Ronny145
2012-07-10, 13:51:50
ULT sind die 15W Versionen.

y33H@
2012-07-10, 14:20:41
Ultra Low T...?

boxleitnerb
2012-07-10, 14:24:55
...arget?

y33H@
2012-07-10, 14:36:27
TDP? :ucatch:

S940
2012-07-10, 15:05:56
Takt ?:freak:

Undertaker
2012-07-10, 15:26:10
ULT = ULTrabook. IIRC.

john carmack
2012-07-15, 17:57:06
Heißen die nicht ULV?

Ultra Low Voltage?

y33H@
2012-07-15, 19:45:20
Nicht mehr, bei den 15W Haswell spricht Intel von "ULT".

Ronny145
2012-08-07, 16:54:44
ULT = ULTrabook. IIRC.


Wäre plausibel. Andere Möglichkeit wäre Haswell Ultra (naja wäre quasi das gleiche). Siehe hier: http://pics.computerbase.de/4/3/1/3/5/2.png


Intel Lists 36 Variants Of Haswell Graphics (http://www.phoronix.com/scan.php?page=news_item&px=MTE1NTQ)


Intel Haswell Desktop (GT1): 0x0402
Intel Haswell Desktop (GT2): 0x0412
Intel Haswell Desktop (GT2+): 0x0422
Intel Haswell Mobile (GT1): 0x0406
Intel Haswell Mobile (GT2): 0x0416
Intel Haswell Mobile (GT2+): 0x0426
Intel Haswell Server (GT1): 0x040A
Intel Haswell Server (GT2): 0x041A
Intel Haswell Server (GT2+): 0x042A
Intel Haswell SDV Desktop (GT1): 0x0C02
Intel Haswell SDV Desktop (GT2): 0x0C12
Intel Haswell SDV Desktop (GT2+): 0x0C22
Intel Haswell SDV Mobile (GT1): 0x0C06
Intel Haswell SDV Mobile (GT2): 0x0C16
Intel Haswell SDV Mobile (GT2+): 0x0C26
Intel Haswell SDV Server (GT1): 0x0C0A
Intel Haswell SDV Server (GT2): 0x0C1A
Intel Haswell SDV Server (GT2+): 0x0C2A
Intel Haswell ULT Desktop (GT1): 0x0A02
Intel Haswell ULT Desktop (GT2): 0x0A12
Intel Haswell ULT Desktop (GT2+): 0x0A22
Intel Haswell ULT Mobile (GT1): 0x0A06
Intel Haswell ULT Mobile (GT2): 0x0A16
Intel Haswell ULT Mobile (GT2+): 0x0A26
Intel Haswell ULT Server (GT1): 0x0A0A
Intel Haswell ULT Server (GT2): 0x0A1A
Intel Haswell ULT Server (GT2+): 0x0A2A
Intel Haswell CRW Desktop (GT1): 0x0D12
Intel Haswell CRW Desktop (GT2): 0x0D22
Intel Haswell CRW Desktop (GT2+): 0x0D32
Intel Haswell CRW Mobile (GT1): 0x0D16
Intel Haswell CRW Mobile (GT2): 0x0D26
Intel Haswell CRW Mobile (GT2+): 0x0D36
Intel Haswell CRW Server (GT1): 0x0D1A
Intel Haswell CRW Server (GT2): 0x0D2A
Intel Haswell CRW Server (GT2+): 0x0D3A


Mit GT2+ könnte vielleicht die als GT3 bekannte GPU Variante gemeint sein. Wobei es komisch wäre, eigentlich war GT3 nicht für Desktop geplant, vielleicht nur eine vorsorgliche Benennung aller theoretisch möglichen Varianten. Dafür sprechen würde auch ULT mit GT1, was ich genauso komisch finde nachdem es kein GT1 für 17W ULV Modelle gibt.


Noch etwas aus der News:

the stacked memory that will be as much as 128MB I've heard from reliable developers


Bislang waren 64MB im Gespräch.

boxleitnerb
2012-08-10, 11:28:47
Nur 10% mehr Leistung beim CPU-Part?

Die zukünftigen 22 nm-Prozessoren können anders als Ivy Bridge keine neue Fertigungsgröße, dafür aber eine neue Architektur vorweisen. Sie sind also ein "Tock" in Intels Tick-Tock-Strategie. Demzufolge kann man einen erkennbaren Leistungssprung erhoffen. Intel selbst hat gegenüber seinen Partnern einen groben Richtwert angegeben. Im Vergleich zu Ivy Bridge soll Haswell um mindestens 10 Prozent Mehrleistung verfügen. Grundlage für diese Angaben sind Berechnungen, die noch vor ersten Prototypen angestellt wurden.

http://www.hardwareluxx.de/index.php?option=com_content&view=article&id=23355%20%20&catid=34&Itemid=99

Fragt sich, ob das IPC oder Takt+IPC ist. Wäre es Letzteres, wäre das ziemlich enttäuschend.

Ronny145
2012-08-10, 11:33:10
Now Intel tells its partners to expect that Haswell should end up at least 10 percent faster than Ivy Bridge based cores at the same clock.


Die Originalquelle spricht von gleichem Takt.

boxleitnerb
2012-08-10, 11:37:19
Gut, die Quelle weiter unten hab ich übersehen. Das klingt schon besser!

Ronny145
2012-08-10, 11:39:45
Gut, die Quelle weiter unten hab ich übersehen. Das klingt schon besser!


Was trotzdem nicht heißen muss, dass Haswell höher taktet. Man weiß es schlicht nicht. Wobei ich 10% mehr Leistung durch IPC Gewinn besser finden würde als durch Taktgewinn. 10% mehr IPC wäre ein Wort.

boxleitnerb
2012-08-10, 11:45:48
Naja seit Sandy wurde der Takt nicht mehr wirklich erhöht. Mit 22nm sollten da 10-15% drin sein. Ich persönlich gehe jedenfalls von 10% mehr Takt aus, bin Optimist.

Ronny145
2012-08-10, 12:03:39
http://chinese.vr-zone.com/wp-content/uploads/2012/08/%E8%9E%A2%E5%B9%95%E5%BF%AB%E7%85%A7-2012-08-06-%E4%B8%8B%E5%8D%884.28.43.png

Haswell ULT kommt in Q3 2013.

y33H@
2012-08-10, 12:07:44
War zu erwarten ... da bin ich mal echt gespannt drauf.

Undertaker
2012-08-10, 13:05:27
Was trotzdem nicht heißen muss, dass Haswell höher taktet. Man weiß es schlicht nicht. Wobei ich 10% mehr Leistung durch IPC Gewinn besser finden würde als durch Taktgewinn. 10% mehr IPC wäre ein Wort.

Sehe ich ähnlich, insbesondere wenn man das aktuelle Niveau im Auge behält. Das wir insgesamt als Produkt von IPC- und Taktsteigerung mehr als vielleicht 15% sehen werden, ist imo sehr unwahrscheinlich.

Nightspider
2012-08-10, 14:16:34
Mindestensn 10% mehr IPC Leistung klingt sehr gut.

Ich als Optimist hoffe dazu auf 10-30% 20% mehr OC Taktpotential.

Der_Korken
2012-08-10, 14:35:18
Ich als Optimist hoffe dazu auf 10-30% mehr OC Taktpotential.

Ich würde lieber mit 10 als mit 30% mehr Takt rechnen. Wenn überhaupt. Die Ivys laufen im gleichen Prozess und sind leider nicht so extrem taktfreudig.

Nightspider
2012-08-10, 14:59:09
Ja okay. Du hast Recht. 30% sind mehr als unwahrscheinlich.

Falls wir aber wirklich ~15% mehr max.Takt und >=10% IPC erleben werden, würde das ein ähnlich (sehr) großer Sprung werden wie mit Sandy Bridge.

Ich hoffe Intel wird aber wenigstens für den neuen Sockel von Haswell mit dessen Shrink 2014 eine 6 oder 8 Kern CPU für den Mainstream Bereich rausbringen.

Ansonsten wird Intel in den ersten NextGen Games mit nativem 8-16 Kern Support gegen die 8-16 Kerne von AMD abstinken bzw. gerade mal so schnell wie die Konsolen CPUs sein.

kunibätt
2012-08-10, 15:24:26
Warum soll das bitte so sein?
Selbst bei nahezu 100% Parallelität ist ein aktueller Intel Quad ohne HT meist schneller als ein AMD 8 Moduler. Und ob künftige Konsolen 16 Kerne haben, wissen wohl nur sehr wenige Leute.

Nightspider
2012-08-10, 15:46:25
Weil du derzeit Spiele an einer Hand abzählen kannst, welche 8 Threads bieten.
Das wird sich aber Ende 2013 schlagartig mit den neuen Konsolen ändern, welche 16-24 Threads bearbeiten werden können.
Wenn Intel nicht nachzieht wird man 2014 gegen die 12-16 Module von AMD im Mainstream Bereich abstinken.

Undertaker
2012-08-10, 16:03:04
Ich glaube kaum, dass AMD statt derzeit 4 auf einmal bis zu 16 Module an Endkunden verkaufen wird - das wäre weder bzgl. TDP noch Die-Size realisierbar. Ist nicht sogar der früher mal aufgeführte 5-Modul-Prozessor gestrichen worden? Zudem wird es, auch mit der kommenden Konsolengeneration, nicht auf einmal innerhalb weniger Jahre Engines geben, die so perfekt skalieren. Hat nicht schon die "uralte" XBOX 360 3 Kerne + SMT, die PS3 6 oder 7 SPEs?

Takt- und IPC-Steigerungen schlagen dagegen immer durch, das macht sie so attraktiv. :) Und zumindest bis Haswell scheint da das Ende der Fahnenstange noch nicht erreicht.

Ronny145
2012-08-10, 16:04:43
Weil du derzeit Spiele an einer Hand abzählen kannst, welche 8 Threads bieten.
Das wird sich aber Ende 2013 schlagartig mit den neuen Konsolen ändern, welche 16-24 Threads bearbeiten werden können.
Wenn Intel nicht nachzieht wird man 2014 gegen die 12-16 Module von AMD im Mainstream Bereich abstinken.



Schlagartig ändern? 16 Module im Desktop Mainstream? Mit einer 500 Watt TDP oder wie? ;D Welches Zeug rauchst Du? Wo ist die Quelle, dass die nächste Konsolen CPU 24 Threads besitzt?

Nightspider
2012-08-10, 16:32:43
Sorry, meinte natürlich 12-16 "Kerne" also 6-8 Module.

Die Unreal Engine 4 sollte schon CPUs befeuern können, welche mit bis zu 16 Threads oder mehr umgehen können.

Ebenfalls war auch mal von 3 Threads pro Core die Rede. 8 Kerne = 24 Threads.

boxleitnerb
2012-08-10, 16:33:55
Ja aber die Frage ist doch, was heißt "befeuern"? N Threads = N x fps? Bis 4 mag das halbwegs gutgehen, darüberhinaus glaub ich das aber weniger. Der Ertrag nimmt dann immer weiter ab.

Skysnake
2012-08-10, 16:53:14
Nightspider, der Takt wird verhalten steigen. Vielleicht sehen wir mit etwas Glück die 4 GHz, aber nur mit Glück. Ich tendiere eher zu 4 GHz im Turbo auf einem Kern und vielleicht 100 MHz mehr Takt als jetzt als Basistakt/Turbo auf allen Cores.

Die 6 oder 8 Kerne kannste dir im Mainstream auch abschminken. Haswell DT also der kleine Haswell wir auch nur maximal ein Quad mit SMT sein. Also genau wie SB und IB.

Überhaupt sollte man sich auf der CPU-Seite nicht all zu große Hoffnungen machen. Der Fokus liegt wie bei IB schon weiterhin ganz klar auf der iGPU. Ob das euch passt oder nicht spielt dabei keine Rolle. Die iGPU wird mit allen Mitteln weiterentwickelt. Die CPU definitiv nicht. Da wird halt ein kleines Update kommen, mehr aber auch nicht. Warum sollte man sich die eigenen SB/IB-E/EX unter druck setzen?

Also von daher rechnet mal eher mit 15% Mehrleistung im Schnitt/Bestcase, wenn man nicht die iGPU berücksichtigt. That's it. Und auch da wird man, so wie ich Intel kenne, die 10% wohl im Fall einer iGPU-Last erreichen, um möglichst gut da zu stehen.

Aber wir werden sehen was kommt. Man sollte allerdings aus IB gelernt haben, das die Zeit der großen Schritte so langsam beendet ist.

Coda
2012-08-10, 17:12:35
Für mich ist und bleibt das spannendste an Maxwell HTM :)

Ronny145
2012-08-10, 17:29:03
Maxwell wäre von Nvidia. Gespannt bin ich auch, was sich hinter bessere OC-Eigenschaften verbirgt. Hoffentlich gibt es zur IDF Antworten darauf.

Hübie
2012-08-10, 17:47:59
Für mich ist und bleibt das spannendste an Maxwell HTM :)

Verwirrt? :freak:

Nightspider
2012-08-10, 17:48:33
Die 6 oder 8 Kerne kannste dir im Mainstream auch abschminken. Haswell DT also der kleine Haswell wir auch nur maximal ein Quad mit SMT sein. Also genau wie SB und IB.
Ich rede ja auch auch nicht von Haswell sondern von seinem Shrink 2014 in 14nm.
4 Kerne waren ja schon in 22nm traurig. In 14nm wäre es noch viel trauriger und aufgrund der Konkurenz imo auch nicht Konkurenzfähig, wenn Intel die Krone behalten will.
Außer Intel plant auch mit dem Haswell Shrink eine IPC Steigerung um ~10%.

AnarchX
2012-08-10, 17:59:09
Bei AMD muss man wohl erstmal schauen, was nach Vishera noch für den Endkunden-Desktop an Multi-/Many-Core-CPUs kommt.

Für den immer wichtigeren Mobil-/Small-Form-Faktor-Markt sind wohl 4 Kerne(+SMT) mit hoher IPC noch eine ganze Weile ausreichend.

Skysnake
2012-08-10, 18:29:18
Ich rede ja auch auch nicht von Haswell sondern von seinem Shrink 2014 in 14nm.
4 Kerne waren ja schon in 22nm traurig. In 14nm wäre es noch viel trauriger und aufgrund der Konkurenz imo auch nicht Konkurenzfähig, wenn Intel die Krone behalten will.
Außer Intel plant auch mit dem Haswell Shrink eine IPC Steigerung um ~10%.

Auf Seiten der CPU reichen ihnen aber die nächsten Jahre selbst kleinste Verbesserungen voll auf. Bischen mehr Takt, hier mal paar Takte gespart an Latenz und das langt. Sie haben ein mehr als groß genügendes Polster.

Und bzgl den Kernen. Es macht keinen Sinn auf mehr als 4 Kerne zu gehen. Das kanabalisiert nur die eigene E/EX Serie. Der Consumerkart ist gut bedient mit dem was es gibt. Consumer brauchen nicht DIE mords Leistung. Sieht man ja auch daran, wie marginal der Vorteil eines i7 SB-E ist im Vergleich zu i7-2600k ist. Wenn man mehr Cores raus haut für den Consumerbereich in der Mainstreamplatform, dann hat das nur einen Effekt. Die Leute downgraden und sparen Kohle....

Auf Seite der iGPU siehts dagegen komplett anders aus. Da liegt Intel einige Jahre zurück in der Entwicklung. Hier müssen Sie den Rückstand erst mal aufholen, und das werden Sie auch auf Kosten der CPU-Entwicklung, darauf kannste einen lassen. Bis die da nicht dran sind, wird Intel alles tun um die Lücke zu schließen oder gar an AMD vorbei zu ziehen, denn die einzige realistische Gefahr die für Intel, von AMD oder sonst wem, ausgeht im x86 Markt, sind die AMD APUs. Wenn AMD HSA so zum laufen bekommt, dass die Hardware die Zuteilung der Aufgaben auf die Ausführungseinheiten übernimmt, dann hat Intel ein echtes Problem, denn dann kann, im Optimalfall, ohne OpenCL die iGPu genutzt werden, und gerade für solche Aufgaben, wo man ne Multicore CPU braucht, sind die oft recht gut einsetzbar, und dann hätten die Intel-CPUs einfach keine Chance.

AMD setzt mit HSA wies mir so langsam scheint echt alles auf eine Karte und will damit den Rückstand bei den CPUs unbedeutend machen. Wenn Ihnen das gelingt, dann Hut ab, denn dann hat Intel echt ein Problem.

Ronny145
2012-08-10, 18:31:12
In 14nm wäre es noch viel trauriger und aufgrund der Konkurenz imo auch nicht Konkurenzfähig, wenn Intel die Krone behalten will.
Außer Intel plant auch mit dem Haswell Shrink eine IPC Steigerung um ~10%.

Intel könnte über Jahre hinaus mit 4 Kernen die Konkurrenz locker im Schach halten. Zur Not bietet Intel mehr 4+SMT Modelle an, was derzeit nur bei den 1-2 größten Modellen der Fall ist. Wenn Intel mit 14nm ankommt, liegt die Konkurrenz ein fullnode zurück. 6 Kerne sehe ich im Mainstream erst dann, wenn Intel entweder die Highend CPUs für Desktop einstampft, was erst ab Haswell-E realistisch wäre, oder wenn die High-End CPU für den Desktop 8-10 Kerne bekommt. Erst dann wäre Luft nach oben für 6 Kerne im Mainstream.


Bei AMD muss man wohl erstmal schauen, was nach Vishera noch für den Endkunden-Desktop an Multi-/Many-Core-CPUs kommt.



Der Vishera Nachfolger ohne iGPU ist erst für 2014 angesetzt, Intel wird da kaum in Ehrfurcht erstarren. Für Steamroller wären maximal 5 Module denkbar, würde die Probleme leider noch mehr verlagern. AMD braucht bessere Leistung bei Ausnutzung von weniger Kernen, das heißt in erster Linie mehr IPC. Taktfrequenz ist ja jetzt schon recht hoch. Aber gut, ich erzähle dir nichts neues.

Coda
2012-08-10, 18:37:42
Verwirrt? :freak:
Haswell sorry X-D

Nightspider
2012-08-10, 18:55:27
Intel könnte über Jahre hinaus mit 4 Kernen die Konkurrenz locker im Schach halten.

Sagt wer? Der Fanboy?
Wenn ich mich nicht irre war ein 4Ghz Bulldozer mit 4 Kernen in BF3 im CPu Limit jetzt schon schneller als ein 4Ghz Ivy, da BF3 8 Threads nutzt bei minimalen Grafikdetails.

Aller spätestens 2015 würde Intel mit 4 Kernen gegen die Wand fahren wenn AMD mit Sicherheit bis zu 8 Module / 16 Kerne hat. Das ist weit weg von ""über Jahre hinaus"" wie du sagst.

Ronny145
2012-08-10, 19:00:39
Sagt wer? Der Fanboy?

Der Realist.


wenn AMD mit Sicherheit bis zu 8 Module / 16 Kerne hat. Das ist weit weg von ""über Jahre hinaus"" wie du sagst.


Du träumst. 8 Module sind Utopie für den Desktop.

Skysnake
2012-08-10, 19:16:20
/Sign

Die müssten einfach zu niedrig getaktet sein, damit die Leistungsaufnahme nicht explodiert

Duplex
2012-08-10, 20:28:49
Ich rede ja auch auch nicht von Haswell sondern von seinem Shrink 2014 in 14nm.
4 Kerne waren ja schon in 22nm traurig. In 14nm wäre es noch viel trauriger und aufgrund der Konkurenz imo auch nicht Konkurenzfähig, wenn Intel die Krone behalten will.
Wahrscheinlich wird Intel die alte Strategie fortsetzen.

Neuer Prozess
Mainstream (Desktop) > TDP Verbesserungen oder mehr CPU/Turbo Takt
High End (Server) > Mehr Kerne (z.b. wie Nehalem > Westmere +50%)

Außer Intel plant auch mit dem Haswell Shrink eine IPC Steigerung um ~10%.
Einige Sachen werden bestimmt verbessert, hauptsächlich wird der 14nm Prozessor einen DDR4 Controller besitzen um die DDR3 Plattform langsam ablösen zu können.


Aller spätestens 2015 würde Intel mit 4 Kernen gegen die Wand fahren wenn AMD mit Sicherheit bis zu 8 Module / 16 Kerne hat. Das ist weit weg von ""über Jahre hinaus"" wie du sagst.
Wie kommst du darauf das AMD mit der 22/20nm Einführung gleich auf 8 Module setzen wird? Was willst du mit so einem scheiss hungrigen uneffizienten Prozessor? AMD hat nichtmal was davon wenn Sie mit 5 Modulen ankommen, erstmal muss die Thread Performance über 30% verbessert werden (IPC), aktuell kann man mit 4 Module / 8 Threads nichtmal mit der Xeon E5 Serie mithalten, es bringt nichts wenn die CPUs noch größer werden, aud lange sicht wird AMD keine Chancen mehr im Server Markt haben, wir haben in paar Monaten das Jahr 2013, das sind 6 harte Jahre nach Phenom/Barcelona Ärea.

Nightspider
2012-08-10, 22:26:17
22/20nm werden bei AMD die Leistungsaufnahme auch wieder stark senken.
Die IPC Leistung von Bulldozer bzw. nachfolgern wird mit Sicherheit erhöht und dann würde dieser mit 5-6 Modulen definitiv einen Intel QuadCore schlagen, wenn Intel keine IPC Wunder vollbringt und bei 4Kernen bleibt.

Entweder AMD wird bisher die IPC drastisch verbessern können oder man wird in Richtung 8Module wandern. Andernfalls wird man die IPC leicht steigern und die Modul anzahl auch leicht erhöhen. In jedem Fall würde ein Intel QuadCore 2014 in Spielen das Nachsehen haben, die mindestens 8 Threads besitzen. Denn bisher wird die volle Leistung eines 4-Modul Bulldozers nicht voll ausgenutzt sondern oft nur zu >50%.

Auf jeden Fall wird AMD mit 22nm nicht Eier schaukeln sondern den gewonnen Platz bestmöglich investieren in mehr Kerne oder mehr IPC.
Intel investiert den Platz im Moment hauptsächlich in die IGP und das wird auf lange Sicht nicht reichen, wenn AMD die Anzahl der Kerne UND die IPC steigert. Denn die NextGen Games werden das Problem von AMD beseitigen, das die CPU dank vieler Kerne nicht voll ausgereitzt wird.


Du träumst. 8 Module sind Utopie für den Desktop.

So wie niemand mehr als 640kbit RAM benötigen wird? (Zitat: Bill Gates 1981)

Duplex
2012-08-10, 22:42:46
Träum weiter, mehr als 6 Module sind in 22nm unrealistisch, die Anzahl der Kerne ist nicht alles, Leistungsaufnahme & CPU Takt muss ebenfalls stimmen.
Du bist viel zu optimistisch, Piledriver wird nichtmal 5% mehr IPC als BD haben, Steamroller wahrscheinlich nur 10%, selbst dann erreichst du keine K10 IPC.

Das ist jetzt offtopic, hier gehts um "Intel´s Haswell".

Knuddelbearli
2012-08-10, 22:54:48
gerade Leistungsaufnahme bzw Performance je Watt wird ja durch mehr Kerne verbessert ( sofern das mehr an Kerne auch genutzt wird )

Ronny145
2012-08-10, 23:12:44
So wie niemand mehr als 640kbit RAM benötigen wird? (Zitat: Bill Gates 1981)


Das hat nichts damit zu tun, was jemand braucht oder nicht. Es geht um die realistische Möglichkeit 8 Module im Mainstream Desktop Segment zu bringen. Und das ist völlig abwegig in den nächsten 2-3 Jahren. Dein Zitat ist völlig unpassend. Bulldozer/Piledriver braucht 125 Watt (TDP) bei "nur" 4 Modulen. Ein Shrink auf 28-20 nm wird keine Wunder vollbringen. Die Taktfequenz müsste zu stark abgesenkt werden, das wäre im Desktop Bereich total unsinnig. Anstatt immer mehr Module dranzuklatschen, muss AMD erstmal die Threadleistung erhöhen. Der wirtschaftliche Aspekt wäre das nächste, wie groß soll die Die size noch werden bei steigenden Kosten kleinerer Fertigungsprozesse? Modulerweiterungen sind möglich, dann aber eher schrittweise. 5 Module waren afaik für den Zambezi Nachfolger mal geplant, was verständlicherweise angesichts des hohen Verbrauchs verworfen. Eine Verdopplung von derzeit 4 Modulen auf 8 dagegen Utopie.

Pentium M
2012-08-10, 23:35:55
Threadleistung forciert vor allem INTEL.Fühlt sich an wie eine Re legion.

Nightspider
2012-08-10, 23:47:10
IPC ist die eine Sache. Stromverbrauch die Andere.
AMD wird nicht nur versuchen die IPC Leistung zu erhöhen sondern auch den Stromverbrauch zu senken. Intel hat das ja damals mit dem Conroe super vorgemacht. (30% weniger Stromverbrauch UND 30% Mehr Leistung)

Innerhalb von 2 Jahren kann AMD nicht nur die Architektur ein gutes Stück effizienter machen, ob durch IPC Steigerung oder durch Reduzierung des Stromverbrauchs, sondern dank des neuen Fertigungsprozesses auch mehr Module verbauen.

Du kannst die heutige Effizienz nicht mit der Effizienz der Architektur in 2 Jahren gleichsetzen und dann von unmöglichen 8 Modulen sprechen. Da kann bei AMD noch viel passieren. Auch wenn man da vielleicht nicht zu optimistisch sein sollte. Wir brauchen uns ja jetzt nicht ewig an den 8 Modulen aufhängen. Auch 6 Module mit leicht höherer IPC könnten 4 Intel Cores in einigen Games 2014 überholen.

Das 2014 4Kerne bei Intel nicht mehr reichen, um AMD in Schach zu halten ist meine Meinung und Prognose. Die muss niemand teilen. Ich würde sagen wir belassen es dabei. Wer Rechte hatte werden wir sowieso erst in 2 Jahren sehen.

Pentium M
2012-08-10, 23:54:33
Wer sagt eigentlich das 14 nm sofort funktioniert.Oder bin ich der einzige der in eine Glaskugel schaut.

Ronny145
2012-08-11, 00:03:29
In 2014 bringt AMD erstmal den Piledriver Nachfolger. Da müsste die 10-15% Prognose von AMD derbe daneben liegen. Intel wird also nicht mehr Schritt halten können, nicht ernst zu nehmen ist das.

Wer sagt eigentlich das 14 nm sofort funktioniert.Oder bin ich der einzige der in eine Glaskugel schaut.


Braucht Intel gar nicht, die wären in 32nm noch überlegen. Die Frage wäe dann zuerst in die andere Richtung zu stellen, wer sagt das AMD bzw. Globalfoundries/TSMC 20/22 nm sofort in den Griff bekommt? 2014 kommt Steamroller noch in 28nm, frühestens 2015 20/22nm, den Wechsel muss AMD erstmal vollziehen.

Pentium M
2012-08-11, 00:11:09
Ich spreche vom 14 nm Prozess von Intel und du erzählst sofort von AMD?

Duplex
2012-08-11, 00:16:26
Genau den Wechsel auf 22nm muss AMD dann erstmal vollziehen, die bekommen es nichtmal gebacken 28nm APUs zu vermarkten weil kein Hersteller 28nm DIEs in ausreichenden Mengen für AMD ausliefern kann.

Nightspider träumt zuviel, von wegen in 2 Jahren reichen keine Quad Cores mehr, nach seiner Vision müsste AMD die IPC deutlich erhöhen was ziemlich unrealistisch ist, 10% reichen nicht aus. Wir hatten bereits vor 3 Jahren i7 CPUs mit SMT die den AMDs deutlich überlegen waren....und heute sind die i5 von Q1/11 immer noch besser als die FX :D

Heute wären 8 Kerne in 22nm ohne iGPU von Intel nichtmal 200mm² groß, wenn Intel wollte könnten Sie 8 Kerne ohne SMT ziemlich günstig anbieten, damit AMD´s Produkte nicht mehr attraktiv erscheinen.

Pentium M
2012-08-11, 00:27:04
Heute wären 8 Kerne in 22nm ohne iGPU von Intel nichtmal 200mm² groß, wenn Intel wollte könnten Sie 8 Kerne ohne SMT ziemlich günstig anbieten, damit AMD´s Produkte nicht mehr attraktiv erscheinen.

Und schon wieder eine Zahlenspielerei von DUPLEX . :rolleyes:

Nightspider
2012-08-11, 01:03:50
Wir hatten bereits vor 3 Jahren i7 CPUs mit SMT die den AMDs deutlich überlegen waren....und heute sind die i5 von Q1/11 immer noch besser als die FX :D

Seit dem werden bei Intel die DICE immer kleiner, weil Intel mehr Geld machen will. Früher oder später würde AMD Intel dank mehr Kernen einholen, da die DICE gleichbleibend deutlich größer sind als bei Intel.

Deswegen wird Intel 2014/2015 sicherlich einen 6 oder 8 Kerner in den Mainstream Bereich bringen. Haswell EX in 22nm soll sogar 12 Kerne bekommen.


Nightspider träumt zuviel, von wegen in 2 Jahren reichen keine Quad Cores mehr.....

Des Lesens bist du mächtig?

Anstatt mir ans Bein zu pissen solltest du meine Posts nochmal lesen anstatt mir falsche Sachen zu unterstellen.
Meine Aussage habe ich schon begründet. Von dir kam nur heiße Luft bisher.

kunibätt
2012-08-12, 05:41:45
Ich behaupte in Anbetracht der Marktentwicklung mal, dass es gar nicht so unrealistisch ist , dass Intel eher bei 14n ankommt, als AMD bei 22nm. Inwiefern man Unternehmen mit einerseits bedeutend schlechterer Architektur und viel schlechteren Fertingungsmethoden im Vorteil sieht, ist natürlich immer eine Frage des Gemacks.

Skysnake
2012-08-12, 10:10:19
Dazu kann ich nur den Beitrag mal empfehlen. Charlie hat das eigentlich sehr gut getroffen: http://semiaccurate.com/2012/07/20/intel-and-asml-a-lead-is-a-double-edged-sword/

Gerade die Umstellung auf 40mm Wafer und eben EUV kann Intel nicht alleine stemmen. TSMC hat sich ja inzwischen auch mit einer Milliarde bei ASML beteiligt, genau wie Intel (5 bis 6 Mrd $).

Das Ding ist, Intel wird sicherlich die ersten tool bekommen und >6 Monate vor den anderen mit der Massenproduktion starten, aber Intel kann sich weder den 450mm noch den EUV umstieg alleine Leisten. Sie können sich nur die ersten Geräte sichern, wobei Sie da eben dann auch den early-adopter-Aufschlag zahlen....

Und der Umstieg wird bei 14 oder bei 10nm kommen. Da wird der Markt also spätestens etwas zusammen gestaucht. Wobei man wohl auch anmerken muss, dass die erste Zeit die Kapazitäten wohl am Anfang sehr klein sein werden. Das ist halt auch wieder so eine Intel Geschichte. Sie brauchen tools für extrem große Kapazitäten, dadurch stehen tools aber auch schon sehr lange rum und kosten Geld, auch wenn Sie schon mal die Vorproduktion übernehmen, dann liegt halt trotzdem extrem viel Kapital rum.

Die anderen wollen aber auch tools in absehbarer Zeit, sonst sind Sie nicht sonderlich daran interessiert sich daran zu beteilligen. Sprich die Zeitspanne wird soch wohl auf 6-12 Monate Abstand eingrenzen lassen und wohl auch dazu führen, das wir von Intel wieder 2 unterschiedliche Produktionsverfahren gleichzeitig sehen. Bei TSMC usw wahrscheinlich auch.

Von daher wie Charlie mal ausnahmsweise wirklich trefflich formuliert hat "Führung ist ein zweischneidiges Schwert"

Schaffe89
2012-08-12, 13:45:53
Was willst du mit so einem scheiss hungrigen uneffizienten Prozessor?

Naja, es ist denke ich noch nicht bekannt, wie Excavator oder Steamroller mit solch kleinen Fertigungen aussehen, insofern bitte kein ungelegten Eier in die Welt setzen.

Es geht um die realistische Möglichkeit 8 Module im Mainstream Desktop Segment zu bringen. Und das ist völlig abwegig in den nächsten 2-3 Jahren.

Ich denke schon, dass dsowas passieren könnte, zumindest mt 5 oder 6 Modulen´m welche dann evtl. noch flexibler sind und bei eine Belastung bei bis 4 Module höher takten .. etc.. etc..

Genau den Wechsel auf 22nm muss AMD dann erstmal vollziehen, die bekommen es nichtmal gebacken 28nm APUs zu vermarkten weil kein Hersteller 28nm DIEs in ausreichenden Mengen für AMD ausliefern kann.


TSMC wird jetzt bald soweit sein.
Wie weit Globalfoundries schon ist ist schwer zu beurteilen, allerdings kann ein Fertigungswechsel auf eine kleinere Struktur auch besser funktionieren als zuvor, da müssen viele Punkte stimmig sein.
So oberflächlich wie du das hier behandelst ist es jedenfalls Käse, genauso wie du scheinbar des Lesens nicht mächtig bist und nur rumstänkerst.

Hast du deinen Account mit LS getauscht? ;D

Mancko
2012-08-12, 17:33:48
Von daher wie Charlie mal ausnahmsweise wirklich trefflich formuliert hat "Führung ist ein zweischneidiges Schwert"

Lügen Charlie erzählt sehr viel wenn der Tag lang ist und noch viel lieber dreht er sich Dinge so hin wie er sie gern hat. Er hat halt nicht ganz geschnallt, dass Intel einen Batzen Geld in ASML investiert hat um Einfluss auf das Unternehmen zu bekommen. Gemäß der aktuellen Marktkapitalisierung hält Intel ca. 20% an ASML. Ein Netter Anteil um Druck auf Vorstandsentscheidungen auszuüben. Und keiner weiß ob Intel nicht vielleicht morgen die weiteren 5Mrd. rüber wachsen lässt.

Zu den Nvidia Zahlen gibt es auch noch keinen Artikel auf seiner Seite. Der kocht innerlich bestimmt vor Wut.

Das die Fertigung in Summe immer teurer wird leuchtet ein. Das trifft allerdings primär mal AMD. AMD verdient kaum Geld und kämpft mit sinkenen Volumina. Ohne state of the art Fertigung hat AMD eigentlich keine Chance mehr bei x86 aufzuschließen. Die Lücke wird sich eher vergrößern als verkleinern und im Endeffekt wird AMD am Ende des Tages zwischen x86 und ARM aufgerieben. Der Verkauf der eigenen FABs war m.E. das Einleiten der Endphase. AMD wird irgendwann aufgekauft und in Einzelteile zerlegt werden. Die Rosinen pickt man sich raus und den Rest verschachert man an Investoren oder Intel.

fondness
2012-08-12, 18:10:28
Er hat halt nicht ganz geschnallt, dass Intel einen Batzen Geld in ASML investiert hat um Einfluss auf das Unternehmen zu bekommen. Gemäß der aktuellen Marktkapitalisierung hält Intel ca. 20% an ASML.

Exakt 15% haben sie gekauft. Der Rest war Kapital für Investitionen.


Und keiner weiß ob Intel nicht vielleicht morgen die weiteren 5Mrd. rüber wachsen lässt.

Niederländische Gesetze erlauben max. 25% in ausländischer Hand. Intel hält 15%, TSMC 5%, es sind also nur nur 5% "zu haben".

Skysnake
2012-08-12, 20:07:15
Wenn nicht schon wer anders die 5% hat ;)

Zudem bringt es Intel nicht viel, dass Sie die 15% haben, außer halt, das die Forschung und Enwicklung etwas druck bekommt. Bezahlen müssen Sie aber trotzdem ganz schön dafür, dass Sie die ersten sind. Intel verballert da halt unglaublich viel Geld, und in 5-10 Jahren stehen alle auf dem gleichen Stand, einfach weils nicht weiter geht. Man muss also immer schauen, in wie weit sich das lohnt

Hübie
2012-08-12, 23:25:16
Und die hat afaik Philips.

Undertaker
2012-08-13, 09:09:54
Wenn nicht schon wer anders die 5% hat ;)

Zudem bringt es Intel nicht viel, dass Sie die 15% haben, außer halt, das die Forschung und Enwicklung etwas druck bekommt. Bezahlen müssen Sie aber trotzdem ganz schön dafür, dass Sie die ersten sind. Intel verballert da halt unglaublich viel Geld, und in 5-10 Jahren stehen alle auf dem gleichen Stand, einfach weils nicht weiter geht. Man muss also immer schauen, in wie weit sich das lohnt

Bei Intels Stückzahlen spart man allerdings auch gigantische Wafer-Kapazitäten und kann durch höhere Verkaufspreise die Marge steigern. Ob das die Kosten nicht mehr als aufwiegt? Das wird sicher auch der Hersteller genau durchgerechnet haben. Naja, und was in 5-10 Jahren mal ist... Wer kann das schon sicher sagen. ;)

Skysnake
2012-08-13, 09:43:12
Genau das ist aber der springende Punkt. Was nützt es Intel hier mit verdammt viel Geld die Führung noch weiter aus zu bauen, wenn Sie nur wenige Jahre (3-5) später dann vor die Wand fahren. Eben nichts....

Und im Moment siehts ja eher schlecht aus für die Weiterentwicklung. Man rennt mit vollem Temp gegen eine Wand, wobei man noch nicht genau sagen kann ob die Wand jetzt etwas früher bei 8-12 nm oder später bei 4-6 nm kommt. Sie kommt aber auf jeden Fall und Alternativtechniken sehen halt auch nicht so gut aus. Shrinken geht einfach nicht mehr. Als Alternative bleiben eigentlich nur noch andere Materialien wie Galium-Arsenid, aber das ist teuer UND die Dinger sind spröde wie Drecksau. Das kannste nicht wirklich für ne große CPU/GPU verwenden.

Naja, und alternativ bleibt dann halt noch Graphen, aber da ist man noch SEHR weit davon entfernt das industriell zu nutzen, und selbst wenns geht, explodieren halt die Taktraten, aber das wars dann halt auch, wobei man dann eben auch das Problem vergrößert, das man gar nicht innerhalb eines Taktes den Chip durchwandern kann...

Naja, bleibt halt nur noch Multi-Chip Designs, also mit Interposer usw. Da müssten die Leute dann aber eben anfangen sich davon zu verabschieden groß um/auf zu Rüsten, was ja keiner einsehen will... PCs würden dann mehr so wie Fernseher und Smartphones. Es gibt halt gewissen Angebote, man sucht sich was aus, und wenns nicht mehr ausreicht kauft man sich was neues.

Das wird uns auf mittlere/lange Sicht erwarten. Man muss sich halt dazwischen ob man bei gegebener Leistung teuer+variabel oder billig+statisch sein will, wobei das auch nur bis zu gewissen Grenzen geht. Irgendwann wird man sich die Steckverbindungen einfach nicht mehr Leisten könne, da diese einfach schlechtere elektrische Eigenschaften haben als Lötverbindungen oder gar Anbindungen per Interposer, wo man gar nichts mehr ändern kann....

Hugo78
2012-08-13, 11:05:15
Was nützt es Intel hier mit verdammt viel Geld die Führung noch weiter aus zu bauen, wenn Sie nur wenige Jahre (3-5) später dann vor die Wand fahren.

Ja, ja ... 3-5 Jahre ist aber mal wieder tiefdunkle Schwarzmalerei ala Char_LIE. ;)
Die Zeiträume in der ein Fertigungsprozess für jeweils aktuelle Produkte genutzt wird, werden sich in den nächsten Jahren verlängern, so holt man die Kosten wieder rein.
Und das werden alle machen müssen, weil überall die R&D Kosten steigen und btw.. ausser Intel, kann sich eh keiner ein solches Entwicklungstempo leisten.

Ausserdem bei knapp 3 Mrd. USD Gewinn pro Quartal, sind die 6Mrd. für ASML, grad mal eine Investition eines Halbjahres Gewinns.
Eine Investition die grad für Intel im mobilem Bereich absolut gerechtfertig ist, wenn man hier irgendwann mal verpasste Marktanteile erobern will.
Nicht das ich mir das wünsche *hust*, aber so ist ja nunmal.

Und Intel braucht die Fertigung ja nicht nur für High End CPUs, sondern zb. auch für Speicherchips und Handy SoCs.
Bspw. in der neuen Plextor M5 Pro werkeln 19nm Flashspeicher von Toshiba.
Hier bietet Intel *iirc* bisher nur 25nm an.

Skysnake
2012-08-13, 13:01:52
Das bestreitet ja auch keiner, dass die Entwicklung langsamer wird, aber Sie darf es eigentlich nicht... Wir müssen ja an Moore´s law denken...

Und genau das wird uns eben das Genick brechen. Wir werden zwar noch Fortschritt haben, aber der wird sich in nächster Zeit noch viel stärker verlangsamen. Es gibt ja bereits Leute, die die Forschung in Gefahr sehen auf mittlerer bis langer Sicht, einfach weil die Rechenleistung stagniert. (Wobei hier die Effizienz gemeint ist, das diese bereits heute der limitierende Faktor für die Gesamtrechenleistung ist).

HOT
2012-08-13, 16:07:18
Ach es gibt allerlei Untergangspropheten, die alles mögliche in Gefahr sehen, weil Moores-Law nicht mehr eingehalten wird. Das mMn alles Unfug. Es muss irgendwann brechen. Und die Erde wird sich weiterdrehen...

S940
2012-08-13, 19:21:12
Es muss irgendwann brechen. Und die Erde wird sich weiterdrehen...Jupp, spätestens wenn sie auf Atom-Dicke angelangt sind.
Aber wer weiß, vielleicht kann man zu der Zeit dann einzelne Quarks hin- und herschieben oder es gibt irgendwie andere Lösungen.

Coda
2012-08-13, 19:26:04
Einzelne Quarks zerstrahlen sofort.

S940
2012-08-13, 19:52:58
Ach deswegen sieht man die so selten ^^

AffenJack
2012-08-13, 19:56:09
Jupp, spätestens wenn sie auf Atom-Dicke angelangt sind.
Aber wer weiß, vielleicht kann man zu der Zeit dann einzelne Quarks hin- und herschieben oder es gibt irgendwie andere Lösungen.

Es wird wohl eher wie immer sein, dass wir einfach ne Verlangsamung der Leistungssteigerung und nur noch kleine Sprünge sehen werden in ~20 Jahren.
Die letzte Generation hat auch an die unendliche Steigerung der Mobilität geglaubt, bis sie von der Realität eingeholt wurde. So wirds auch diesmal sein. Dafür gibts bestimmt neue coole Dinge;)

D Es gibt ja bereits Leute, die die Forschung in Gefahr sehen auf mittlerer bis langer Sicht, einfach weil die Rechenleistung stagniert. (Wobei hier die Effizienz gemeint ist, das diese bereits heute der limitierende Faktor für die Gesamtrechenleistung ist).

Was für Leute sollen das sein? In großen Teilen der Forschung ist der Computer noch nichtmal richtig angekommen und da redet man schon vom Untergang? Ahja. Erstmal ist selbst bei der jetzigen Leistung das Softwareseitige noch die viel größere Baustelle.

OgrEGT
2012-08-13, 20:09:07
Sorry for OT:


Naja, bleibt halt nur noch Multi-Chip Designs, also mit Interposer usw. Da müssten die Leute dann aber eben anfangen sich davon zu verabschieden groß um/auf zu Rüsten, was ja keiner einsehen will... PCs würden dann mehr so wie Fernseher und Smartphones. Es gibt halt gewissen Angebote, man sucht sich was aus, und wenns nicht mehr ausreicht kauft man sich was neues.


Nach wie vor ist dies nur eine Theorie. Warum sollten denn Interposer Technik / Stacked Chips nicht einfach auch zu Multi-Die CPUs und Multi-Die GPUs führen als nur zu reinen Soc Lösungen? Gerade im Enthusiast / Highend Desktop Bereich erscheint mir SoC unrealistisch.

Skysnake
2012-08-13, 22:06:49
Ach es gibt allerlei Untergangspropheten, die alles mögliche in Gefahr sehen, weil Moores-Law nicht mehr eingehalten wird. Das mMn alles Unfug. Es muss irgendwann brechen. Und die Erde wird sich weiterdrehen...
Willst du das Universum besser verstehen?
Willst du präzisere Wettervorhersagen?
Willst du sichere Fahrzeuge?
Willst du neuartige Materialien/Baustoffe?
Willst du Fortschritte bei der Supraleitung?
Willst du in Zukunft mal genau auf dich zugeschnittene Medikamente
usw usw usw

Wenn ja, dann schau lieber darauf, das Moore eingehalten wird für möglichst lange, sonst kannst du dich von mehr oder weniger davon verabschieden....

Was für Leute sollen das sein? In großen Teilen der Forschung ist der Computer noch nichtmal richtig angekommen und da redet man schon vom Untergang? Ahja. Erstmal ist selbst bei der jetzigen Leistung das Softwareseitige noch die viel größere Baustelle.
Hmm.... wart mal...
Physiker?
Chemiker?
Biologen?
Astronomen?
Mathematiker?
Mediziner (bildgebende Verfahren, Operationssimulatoren, erkennung von bößartigen Zellkulturen/zusammen mit Biologen usw usw)?
Geowissenschaftler (Ölfelder finden, Vulkane besser verstehen usw usw)?
Pharmakologen?
Meteorologen?

Das sind so die größten Gruppen an Wissenschaftlern, die massiv auf Rechnersysteme setzen. Aber stimmt, der Computer ist in der Forschung bei den meisten noch nicht angekommen. Is klar ne :ugly:

Wer treibt denn außer den Kernwaffenforschungseinrichtungen die Entwicklung der Supercomputer an? Ach ja richtig.... Forscher.... :facepalm:



Nach wie vor ist dies nur eine Theorie. Warum sollten denn Interposer Technik / Stacked Chips nicht einfach auch zu Multi-Die CPUs und Multi-Die GPUs führen als nur zu reinen Soc Lösungen? Gerade im Enthusiast / Highend Desktop Bereich erscheint mir SoC unrealistisch.
Dann hast du aber noch immer die Flaschenhälse zwischen den einzelnen Funktionseinheiten, was diese ineffizienter macht.

Zudem, was passiert denn, wenn man deine Multi-DIE CPUs und Multi-DIE GPUs per Interposer verbindet? ;)

Wobei es meiner Meinung nach keinen Sinn macht, hier die große GPU und dort die große CPU zu haben, sondern lieber alles vermischt, da man so die Signalwege kurz hält, und die Daten/Signale übern Chip zu jagen kostet unglaublich viel Energie....

Daher macht ein SOC, wenn man Powerlimited ist deutlich mehr Sinn als getrennte Funktionseinheiten. Man hat ja insegesamt noch die gleichen Funktionseinheiten, nur die Anordnung selbiger ist halt anders.

AffenJack
2012-08-13, 23:05:29
Hmm.... wart mal...
Physiker?
Chemiker?
Biologen?
Astronomen?
Mathematiker?
Mediziner (bildgebende Verfahren, Operationssimulatoren, erkennung von bößartigen Zellkulturen/zusammen mit Biologen usw usw)?
Geowissenschaftler (Ölfelder finden, Vulkane besser verstehen usw usw)?
Pharmakologen?
Meteorologen?

Das sind so die größten Gruppen an Wissenschaftlern, die massiv auf Rechnersysteme setzen. Aber stimmt, der Computer ist in der Forschung bei den meisten noch nicht angekommen. Is klar ne :ugly:

Wer treibt denn außer den Kernwaffenforschungseinrichtungen die Entwicklung der Supercomputer an? Ach ja richtig.... Forscher.... :facepalm:


Bevor du alle möglichen Fachgebiete einwirfst solltest du dich erstmal informieren, inwiefern sie Computer benötigen.
Wo ist da die Forschung durch stagnierende Rechenleistung gefährdet? Das war schließlich deine Aussage. Zumindest bei Chemikern, Biologen, Medizinern und Pharmakologen wird ne Rechenleistungssteigerung nur in sehr kleinen Teilgebieten benötigt und gefährdet ganz sicher nicht die Forschung.

Und zu deinen andern Beispielen:
Willst du das Universum besser verstehen? Check
Willst du präzisere Wettervorhersagen?Check
Willst du sichere Fahrzeuge? Nicht wirklich nen limitierenden Faktor
Willst du neuartige Materialien/Baustoffe? Hier auch nicht
Willst du Fortschritte bei der Supraleitung?KA
Willst du in Zukunft mal genau auf dich zugeschnittene Medikamente Da steht man vor ganz anderen Problemen als Rechenleistung
usw usw usw

Wenn ja, dann schau lieber darauf, das Moore eingehalten wird für möglichst lange, sonst kannst du dich von mehr oder weniger davon verabschieden....


Du kannst ja gerne dran glauben, dass mit purer Rechenleistung jedes Problem gelöst wird. Schön wenn es so einfach wäre.

Coda
2012-08-13, 23:22:50
Bevor du alle möglichen Fachgebiete einwirfst solltest du dich erstmal informieren, inwiefern sie Computer benötigen.
Wo ist da die Forschung durch stagnierende Rechenleistung gefährdet? Das war schließlich deine Aussage. Zumindest bei Chemikern, Biologen, Medizinern und Pharmakologen wird ne Rechenleistungssteigerung nur in sehr kleinen Teilgebieten benötigt und gefährdet ganz sicher nicht die Forschung.
Ich bin da auch eher auf Skysnakes Seite.

Beispielsweise in der Biochemie und damit auch der Medizin ist Rechenleistung immer noch ein sehr limitierender Faktor. Simulation von Faltung von Proteinen etc. ist sehr teuer. Und das braucht man praktisch um fast alles zu verstehen was im Körper vor sich geht.

Skysnake
2012-08-14, 00:05:38
Bist du dir da sicher?

Willst du sichere Fahrzeuge? Nicht wirklich nen limitierenden Faktor

Elektronischer Windkanal sagt dir was?
simulation von Crashtests sagt dir was?
Brennstoffzellenforschung sagt dir was?
Fluiddynamik simulationen zur optimierung des Verbrennungsvorgangs?
Schon älter, aber soll einfach mal die Relationen zeigen. 2004 war das ne ziemliche Hausnummer

Laut AMD kommt DaimlerChryslers neuer Cluster mit Opteron-Prozessoren, das zu den größten Hochleistungs-Linux-Clustern zählt, die in der deutschen Automobilindustrie installiert sind, zur Crash-Simulation bei allen künftigen Fahrzeugen von Mercedes-Benz zum Einsatz.
http://www.atzonline.de/Aktuell/Nachrichten/1/2041/DaimlerChrysler-implementiert-neuen-Cluster-von-AMD-fuer-Crash-Simulationen.html
Und neu von 2011 von der SC11

NVIDIA's CEO, Jen-Hsun Huang, spoke at the event. NVIDIA announced a new technology, called Maximus, which the company says will combine the professional 3D graphics capability of NVIDIA Quadro GPUs and its Tesla GPUS. "With Maximus engineers, artists, designers or scientists can now interact with high-performance visuals while performing simulations or renderings on the same system – at the same time," the announcement says. In one case study, Mercedes-Benz used the NVIDIA Maximus platform to transform its design center studio into a parallel processing environment that enabled simultaneous 3D design, simulation, and visualization at the desktop.
http://www.linux.com/news/featured-blogs/147:high-performance/511680:top500-list-of-supercomputers-released

Also sicher das man keine guten Rechnersysteme in der Automobilindustrie braucht?
Das andere Ende der Skala, die aber genau so wichtig ist, ist die Rechenleistung, die du brauchst um autonomes Fahren zu ermöglichen. Bis das wirklich vernünftig einsetzbar ist, muss allein schon die Hardware noch bedeutend leistungsfähiger werden, da nur sehr wenig Platz zur Verfügung steht und das Ding auch nicht einfach mal so 1kW oder mehr verbrauchen darf.


Willst du neuartige Materialien/Baustoffe? Hier auch nicht

Aha, du willst als die Forschung für neue supraleitende Materialien ohne Simulationen voran bringen. Interessant.

Kleines Beispiel: http://www.mpg.de/604049/pressemitteilung201010221?filter_order=LT&research_topic=PA-FF_PA-MW
Man hat eine experimentelle Methode gefunden um sich Simulationen zu gewissen Gradn zu sparen. Das war aber eben erst möglich, nachdem man genug Simulationen hatte zum Vergleich, und für andere Dinge musst du auch wieder vorher simulieren.

Du darfst da nicht so kleinkarriert denken. Das sind simulationen angefangen bei Oberflächen, über so Sachen wie "wie verhält sich das in einem Fusionsreaktor" bis hin zur Verwendung von neuen Materialien in der Luft und Raumfahrt. Simulationen sind ein entscheidendes Werkzeug in allen Bereichen der Materialforschung. Klar kann man vieles auch im Experiment testen, aber man kann auch nicht einfach wild drauf los testen, sondern brauch erste Anhaltspunkte, ob überhaupt etwas in der Theorie funktioniert.


Willst du Fortschritte bei der Supraleitung?KA

Solltest du, für die Forschung (neue stärkere Beschleuniger) wichtig, aber auch ansonsten wichtig. Wenn man einen Supraleiter hätte, der bei Zimmertemperatur funktioniert, könnten wir verlustfrei Strom über große Entfernungen transportieren, womit Solarkraftwerke in der Wüste ohne Probleme funktionieren würden, oder auch dem Transrapid nochmal richtig Aufwind geben würde usw usw


Willst du in Zukunft mal genau auf dich zugeschnittene Medikamente Da steht man vor ganz anderen Problemen als Rechenleistung

Klar Proteinfaltungen rechneste im Kopf aus, oder mit Papier und Stift...
http://folding.stanford.edu/English/HomePage
Das sagt dir was oder?
Und jetzt bedenke bitte, dass da nur grundlegende Sahen erforscht werden und nicht "Wir brauchen ein Medikament für den XY Tumor von Hans Müller" DAS wäre nämlich die Wunschvorstellung für die Pharmakologen/Mediziner. Du hast nen Patienten und designst das genau zu ihm passende Medikament.

Oder zu Krankheitserregern wie Grippeviren:
http://www.globalsimulate.org/archives/308
und da kannste gerade weiter machen.
Bei uns wird z.B. nen riesiges Rechnersytem an der Uni aufgebaut, welches einfach nur Zellkulturen in Massen bearbeiten soll.

Oder simulation neuronaler Netze...

Es gibt praktisch überall große Forschungsprojekte/Probleme/Fragestellungen, die erst heute wirklich angegangen werden können durch die Rechenleistung, die uns heute zur Verfügung steht, und wo wir auch heute schon wissen, dass das im Moment noch gar nicht richtig geht, weil die Rechenleistung nicht bezahlbar ist. z.B. Simulation des menschlichen Gehirns. Bei uns steht z.B. nen "kleiner" Cluster rum, der mehr oder weniger nur dafür genutzt wird um die Signalverarbeitung des Reizes an einem Barthaar einer Maus zu simulieren, also wie die Verarbeitung des Reizes in den dazugehörigen Strukturen biochemisch abläuft.

Sorry, aber so nen blödsinn wie von dir hab ich echt schon lange nicht mehr gehört.... Was glaubst du denn, warum die ganzen Supercomputer am laufenden band gebaut werden? Zum gut aussehen? Nein, da steht ne gewaltige Meute an Wissenschaftlern rum, die extrem viel zum rechnen haben, aber eigentlich nie die Möglichkeit haben die Sachen so um zu setzen, wie Sie es gern hätten, denn die benötigte Rechenleistung wäre einfach unbezahlbar.

Und selbst bei den Experimentalern brauchst du heutzutage oft große Rechnersysteme, die die Daten versuchen irgendwie aus zu werten, einfach weil so viele Daten gesammelt werden.

Wie gesagt der Grund warum das nicht "jeder" macht ist einfach darin begründet, das sich die meisten das einfach nicht leisten können. Begrenzte Mittel und so...

DavChrFen
2012-08-14, 01:46:03
Das bestreitet ja auch keiner, dass die Entwicklung langsamer wird, aber Sie darf es eigentlich nicht... Wir müssen ja an Moore´s law denken...

Und genau das wird uns eben das Genick brechen. Wir werden zwar noch Fortschritt haben, aber der wird sich in nächster Zeit noch viel stärker verlangsamen. Es gibt ja bereits Leute, die die Forschung in Gefahr sehen auf mittlerer bis langer Sicht, einfach weil die Rechenleistung stagniert. (Wobei hier die Effizienz gemeint ist, das diese bereits heute der limitierende Faktor für die Gesamtrechenleistung ist).
Ach es gibt allerlei Untergangspropheten, die alles mögliche in Gefahr sehen, weil Moores-Law nicht mehr eingehalten wird. Das mMn alles Unfug. Es muss irgendwann brechen. Und die Erde wird sich weiterdrehen...
Jupp, spätestens wenn sie auf Atom-Dicke angelangt sind.
Aber wer weiß, vielleicht kann man zu der Zeit dann einzelne Quarks hin- und herschieben oder es gibt irgendwie andere Lösungen.

Also dass Moores Gesetz eingehalten wird, haben wir doch schon nach Pentium 4 gesehen: Intel hat es nicht hinbekommen und schon hatte eine andere Firma für dessen Einhaltung gesorgt. Es sagt ja z.B. niemand, dass das Geasetzt mit Single-Core-Prozessoren und non-stacked Chips eingehalten werden muß. Die Frage ist nur, mit welcher Technik das Gesetz eingehalten wird.

Fetza
2012-08-14, 04:37:06
Ich bin da auch eher auf Skysnakes Seite.

Beispielsweise in der Biochemie und damit auch der Medizin ist Rechenleistung immer noch ein sehr limitierender Faktor. Simulation von Faltung von Proteinen etc. ist sehr teuer. Und das braucht man praktisch um fast alles zu verstehen was im Körper vor sich geht.

Ich habe ja von dem ganzen kram eigentlich keine ahnung, aber liege ich so falsch damit, wenn ich behaupte, das die rechenleistung im gpgpu bereich geradezu seit jahren rasant ansteigt?

Ich meine von 2011 auf 2012 gabs bei den supercomputern eine steigerung von 11 auf 16 petaflops, das ist doch eine rasante steigerung, oder nicht?

http://de.wikipedia.org/wiki/Supercomputer

Was ich damit nur sagen will: Zumindest als interessierter laie kommt es mir so vor, das wir ständig mit immer schnellerer hardware zugeworfen werden.

mboeller
2012-08-14, 07:56:08
Hi;

nette Diskussion, aber IMHO ein wenig einseitig auf "notwendige" Strukturverkleinerungen fixiert. Es gibt ja auch noch was anderes; wie Spin-logik, Reversible Logik etc...

Einfach mal nach Exa-Scale computing suchen. Da findet man viele Ideen und Konzepte wie sich die Forscher ein System mit Exa-Flops Rechenleistung vorstellen (ohne gleich 2-3 Atomkraftwerke dafür zu brauchen ;) )

Hier zB.: http://www.zettaflops.org/ [es gibt leider nur für die älteren Workshops Präsentationen]

john carmack
2012-08-14, 09:33:20
Ich habe ja von dem ganzen kram eigentlich keine ahnung, aber liege ich so falsch damit, wenn ich behaupte, das die rechenleistung im gpgpu bereich geradezu seit jahren rasant ansteigt?

Ich meine von 2011 auf 2012 gabs bei den supercomputern eine steigerung von 11 auf 16 petaflops, das ist doch eine rasante steigerung, oder nicht?

http://de.wikipedia.org/wiki/Supercomputer

Was ich damit nur sagen will: Zumindest als interessierter laie kommt es mir so vor, das wir ständig mit immer schnellerer hardware zugeworfen werden.

zu Zeiten von TNT / TNT2 / GeForce / GeForce 2 hat sich die Rechenleistung
jedes halbe Jahr verdoppelt!
Das war schnell! :D

Twodee
2012-08-14, 09:47:32
Zwischen GeForce und GeForce 2 lagen 12 Monate. Und auch nur bei diesen beiden Modellen fand eine Verdoppelung der MOps/s statt.

Gipsel
2012-08-14, 10:22:02
Thema Haswell?

AffenJack
2012-08-14, 10:25:07
Ich bin da auch eher auf Skysnakes Seite.

Beispielsweise in der Biochemie und damit auch der Medizin ist Rechenleistung immer noch ein sehr limitierender Faktor. Simulation von Faltung von Proteinen etc. ist sehr teuer. Und das braucht man praktisch um fast alles zu verstehen was im Körper vor sich geht.

In den Teilen wo Proteinfaltung benötigt wird ja, aber es ist lange nicht so, dass dies unbedingt benötigt wird. Es gibt soviele andere Baustellen, außer der Proteinfaltung in den Teilgebieten. Nur darum gings mir.
Rechenleistung ist ne Sache die einem das Leben erleichtert bei der Proteinfaltung, aber es ist nicht so, dass es bei gleichbleibender Rechenleistung die Forschung plötzlich stehenbleibt. Vor allem reden wir nicht von heutiger Rechenleistung, sondern der in einer Zeit wo Moores Law wo Moores Law deutlich gebrochen wird, was bei Intels Prozessentwicklung wohl bis 7nm oder so dauern wird. Da haben wir schon mehr als 3 Fullnodesprünge und demtentsprechend bei Parallisierbaren Berechnungen einen Faktor 10 in der Leistung. Es kommt auch stark auf die Methoden drauf an die man verwendet. Prinzipiell kann man dies ja sowieso auch ohne rechner bewerkstelligen, nur ist der Aufwand ungleich größer. Dann gibts aber die Wahl ob man ab initio Methoden verwendet, die wirklich ne große Rechenleistung erfordern oder die Stuktur anhand der Homologie anderer bekannter Proteine berechnet, was deutlich weniger Leistung braucht.
Was die Forschung heutzutage auch deutlich helfen würde, wäre ne größere Automatisierung, leider ist das aber alles viel zu teuer.

Bist du dir da sicher?

Elektronischer Windkanal sagt dir was?
simulation von Crashtests sagt dir was?
Brennstoffzellenforschung sagt dir was?
Fluiddynamik simulationen zur optimierung des Verbrennungsvorgangs?
Schon älter, aber soll einfach mal die Relationen zeigen. 2004 war das ne ziemliche Hausnummer


Erkläre mir was außer Simulation von Crashtests was mit Fahrzeugsicherheit zutun hat. Sowieso ist die Simulation von Crashtests und der elektronische Windkanal nicht wirklich nötig, es ist einfach nur einen Erleichterung und Kostenreduzierung. Sicherere Autos hängen vor allem auch an der Materialforschung.


Also sicher das man keine guten Rechnersysteme in der Automobilindustrie braucht?


Hab ich das gesagt? Nein, nur du versuchst mir Worte in den Mund zu legen, es gibt Bereiche wo Rechenleistung gut zu gebrauchen ist, aber auch welche wo sie nicht benötigt wird. Oftmals ist sie nur ein Hilfsmittel, die die Entwicklung beschleunigen kann.


Aha, du willst als die Forschung für neue supraleitende Materialien ohne Simulationen voran bringen. Interessant.

Weil es auch keine anderen Materialien als Supraleiter gibt. Andere wichtige Materialien in Zukunft könnten Graphen oder Nanotubes werden. Merkwürdigerweise wurden diese auch ohne Rechner entdeckt und das Problem ist vor allem die Herstellung und Verarbeitung. Aber ohne Computer keine neuartigen Materialen? Ja bestimmt.

Um das hier mal abzukürzen und das Topic nicht weiter zu schrotten und weil das an dem was ich ausdrücken wollte vorbei läuft.
Wie du wohl noch nicht verstanden hast, geht es mir nicht darum, dass Rechenleistung nutzlos ist. Sie erfüllt ihren Zweck und erleichtert die Forschung und eröffnet sogar neue Gebiete. Daran zweifle ich ja gar nicht.
Aber sie ist nicht der heilige Gral, wie du sie darstellst. Ein brechen von Moores Law wird den Fortschritt bei kaum was aus deiner Liste verhindern. Es wird ihn nur verlangsamen.

Der Kern deiner Aussagen bildet ja immernoch der eine Satz, zu dem ich aber am liebsten auch nur mitn zweiten Zitat von dir antworte:

Es gibt ja bereits Leute, die die Forschung in Gefahr sehen auf mittlerer bis langer Sicht, einfach weil die Rechenleistung stagniert. (Wobei hier die Effizienz gemeint ist, das diese bereits heute der limitierende Faktor für die Gesamtrechenleistung ist).

Sorry, aber so nen blödsinn wie von dir hab ich echt schon lange nicht mehr gehört....

Ansonsten von mir hier Offtopic ende.

OgrEGT
2012-08-14, 11:09:39
Um auch meinen OT Senf loszuwerden...

Man darf aber nicht den Eindruck erwecken, als dass die Lösung aller Probleme lediglich von zu geringer Rechenleistung abhängt, also dass man mit Computern jedes Problem lösen könnte, sofern nur genügend zur Verfügung stünde.

Bestes Beispiel hierfür habt ihr selbst angeführt:


Klar Proteinfaltungen rechneste im Kopf aus, oder mit Papier und Stift...
http://folding.stanford.edu/English/HomePage
Das sagt dir was oder?
Und jetzt bedenke bitte, dass da nur grundlegende Sahen erforscht werden und nicht "Wir brauchen ein Medikament für den XY Tumor von Hans Müller" DAS wäre nämlich die Wunschvorstellung für die Pharmakologen/Mediziner. Du hast nen Patienten und designst das genau zu ihm passende Medikament.


Das Konzept des Molecular Modelings ist schon längere Zeit bekannt. Hier ist liegt die Herausforderung darin kleine Moleküle=Wirkstoffe in Bindungstaschen von Proteinen zu "modeln", um eine möglichst hohe Wechselwirkung und somit Affinität und somit pharmakologische Wirkung vorherzusagen. Sprich, die pharmakologische Wirkung ist das Ergebnis eines n-multivariablen Gelichungssystems, in welches unendlich viele Variablen, also Eigenschaften des Moleküls eingehen (z.B. Abstand eines Atoms zum nächsten, räumliche Anordnung, Oberflächenpotentiale, saure, basische Eigenschaften, hydrophile, lipophile Eigenschaften, etc.).

Leider ist bei noch so großer Rechenleistung derzeit noch kein einziges Molekül (und wir reden hier von kleinen Molekülen zw. 200-500g/mol und keinen Proteinen) herausgekommen, das es durch die klinische Entwicklung geschafft hätte. Nach wie vor wird auf der Basis von High-throughput Screening bei der Wirkstofffindung gearbeitet.

Ganz anderes das Gebiet der personalisierten Medizin, das ihr angesprochen habt. Vorrangig geht es hier um Medikamente im onkologischen Bereich und nicht im Generellen, also Erkrankungen, welche genetisch bedingt divers sein können. Tumore weisen zumeist individuelle Biomarker Muster auf. Die Aufgabe herausfzufinden, welche für die jeweilige Erkrankung relevant sind und welche nicht kann sicherlich per Simulation erleichtert werden, jedoch liegen die Probleme eines potentiellen Medikaments darin, dass die molekularen, biologischen Mechanismen auf Zellebene nicht ausreichend bekannt, bzw. nicht auschließlich tumorspezifisch sind. Es geht immerhin in den meisten Fällen um die Hemmung des Zellwachstums, dessen Hemmung aber bei gesunden Zellen nicht erwünscht ist, aber zu einem gewissen Grad unvermeidlich ist, daher die Nebenwirkungen.

Bei diesen Fragestellungen sehe ich nicht, dass zu deren Lösung hier ausschließlich die Rechenleistung von Computern limitieren sollte.
Bei personalisierten Medikamenten insbesondere ist es auch eine Frage der Kosten einerseits für die Unternehmen, als auch für die Gesundheitssysteme.

Grundsätzlich bin ich aber auch der Meinung, dass Rechenleistung in vielen anderen Fällen der limitierende Faktor, und der Ausbau sinnvoll sein kann.

OgrEGT
2012-08-14, 11:30:49
Nach wie vor ist dies nur eine Theorie. Warum sollten denn Interposer Technik / Stacked Chips nicht einfach auch zu Multi-Die CPUs und Multi-Die GPUs führen als nur zu reinen Soc Lösungen? Gerade im Enthusiast / Highend Desktop Bereich erscheint mir SoC unrealistisch.

Dann hast du aber noch immer die Flaschenhälse zwischen den einzelnen Funktionseinheiten, was diese ineffizienter macht.


Schon heute limitieren diese nicht. Wir wissen, dass RAM, PCI-E heute nicht den Flaschenhals darstellen, worauf du deine Theorie baust.


Zudem, was passiert denn, wenn man deine Multi-DIE CPUs und Multi-DIE GPUs per Interposer verbindet? ;)


Ich sage ja nicht, dass es grundsätzlich nicht möglich/sinnvoll ist, aber dass es nicht der einzig gangbare Weg für jeden Markt sein muss.


Wobei es meiner Meinung nach keinen Sinn macht, hier die große GPU und dort die große CPU zu haben, sondern lieber alles vermischt, da man so die Signalwege kurz hält, und die Daten/Signale übern Chip zu jagen kostet unglaublich viel Energie....


Wie gesagt, in manchen Märkten mag dies sinnvoll sein.


Daher macht ein SOC, wenn man Powerlimited ist deutlich mehr Sinn als getrennte Funktionseinheiten. Man hat ja insegesamt noch die gleichen Funktionseinheiten, nur die Anordnung selbiger ist halt anders.

Wie gesagt, in manchen Märkten mag dies sinnvoll sein.

HOT
2012-08-14, 12:40:20
Schon heute limitieren diese nicht. Wir wissen, dass RAM, PCI-E heute nicht den Flaschenhals darstellen, worauf du deine Theorie baust.

Das würd ich so nicht sagen. Zwar ist PCIe3 beispielsweise noch nicht effektiv, dennoch merkt man den Unterschied in 3DMark11, das macht bei meiner 7950 locker 300 Punkte aus. Das ist nicht viel, aber geht man jetzt noch 1-2 Grafikgenerationen weiter, also nochmal +50% mehr Leistung, dann wird plötzlich zum Flaschenhals. Dann bekommt auch AM3+ so langsam ein ernstes Problem.
RAM Bandbreite ist für CPUs im Consumerbereich tatsächlich ziemlich egal und die Latenz spielt eine geringe Rolle. Sobald man aber APUs hat und diese auch nutzt, ist das wieder was ganz anderes. Die Latenz ist immernoch ziemlich uninteressant, die Bandbreite aber wird sehr wichtig.

[...]

Gipsel
2012-08-14, 13:31:45
@OgrEGT zum molecular modeling:
Das Problem ist hauptsächlich in den unzulänglichen Modellen zu suchen. Deswegen weichen die Rechnungen zu stark von der Wirklichkeit ab und es konnte so noch kein wirklich erfolgsversprechender Wirkstoff gefunden werden. Bessere Modelle (die natürlich auch erst mal entwickelt werden wollen) sowie größere Moleküle verbieten sich aus Rechenleistungsgründen. Momentan muß man einfach zu grobe Näherungen machen (weil man Rechenleistung sparen muß), um überhaupt mehr als sehr wenige Atome im Molekül zu behandeln. Die Leute versuchen krampfhaft, bessere Näherungen bei nur moderat erhöhtem Rechenaufwand zu entwickeln. Also zu behaupten, daß Rechenleistung nicht wichtig wäre, geht meiner Meinung nach fehl. Man benötigt beides, sowohl verbesserte Modelle (mitsamt deren effizienten Implementationen) als auch wesentlich mehr Rechenleistung (Faktor 2 bringt nicht so viel, ein paar Größenordnungen wären nett), um dort merkliche Fortschritte zu erzielen.

Aber jetzt nochmal:
Thema Haswell?

OgrEGT
2012-08-14, 17:09:48
Das würd ich so nicht sagen. Zwar ist PCIe3 beispielsweise noch nicht effektiv, dennoch merkt man den Unterschied in 3DMark11, das macht bei meiner 7950 locker 300 Punkte aus. Das ist nicht viel, aber geht man jetzt noch 1-2 Grafikgenerationen weiter, also nochmal +50% mehr Leistung, dann wird plötzlich zum Flaschenhals. Dann bekommt auch AM3+ so langsam ein ernstes Problem.
RAM Bandbreite ist für CPUs im Consumerbereich tatsächlich ziemlich egal und die Latenz spielt eine geringe Rolle. Sobald man aber APUs hat und diese auch nutzt, ist das wieder was ganz anderes. Die Latenz ist immernoch ziemlich uninteressant, die Bandbreite aber wird sehr wichtig.

Aber warum verliert man umgekehrt kaum merklich an Leistung wenn man von PCIe x16 auf PCIe x4 runtergeht?
http://www.3dcenter.org/news/2011-08-31

Ronny145
2012-08-21, 13:05:14
Package options of desktop and mobile Haswell processors (http://www.cpu-world.com/news_2012/2012082101_Haswell_package_options.html)


Wo ist die GT1? Könnte bedeuten, dass es kein extra die für GT1 gibt. GT1, wenn es kommt, sind dann wohl teildeaktivierte GT2 dies. Singlechannel beim ULT GT2 finde ich nicht so pralle.

AnarchX
2012-08-21, 13:13:46
Bei der ULT GT2 Version ist vielleicht trotzdem der On-Package-Speicher vorhanden?

Ronny145
2012-08-21, 13:18:14
Wenn das nicht an GT3 gekoppelt ist, theoretisch möglich. Kann ich mir eigentlich eher nicht vorstellen.

AnarchX
2012-08-21, 13:24:57
Wäre, wie schon einmal diskutiert, wohl aber eine gute Möglichkeit den Stromverbrauch weiter zu senken.
Oder sind die CPUs im mobilen Betrieb mittlerweile in der Lage einzelne Speicherkanäle abzuschalten?

Undertaker
2012-08-21, 13:59:27
Ist denn schon klar, welche ULV-Modelle überhaupt nur die GT2-GPU bekommen? Wenn man das aktuelle Schema beibehält, wären das nur die Celeron/Pentium - da ist ein Speichermodul ohnehin die Standardausstattung. Core i3-i7 könnte man wie bisher auch über Takt und L3-Cache differenzieren, dazu kommt dann noch der optionale Speicher (auch hier könnte es Abstufungen geben).

Edit: Wobei mir das beim Blick auf die anderen Modelle wohl doch etwas unwahrscheinlich erscheint, dass bis hinunter zu den i3-Modellen die schnelle GT3-GPU gibt.

Ronny145
2012-08-21, 14:22:40
Ist denn schon klar, welche ULV-Modelle überhaupt nur die GT2-GPU bekommen? Wenn man das aktuelle Schema beibehält, wären das nur die Celeron/Pentium - da ist ein Speichermodul ohnehin die Standardausstattung. Core i3-i7 könnte man wie bisher auch über Takt und L3-Cache differenzieren, dazu kommt dann noch der optionale Speicher (auch hier könnte es Abstufungen geben).

Edit: Wobei mir das beim Blick auf die anderen Modelle wohl doch etwas unwahrscheinlich erscheint, dass bis hinunter zu den i3-Modellen die schnelle GT3-GPU gibt.



Gibt es Pentium/Celeron ULV von SB/IVB? Das fängt doch erst ab i3 an. eDRAM wird einiges kosten, deswegen wohl nur bei einigen Quadcore und ULT's mindestens ab $346 und aufwärts. Wenn die GT2 mit Singlechannel sich deutlich vom GT2 Dualchannel IVB ULV abhebt, ist es letztendlich egal, auch wenn man sich ein größeres Leistungspotenzial dadurch verspielt. GT3 hätte ich mir für 1-2 Dualcore 37W Varianten gewünscht, scheinbar ist GTR3 mit eDRAM für den Mainstream Preisbereich nicht tauglich. Bin gespannt wie GT2 und GT3 performen.

Undertaker
2012-08-21, 14:29:28
Gibt es Pentium/Celeron ULV von SB/IVB? Das fängt doch erst ab i3 an.

Ivy Bridge folgt noch, aber Sandy Bridge gibt es bereits als Pentium und Celeron. Dort kommt schlicht eine taktschwächere HD 2000 zum Einsatz, während i3-i7 die HD 3000 nutzen. Aber es wird wohl so sein, dass das Prinzip gleiche GPU-Ausbaustufe bei allen mobilen Core-Modellen nicht beibehalten wird.

AnarchX
2012-08-22, 10:54:11
Split der Speicherkanal-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=531716

Ronny145
2012-08-23, 11:28:29
According to Intel, average performance of the Haswell GT1 unit is 15% - 25% better than performance of Ivy Bridge GT1, and Haswell GT2 is also 15% - 25% faster than IVB GT2. GT3 graphics has 50% - 100% better performance than performance of Ivy Bridge GT2 GPUs.
http://www.cpu-world.com/news_2012/2012082302_New_video_and_graphics_features_of_Haswell_CPUs.html


+20% GT2 wäre ziemlich lächerlich und +50% Vorteil der GT3 gegenüber Haswell GT2 genauso dürftig bei der doppelten EU Anzahl und Onboard Speicher, zumindest bei dem Aufwand. Wo das "graphics engine greatly improved" sein soll will mir nicht einleuchten.

boxleitnerb
2012-08-23, 11:35:01
Weiß man denn jetzt mit Sicherheit, wieviele EUs die einzelnen Modelle haben werden? Gibts dazu irgendwo eine gesicherte Übersicht?

AnarchX
2012-08-23, 11:40:36
Bisher nur Spekulationen.

Aber vielleicht reicht einfach Intels Know-How hier nicht mehr aus, um die Rohleistung entsprechend umzusetzen?

Undertaker
2012-08-23, 20:12:38
Auch der zusätzliche Speicher wird das Bandbreitenproblem sicher nicht schlagartig komplett lösen, sondern höchstens abmildern. Das wir dann einen gegenüber der theoretischen Rechenleistung nur moderart steigenden Leistungszuwachs bekommen, wäre nicht völlig überraschend.

Eine Spanne von 50 bis 100% ist zunächst einmal aber auch recht groß. Im Optimalfall 100% wäre das in Anno 2070 oder Deus Ex die Performance einer GT 640M (http://www.notebookcheck.com/NVIDIA-GeForce-GT-640M.70792.0.html). Das klingt dann doch seeehr optimistisch für eine IGP des kommenden Jahres.

Ronny145
2012-08-23, 20:19:27
Für die GT3 finde ich das nicht optimistisch, eher enttäuschend. Und erst die 20% der wichtigeren GT2. Hoffentlich stimmen die Werte nicht.

Undertaker
2012-08-23, 21:01:25
Bei angenommen identischer Taktrate und keinen leistungssteigernden Verbesserungen bietet die GT3 nunmal "nur" die 2,5x-fache Rechenleistung. Der Speicher wird vermutlich ohnehin benötigt, damit die Skalierung nicht noch bescheidener ausfällt. Wenn es denn wirklich 100% und damit der obere Rand der Ankündigung wäre, fände ich das gar nicht mal übel. Auch bei IGPs sind wohl die Zeiten vorbei, wo selbst kleinere Updates mal eben die Leistung vervielfachen.

Was man auch sehen muss: Die Leistungsaufnahme. Je nach Takt verbraucht schon die HD 4000 um die 10 bis 12 Watt. Ohne neuen Fertigungsprozess wird man die Energieeffizienz nicht unbegrenzt steigern können.

Zur GT1/GT2 will ich mich erstmal noch nicht äußern. Wir haben ja weiter oben schonmal über die Modellpolitik geredet - erstmal abwarten, welche Modelle überhaupt welche Ausbaustufen bekommen.

Nightspider
2012-08-23, 21:03:26
Ob Intel zukünftig besseren Spiele-Support bieten wird?

Oder wird sich Intel in Zukunft darauf verlassen, wie in der Vergangenheit nur von den großen Publishern kompletten Support zu bekommen. (Seitens der Spieleprogrammierer)

Ich selbst habe noch nicht viel mit den Intel IGPs gezockt und weiß nicht wie gut alle Spiele darauf laufen aber hin und wieder hört man doch davon, das manche Spiele nicht richtig auf Intel IGPs laufen.

Da hat AMD mit den Treibern einen sehr großen Vorteil.

y33H@
2012-08-23, 21:12:28
Beim letzten großangelegten Test mit 30+ Spielen gab's nur sehr wenige Probleme mit bekannteren (aktuellen wie älteren) Titeln - wenngleich der Support bei AMD besser ist, NV ist unangefochten.

lumines
2012-08-23, 21:21:55
Ich selbst habe noch nicht viel mit den Intel IGPs gezockt und weiß nicht wie gut alle Spiele darauf laufen aber hin und wieder hört man doch davon, das manche Spiele nicht richtig auf Intel IGPs laufen.

Nvidia und AMD haben definitiv einen besseren Support, aber die Intel-Treiber sind über alle Plattformen hinweg besser und kompatibler geworden. Mir sind jedenfalls in letzter Zeit keine größeren Kompatibilitätsrobleme unter OS X, Windows oder Linux aufgefallen. Dürfte jedenfalls kein Hindernis sein.

Eine Spanne von 50 bis 100% ist zunächst einmal aber auch recht groß. Im Optimalfall 100% wäre das in Anno 2070 oder Deus Ex die Performance einer GT 640M (http://www.notebookcheck.com/NVIDIA-GeForce-GT-640M.70792.0.html). Das klingt dann doch seeehr optimistisch für eine IGP des kommenden Jahres.

Wenn sie ein bisschen hinter einer GT 640M liegt (wir wollen ja nicht zu optimistisch sein), wäre das doch eine gute Leistung. Wenn man bedenkt, wie viel Aufwand Intel um die GT3 betreibt, dann sagt mir mein Bauchgefühl, dass das eine durchaus realistische Leistung ist. Angeblich sollen die neuen GPUs ja vor allem im Hinblick auf höhere Display-Auflösungen entwickelt worden sein, von daher wäre so ein Schritt nur logisch.

Ronny145
2012-08-23, 21:26:31
Bei angenommen identischer Taktrate und keinen leistungssteigernden Verbesserungen bietet die GT3 nunmal "nur" die 2,5x-fache Rechenleistung.

EU Erhöhung ist nicht das einzige:


The 3D engine on Haswell CPUs has a few enhancements, such as wider data paths in the engine, and improvements to Sampler and Geometry units.

Ich fasse das 50-100% als je nach Spiel auf und kein Durchschnitt. 75% wären nicht berauschend.


Was man auch sehen muss: Die Leistungsaufnahme. Je nach Takt verbraucht schon die HD 4000 um die 10 bis 12 Watt. Ohne neuen Fertigungsprozess wird man die Energieeffizienz nicht unbegrenzt steigern können.

Dafür steigt die TDP und nach Haswell kommt wieder ein shrink.

Undertaker
2012-08-23, 22:17:44
EU Erhöhung ist nicht das einzige:

Ah, das wusste ich noch nicht.


Dafür steigt die TDP und nach Haswell kommt wieder ein shrink.

Im Desktop, doch die GT3 kommt ja auch mobil und dürfte vor allem dort bedeutsam sein. Mal eben den GPU-Verbrauch verdoppeln ist da kaum möglich. Das der nächste Shrink dann neue Spielräume schafft ist logisch.

y33H@
2012-08-23, 22:46:03
Die GT3 kommt nur im mobile ;-)

Ronny145
2012-08-27, 11:10:26
http://s7.directupload.net/images/120827/hohji4aa.png

http://s1.directupload.net/images/120827/9z4on5nu.png

http://s14.directupload.net/images/120827/a3se3kvz.png

http://s7.directupload.net/images/120827/3w4defw5.png

http://s7.directupload.net/images/120827/d4e32gb6.png

http://s14.directupload.net/images/120827/ifcv5eag.png

http://s7.directupload.net/images/120827/8wb2f6hr.png
http://wenku.baidu.com/view/1c6664d0c1c708a1284a4402.html


Bisschen viel chinesisch dabei. Hier mal eine interessante Stelle...

Original:
处理器性能1比第三代智能英特尔® 酷睿™ 处理器提升多至 1.15 倍
•全新的移动式单芯片“超级”平台,性能是双芯片双核处理器的 80%,TDP 减少一半以上
Google:
Processor performance than the third-generation intelligent Intel ® Core ™ processor upgrade to 1.15 times
• New mobile single-chip "super" platform, the performance of the two-chip dual-core processor, 80%, TDP reduced by more than half


Mehr als 15% sind dann wohl von der CPU Seite nicht zu erwarten, konnte man sich fast schon denken. Wenn darunter wirklich 10% mehr IPC fallen, ist mit maximal 100-200 Mhz mehr Takt zu rechnen. Den zweiten Absatz verstehe ich nicht.

Undertaker
2012-08-27, 11:24:35
Die neuen TDP-Klassen 37/47W für Notebooks sind bisschen merkwürdig... Aber nunja. Sehe ich das richtig, dass die GT3 nur in Ultabooks (edit: und dazu nur in den i7) verfügbar sein könnte? Keine Desktops OK, aber nicht einmal in normalen Notebooks? Das wäre ziemlich schade...

Ronny145
2012-08-27, 11:30:42
Die neuen TDP-Klassen 37/47W für Notebooks sind bisschen merkwürdig... Aber nunja. Sehe ich das richtig, dass die GT3 nur in Ultabooks verfügbar sein könnte? Keine Desktops OK, aber nicht einmal in normalen Notebooks?


Die GT3 gibt es auch im mobilen Quadcore (schätzungsweise nur in ausgesuchten i7). Keine Ahnung warum das in der Übersicht fehlt, unten drunter steht noch:

英特尔移动团队还将提供四核 GT3 Performance Halo (BGA) 产品 — 英特尔不会为该配置提供长期支持
Google:
Intel mobile team will also provide quad-core GT3 Performance Halo (BGA) products - Intel will not provide long-term support for that configuration


Existieren tun die für Quadcores, was aus älteren Slides schon bekannt war.

AnarchX
2012-08-27, 11:31:24
Slide 13 Fußnote2: "HSW GT2 ~2x IVB GT1"?

Ronny145
2012-08-27, 11:42:17
Slide 13 Fußnote 1: "HSW GT1 ~ IVB GT2"?


3D 性能提升多至两倍2
•视频转换速度提升多至两倍(实时处理速度提升多至 10 倍)
•支持多达 3 个独立的显示屏

3D performance boost of up to twice the 2
• The video conversion speed boost up to twice the (real-time processing speed by up to 10 times)
• Support for up to three independent display


1 与 Ivy Bridge 的性能预测是基于芯片发布前预测的初步结果,可能会随时发生变化
2 更快的 3D 和视频转换基于对 IVB GT1 与 HSW GT2 台式系统预测的比较
注: 某些特性仅在特定产品上予以支持


1 Ivy Bridge performance prediction is based on the preliminary results of the forecast before the release of the chip, may change at any time
2 Faster 3D video conversion is based on a comparison of predicted IVB GT1 the HSW GT2 desktop systems
Note: Some features are only in the specific product support

AnarchX
2012-08-27, 11:49:24
Bing übersetzt es so:
2 3D and video conversion faster prediction of HSW and IVB GT1 GT2 desktop systems based on comparison of

Also könnte man dort schon andeuten dass HSW GT2 2-fache 3D-Leistung gegenüber IVB GT1 bietet.

Undertaker
2012-08-27, 13:20:17
Das klingt auch schlüssig gegenüber der bisherigen Ankündigung, dass die GT2-Version etwa 20% zulegt.

HD 2500 (100%) -> HD 4000 (~166%) -> HSW GT2 (~200%)

DavidC1
2012-08-29, 06:41:00
Die neuen TDP-Klassen 37/47W für Notebooks sind bisschen merkwürdig... Aber nunja. Sehe ich das richtig, dass die GT3 nur in Ultabooks (edit: und dazu nur in den i7) verfügbar sein könnte? Keine Desktops OK, aber nicht einmal in normalen Notebooks? Das wäre ziemlich schade...

You are referring to the slide titled ISG Haswell Mobile SKU. ISG is Intel's embedded group, and it stands for Intelligent Services Group. Embedded SKUs do not have 55W SKUs, and vary somewhat from the regular chips.

My guess is the move to 47/55W for mobiles indicate future integration of PCH chips(Current W + 2W for PCH). That would be similar to when Nehalem-class mobile chips went from 25W CPU + MCH to 35W CPU that includes a 10W ICH. The extra 2W would also allow for slight clock speed boost on the CPU side as PCH TDP is rarely reached.

AnarchX
2012-09-02, 11:03:26
http://img.inpai.com.cn/article/2012/9/1/6e27f851-7c9b-41cd-b0a3-b9fd1da86f06.jpg
http://www.inpai.com.cn/doc/hard/180995.htm

Ein ähnliche News bei Semiaccurate: http://semiaccurate.com/2012/08/31/haswell-graphics-for-gt1-and-gt2-revealed/

GT4 wurde auch in der Vergangenheit schon einmal genannt: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9265823#post9265823

Fragt sich nur was 2 "Intel-TFLOPs" Wert sind.

Ronny145
2012-09-02, 11:18:36
Naja 10/20/40 EUs ist so wie man es gedacht hat. Im Bereich 6-10 hatte ich GT1 getippt mit dem Unterschied, dass es sich hierbei womöglich um eine teildeaktivierte GT2 handelt. Was soll die GT4 in der Folie bedeuten? Broadwell?

AnarchX
2012-09-02, 11:20:29
Siehe den Link zu deinem Posting. Scheint wohl aber aus dem Anandtech Artikel verschwunden zu sein?

Ronny145
2012-09-02, 11:29:21
Hat er wohl Ärger bekommen. Ich kannte das. Ich verstehe nur die Überleitung von Haswell auf GT4/Broadwell in der Grafik nicht. Um das zu verstehen baucht es wohl das ganze Dokument, nicht nur den kleinen Schnipsel.

AnarchX
2012-09-02, 11:35:47
Broadwell wird wohl weiterhin auf Gen 7.5 setzen. Für 22nm wären wohl der 80 EUs IGP wohl aber etwas zu groß.
Damit will man wohl langfristig die ~100mm² GPUs von NV und AMD unter Druck setzen. Da dürften wohl 2014 auch 20nm ~2TFLOPs Lösungen bei ~100mm² zu erwarten sein.

john carmack
2012-09-02, 14:17:22
Hoffentlich wird es die Haswell CPU für S1150 auch ohne Grafikkern geben!
Wenigstens bei den "K" Versionen.

robbitop
2012-09-02, 14:22:30
Lohnt sich nicht ein extra Tapeout zu machen. Das ist doch nun schon seit ein paar Generationen so. Daran wird sich nichts ändern. Vor allem was hättest du davon? Nutzt du die GPU nicht, wird sie abgeschaltet und kostet keinen Strom.

Skysnake
2012-09-02, 17:09:54
Hoffentlich wird es die Haswell CPU für S1150 auch ohne Grafikkern geben!
Wenigstens bei den "K" Versionen.
Der war gut ;D

Da kannste warten bis du schwarz wirst. Ohne iGPU wird es keine CPUs mehr geben, wenn ist sie halt deaktiviert, wie in manchen Xeons aktuell, aber du wirst in dem Segment keine CPU ohne iGPU mehr bekommen. Find dich damit lieber ab.

boxleitnerb
2012-09-02, 19:26:47
Wird Quicksync mit Haswell nochmal flotter werden? Macht das die iGPU oder sind das spezielle Instruktionen der CPU?

AnarchX
2012-09-02, 19:36:06
Quicksync wird schon im IGP-Block ausgeführt, hauptsächlich wohl auf dedizierten Schaltkreisen. Aber die EUs haben wohl auch gewisse Aufgaben (Scaling, Postprocessing,...).

Aber generell kann man schon annehmen, dass Intel QS weiter entwickelt. Wahrscheinlich kommen auch neue Codecs dazu.

DavidC1
2012-09-05, 05:35:05
Broadwell wird wohl weiterhin auf Gen 7.5 setzen. Für 22nm wären wohl der 80 EUs IGP wohl aber etwas zu groß.
Damit will man wohl langfristig die ~100mm² GPUs von NV und AMD unter Druck setzen. Da dürften wohl 2014 auch 20nm ~2TFLOPs Lösungen bei ~100mm² zu erwarten sein.

Broadwell is 14nm.

About the "Scability" slide. At one presentation, Intel said GenX can scale up to 128EUs. Each Ivy Bridge EU can do 16 SP FP operations. 128EUs x 16 SP/clk = 2TFlop.

Ronny145
2012-09-06, 10:50:42
Features of Intel Xeon E3-1200 v3 processors (http://www.cpu-world.com/news_2012/2012090601_Features_of_Intel_Xeon_E3-1200_v3_processors.html)

dildo4u
2012-09-06, 22:07:09
10 Watt Version für Ultrabooks

http://www.theverge.com/2012/9/5/3293617/intel-haswell-10-watt-tdp-idf-2012

AnarchX
2012-09-07, 14:28:43
GT3 zielt wohl auf eine möglichst hohe Pro-Watt-Leistung ab und soll nur mit 800MHz takten: http://semiaccurate.com/2012/09/07/haswell-gt3-uses-shaders-to-save-power/

Ronny145
2012-09-07, 14:42:15
War zu erwarten. Mehr Rechenheiten mit weniger Takt ist generell effizienter als eine dünnere Architektur mit hohen Takt. Bei den 15W Modellen wäre wohl eh nicht mehr möglich. Darauf zielt das ganze wohl hauptsächlich ab. 800 Mhz ist immer noch recht hoch wenn man das mit AMD vergleicht.

Knuddelbearli
2012-09-07, 14:50:57
naja wenn es nur darum ginge bräuchte die GT3 aber keinen eDram da die Rohleistung ja die selbe braucht

Ronny145
2012-09-07, 14:54:24
naja wenn es nur darum ginge bräuchte die GT3 aber keinen eDram da die Rohleistung ja die selbe braucht


GT3 mit 800 Mhz sollte deutlich mehr Rohpower besitzen als GT2 mit 20 EUs und 1200 Mhz. Anders wären 50-100% gar nicht möglich.

AnarchX
2012-09-07, 15:05:06
Da dürfte GT3 wohl auch ein breiteres Front- und Back-End haben.

Aber mit einen vernünftigen Notebook-Version könnte man hier wohl auch mehr Takt auffahren, wenn der eDRAM nicht limitiert. Im Endeffekt könnte man wohl hier gut 50W veranschlagen, wenn man die TDP der nun wegfallende dedizierten Lösung teilweise absorbiert.

Knuddelbearli
2012-09-07, 15:05:58
rohpower sind es 28% mehr gegenüber 20Eus mit 1250Mhz
wobei bei 10W Wohl eher keine DDR3 1866 genutzt werden sondern eher DDR3 1333 Low Power mit 1,25-1,35V. Trotzdem kommt mir der Aufwand nur dafür schon sehr hoch vor

AnarchX
2012-09-11, 09:33:23
Crystawell: 512-Bit @ LP-DDR3-1066? (http://semiaccurate.com/2012/09/10/crystalwell-is-very-wide-memory-for-haswell-gt3/)

Durchaus eine angemessene Bandbreite für eine >500GFLOPs GPU. Fragt sich nur wie groß nun Intel diesen Speicher dimensioniert. Mit 64MB bekommt man wohl nicht mal die wichtigsten Frame-Buffer unter?

Zergra
2012-09-11, 12:05:15
Wenn wirklich wieder über den BLCK übertaktet werden kann machen wäre ein i3 ziemlich nett.
Bin mir aber nicht sicher wie Intel die K CPU´s noch gut verkaufen kann.
Dann müssten sie ja den BLCK zb. bis Max. 110 begrenzen ...

mczak
2012-09-11, 16:36:20
Crystawell: 512-Bit @ LP-DDR3-1066? (http://semiaccurate.com/2012/09/10/crystalwell-is-very-wide-memory-for-haswell-gt3/)

Durchaus eine angemessene Bandbreite für eine >500GFLOPs GPU. Fragt sich nur wie groß nun Intel diesen Speicher dimensioniert. Mit 64MB bekommt man wohl nicht mal die wichtigsten Frame-Buffer unter?
Da es sich ja dabei um mehr oder weniger gewöhnliches ddr3 handeln soll wird das sicher nicht so klein ausfallen. Da baut man ja mittlerweile kaum mehr kleinere als 2gbit Chips - der Grossteil der Kosten dürften eh für den Interposer und das Packaging anfallen.

Ronny145
2012-09-11, 16:40:26
Crystawell: 512-Bit @ LP-DDR3-1066? (http://semiaccurate.com/2012/09/10/crystalwell-is-very-wide-memory-for-haswell-gt3/)

Durchaus eine angemessene Bandbreite für eine >500GFLOPs GPU. Fragt sich nur wie groß nun Intel diesen Speicher dimensioniert. Mit 64MB bekommt man wohl nicht mal die wichtigsten Frame-Buffer unter?



Quellen von Phoronix sprachen von 128MB. Wir werden sehen, wer am Ende Recht behält.

IDF Livestream gibt es nicht, oder? Die Haswell Präsentation würde ich ganz gerne mitverfolgen.

robbitop
2012-09-11, 16:59:30
Für den Framebuffer muss es am Ende ja nur genügen. Wenn man noch Texturen reinquetschen wollte, bräuchte man gleich 1 GiB, damit es sinnvoll wäre. Texturen verbrauchen nicht so viel Bandbreite und der Zugriff ist auch nicht so fragmentiert wie auf den FB. Das wäre schon was. Ich bin gespannt, ob AMD mit Ähnlichen auf ihren APUs antanzen wird. Ansonsten ist ihre bisherige Stärke schnell besiegt.

Ronny145
2012-09-11, 18:02:52
Intel Developer Forum 2012 - Dadi Perlmutter Keynote Live Blog (http://www.anandtech.com/show/6260/intel-developer-forum-2012-dadi-perlmutter-keynote-live-blog)


Ich schätze mal, die interessanteren Haswell sessions überliefert Anand ebenso zeitnah.

AnarchX
2012-09-11, 18:58:29
iGPU-Teaser:
12:47PM - Haswell can run Unigen at the same performance as Ivy Bridge but at roughly half the power

12:46PM - That's power unconstrained though

12:46PM - Looks like a 2x increase in GPU performance for Haswell vs. Ivy

12:46PM - Haswell running the Unigine benchmark much smoother than IVB

12:45PM - Running Unigine benchmark on Haswell vs. Ivy Bridge
http://www.anandtech.com/show/6260/intel-developer-forum-2012-dadi-perlmutter-keynote-live-blog

17W für IVB und nur 7-9W für HSW. Wohl die neue 10W ULV Version.

dildo4u
2012-09-11, 18:58:39
http://images.anandtech.com/doci/6260/DSC_8143.JPG

Passt irgendwie nicht was er scheibt es läuft flüssiger aber mit der selben Performance?Vermutlich läuft es gleich schnell bei 9 Watt weniger Verbrauch.

Ronny145
2012-09-11, 19:02:59
Schneller bei unbekannten Verbrauch und gleich schnell bei halbierten Verbrauch. So passt das.

dildo4u
2012-09-11, 19:11:45
Vieleicht sollte das ne Demo der 10Watt version sein,das würde passen die CPU wird kaum ausgelastet bei dem Bench.

Ronny145
2012-09-11, 19:13:04
Denke ich auch. Die glatten 17W sprechen dafür, der reine iGPU Verbrauch wäre geringer.

dildo4u
2012-09-11, 19:18:20
Ich hab mich schon gewundet wie das auf nem 10Watt SOC flüssig laufen soll aber es scheint keine Tesselation aktiv.

=Floi=
2012-09-11, 19:30:14
was für ne kacke! ich will nen desktop haswell welcher richtig power hat.

dildo4u
2012-09-11, 19:38:15
Das skaliert natürlich auch na oben was für ne infantile Postweise.

Ronny145
2012-09-11, 20:06:19
Davon gibt es jetzt auch Videos von PCGH.

http://www.youtube.com/watch?v=CMgBMkCenoA&feature=player_embedded
http://www.youtube.com/watch?v=2Jag0i9qw0I&feature=player_embedded


Haswell session (http://www.anandtech.com/show/6263/intel-haswell-architecture-disclosure-live-blog) ist gerade im Gange.

=Floi=
2012-09-11, 20:11:58
Das skaliert natürlich auch na oben was für ne infantile Postweise.

dafür würde ich meine hand nicht ins feuer legen. siehe ivy bridge. da erwartete man auch 5-5,5ghz und bekommen hat man weniger wie mit sandy bridge. :rolleyes:
es steht kein einziges wort von mehr leistung oder mehr ghz geschrieben und dazu müsste man imho auch die architektur und pipeline optimieren.

AnarchX
2012-09-11, 20:16:24
Skalierbare Rasterizierung. Mal sehen ob Broadwell GT4 hier 4-fache Rasterleistung aufweist.
Die TMUs können wohl nun auch schneller AF berechnen.

Doppelte L2-Cache-Bandbreite könnte wohl bei IPC auch einiges bringen.

Ronny145
2012-09-11, 20:41:32
L1 und L2 Cache wurde verbessert. Das könnte für IPC Steigerungen sorgen.

/zu spät

S940
2012-09-11, 22:37:28
Doppelte L2-Cache-Bandbreite könnte wohl bei IPC auch einiges bringen.Dachte ich zuerst auch, aber weitergedacht stelle ich mir die Frage: Wie oft braucht ein Thread zwei 256bit Loads pro Takt? Ist das wirklich ne Engstelle? Eventuell liegt der Hauptvorteil eher im SMT-Betrieb. Aber ich gebe gerne zu, dass ich nix weiß :freak:

Edit: Sehe gerade, dass Du explizit den L2 gemeint hast, hatte ich übersehen sorry. Das Obige bezog sich auf den L1.

Ronny145
2012-09-11, 23:40:32
Weitere IDF Folien zu Haswell. Ich hab mal die relevantesten in den Spoiler gepackt. Ansonsten die PDF runterladen (https://intel.activeevents.com/sf12/scheduler/downloadFileCounting.do?sesfid=FAA0138043895F534B48ECCF19223EAD&abb=91926F9CD8553D2D78E83D043903E6EE&fn=C32C68657EF1A94784AB45B7A96379BB974EDFE7768607DCCBE61C8BED76E8D6).


http://s1.directupload.net/images/120911/vcwgvmqb.png

http://s7.directupload.net/images/120911/8fkmbdkh.png

http://s7.directupload.net/images/120911/99ingf4l.png

http://s14.directupload.net/images/120911/5ek2fxg6.png

http://s1.directupload.net/images/120911/hg9hnc7t.png

http://s1.directupload.net/images/120911/5l3sdd8m.png

http://s1.directupload.net/images/120911/fcb5f5zg.png

http://s1.directupload.net/images/120911/gbjhvp9x.png

http://s14.directupload.net/images/120911/8atikmpm.png

Coda
2012-09-11, 23:51:51
Woa, ne vierte Integer-ALU!

Dr. Lloyd
2012-09-12, 00:32:43
IDF: Intel stellt Haswell-Prozessor vor (http://www.heise.de/newsticker/meldung/IDF-Intel-stellt-Haswell-Prozessor-vor-1704869.html)

mczak
2012-09-12, 00:41:32
Skalierbare Rasterizierung. Mal sehen ob Broadwell GT4 hier 4-fache Rasterleistung aufweist.
Die TMUs können wohl nun auch schneller AF berechnen.

Hmm ich dachte das bezieht sich auf fullspeed FP16 Filterung oder sowas. Kann mich aber gerade nicht erinnern was da IVB für FP16/FP32 leistet.

Leider kein Wort über den integrierten dram.
Immerhin (und das ist jedenfalls keine Ueberraschung war klar dass das nötig ist) werden bei GT3 jetzt auch Rasterizer und ROPs skaliert. Nur Setup bleibt wie's scheint dasselbe (könnte aber auch schneller sein als bei IVB, falls das 1 Tri/Takt hinkriegt ist as jedenfalls sicher ausreichend).
Dachte ich zuerst auch, aber weitergedacht stelle ich mir die Frage: Wie oft braucht ein Thread zwei 256bit Loads pro Takt? Ist das wirklich ne Engstelle? Eventuell liegt der Hauptvorteil eher im SMT-Betrieb. Aber ich gebe gerne zu, dass ich nix weiß :freak:
Naja also 2x256bit Load + 1x256bit Store ist sicher nicht übertrieben. Hast du Code der nichts als FMA macht reicht das längst nicht hin da bräuchtest du mit der CPU (2x256bit FMA pro Takt) locker das doppelte :-). Wobei typischerweise wahrscheinlich schon ein paar Argumente wiederverwendet werden und nicht neu geladen (oder gespeichert) werden müssen.
Der Chip hat ein Monster-backend. Erstaunlicherweise steht da nix über Frontend-Aenderungen um das Backend entsprechend zu füttern.

boxleitnerb
2012-09-12, 00:55:25
Im CB-Forum wird gerade heiß diskutiert, ob Intel da wieder was faked bei der Präsentation der Leistungsaufnahme im Heaven. Die Haswell-CPU wird gemessen, der Wert schwankt bis zur 3. Nachkommastelle. Bei Ivy steht 17,000 da - ob man so genau regeln und messen kann? Falls das nicht gemessen ist und nur 17W TDP meint, könnte der reale Wert auch weit niedriger liegen, 12 oder 13W z.B. Dann könnte man nicht mehr von einer Verdopplung der Perf/W sprechen.

Nach dem Rennspielvideo sollte man bei Intel doch lieber aufpassen.

Ronny145
2012-09-12, 01:09:50
Wenn Intel etwas in böser Absicht faken wollte, hätten sie doch keine gleichbleibenden 17,000W in der Grafik angezeigt. Das kann sich nur um den TDP Wert handeln, natürlich kann ein real gemessener Wert nicht stabil bleiben. 12-13W bei einem 17W i5 oder i7 möchte ich arg bezweifeln. Man kann froh sein, wenn die iGPU nicht drosselt, was meistens (leider) nicht der Fall ist bei ULV Modellen. Die iGPU alleine veranschlagt rund 10W bei aktuellen IVB ULVs. Bei einem anspruchsvollen 3D Benchmark oder Spiel sollte ein i5/i7 immer nah am TDP Limit operieren. 8W wäre eine drastische Verringerung, vorausgesetzt es handelt sich tatsächlich um den CPU Gesamtverbrauch. Wobei es bis 10W gehen könnte. Übrigens sieht das zumindest in Unigine nicht nach gleicher Performance aus, das Haswell Video kommt mir um einiges flüssiger vor.

boxleitnerb
2012-09-12, 06:33:00
Also gerade bei deinem ersten Satz bin ich komplett anderer Meinung. Gerade wenn man die reale Leistungsaufnahme der CPU verschleiern will, gibt man einen Theoriewert an und verzichtet auf eine Messung. Warum hat man dann nicht bei Haswell auch die TDP angegeben? Bzw. warum bei Ivy auf die Messung verzichtet? Wenn Ivy so nah an der TDP operieren würde, hätte eine Messung dasselbe gezeigt und dabei keine Fragen aufgeworfen. Da stinkt was...

Ronny145
2012-09-12, 08:49:43
Also gerade bei deinem ersten Satz bin ich komplett anderer Meinung. Gerade wenn man die reale Leistungsaufnahme der CPU verschleiern will, gibt man einen Theoriewert an und verzichtet auf eine Messung.



Wenn man etwas verschleiern wollte, gibt man eine gefälschte Messung an oder treibt den Verbrauch absichtlich in die Höhe. Spannung erhöhen etc. Das wäre für Intel ein leichtes gewesen. Keine Ahnung wofür es überhaupt IVB ULV Messungen braucht. Die Frage wäre doch, wann ein 17W ULV in 3D Anwendungen überhaupt in größeren Maße unter seiner TDP bleibt. CPU und GPU Turbo sorgen doch dafür, dass eben das nicht passiert, für kurze Zeit kann der Wert sogar über der TDP liegen. Auf 8 Watt Verbrauch kommt alleine die iGPU locker.

y33H@
2012-09-12, 08:56:59
Ansonsten die PDF runterladen (https://intel.activeevents.com/sf12/scheduler/downloadFileCounting.do?sesfid=FAA0138043895F534B48ECCF19223EAD&abb=91926F9CD8553D2D78E83D043903E6EE&fn=C32C68657EF1A94784AB45B7A96379BB974EDFE7768607DCCBE61C8BED76E8D6).Der Link geht leider nicht.

EDIT
https://intel.activeevents.com/sf12/scheduler/catalog.do

boxleitnerb
2012-09-12, 09:01:58
Wenn man etwas verschleiern wollte, gibt man eine gefälschte Messung an oder treibt den Verbrauch absichtlich in die Höhe, Spannung erhöhen etc.

Das sind nur zwei Möglichkeiten. Die dritte ist, man gibt den tatsächlichen Verbrauch gar nicht an. Da gibt es eigentlich nichts zu diskutieren.


Das wäre für Intel ein leichtes gewesen. Keine Ahnung wofür es überhaupt IVB ULV Messungen braucht. Die Frage wäre doch, wann ein 17W ULV in 3D Anwendungen überhaupt in größeren Maße unter seiner TDP bleibt. CPU und GPU Turbo sorgen doch dafür, dass eben das nicht passiert, für kurze Zeit kann der Wert sogar über der TDP liegen. Auf 8 Watt Verbrauch kommt alleine die iGPU locker.


Das behauptest du jetzt so (und es mag auch stimmen), aber bei einem Vergleich gehört immer eine Messung dazu, um Klarheit zu schaffen. Schließlich hat nicht jeder einen ULV Ivy daheim rumliegen und damit Unigine mit angeschlossenem Wattmeter getestet.

AnarchX
2012-09-12, 09:19:47
Hmm ich dachte das bezieht sich auf fullspeed FP16 Filterung oder sowas. Kann mich aber gerade nicht erinnern was da IVB für FP16/FP32 leistet.

Das könnte sein. Das eher ineffiziente AF (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=8492938#post8492938)von SNB hat man vielleicht schon mit IVB ausgebessert.

Ronny145
2012-09-12, 09:35:22
http://www.computerbase.de/bildstrecke/43946/5/

Basistakt Übertaktungsmöglichkeit bestätigt.

aufkrawall
2012-09-12, 10:48:04
Framerate Conversion (mit QS?) klingt gut.
Kein Judder mehr bei geringem Stromverbrauch?
Ich hoffe, die IGP wird gleichzeitig genug Power fürs Rendern von 60fps mit madVR haben.

S940
2012-09-12, 11:27:52
Der Chip hat ein Monster-backend. Erstaunlicherweise steht da nix über Frontend-Aenderungen um das Backend entsprechend zu füttern.Na das wurde sicherlich auch geändert, aber halt noch nicht präsentiert.

Coda
2012-09-12, 11:52:03
Der Chip hat ein Monster-backend. Erstaunlicherweise steht da nix über Frontend-Aenderungen um das Backend entsprechend zu füttern.
Es gibt größere Instruction-Windows. Die vierte Integer-ALU ist aber wohl primär dazu da, AVX-Code schneller zu machen, wenn Port 0 und 1 schon belegt sind.

YfOrU
2012-09-12, 12:01:52
Das behauptest du jetzt so (und es mag auch stimmen), aber bei einem Vergleich gehört immer eine Messung dazu, um Klarheit zu schaffen. Schließlich hat nicht jeder einen ULV Ivy daheim rumliegen und damit Unigine mit angeschlossenem Wattmeter getestet.

Ein paar Zahlen: Vostro 3360 mit i5-3317U (DDR3 1600 DC) gemessen am NT:

Leerlauf, minimale Helligkeit, Wifi etc. deaktiviert: ~7,6W
Leerlauf, maximale Helligkeit, Wifi etc. deaktiviert: ~10,1W
Leerlauf, minimale Helligkeit, Wifi etc. deaktiviert mit Powersave Profil: ~6,9W

Unigine Benchmark, 720p, Tesslation aus, minimale Helligkeit, Wifi aus: ~31,4W
Unigine Benchmark + Prime (4T, Heat): ~32,6W
Prime (4T, Heat): ~30,2W

boxleitnerb
2012-09-12, 12:11:51
24W Differenz ca. bei 17W TDP. Bei Bewegtbildern braucht der Bildschirm sicher mehr, dazu kommt noch der Lastanteil durch Mainboard und RAM und SSD, der sich sicher auch nochmal auf 1-5W belaufen dürfte.

Danke für die Ergebnisse, bringt uns aber jetzt nicht so wirklich weiter :)

Edit:
Kannst du den Bildschirm ausschalten und idle und Unigine wiederholen bitte? Geht das überhaupt?

YfOrU
2012-09-12, 12:14:59
Hab noch eine normale HDD verbaut, Abschaltung war deaktiviert. Akku auf 100% (vorher, nachher), Ladung abgeschalten und das NT ist sowieso fast überdimensioniert (19,5V / 3,34A).
Zeigt durchaus das die IB ULV CPU die 17W TDP hier voll ausfährt.

Hmm Display aus sollte gehen.

Ronny145
2012-09-12, 12:17:29
Klar bringt uns das weiter. 3D Benchmark mit Prime liegt nur 1 Watt drüber, d.h. Unigine alleine lässt die CPU nah am TDP Limit operieren, was keine Überraschung ist.

@YfOrU

Du könntest dir XTU (http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&DwnldID=21743&ProdId=3483&lang=eng&OSVersion=Windows%207%20%2864-bit%29*&DownloadType=%0ASoftware%20Applications%0A) runterladen und den Verbrauch auslesen lassen. Ich weiß allerdings nicht ob XTU bei ULVs sinnvolles ausliest.

boxleitnerb
2012-09-12, 12:25:02
Dann ist es doch umso unverständlicher, warum man sich hier so ins Fettnäpfchen setzt.

AnarchX
2012-09-12, 12:30:08
Und selbst wenn der Verbrauch von IVB nicht der reale/exake Wert war, soviel an der Aussage wird sich nicht ändern.
Der technische Hintergrund ist vielleicht, dass man bei IVB die TDP-Stufe ausgelesen hat, die eben hier dauerhaft auf 17W blieb.

YfOrU
2012-09-12, 12:54:08
@YfOrU

Du könntest dir XTU (http://downloadcenter.intel.com/Detail_Desc.aspx?agr=Y&DwnldID=21743&ProdId=3483&lang=eng&OSVersion=Windows%207%20%2864-bit%29*&DownloadType=%0ASoftware%20Applications%0A) runterladen und den Verbrauch auslesen lassen. Ich weiß allerdings nicht ob XTU bei ULVs sinnvolles ausliest.

Wird nicht angezeigt. Die Short Turbo TDP beträgt übrigens im Gegensatz zum regulären Turbo Limit (17,00W) 21,25W. Ist auch gut am Messgerät zu sehen. Bei Last gehen die Peaks am Anfang immer ein gutes Stück weiter nach oben und pendeln sich dann darunter ein.


Edit:
Kannst du den Bildschirm ausschalten und idle und Unigine wiederholen bitte? Geht das überhaupt?

Leerlauf, iDisplay aus (extern, 720p, VGA out), Wifi etc. deaktiviert: ~6,3W
Leerlauf, iDisplay aus, (extern, 720p, VGA out), Wifi etc. deaktiviert, Powersave Profil: ~5,9W
Uniengine, iDisplay aus (extern, 720p, VGA out), Wifi etc deaktiviert: ~30,3W

boxleitnerb
2012-09-12, 13:01:03
Danke :)

YfOrU
2012-09-12, 13:16:27
Gerne :)

Hinzuzufügen ist eigentlich nur noch das mich der i5-3317U mit HD4000 und DC Memory im Dell sehr positiv überrascht hat. War mir nicht so sicher ob eine ULV CPU ohne dedizierte GPU meinen Ansprüchen gerecht werden kann.

Zum einen sollte das Gerät natürlich sehr mobil sein, auf der anderen Seite sollte es im stationären Betrieb mit externen Monitor zumindest halbwegs die Leistung eines vollwertigen Notebooks liefern können. Die Bedenken waren allerdings vollkommen unbegründet denn der Turbo liegt unter Last stabil an und damit ist man knapp unterhalb eines (SB) i5-2410M.

Mit Haswell als SoC Variante wird das ganze noch mal deutlich interessanter denn der Energiebedarf im Leerlauf ist praktisch der größte Kritikpunkt. Im mobilen Betrieb liegt eher selten Last an (Darstellung von Dokumenten, Websites etc). In der Praxis sind es beim Dell ~5,5 Stunden bei leichter Nutzung. Wenn sich das auf ~9 steigern lassen würde wäre ein kompletter Arbeitstag recht problemlos machbar ohne zwischenzeitlich das Ladegerät anstöpseln zu müssen. Sollte durchaus möglich sein denn mit einem SoC geht nicht nur der Energiebedarf zurück, auch das Systemboard wird kompakter (mehr Platz für den Akku).

S940
2012-09-12, 13:19:04
Wie wahrscheinlich wäre 4fach SMT? Mit den 4 Int-Pipes könnte sich das bei einigen Serverapplikationen doch nun lohnen, oder?

Coda
2012-09-12, 13:20:40
Das hätten sie wohl gesagt.

Zudem bringt Hyperthreading derzeit auch nur 5-10%, da dürften vier Threads wohl kaum noch profitieren.

Twodee
2012-09-12, 13:25:24
Das hätten sie wohl gesagt.

Zudem bringt Hyperthreading derzeit auch nur 5-10%, da dürften vier Threads wohl kaum noch profitieren.
Warum bringt HT dann im Luxmark v2 knappe 50%?

Ronny145
2012-09-12, 13:29:57
SMT bringt meist ~20% bei Anwendungen mit guter Kernskalierung.

S940
2012-09-12, 13:43:15
Zudem bringt Hyperthreading derzeit auch nur 5-10%, da dürften vier Threads wohl kaum noch profitieren.
Derzeit != Haswell. Der bekommt ja 2 Exec-Pipes mehr und die Cacheanbindung wird verbreitert, stand doch oben.
Oracle und IBM bieten schon länger 4 oder gar 8fach SMT, das werden die sicherlich nicht nur aus Spass machen. Bei irgendwelchen Serverworkloads wird es schon noch was bringen.

@Ronny145 (http://www.forum-3dcenter.org/vbulletin/member.php?u=12232):
Bei Ivy-Bridge ist der SpeedUp etwas gesunken, da Intel die Puffer/Queues zw. den einzelnen Pipelinestufen von zwei kleinen getrennten auf eine große gemeinsame geändert hat. Dadurch sinkt der SMT-Speedup, da die IPC steigt.
So oder so hängt es aber vom jeweiligen Programm ab, ich schrieb nicht umsonst explizit "Server-Applikationen".

Ronny145
2012-09-12, 13:54:41
Es sind trotzdem ~20%. In besser skalierenden Anwendungen oft sogar mehr.

aufkrawall
2012-09-12, 13:59:51
Es sind trotzdem ~20%. In besser skalierenden Anwendungen oft sogar mehr.
Steigt im gleichen Umfang nicht auch der Verbrauch?

S940
2012-09-12, 14:01:54
Es sind trotzdem ~20%. In besser skalierenden Anwendungen oft sogar mehr.
Über ein "~" muss man nicht diskutieren. Du magst Deine Programmauswahl haben, Coda die seine. Solange nicht jeder seinen Programm-Mix explizit nennt und auf den Tisch knallt, kann man mangels Fakten gar nichts diskutieren.

@aufkrawall (http://www.forum-3dcenter.org/vbulletin/member.php?u=29623):
Die Einheiten werden durch SMT besser ausgelastet, also steigt natürlich der Stromverbrauch, aber das Verhältnis ist natürlich nicht gleich. Kommt drauf an, welche Stromsparmechanismen der Chip hat, die im Nicht-SMT-Betrieb aktiv waren. Wenn vorher nicht viel gespart wurde, macht der 2.Thread das Kraut auch nicht Fett.

y33H@
2012-09-12, 14:06:05
760 gegen 860 etwa zeigen CB R11.5, Truecrypt und x264 eine Differenz von +17 bis +22%, Stromverbrauch load geht im x264 von 101W auf 116W.

Ronny145
2012-09-12, 14:06:19
Steigt im gleichen Umfang nicht auch der Verbrauch?

Schaut man sich Verbauchswerte zwischen 3570k und 3770k an, dann eher nicht im gleichen Umfang.

Über ein "~" muss man nicht diskutieren. Du magst Deine Programmauswahl haben, Coda die seine. Solange nicht jeder seinen Programm-Mix explizit nennt und auf den Tisch knallt, kann man mangels Fakten gar nichts diskutieren.

Ja dann könnte ich auch behaupten, ein Kern bringt nur 10% Mehrleistung. Ich brauche mir nur Singlethread Anwendungen raussuchen. Ich dachte es geht um Mehrleistung, wenn die Anwendung nicht der limitierende Faktor darstellt. Im CB Anwendungsindex sind es auch schon 16%, nur sind im Index einige Anwendungen dabei, die nicht gut skalieren. 20% ist hier ein guter Mittelwert für SMT.

mczak
2012-09-12, 15:01:58
Es gibt größere Instruction-Windows.
Stimmt. Ausserdem hat man ja den uop-Cache wenn der genutzt werden kann ist man ja nicht vom Instruction Fetch/Decode abhängig.
Ich habe auch nicht so gut hingeschaut, denn da gibt es tatsächlich eine wesentliche Verbesserung, die Fetch-Bandbreite wurde erhöht (steht zwar nicht um wieviel aber müsste ich raten würde ich sagen von 16 Bytes/Takt auf 32 Bytes/Takt - das kann AMD auch schon seit dem K10). Das bringt wahrscheinlich sogar mehr als wenn der Decoder selbst aufgebohrt würde, gerade auch für SIMD-Instruktionen die doch eher lang sind (jedenfalls für AVX mit VEX-Prefix bei dem simd-Code den ich analysiert habe liegt der Durchschnitt bei gut 6 Bytes / Befehl, die 16 Bytes/Takt reichen also nirgends hin um den Decoder auszulasten der ja 4 solcher Befehle dekodieren könnte pro Takt).

HOT
2012-09-12, 15:31:22
Warum bringt HT dann im Luxmark v2 knappe 50%?
Wie war das? Ausnahmen bestätigen die Regel :D? Man muss aber auch sehen, was man vergleicht - Lynnfield mit und ohne SMT? Sandy mit und ohne? Je effizienter das Frontend wurde, desto weniger profitiert SMT, da die Ausführungseinheiten ja gut ausgelastet werden. Das passierte ja bei Sandy und Ivy. Bei Haswell hat man halt gesehen, oh da ist ja noch platz im thermischen Budget und SMT könnte auch ruhig wieder mehr als 20% haben, also knallt man halt mehr Integer-Einheiten dran und verdoppelt die FPU... Das ist dann so ne art brutalo-CMT, aber da man ja eh diese Fertigungsvorteile hat, wieso auch nicht so basteln?

Twodee
2012-09-12, 15:55:57
Wie war das? Ausnahmen bestätigen die Regel :D? Man muss aber auch sehen, was man vergleicht - Lynnfield mit und ohne SMT? Sandy mit und ohne? Je effizienter das Frontend wurde, desto weniger profitiert SMT, da die Ausführungseinheiten ja gut ausgelastet werden. Das passierte ja bei Sandy und Ivy. Bei Haswell hat man halt gesehen, oh da ist ja noch platz im thermischen Budget und SMT könnte auch ruhig wieder mehr als 20% haben, also knallt man halt mehr Integer-Einheiten dran und verdoppelt die FPU... Das ist dann so ne art brutalo-CMT, aber da man ja eh diese Fertigungsvorteile hat, wieso auch nicht so basteln?
Der Test war auf einem Sandy-6Core. HT bringt mMn vorallem in speicherlastigen Szenarios mehr.

AnarchX
2012-09-12, 19:51:59
Laut Anandtech maximal 128MiB On-Package-Cache: http://www.anandtech.com/show/6277/haswell-up-to-128mb-onpackage-cache-ulv-gpu-performance-estimates

Ronny145
2012-09-12, 19:57:04
Der Link führt zu nichts. Jetzt auf einmal doch.

Intel was surprisingly quiet about the remaining details of Haswell at IDF this year. We know the rough CPU architecture details, some info at a high level about the GPU and of course the platform power improvements. There is a lot more however.

We already know that in its quad-core GT3 configuration, Haswell will offer 2x the GPU performance of Intel's HD 4000 (Ivy Bridge GT4). What Intel didn't say however is that Haswell's ULV GT3 parts will offer around 30% better GPU performance than Ivy Bridge ULV GT2.

The improved graphics performance comes both from an updated architecture and more EUs, but also an optional on-package cache of up to 128MB in size. It's too early to talk about SKUs and DRAM configurations, but 128MB is the upper bound. Expect to see tons of bandwidth available to this cache as well.

On the CPU side you can expect a ~10% increase in performance on average over Ivy Bridge. As always we'll see a range of performance gains, some benchmarks will show less and others will show more.


Macht Sinn. Phoronix hatte dann wohl Recht mit bis zu 128MB.

AnarchX
2012-09-13, 09:21:02
Wenn man damit eine Gesamt-Bandbreite erzielt die irgendwo zwischen DDR3-1800 und GDDR5-4000 liegt, sollte das wohl auch für die 500-600GFLOPs ausreichend sein.

Im Endeffekt wäre das wohl auch eine passende Grafik-Lösung die man mit mobilen Dual-Cores kombinieren könnte. Wenn man hier wieder nur auf GT2 setzt, sind die Anreize für die Hersteller groß eine deutlich schnellere 28nm GPU zu verbauen.

HPVD
2012-09-13, 09:57:01
intel erklärt die nicht schwankende 17W Anzeige:

"Der Wert für Ivy Bridge sollte nur als "Bezugsgröße" dienen"

http://www.golem.de/news/kein-fake-intel-erklaert-seltsame-werte-der-haswell-demo-1209-94527.html

deLuxX`
2012-09-13, 10:03:04
Ja aber gerade so ists doch als "Bezugsgröße" eher schlecht geeignet.:freak:

AnarchX
2012-09-13, 10:04:37
Da stellt man sich in der Tat etwas dumm, anstatt die Anzeige mit einer paar zufälligen leicht um 17W schwankenden Zahlen zu füttern...

y33H@
2012-09-13, 10:36:07
Man hätte IVB auch einfach ebenfalls vermessen können ;-)

Fabian_HT4U
2012-09-13, 10:38:15
Man hätte nicht mal messen müssen und genau deshalb bezweifel ich auch den Haswell-Aufbau...

grüße
Fabian

dildo4u
2012-09-13, 14:39:41
Haswell Processor Graphics GT2 vs. GT3 Hands-on

http://www.pcgameshardware.de/Haswell-Codename-255592/News/Hands-on-Haswell-Processor-Graphics-GT2-und-GT3-1024111/

Skyrim in 1080p mit guten Schatten ist schon recht anspruchsvoll,wenn AMD das Bandbreiten Problem nich so schnell wie Intel lösen kann,dürfte es bei der nästen Runde deutlich enger werden.

Coda
2012-09-13, 14:49:58
Das coole ist, dass inzwischen auch die Bildqualität sehr gut ist.

y33H@
2012-09-13, 15:51:35
MSAA sieht halt aus wie MSAA und das AF ist nahe an der Perfektion =) wenn die Treiber noch werden, denn die Fail-Quote ist wie gehabt höher als bei NVAMD.

iFanatiker
2012-09-13, 16:10:57
denn die Fail-Quote ist wie gehabt höher als bei NVAMD.

Mittlerweile sind die Treiber wirklich ganz gut brauchbar. Probleme wie vor paar Jahren hat man bei aktuellen Treibern kaum noch. Da hat Intel schon einen guten Schritt vorwärts gemacht.

Dazu bekleckert sich gerade AMD bei den Notebook GPUs nicht mit Ruhm. Wenn man sie erstmal drauf hat ist alles ok......aber der Weg dahin. Aber angeblich wird mit Enduro 5.5 alles gut und wir sehen auch endlich mal die 28nm Mobile Radeons auch abseits von Dell bei den großen Herstellern. :biggrin:

Coda
2012-09-13, 21:49:15
MSAA sieht halt aus wie MSAA und das AF ist nahe an der Perfektion
Es ist besser als von AMD und NVIDIA.

aufkrawall
2012-09-13, 21:52:28
Wie siehts mit den Helligkeitsstufen bei AA (& HDR) aus?
Wie bei NV?

boxleitnerb
2012-09-13, 23:10:33
Es ist besser als von AMD und NVIDIA.

Kann man das wo nachlesen? In den Launch-Artikeln (auch mit Updates) von Ivy Bridge finde ich nichts dazu.

Ronny145
2012-09-13, 23:20:15
Es ist besser als von AMD und NVIDIA.


AF oder MSAA ist gemeint?

y33H@
2012-09-14, 00:04:29
Das AF ist besser.

Ronny145
2012-09-14, 00:10:21
Nvidias AF ist besser. Filtertester und HL2 täuschen sicherlich nicht. Was nichts daran ändert, dass das IVB AF jetzt auf gutem Niveau ist. Ohne den Direktvergleich zu haben würde ich sagen leicht unter GCN. Für Intel ist das respektabel.

Coda
2012-09-14, 00:12:58
Nvidias AF ist besser.
Ich konnte keinerlei Flimmern oder sonstiges bei Intel sehen, auch keine Winkelabhängigkeit und keine Probleme mit dem LOD. Was ist da an NVIDIAs AF besser (das Probleme mit dem LOD hat)?

Ronny145
2012-09-14, 00:15:32
Ich konnte keinerlei Flimmern oder sonstiges bei Intel sehen, auch keine Winkelabhängigkeit und keine Probleme mit dem LOD. Was ist da an NVIDIAs AF besser (das Probleme mit dem LOD hat)?


Welche Spiele hast du denn verglichen? Im Filtertester und HL2 flimmert meine GTX560 weniger und sieht schärfer aus. Das habe ich an Videos und screenshots verglichen, Beweise könnte ich liefern.

Undertaker
2012-09-14, 11:33:52
Bei Ivy-Bridge ist der SpeedUp etwas gesunken, da Intel die Puffer/Queues zw. den einzelnen Pipelinestufen von zwei kleinen getrennten auf eine große gemeinsame geändert hat. Dadurch sinkt der SMT-Speedup, da die IPC steigt.

Nach welchen Zahlen ist der Speedup gesunken?

http://www.computerbase.de/artikel/prozessoren/2011/test-intel-sandy-bridge/28/
http://www.computerbase.de/artikel/prozessoren/2012/test-intel-ivy-bridge/43/

Hier z.B. in beiden Fällen 22% Gewinn im CB R11.5, andere Benchmarks (z.B. Paint.Net) zeigen das Gleiche.

Zudem muss man bedenken, dass einige Optimierungen den SMT-Speedup auch verbessern. Zu nennen ist hier z.B. die verbesserte Cache-Nutzung, die sich vor allem bei hohen Threadzahlen auszahlt.

fondness
2012-09-14, 12:33:04
Es ist besser als von AMD und NVIDIA.

Man sollte mal die Kirche im Dorf lassen. Das AMD-Problem mit bi-AF ist in der Praxis praktisch irrelevant, das NV-Problem mit dem LoD höchsten bei SSAA von Relevanz. Dafür bietet Intel außer MSAA und AF (beides erforderlich für DX11) genau gar keine Bildverbesserer an. Zumal ich das mit dem besseren AF aus meinen persönlichen Vergleichen definitiv nicht bestätigen kann. Von den mangelhaften Treibern mal ganz zu schweigen. Intel hat hier noch einiges zu tun.

Ich konnte keinerlei Flimmern oder sonstiges bei Intel sehen, auch keine Winkelabhängigkeit und keine Probleme mit dem LOD. Was ist da an NVIDIAs AF besser (das Probleme mit dem LOD hat)?

Es flimmert stärker als bei GCN und damit definitiv auch stärker als bei NV.

y33H@
2012-09-14, 12:44:24
Meinen Augen nach flimmert es weniger als bei NV oder AMD (HL2-Schiene).

aufkrawall
2012-09-14, 15:02:47
Fraps RGB Video sehen wollen.

Edit: Also von HL2.

Ronny145
2012-09-14, 16:25:56
Nvidia High Quality oder Quality? Ich lade bei 250 MB nur eins hoch.

aufkrawall
2012-09-14, 17:16:30
HQ bitte.

Btw: Ist es bei IVB auch noch so, dass mit Q (also nicht "ausgewogen") immer noch das LOD so krass ins Negative verschoben wird?

Coda
2012-09-14, 18:05:10
Bei Intel ist wichtig *nicht* auf HQ zu stellen, das erzeugt negatives LOD-Bias (zumindest war das mal so). Das könnte auch das Flimmern erklären.

Blaire
2012-09-14, 18:16:06
Meinen Augen nach flimmert es weniger als bei NV oder AMD (HL2-Schiene).

Bei gleicher Schärfe? NV filtert schon ziemlich sauber, mit Clamp noch besser.

y33H@
2012-09-14, 18:29:09
Mit Balanced meiner Ansicht nach schon, ja.

Ronny145
2012-09-14, 19:06:16
Es gibt keinen mir sichtbaren Unterschied zwischen Balance und Quality. Hier das gewünschte Material. 720p RGB 60fps war ziemlich am oberen Limit meiner HDD. 250MB für 2-3 Sekunden ist echt krass. Der Media Player kommt damit nicht klar, besser MPC HC verwenden.

GTX560 HQ: http://s1.directupload.net/images/120914/u5td5mel.png
http://www.file-upload.net/download-4787414/GTX560-High-Quality-16xAF.zip.001.html
http://www.file-upload.net/download-4787534/GTX560-High-Quality-16xAF.zip.002.html

HD4000 Balance: http://s14.directupload.net/images/120914/pxeuiyar.png
http://www.multiupload.nl/C27QQV58FL
http://www.file-upload.net/download-4787257/HD4000-16xAF.zip.002.html