Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Haswell - 22nm, DX11.1 und AVX2 in H1/2013 - HSW-Refresh Q2/2014


Seiten : 1 2 [3] 4 5 6 7 8

aufkrawall
2012-09-14, 19:19:11
Das Intel-Archiv ist kaputt.

Ronny145
2012-09-14, 19:20:10
Das Intel-Archiv ist kaputt.


Neueste 7zip Version probiert? Auf meiner HDD ist das im Original nicht kaputt.

aufkrawall
2012-09-14, 19:21:17
Neueste 7zip Version probiert?

Ja, die neuste Alpha. Ich probier mal die letzte Final.
Die anderen Split-Archive gehen aber auch so.

Edit: Ist definitiv kaputt.

Ronny145
2012-09-14, 19:33:31
Was macht file-upload falsch? Beim letzten mal das gleiche mit dem Hoster. Neuer Versuch über multiupload.

aufkrawall
2012-09-14, 19:43:54
@fondness: Das mit der bilinearen Filterung bei AMD sollte wirklich völlig egal sein.
Ich nehme mal an, dass das alte Serious Sam bilinear anfordert, denn das flimmert auf AMD im Gegensatz zu NV wie bescheuert.
8xSGSSAA mit korrekter LOD-Verschiebung scheint aber Wunder zu wirken, dann sieht es perfekt aus, sogar etwas besser als bei NV.

Ronny145
2012-09-14, 20:33:39
Ich konnte das Video trotz CRC Fehler abspielen. Mit Teil 1 von multiupload sollte es ohne CRC Fehler klappen, eventuell nach "HD4000 16xAF.zip.001" umbenennen falls der Hoster die Datei umbenannt haben sollte.

aufkrawall
2012-09-14, 20:48:44
Ich konnte es jetzt ohne Fehler entpacken.
Ich kann anhand der Videos jedenfalls nicht wirklich einen Unterschied zu NV erkennen, IVB sieht offenbar extrem viel besser als SNB aus.

Ronny145
2012-09-23, 18:53:28
Vermutliches Haswell GT2 Wafer Bild: http://s1.directupload.net/images/120923/oxbuvk8s.jpg


http://s14.directupload.net/images/120923/czg76z93.png
http://forums.anandtech.com/showthread.php?t=2218060&page=24


Auf die GT2 Grafik entfällt ~30% Chipfläche.

AnarchX
2012-09-23, 19:00:55
Also wohl der ~180mm² Die, der schon letztes Jahr gezeigt wurde.

Interessanter ist ja eher der GT3 Die.

Ronny145
2012-09-23, 20:38:44
Davon ist auszugehen. Noch ein Zusatz zum BCLK/RCR.


http://www.computerbase.de/bildstrecke/43946/5/

Basistakt Übertaktungsmöglichkeit bestätigt.


Es gab noch eine weitere Folie. Die Ratios liegen offenbar bei 1.00 (Standard), 1.25 und 1.67. Also genau wie derzeit SB-E.

http://s14.directupload.net/images/120923/qte6vot5.png

Undertaker
2012-09-23, 21:17:14
Wie ist das eigentlich bei Ivy Bridge bzw. Sandy Bridge E (non K-Modell): Kann man den Multi zumindest nach unten frei variieren? Denn dann könnte man für OC ja einfach 1,67x BCLK nehmen und den Multiplikator soweit senken, wie es für einen stabilen Betrieb notwendig ist.

Und noch eine weitere Frage: Hat mal jemand ausgemessen, wie stark sich die Fläche des reinen CPU-Kernes gegenüber Ivy Bridge verändert hat?

Ronny145
2012-09-23, 23:29:54
Nach unten konnte man den Multiplikator eigentlich immer abändern. Die CPU Fläche scheint etwas gestiegen zu sein. Je nach Bild komme ich auf 48-50 mm² für Ivy Bridge und 55-57 mm² für Haswells Kerne, angenommen das Haswell Die ist 180 mm² groß. Genaue Die Größe ist noch nicht bekannt, aber die Tendenz zur leicht vergrößerten CPU Fläche ist klar, was nicht verwunderlich ist. Die neuen Ports und kleineren Verbesserungen müssen irgendwoher kommen.

Coda
2012-09-23, 23:34:07
Also wohl der ~180mm² Die, der schon letztes Jahr gezeigt wurde.

Interessanter ist ja eher der GT3 Die.
Ich find's immer noch komisch, dass sie die GPU nicht mal "unten" anbringen um quadratischere Dies zu bekommen.

Vermutlich wegen dem Ring, trotzdem wird dafür ziemlich viel in Kauf genommen.

Außerdem: Es wird wohl so schnell nicht auf 8 Kerne gehen auf Consumer-Hardware.

Ronny145
2012-09-23, 23:40:56
Quadratisches Die könnte es für Haswell GT3 geben.

dargo
2012-09-24, 15:41:14
Kleine Frage für zwischendurch... weiß man schon ob der Chipsatz für Haswell nativ mehr als 2x SATA III unterstützen wird?

PS: Z77 unterstützt nativ nur zwei oder vertue ich mich?

boxleitnerb
2012-09-24, 15:59:53
Z77 unterstützt 2x, Lynx Point bis zu 6.

mczak
2012-09-24, 16:35:25
Quadratisches Die könnte es für Haswell GT3 geben.
Ich kann mir noch nicht ganz vorstellen wie das aussehen soll. GT1 (und weniger Cache) ist klar das geht wie bei SNB/IVB - es fehlt pro CPU-Kern 1/4 des L3-Cache, der Chip bleibt also gleich lang aber weniger breit wodurch auch das zweite Shader-Array nicht mehr Platz findet.
Aber für quadratisch mit GT3 fehlt mir die Fantasie - würde man ja einfach die GPU verdoppeln würde der Chip bei gleicher Breite noch länger (wobei ich das durchaus für möglich halte). Es sei denn GT3 kommt nur mit 2 Kernen - in dem Fall wären dann die Abmessungen GT3/2C und GT2/4C praktisch identisch. Und wo kommt da das 512bit Interface bei GT3 hin?

dargo
2012-09-24, 16:47:55
Z77 unterstützt 2x, Lynx Point bis zu 6.
Lynx Point???

Soll das der neue Chipsatz sein? Sechs wären toll. Ich frage deshalb weil 3 SSDs geplant sind.

Gipsel
2012-09-24, 16:48:54
Und wo kommt da das 512bit Interface bei GT3 hin?Das benötigt keine großen Treiber (weil es über Interposer/TSV realisiert wird), so daß die Pads erheblich dichter stehen können (locker 'ne Größenordnung weniger Flächenbedarf) als bei den "wirklich externen" Interfaces.

boxleitnerb
2012-09-24, 16:52:25
Lynx Point???

Soll das der neue Chipsatz sein? Sechs wären toll. Ich frage deshalb weil 3 SSDs geplant sind.

Genau. Heißt glaub ich Z87.

Ronny145
2012-09-24, 17:07:00
Ich kann mir noch nicht ganz vorstellen wie das aussehen soll. GT1 (und weniger Cache) ist klar das geht wie bei SNB/IVB - es fehlt pro CPU-Kern 1/4 des L3-Cache, der Chip bleibt also gleich lang aber weniger breit wodurch auch das zweite Shader-Array nicht mehr Platz findet.
Aber für quadratisch mit GT3 fehlt mir die Fantasie - würde man ja einfach die GPU verdoppeln würde der Chip bei gleicher Breite noch länger (wobei ich das durchaus für möglich halte). Es sei denn GT3 kommt nur mit 2 Kernen - in dem Fall wären dann die Abmessungen GT3/2C und GT2/4C praktisch identisch. Und wo kommt da das 512bit Interface bei GT3 hin?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9213893&postcount=125

Links GT2, rechts GT3. Könnte man schon so deuten, dass GT3 quadratisch statt noch länglicher wird.

Genau. Heißt glaub ich Z87.


Zusätzlich noch H87 und Q87 mit 6x Sata 6G.

mczak
2012-09-24, 17:58:29
Das benötigt keine großen Treiber (weil es über Interposer/TSV realisiert wird), so daß die Pads erheblich dichter stehen können (locker 'ne Größenordnung weniger Flächenbedarf) als bei den "wirklich externen" Interfaces.
Naja also bei einem Faktor 10 weniger Platz pro Bit wäre das immer noch relativ gross (das 128bit Speicherinterface zieht sich ja fast über die ganze Länge der 4 Kerne, und relativ breit ist es auch).

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9213893&postcount=125

Links GT2, rechts GT3. Könnte man schon so deuten, dass GT3 quadratisch statt noch länglicher wird.

Ah ja so könnte das gehen. Die Kerne sind dann also quasi gedreht (der L3-Cache ist nun "oben" zwischen den Kernen und der GPU und nicht aussen gegen das Speicherinterface hin) und die GPU selbst quer statt längs dazu. Und das 512bit L4-Interface müsste dann logischerweise neben dem L4 sein.

ndrs
2012-09-24, 20:52:06
Kommt GT3 nur für ULVs oder auch für normale mobiles? Ich frage deshalb, weil es doch hieß, dass die ULVs mit integrierte Southbridge kommen sollten. Dann wären ja sowieso noch jede Menge Transistoren zu verbraten, die das Die quadratisch machen können :)

Ronny145
2012-09-24, 20:56:28
Ausgesuchte ULV und mobile Quadcores.

Nightspider
2012-10-01, 17:08:41
Ist schon bekannt ob Rockwell anno 2014 noch mit DDR3 kommt?

AnarchX
2012-10-05, 09:06:56
Genauere HSW-Analyse von Anandtech: http://www.anandtech.com/show/6355/intels-haswell-architecture

Interessantes Detail am Rande:
We won't see a dramatic redesign/re-plumbing of the graphics hardware until Broadwell in 2014 (that one is going to be a big one).
http://www.anandtech.com/show/6355/intels-haswell-architecture/12

Ronny145
2012-10-05, 11:41:05
Im Treiber gibt es seit kurzem Einträge für Gen8, was wohl zu Broadwell gehört.

Nightspider
2012-10-10, 12:06:10
Hat der Z87 noch kein SATA Express Anschluss?

http://hothardware.com/newsimages/Item18382/SATA-Express-Cables.jpg

Wäre echt schade, da SSDs ja schon jetzt durch den Anschluss ausgebremst werden.

HOT
2012-10-10, 13:40:44
Bisher nicht. Aber ab Broadwell, Haswell-E und high-end-Steamroller dürfte SATA-Express zusammen mit DDR4 auf breiter Front Einzug in den Markt haben.

john carmack
2012-10-10, 18:12:58
hoffentlich... wird auch langsam mal Zeit, da Interfaces ja immer der limitierende Fakor sind...

y33H@
2012-10-10, 18:49:29
Hat der Z87 noch kein SATA Express Anschluss? Wäre echt schade, da SSDs ja schon jetzt durch den Anschluss ausgebremst werden.Das ist halt die Midrange-Plattform und da werden wohl nur die wenigsten SSDs einsetzen, die ständig so viele Daten so schnell rumkopieren müssen, dass SATA-6GB/s bremst. Klingt pragmatisch, aber Intel ist nun mal ein Gewinn orientiertes Unternehmen. Haswell EP bzw dessen Plattform könnte SATA-Express in den Consumer-Markt bringen.

Knuddelbearli
2012-10-10, 19:26:06
problem ist halt das high end inzwischen 1,5 jahre nach performance kommt ...

haswell dürfte wohl schneller sein als Ivy-E sofern Ivy-E nicht mit 8 Kernen kommt

boxleitnerb
2012-10-10, 19:27:49
Ne sicher nicht. Bei Singlethreaded ja, aber bei Nutzung aller Kerne wird ein 6-Kerner ziemlich sicher noch vorne liegen um ein Stück.

Ravenhearth
2012-10-10, 19:59:17
Das Haswell-Äquivalent zum i7-3770K (4 Cores + SMT) dürfte wohl die Multithreading-Leistung des Gulftown (i7-990X) erreichen oder leicht übertreffen. Aber ich glaube nicht, dass er an einen SNB oder IVB mit sechs Kernen rankommt.

Zergra
2012-10-10, 20:01:17
problem ist halt das high end inzwischen 1,5 jahre nach performance kommt ...

haswell dürfte wohl schneller sein als Ivy-E sofern Ivy-E nicht mit 8 Kernen kommt
8 Kerne werden nur kommen wenn AMD es schafft einen Guten CPU rauszubringen, sonst wird Intel sich hüten... :D

Ronny145
2012-10-10, 20:05:15
8 Kerne werden nur kommen wenn AMD es schafft einen Guten CPU rauszubringen, sonst wird Intel sich hüten... :D


Die 6 Kerne laufen schon jetzt außer Konkurrenz, es ist für die Highend Plattform unerheblich was AMD veranstaltet.

y33H@
2012-10-10, 20:15:32
Vishera und Haswell verhalten sich vermutlich ähnlich wie Zambezi und Ivy Bridge, wobei Haswell größere Sprünge machen könnte.

HOT
2012-10-10, 22:09:39
Exakt. Erst Steamroller hat eine neue Architektur (Tock) und erst da kann man wirklich Besserung erwarten.

Ivy-E gibts mit 4-12 Kernen, ich spekuliere mal, dass 4-Kerne für kleine Server sind und 6-8 Kerne im Desktop normal sein werden. Das ist dann auf jeden Fall ausreichend Abstand zum Haswell. Mal sehen, wie die nativ aussehen (6 und 12-Kerne?).

Knuddelbearli
2012-10-10, 22:11:24
8 darf man bisher serh bezweifeln wird 6 bleiben schätz ich mal

Intel findet es nicht akzeptabel das ein -E singlethread langsamer ist als ein normaler und sofern Intel jetzt nicht den turbo deutlich aggresiver als bisher ausfährt ...

Skysnake
2012-10-10, 22:48:58
Mit Ivy-E kommen sicherlich nicht mehr als 8 Cores für den Desktop. Kann ich mir wirklich nicht vorstellen. Intel will sich halt die guten CPUs richtig vergolden lassen, und gleichzeitig möglichst viele kleine Aufrüstanreize für die Desktopleuts haben.

Wer hätte denn gedacht, das für SB-E im Refresh nur 200 MHz mehr Takt kommen, statt nem 8 Core -.- Und dabei hat der sogar 150W TDP :facepalm:

Ronny145
2012-10-10, 22:58:38
Mit Ivy-E kommen sicherlich nicht mehr als 8 Cores für den Desktop.

Keiner behauptet etwas anderes. Es geht nur um die Frage, ob 6 oder 8 Kerne.



Wer hätte denn gedacht, das für SB-E im Refresh nur 200 MHz mehr Takt kommen, statt nem 8 Core -.- Und dabei hat der sogar 150W TDP :facepalm:

Ich. Hast Du ernsthaft mehr erwartet? 100-200 Mhz ist die normale Takt-Steigerung bei Intel und AMD. Eine Kernsteigerung für SB-E war nie ein Thema geschweige denn angedacht.

y33H@
2012-10-10, 23:12:04
SNB-EP mit 8C war nie ein Desktop-Thema, da Intel bewusst ist, dass man mit 6C und höherem Takt besser dasteht.

Player18
2012-10-26, 11:20:42
und auf was kommt Haswell raus ? hab irgendwann man gelesen das es auf dem sockel 2011 rauskommen soll, oder kommt da ein neuer Board ?

kommen da überhaupt noch cpus raus für 2011 sockel ? schon lang nix mehr gehört!

boxleitnerb
2012-10-26, 11:22:41
Haswell kommt auf Sockel 1150 erstmal. Auf 2011 kommt Ivy-E im dritten Quartal. Haswell-E wird wohl auch im Enthusiastsegment einen neuen Sockel bekommen.

Zergra
2012-10-26, 11:50:47
Haswell kommt auf Sockel 1150 erstmal. Auf 2011 kommt Ivy-E im dritten Quartal. Haswell-E wird wohl auch im Enthusiastsegment einen neuen Sockel bekommen.
Ich könnte mir da eher vorstellen das Ivi -E garnicht mehr kommt sondern gleich Haswell - E rausgebracht wird.

boxleitnerb
2012-10-26, 11:57:37
Das hätte ich zwar gerne, wird so aber nicht kommen, siehe aktuelle Roadmaps.

Player18
2012-10-26, 12:09:34
Haswell kommt auf Sockel 1150 erstmal. Auf 2011 kommt Ivy-E im dritten Quartal. Haswell-E wird wohl auch im Enthusiastsegment einen neuen Sockel bekommen.

Reine Geldmache :/

boxleitnerb
2012-10-26, 12:19:55
Ne, diesmal eher nicht. Haswell bekommt z.B. Spannungswandler auf dem Die, das ändert schon einiges bei der Spannungsversorgung.

AnarchX
2012-10-26, 12:20:18
Mit Haswell verändert sich die Spannungsversorgung und die E/EP-Versionen werden zusätzlich DDR4 unterstützen/verwenden. Durchaus Gründe für neue Sockel.

y33H@
2012-10-26, 13:05:53
Weder AMD noch Intel bringen "gerne" neue Sockel, da macht man sich keine Freunde bei OEMs und Co.

Skysnake
2012-10-26, 17:49:32
Ich könnte mir da eher vorstellen das Ivi -E garnicht mehr kommt sondern gleich Haswell - E rausgebracht wird.
Da muss ich dich enttäuschen. IvyBridge-E ist praktisch fertig. Der wird so sicher kommen, wie das Amen in der Kirche :cool:

Mit Haswell-E muss man schauen, was daraus wird. Soll es da nicht auch einen EX wieder geben? Oder soll Ivy einen nächsten EX bringen?

Könnte mir durchaus vorstellen, das man Haswell->Haswell-EX->Haswell-E bringt.

Aber keine Ahnung, hab die Server-Sachen nach IvyBridge-E noch nicht auf dem Schirm.

Schaffe89
2012-11-03, 11:36:01
Ich habe von einem Infineon Mitarbeiter gehört der in seinem Dunstkreis scheinbar in ein Projekt involviert ist, was die Bandbreite bei Intels integrierten Grafikkarten steigern soll.
Ich hab mich mit ihm angeregt unterhalten und er hat gesagt dass man derzeit vor allem mit den Haswell IGP´s derzeit massive Probleme hat und deswegen noch ein neues Stepping nötig ist.

gnahr
2012-11-03, 11:42:58
fuu, sie dürfen gern mit cpus ohne igp zeitig rauskommen.
wenigstens wird es diesmal ab start mit itx-brettern losgehen, auch von intel selbst.

john carmack
2012-11-03, 12:38:18
fuu, sie dürfen gern mit cpus ohne igp zeitig rauskommen.
wenigstens wird es diesmal ab start mit itx-brettern losgehen, auch von intel selbst.


Die Xeon´s sind ja ohne IGP.

Aber gibts die auch als "K" version?

Knuddelbearli
2012-11-03, 12:41:54
xenons haben auch eien IGP nur ist sie dort deaktiviert, kA wie sich da dann IGP Problleme auf die verfügbarkeit auswirkt. glaube aber nicht das sie nur die xenons launchen

Und nein Xenons kann man um 0,00000% Ocen nichtmal TurboOC geht

y33H@
2012-11-03, 12:51:04
Xeon bitte - Xenon ist der Prozessor der 360. Es gibt Xeons mit aktiver wie inaktiver iGPU für den Sockel 1155 und so wird es sicherlich auch bei Haswell sein.

S940
2012-11-03, 13:50:58
Weder AMD noch Intel bringen "gerne" neue Sockel, da macht man sich keine Freunde bei OEMs und Co.Mit dem Unterschied, dass Intel das herzlich egal ist, da sie der Boss sind. Hauptsache die Aktionäre freuen sich, wenn mal wieder ein neuer Sockel mit umgelabelten Chipsätzen oder so gut wie nutzlosen Zusatzfeatures kommt, für den die OEMs gut zahlen dürfen.

Undertaker
2012-11-03, 14:18:24
Dann würde man wohl kaum versuchen wie bei LGA1155, LGA1366 oder anderen zumindest immer eine Tick-Tock-Generation auf dem gleichen Sockel laufen zu lassen. Auch AMD hat seine Leichen im Keller - Sockel 754 oder, ganz aktuell, FM1. Ein solcher Wechsel hat nunmal seine Ursachen und ist nicht immer zu vermeiden. Bitte nicht auch das noch zur bösen Absicht eines Herstellers hochstilisieren.

Ronny145
2012-11-09, 00:03:47
Haswell ULT bekommt noch tiefere Idle Mechanismen implementiert. Der BCLK kann sich auf 24 Mhz runtertakten.

http://s1.directupload.net/images/121108/totr4ahb.png

http://s7.directupload.net/images/121108/kr7384g8.png

http://s7.directupload.net/images/121108/pgx8uqgd.png

http://s14.directupload.net/images/121108/4tv2rrf7.png

http://s7.directupload.net/images/121108/szcg588t.png
http://event.l3.on24.com/event.on24.com/event/47/02/81/rt/1/resources/BIOS_Virtual.pdf

S940
2012-11-09, 02:49:55
Wieso streichen sie die digitalen Displayausgänge? Gibts dafür noch ne extra "Lynx-D" Version??

Undertaker
2012-11-09, 08:48:06
Hmm, da hätten wir schonmal eine Erklärung dafür, wie dieses Versprechen hier erreicht werden soll:

http://www.anandtech.com/show/6262/intels-haswell-20x-lower-platform-idle-power-than-sandy-bridge-2x-gpu-performance-of-ivy-bridge

Edit: Wobei: Die BCLK Absenkung scheint es ja nur für die ULT-Version zu geben.

Ronny145
2012-11-09, 11:54:40
Wieso streichen sie die digitalen Displayausgänge? Gibts dafür noch ne extra "Lynx-D" Version??


Die werden von der CPU gemanagt. Damit ist das "digital display repartition" gemeint. Die Ausgänge sitzen ja nicht im Chipsatz.

http://s14.directupload.net/images/121109/tngxcsjq.jpg

S940
2012-11-09, 12:51:27
Ah ok Danke :)

Skysnake
2012-11-09, 13:15:24
Muss ja auch dort sitzen für Thunderbolt. Ist doch aktuell glaub auch schon so, nur dass das Signal eben noch weiter durchgeschleift wird.

Ronny145
2012-11-12, 18:04:37
Der mobile 2-Chip Dualcore kommt aber spät. Da kommen ja die ULV Versionen sogar eher. Was ist mit Corporate und Consumer gemeint? 2-3 Monate Unterschied beim ULT.

http://s7.directupload.net/images/121112/y8olozde.png
http://event.l3.on24.com/event.on24.com/event/47/02/74/rt/1/resources/ME%209.5%20FW%20Features%20Overview_Virtual.pdf

AnarchX
2012-11-12, 18:15:02
GT3 nur als verlötetes Package?

ndrs
2012-11-12, 18:20:05
GT3 nur als verlötetes Package?
Jepp, stand aber schon ne Weile fest.

dargo
2012-11-12, 23:01:43
Die werden von der CPU gemanagt. Damit ist das "digital display repartition" gemeint. Die Ausgänge sitzen ja nicht im Chipsatz.

http://s14.directupload.net/images/121109/tngxcsjq.jpg
Was verbirgt sich eigentlich hinter der 95W TDP? Sixcore oder eher Octacore?

boxleitnerb
2012-11-12, 23:02:16
Quadcore :freak:

dargo
2012-11-12, 23:08:03
Echt jetzt? Wie hoch sollen die Taktraten denn sein, damit die TDP dermaßen gegenüber Ivy Bridge steigt? Ist doch der gleiche Fertigungsprozess der mit der Zeit eigentlich noch besser sein sollte. Oder nimmt davon die blöde IGP den großen Teil weg? Falls ja... hat man seit der Einführung der IGP gar keinen Überblick mehr über die tatsächliche TDP der CPU. :freak:

Skysnake
2012-11-12, 23:09:36
Was heißt hier "blöde iGPU"???

Noch immer nicht mitbekommen, dass die iGPU>>CPU ist bei allen zukünftigen Consumerprodukten?

boxleitnerb
2012-11-12, 23:09:56
IGP wahrscheinlich. 10% mehr Takt könnten schon drin sein, fände ich nicht zu abwegig.
Eigentlich nutzt die CPU ihre TDP doch komplett aus in jedem Szenario, egal ob mit IGP oder ohne. Turbo halt.

Nightspider
2012-11-12, 23:11:09
Na klar braucht die IGP mehr Power. Und da bei der CPU Architektur auch viele Einheiten vergrößert wurden, brauchen auch die CPU Cores mehr Saft.

Auch Intel kann nicht Zaubern.

Bei den Taktraten kann man nur hoffen, das ein ähnliches Wunder wie bei Sandy Bridge passiert und wir OC-Suchtis die 5,5 knacken können. =)

dargo
2012-11-12, 23:19:17
Was heißt hier "blöde iGPU"???

Dass ich den Mist nicht brauche... Ressourcenverschwendung. ;)


Eigentlich nutzt die CPU ihre TDP doch komplett aus in jedem Szenario, egal ob mit IGP oder ohne. Turbo halt.
Ah... dann könnte der Turbo gebenüber Ivy jetzt höher ausfallen. Auch nicht schlecht. Je höher die TDP dank fetteren IGP desto mehr Spielraum für Turbo bei Nichtbenutzung der IGP. :)

Skysnake
2012-11-12, 23:28:03
Dass ich den Mist nicht brauche... Ressourcenverschwendung. ;)
Du bist damit aber eine aussterbende Art, auf die keine Rücksicht mehr genommen wird. Entweder du freundest dich damit an, oder du wirst in Zukunft nur noch Enttäuschungen antreffen

gnahr
2012-11-13, 06:29:01
von wegen, entweder sie bauen synergy respektive andere kombi-programme ein
oder ich kann jeden verstehen der mit der igp nix anfangen kann.
"blablabla, wir bauen jetzt apus weil die so extrem viel leisten und besser sind"
von wegen, im schlimmsten fall hängen da irgendwann mit patente drinnen
(siehe smartphonebereich der sich auf die art ja gerade heftigst zofft)
und würden lizensgebühren oder zumindest einen künstlich erhöhten asp durchdrücken.

dargo
2012-11-13, 09:15:12
Mal ernsthaft... diese intergrierte GPU ist doch eh nur dafür da um den Preis der CPU künstlich hochzuhalten. Wer braucht schon IGP im Desktopbereich? Niemand. Der einzige Fall wo es noch Sinn ergibt, wenn dir die Graka abraucht kannst du wenigstens den PC nutzen solange die Graka in RMA ist. Aber selbst für so einen Fall hole ich mir lieber eine gebrauchte 08/15 Graka für nen Fünfer als ständig von Generation zu Generation den Aufpreis für die IGP zu zahlen. Die Hersteller kriegen es doch nicht mal auf die Reihe, dass sich jede Gamerkarte in Idle komplett abschaltet und die IGP die Arbeit übernimmt. Somit könnte man zumindest etwas Strom sparen.

Ailuros
2012-11-13, 09:20:54
Mal ernsthaft... diese intergrierte GPU ist doch eh nur dafür da um den Preis der CPU künstlich hochzuhalten. Wer braucht schon IGP im Desktopbereich? Niemand. Der einzige Fall wo es noch Sinn ergibt, wenn dir die Graka abraucht kannst du wenigstens den PC nutzen solange die Graka in RMA ist. Aber selbst für so einen Fall hole ich mir lieber eine gebrauchte 08/15 Graka für nen Fünfer als ständig von Generation zu Generation den Aufpreis für die IGP zu zahlen. Die Hersteller kriegen es doch nicht mal auf die Reihe, dass sich jede Gamerkarte in Idle komplett abschaltet und die IGP die Arbeit übernimmt. Somit könnte man zumindest etwas Strom sparen.

Es braucht eben nicht jeder eine standalone GPU wenn man einen PC als Beispiel nur als office-Schleuder betreibt und dahingegen sind solche iGPUs sogar besser als manche 64bit standalone GPUs die es dort draussen noch gibt.

Es ist eben NICHT so dass Du mit dem Kauf eines solchen Prozessors in irgendwelchen Preis-/Leistungs oder sogar Stromverbrauch-Nachteil liegst im Vergleich zur Konkurrenz. Im Notfall hohl Dir eine AMD CPU; es zwingt auch keiner zu einer Intel CPU.

boxleitnerb
2012-11-13, 09:21:03
Wenn sich GPGPU endlich mal richtig durchsetzt und das HSA-Konzept Früchte trägt, dann macht sowas Sinn. Für Gelegenheitsspieler, die wirklich niedrige Ansprüche haben (also die meisten), aber auch. Wir gehören halt nicht dazu. Intel kann auch nicht erst einsteigen, wenn erste HSA-Anwendungen kommen, denn bis dahin wäre man hoffnungslos im Rückstand.

Ailuros
2012-11-13, 09:24:05
Wenn sich GPGPU endlich mal richtig durchsetzt und das HSA-Konzept Früchte trägt, dann macht sowas Sinn. Für Gelegenheitsspieler, die wirklich niedrige Ansprüche haben (also die meisten), aber auch. Wir gehören halt nicht dazu. Intel kann auch nicht erst einsteigen, wenn erste HSA-Anwendungen kommen, denn bis dahin wäre man hoffnungslos im Rückstand.

Eigentlich ist es ein genereller SEGEN dass sich Intel endlich ernsthaft mit Grafik beschaeftigt. Bei Intel's Marktanteil sorgt es fuer um einiges hoeheren Druck an AMD und NVIDIA wenn es zu Grafik kommt und dabei ist es natuerlich egal ob man mit jeglicher dieser Loesungen etwas spielen kann oder nicht. Low end ist eben der bei weitem groesste Marktanteil egal ob es jemand schmeckt oder nicht.

dargo
2012-11-13, 09:26:32
Es braucht eben nicht jeder eine standalone GPU wenn man einen PC als Beispiel nur als office-Schleuder betreibt und dahingegen sind solche iGPUs sogar besser als manche 64bit standalone GPUs die es dort draussen noch gibt.

Das ist mir schon klar. Ich hätte vielleicht Gamer-PC anstatt Desktop-PC sagen sollen. In einem Officesystem macht sowas natürlich extrem viel Sinn sogar. Man könnte aber zwei Schienen fahren. Mir kann doch keiner erzählen, dass eine CPU ohne IGP nicht deutlich billiger wäre. Die CPUs von Intel ohne IGP zählen da nicht, da ist die IGP nur deaktiviert afaik.


Es ist eben NICHT so dass Du mit dem Kauf eines solchen Prozessors in irgendwelchen Preis-/Leistungs oder sogar Stromverbrauch-Nachteil liegst im Vergleich zur Konkurrenz. Im Notfall hohl Dir eine AMD CPU; es zwingt auch keiner zu einer Intel CPU.
Hätte ich schon lange gemacht wenn AMD performancemäßig mithalten könnte.

PS: am meisten stinkt mir bei Intel, dass die Fläche für IGP verschwendet wird, anstatt sie sinnvoll für zb. einen Sixcore im Performancesegment zu nutzen. Mittlerweile ist die Fläche der reinen CPU dermaßen klein, dass man sogar Schwierigkeiten bei der Kühlung bekommt. :freak: Anstatt also dem mit einer fetteren CPU (zb. durch mehr Cores) entgegenzuwirken wird die IGP immer fetter. :uclap:

Ailuros
2012-11-13, 09:49:52
Das ist mir schon klar. Ich hätte vielleicht Gamer-PC anstatt Desktop-PC sagen sollen. In einem Officesystem macht sowas natürlich extrem viel Sinn sogar. Man könnte aber zwei Schienen fahren. Mir kann doch keiner erzählen, dass eine CPU ohne IGP nicht deutlich billiger wäre. Die CPUs von Intel ohne IGP zählen da nicht, da ist die IGP nur deaktiviert afaik.

Nein sie waeren eben nicht billiger, eher das Gegenteil. Man muesste dafuer zwei verschiedene chips entwickeln und diese auch getrennt herstellen.

Hätte ich schon lange gemacht wenn AMD performancemäßig mithalten könnte.

"Nur" Leistungsmaessig oder sind Intel's CPUs zufaellig momentan besser als Preis-/Leistungs-/Stromverbrauchs-Paket? Unter der Logik wundere ich mich warum Du gerade ueber den Stromverbrauch meckerst.

PS: am meisten stinkt mir bei Intel, dass die Fläche für IGP verschwendet wird, anstatt sie sinnvoll für zb. einen Sixcore im Performancesegment zu nutzen. Mittlerweile ist die Fläche der reinen CPU dermaßen klein, dass man sogar Schwierigkeiten bei der Kühlung bekommt. :freak: Anstatt also dem mit einer fetteren CPU (zb. durch mehr Cores) entgegenzuwirken wird die IGP immer fetter. :uclap:

Nochmal wuerdest Du als Hersteller die groesst moegliche Masse besser versuchen zu bedienen oder den Gegenteil? Wie gross ist Intel's Marktanteil fuer integrierte Grafik bei notebooks und PCs genau nochmal? Eben.

Sonst gibt es ein paar Stichpunkte in vorigen Beitraegen:

1. Eventuell wird heterogeneous computing einen groesseren Durchbruch machen.

2. Es wird in Zukunft zunehmend in Richtung SoCs gehen.

Wenn man fuer (2) schon heute low end PC/notebooks, kommende Konsolen, embedded und small form factor Maerkte zusammenrechnet ist der insgesamte bulk an SoCs gegen standalone hw schon heute ueberwaeltigend.

dargo
2012-11-13, 10:01:11
Nein sie waeren eben nicht billiger, eher das Gegenteil. Man muesste dafuer zwei verschiedene chips entwickeln und diese auch getrennt herstellen.

Das glaube ich dir nicht. Der IGP Anteil ist mittlerweile afaik größer als der CPU Anteil. Den Preis bestimmt überwiegend immer noch die Die-Fläche. Das einzige was passieren könnte wäre, dass die CPU mit IGP etwas teurer wäre als jetzt wo alle es mitfinanzieren. Und das wird in Zukunft noch schlimmer. Denn die IGP wird im Verhältnis noch deutlich fetter als die CPU.


"Nur" Leistungsmaessig oder sind Intel's CPUs zufaellig momentan besser als Preis-/Leistungs-/Stromverbrauchs-Paket? Unter der Logik wundere ich mich warum Du gerade ueber den Stromverbrauch meckerst.

Wo meckere ich über den Stromverbrauch? Da musst du was falsch verstanden haben.

Ailuros
2012-11-13, 10:33:37
Das glaube ich dir nicht. Der IGP Anteil ist mittlerweile afaik größer als der CPU Anteil. Den Preis bestimmt überwiegend immer noch die Die-Fläche. Das einzige was passieren könnte wäre, dass die CPU mit IGP etwas teurer wäre als jetzt wo alle es mitfinanzieren. Und das wird in Zukunft noch schlimmer. Denn die IGP wird im Verhältnis noch deutlich fetter als die CPU.

Wenn ein chip als ein einziger entwickelt und Du willst danach die iGPU von der CPU trennen, kostet es mehr die beiden zu trennen und auch in der Herstellung.

Wo meckere ich über den Stromverbrauch? Da musst du was falsch verstanden haben.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9542642&postcount=577

Somit könnte man zumindest etwas Strom sparen.

Wofuer willst Du Strom sparen, wenn die perf/W auf Intel CPUs ohnehin schon niedriger ist als bei der Konkurrenz? Und es nicht so als ob nicht ein legitimer Punkt von Deiner Perspektive im Ganzen liegt, aber fuer einen Semi Hersteller fuer Intel eben nicht und schon gar nicht wenn sie mit dem CPU/iGPU "bundle" den groessten Marktanteil bedienen. Es ist eben leider keiner so bloed strategische Design-Entscheidungen an Minderwertigkeiten zu richten, ausser sie wuessten dass sie ein premium dafuer verlangen koennten was den Preis betrifft was aber nicht realistisch ist.

dargo
2012-11-13, 11:00:11
Wenn ein chip als ein einziger entwickelt und Du willst danach die iGPU von der CPU trennen, kostet es mehr die beiden zu trennen und auch in der Herstellung.

Sorry... aber das fällt mir schwer zu glauben. Leider finde ich keine Informationen zu der genauen Größe vom CPU-Anteil eines Ivy Bridge. Also wieviel Fläche von den 160mm² tatsächlich auf die CPU fällt. Und selbst wenn es momentan so wäre. In Zukunft im kleineren Fertigungsprozess wird es sicherlich nicht mehr so sein wenn der GPU-Anteil immer schneller fetter wird als der CPU-Anteil. Beispiel... CPU-Anteil von nur noch 20% der Die-Fläche.


http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9542642&postcount=577

Da hast du mich missverstanden. Ich sehe in einem Gamer-PC keinen einzigen Vorteil bei intergrierter GPU in der CPU. Mit dem Beispiel von mir hätte man wenigstens einen, der zudem sinnvoll ist.

Edit:
Wenn ich alleine nach dem Preis gehe haben wir folgende Situation.
http://geizhals.at/de/691077
http://geizhals.at/de/691079

Die CPU ohne IGP ist höher getaktet und günstiger. Mir ist allerdings bewußt, dass sich anhand der Preise kaum was ableiten lässt. Einerseits ist die schnellste CPU innerhalb eines Sockels (in dem Fall i7-2700K) überproportional in der Regel teurer. Andererseits lässt sich Intel den Sockel 2011 bzw. die CPUs dafür gut bezahlen. Wir wissen also nicht wieviele extra Euros bei einem i7-3820 Intel vorsieht.

Skysnake
2012-11-13, 11:17:23
Das glaube ich dir nicht. Der IGP Anteil ist mittlerweile afaik größer als der CPU Anteil. Den Preis bestimmt überwiegend immer noch die Die-Fläche. Das einzige was passieren könnte wäre, dass die CPU mit IGP etwas teurer wäre als jetzt wo alle es mitfinanzieren. Und das wird in Zukunft noch schlimmer. Denn die IGP wird im Verhältnis noch deutlich fetter als die CPU.

Du lebst aber gedanklich in einer Traumwelt aus früheren Zeiten...

Sorry, aber du verkennst einfach total die Realität! Der PC Markt als GANZES bricht extrem ein, wozu auch die Wirtschaftskrise beiträgt, aber selbst ohne die würde der Desktopmarkt einbreche. Schau dir mal an, wieviel PCs weniger HP verkauft hat. Schau dir mal an, wieviele PC-Hardwarehändler im Moment insolvent gehen oder aufgekauft werden.

Der Desktopmarkt ist einfach schon kleiner als der Mobile-Markt und schrumpft immer weiter. Die Generation Smartphone&Tablet ist dabei alles zu bestimmen. Heute ist bei vielen maximal noch nen Laptop drin, aber Desktops werden immer und immer seltener. Wennn wird eher noch in ner Firma nen Desktop hingestellt, aber der Privatanwender macht das immer weniger.

Der Gamer-Markt war was GPUs angeht wegweisend, und hat den RICHTIG nach vorne gepusht, aber bei CPUs siehts heute ganz anders aus. Der Markt wird einfach sehr sehr sehr klein, wenn man sich den Gesamtmarkt anschaut. Und vom gesamten DesktopMarkt, der ja wie gesagt nicht mal mehr 50% ausmacht, machen die Gamer vielleicht noch 10% aus. Also für 5% der Nutzer, wobei sagen wir ehe für 1-2% der Nutzer willst du jetzt nen extra Design auflegen?

Intel wäre schön blöd das zu machen. Die kosten für den extra Chip bekommen Sie durch die Kostenersparnis bei der Produktion NIEMALS wieder rein. Die reinen Stückkosten sind nämlich relativ klein! Das sind pro CPU nur ein paar Euro. R&D kosten verdammt viel und auch die Anlagen, sowie die Masken an und für sich. Die echten Stückkosten sind aber ziemlich niedrig.

Intel hofft da eher drauf, das ihr wenn dann halt zu S2011 greift.

Genau das tut ihr ja aber NICHT. Sorry, aber ihr wollt einfach nur was schnelleres zum gleichen Preis... Das Leben ist aber kein Wunschkonzert.

Sorry, aber jedem dem die S1155 Politik nicht passt, der soll sich nen S2011 kaufen, und kommt mir nicht mit dem Preis. Entweder ihr braucht die Leistung oder ihr braucht Sie nicht, und in dem Fall seht bitte ein, das ihr einfach nicht mehr der Nabel der Leistungserwartung seid, und für euch Mittelklasse einfach ausreichend ist...

Was ist daran so schlimm? Ich bin froh darüber, dass das heute so ist...

iFanatiker
2012-11-13, 11:21:07
Ich sehe in einem Gamer-PC keinen einzigen Vorteil bei intergrierter GPU in der CPU.

Gamer PC sind aber eine absolute Randerscheinung auf den Markt mit abnehmenden Marktanteil. Die absolute Mehrheit der verkauften x86 Rechner sind eben Notebooks gefolgt von typischen SoHo/Einzelplatz Kisten wo die IGP z. B. die Intel Kisten attraktiver gegenüber den Bulldozern macht wegen der IGP.

Übrigens: genau das ist der Grund wieso z. B. auch Konsolen gar nicht die Entwicklung von PC Spielen bremesen...eher tut es die breite Mehrheit der Nutzer mit einer HD3000/4000 in ihren Notebook. Entsprechend wichtig ist hier der Fortschritt beim Haswell.

Eigentlich ist es ein genereller SEGEN dass sich Intel endlich ernsthaft mit Grafik beschaeftigt.

Na, tun sie doch. Die Treiber haben bei Intel mittlerweile eine unglaubliche Entwicklung gemacht und sind mittlerweile wirklich gut auch im Bereich der Spiele. Selbst OpenCL ist mit dem 2012-er SDK Update wirklich gut verwendbar im Rahmen der Leistungsfähigkeit der 2500-er/4000-er.

Ailuros
2012-11-13, 11:29:21
Sorry... aber das fällt mir schwer zu glauben. Leider finde ich keine Informationen zu der genauen Größe vom CPU-Anteil eines Ivy Bridge. Also wieviel Fläche von den 160mm² tatsächlich auf die CPU fällt. Und selbst wenn es momentan so wäre. In Zukunft im kleineren Fertigungsprozess wird es sicherlich nicht mehr so sein wenn der GPU-Anteil immer schneller fetter wird als der CPU-Anteil. Beispiel... CPU-Anteil von nur noch 20% der Die-Fläche.

Ehrlich wenn Du die Einzelheit die ich schon 2x Mal wiederholt habe nicht verstehen kannst, kann ich Dir wirklich nicht mehr weiterhelfen. Ausser Du glaubst tatsaechlich dass Intel oder jeglicher anderer IHV aus solch einem chip nur so einfach den iGPU Anteil des chips einfach abschneiden kann.


Da hast du mich missverstanden. Ich sehe in einem Gamer-PC keinen einzigen Vorteil bei intergrierter GPU in der CPU. Mit dem Beispiel von mir hätte man wenigstens einen, der zudem sinnvoll ist.

Edit:
Wenn ich alleine nach dem Preis gehe haben wir folgende Situation.
http://geizhals.at/de/691077
http://geizhals.at/de/691079

Die CPU ohne IGP ist höher getaktet und günstiger. Mir ist allerdings bewußt, dass sich anhand der Preise kaum was ableiten lässt. Einerseits ist die schnellste CPU innerhalb eines Sockels (in dem Fall i7-2700K) überproportional in der Regel teurer. Andererseits lässt sich Intel den Sockel 2011 bzw. die CPUs dafür gut bezahlen. Wir wissen also nicht wieviele extra Euros bei einem i7-3820 Intel vorsieht.

Afaik gibt es keinen Zusatz im Preis fuer die iGPU.


Na, tun sie doch. Die Treiber haben bei Intel mittlerweile eine unglaubliche Entwicklung gemacht und sind mittlerweile wirklich gut auch im Bereich der Spiele. Selbst OpenCL ist mit dem 2012-er SDK Update wirklich gut verwendbar im Rahmen der Leistungsfähigkeit der 2500-er/4000-er.

Genau das behaupte ich doch.

dargo
2012-11-13, 11:32:13
Der Gamer-Markt war was GPUs angeht wegweisend, und hat den RICHTIG nach vorne gepusht, aber bei CPUs siehts heute ganz anders aus. Der Markt wird einfach sehr sehr sehr klein, wenn man sich den Gesamtmarkt anschaut. Und vom gesamten DesktopMarkt, der ja wie gesagt nicht mal mehr 50% ausmacht, machen die Gamer vielleicht noch 10% aus. Also für 5% der Nutzer, wobei sagen wir ehe für 1-2% der Nutzer willst du jetzt nen extra Design auflegen?

Intel wäre schön blöd das zu machen. Die kosten für den extra Chip bekommen Sie durch die Kostenersparnis bei der Produktion NIEMALS wieder rein. Die reinen Stückkosten sind nämlich relativ klein! Das sind pro CPU nur ein paar Euro. R&D kosten verdammt viel und auch die Anlagen, sowie die Masken an und für sich. Die echten Stückkosten sind aber ziemlich niedrig.

Intel hofft da eher drauf, das ihr wenn dann halt zu S2011 greift.

Genau das tut ihr ja aber NICHT. Sorry, aber ihr wollt einfach nur was schnelleres zum gleichen Preis... Das Leben ist aber kein Wunschkonzert.

Du machst dich gerade hier ziemlich lächerlich. Jeder Shrink hat erstmal zur Folge mehr Dies aus einem Wafer zu bekommen. Was selbstverständlich auch die Kosten pro Die senkt wenn der neue Fertigungsprozess nicht gerade Grütze läuft. Also erzähl mir keine Märchen.

PS: zum Wunschkonzert... ich kann den Spieß auch umdrehen und sagen es ist kein Wunschkonzert für Intel. Kaum einer ist so blöd und wechselt auf die deutlich teureren S2011 Bretter (Mindestpreis ~160€) nur weil Intel es so haben will. Beim Six- und Octacore hat man natürlich bei Intel keine andere Wahl. Aber auch das ist nur Marketing seitens Intel.

Ehrlich wenn Du die Einzelheit die ich schon 2x Mal wiederholt habe nicht verstehen kannst, kann ich Dir wirklich nicht mehr weiterhelfen. Ausser Du glaubst tatsaechlich dass Intel oder jeglicher anderer IHV aus solch einem chip nur so einfach den iGPU Anteil des chips einfach abschneiden kann.

Das habe ich nirgendwo gesagt.


Afaik gibt es keinen Zusatz im Preis fuer die iGPU.

Das glaubst du wohl selbst nicht. Als ob Intel was zu verschenken hätte. Zudem muss man noch "dauerhaft" die Treiber für IGP auch noch pflegen.

S940
2012-11-13, 11:34:33
Echt jetzt? Wie hoch sollen die Taktraten denn sein, damit die TDP dermaßen gegenüber Ivy Bridge steigt? Ist doch der gleiche Fertigungsprozess der mit der Zeit eigentlich noch besser sein sollte. Oder nimmt davon die blöde IGP den großen Teil weg? Falls ja... hat man seit der Einführung der IGP gar keinen Überblick mehr über die tatsächliche TDP der CPU. :freak:
Ich würde mal nicht andere Sachen wie den überarbeiteten Kern unter den Teppich kehren. Immerhin kann Haswell jetzt FMA, das verdoppelt die theoretische Rechenleistung. Wenn deshalb auch die TDP etwas ansteigen müsste, würde ich mich nicht wundern.

Edit: @Skysnake:
Intel wäre schön blöd das zu machen. Die kosten für den extra Chip bekommen Sie durch die Kostenersparnis bei der Produktion NIEMALS wieder rein. Die reinen Stückkosten sind nämlich relativ klein! Das sind pro CPU nur ein paar Euro. R&D kosten verdammt viel und auch die Anlagen, sowie die Masken an und für sich. Die echten Stückkosten sind aber ziemlich niedrig. Wobei ich mich da echt wundere, dass sich Intel ne extra maske für einen Quad-DDR3 Quad-Core leistet (i7-3820). Das geht vermutlich nur, weil sie so Riesenmengen absetzen, und das eben selbst von nem Sockel-2011 Chip. Wenn die Annahme denn stimmte, dann wäre Deine Annahme, das ein ein extra-Chip zu teuer wäre, eigentlich falsch. Aber vermutlich rentiert sich gerade nur ein so ein Exoten-Die, nicht 2, womit Du wieder recht hättest: Intel will dass solche Kunden Sockel 2011 kaufen.

N0Thing
2012-11-13, 11:36:43
Du machst dich gerade hier ziemlich lächerlich. Jeder Shrink hat erstmal zur Folge mehr Dies aus einem Wafer zu bekommen. Was selbstverständlich auch die Kosten pro Die senkt wenn der neue Fertigungsprozess nicht gerade Grütze läuft. Also erzähl mir keinen Märchen.

Was bringt es denn die Kosten pro Chip von 10€ auf 6€ zu senken, wenn die Entwicklung und das ganze drum herum zusätzliche Kosten von umgerechnet 5€ pro Chip erzeugen?

(Das ganze nur als Beispiel, um die Problematik zu verdeutlichen)

dargo
2012-11-13, 11:49:49
Was bringt es denn die Kosten pro Chip von 10€ auf 6€ zu senken, wenn die Entwicklung und das ganze drum herum zusätzliche Kosten von umgerechnet 5€ pro Chip erzeugen?

(Das ganze nur als Beispiel, um die Problematik zu verdeutlichen)
Ich verstehe schon was du meinst. Aber denke ein wenig weiter an mein oben genanntes Beispiel. 20% Die-Fläche nur für die CPU.

boxleitnerb
2012-11-13, 11:52:22
Mal was anderes:
Glaubt ihr, Intel wird das Billigzeugs unter dem HS wieder durch was Vernünftiges ersetzen?

Man sieht hier sehr schön, was niedrigere Temperaturen bewirken können, wenn es auf 4 GHz zugeht (wo Haswells Top-SKU landen könnte):
http://www.abload.de/img/3770kstockvsdeliddedwtrx7.png (http://www.abload.de/image.php?img=3770kstockvsdeliddedwtrx7.png)

dargo
2012-11-13, 11:54:38
Mal was anderes:
Glaubt ihr, Intel wird das Billigzeugs unter dem HS wieder durch was Vernünftiges ersetzen?

Na das will ich doch stark hoffen. Alles andere wäre nur peinlich. Zumal ja die TDP noch auf 95W beim Quad steigt.

Ailuros
2012-11-13, 12:01:08
Das habe ich nirgendwo gesagt.

Und was genau verstehst Du dann gerade nicht dass es teurer ist im Nachhinein an eine getrennte Herstellung zu denken.

Das glaubst du wohl selbst nicht. Als ob Intel was zu verschenken hätte. Zudem muss man noch "dauerhaft" die Treiber für IGP auch noch pflegen.

N0Thing's Beispiel haette helfen sollen, aber die Frage ist eher fuer was Du hier genau Puste verschwendest da Intel wohl schwer etwas daran aendern wird. Es gibt keinen Gewinn an gentrennter Entwicklung fuer Intel, im Gegenteil wird es umstaendlicher und zur gleichen Zeit teurer.

Sonst nochmal so lange Du als Verbraucher das bestmoegliche Preis-/Leistungs-Verhaeltnis fuer Intel CPUs bekommst ist das Thema nach wie vor redundant. Nebenbei nur als Lektuere wuehl mal nach fuer was genau AMD und NVIDIA von Intel u.a. mit Mordssummen entschaedigt wurden und warum.

S940
2012-11-13, 12:18:20
Mal was anderes:
Glaubt ihr, Intel wird das Billigzeugs unter dem HS wieder durch was Vernünftiges ersetzen?

Man sieht hier sehr schön, was niedrigere Temperaturen bewirken können, wenn es auf 4 GHz zugeht (wo Haswells Top-SKU landen könnte):
http://www.abload.de/img/3770kstockvsdeliddedwtrx7.png

Na die Übersicht bringt nichts, das ist nicht nur ein Vergleich zw. den Leitpasten sondern auch ein Vergleich zw. dem Stock-Kühler und einer H100 WaKü. :freak:

Meiner Erfahrung anhand der Kaufberatungsthreads ist die, dass kleine Waküs mit den Ivys ziemlich gut laufen. Vermutlich schaffen sie die Wärme doch besser / großflächiger weg als Heatpipes. Die kleinen WaKüs sind unter Last mit anderen CPUs normalerweise schlecht, da sich dann das Wasser aufheizt, da der kleine Radiator die Wärme nicht komplett ableiten kann, aber ein Ivy heizt absolut gesehen ja nicht viel, selbst übertaktet ...

boxleitnerb
2012-11-13, 12:30:18
Auch bei gleicher Kühlungskonfiguration sind pro 20 Grad ca. 10W drin:
http://forums.anandtech.com/showthread.php?t=2281195

Und 20 Grad sind auch in etwa das, was als Ersparnis unter Volllast herauskommt durch das Wechseln des TIM, was ich so in diversen Userberichten gelesen habe.

dargo
2012-11-13, 12:53:18
Sonst nochmal so lange Du als Verbraucher das bestmoegliche Preis-/Leistungs-Verhaeltnis fuer Intel CPUs bekommst ist das Thema nach wie vor redundant.
Das ist eben nicht überall der Fall. Schau dir nur mal an was Sixcores bei Intel in Form von SB-E kosten. Bretter gar nicht mal berücksichtigt. Und um nochmal das Thema "IGP kostet nichts" aufzugreifen. Warum verkauft Intel den Ivy Bridge für nahezu den gleichen Preis wie Sandy Bridge obwohl der Leistungszugewinn im Bereich CPU quasi lächerlich ist? Auf der anderen Seite spart man aber einiges an Die-Fläche dank 22nm. Also erzählt mir bitte keine Märchen @die IGP wäre umsonst.

Edit:
Mal zum Vergleich bissel zurück in die Vergangenheit geschaut.

Yorkfield @45nm = 2x 107mm² Die-Fläche
Lynnfield @45nm = 1x 296mm² Die-Fläche

Obwohl Lynnfield größer ist wurde die CPU auch quasi zum gleichen Preis angeboten. Und dabei ist Lynnfield in Games Yorkfield deutlich voraus und nicht wie dieser lächerliche Vorsprung bei Ivy Bridge vs. Sandy Bridge.

Skysnake
2012-11-13, 12:54:17
Ja, das liegt wohl an der immer kleiner werdenden Fertigungstechnik. Durch die Aufheizung steigt wohl der ohmsche Widerstand dadurch an, das man mehr Reflektion von Wellen am Gitter hat.

Hatten das mal in Festkörperphysik durchgequatscht, aber keinerlei bezug zur Halbleiterindustrie gehabt. Da gings allgemein nur um Einkristalle.

Die Beobachtung hatte ich mit ner XFX7970 aber auch schon vor ca einem 3/4 Jahr gemacht und davon berichtet. Da war man bei uns am Institut auch sehr überrascht über die Ausmaße, die das inzwischen annimmt. Das Problem an für sich war bekannt, aber bisher halt immer total vernachlässigbar.

Mit weiteren Shrinks wird das Problem sogar noch größer. Das widerspricht leider auch etwas dem Gedanken bzgl Warmwasserkühlung...

dargo
2012-11-13, 13:09:54
Gamer PC sind aber eine absolute Randerscheinung auf den Markt mit abnehmenden Marktanteil. Die absolute Mehrheit der verkauften x86 Rechner sind eben Notebooks gefolgt von typischen SoHo/Einzelplatz Kisten wo die IGP z. B. die Intel Kisten attraktiver gegenüber den Bulldozern macht wegen der IGP.

Übrigens: genau das ist der Grund wieso z. B. auch Konsolen gar nicht die Entwicklung von PC Spielen bremesen...eher tut es die breite Mehrheit der Nutzer mit einer HD3000/4000 in ihren Notebook. Entsprechend wichtig ist hier der Fortschritt beim Haswell.

Da wären wir wieder beim Thema was war zuerst da? Das Ei oder das Huhn?

Ich behaupte, dass gerade durch die aktuellen Konsolen und entsprechende Stagnation der Grafik mobile Geräte für viele immer interessanter werden. Kein Wunder, dass die dann stark aufschließen. Nur... mit den nächsten Konsolen kannst du die meisten Laptops was Gaming angeht wieder in die Tonne kloppen.

Undertaker
2012-11-13, 13:46:40
Die kommenden Konsolen werden wohl keine solche Hardwarepower besitzen, dass Sie die dann aktuellen, schnellsten Notebokchips schlagen.

dargo
2012-11-13, 14:11:24
Ersteres ist mir schon klar. Zum zweiteren... diese mobilen Abkömmlinge der bsw. GTX680 bzw. HD7970 meine ich gar nicht. Hier wurden so Sachen wie 2500-er/4000-er in den Raum geworfen.

gnahr
2012-11-13, 14:43:38
konsolen sind aber hoch optimierte anwendungen. so grillt man auch mal igps mit doppelter rohleistung zur konsole.

robbitop
2012-11-13, 14:52:53
Naja wenn in einer Next Gen Konsole ein Pitcairn mit anständigem Takt sitzt, wird es aber relativ eng bei den besten Notebook-GPUs. Die sind ja zumindest was Taktraten angeht aufgrund der TDP eingeengt. Außerdem sind die allerschnellsten GPUs sowieso eher aufgrund des Preises eine Seltenheit bei den Käufern. Hinzu kommt die Low Level Programmierung und Optimierung die auch nochmal einiges bringt.
Insofern stimmt Dargos Aussage. Das ist aber in wenigen Jahren wieder obsolet. ;)

iFanatiker
2012-11-13, 15:01:30
Naja wenn in einer Next Gen Konsole ein Pitcairn mit anständigem Takt sitzt, wird es aber relativ eng bei den besten Notebook-GPUs. Die sind ja zumindest was Taktraten angeht aufgrund der TDP eingeengt.

Also die 7970M ist ja ein Pitcairn und liegt zwischen der 7850 bis 7870 und hat eine max TDP mit 100 Watt. Ich bezweifele mal stark, dass MS oder Sony mit was stärken auffahren werden....abhängig vom Speicherinterface sogar mit noch weniger. Broadwell dürfte bei Intel im Jahr 2014 irgendwas in der Leistungsfähigkeit der heutigen Desktop 7750 bringen...vielleicht mehr....passt doch so Pi Mal Daumen. :biggrin:

Da wir vom Thema abkommen:

Auch im klassischen x86 Markt bewegt sich alle sich in Richtung SoC und Intel wird in Zukunft eben noch mehr Sachen direkt auf den Die packen (Modems usw.) und die CPU an sich wird unwichtiger. Der High End Performance Markt ist eben ein Nischenmarkt. Es zählt eben zunehmend die Integrationsdichte und Effizienz da der breite Markt eben möglichst mobile und sparsame Gerätschaften bevorzugt.

dargo
2012-11-13, 15:10:01
Naja wenn in einer Next Gen Konsole ein Pitcairn mit anständigem Takt sitzt, wird es aber relativ eng bei den besten Notebook-GPUs. Die sind ja zumindest was Taktraten angeht aufgrund der TDP eingeengt. Außerdem sind die allerschnellsten GPUs sowieso eher aufgrund des Preises eine Seltenheit bei den Käufern.
Richtig... man muss sich nur mal anschauen was entsprechene Laptops kosten. Für den Preis bekomme ich am Desktop deutlich mehr. Klar... wenn man mobil bleiben möchte/muss kommt man nicht drumherum.

Edit:
http://geizhals.at/de/791451
http://geizhals.at/de/859794

Das kauft sich natürlich jeder Heini der einen Laptop braucht.

boxleitnerb
2012-11-13, 17:01:37
Nochmal was zum TIM. Es scheint so, als wäre nicht das Material selbst, sondern die Materialdicke bei Ivy Bridge das Problem. Macht man den IHS und vor allem den Kleber ab und verkleinert so den Spalt, den das TIM ausfüllen muss, hat man die beobachteten deutlichst niedrigeren Temperaturen. Sorgt man z.B. durch eine Papierunterlage für eine identische Dicke des gesamten Packages im Vergleich zum Originalzustand, ist keine Verbesserung zu beobachten, im Gegenteil:

http://www.abload.de/img/direcdiemounttemperatjsq9d.png (http://www.abload.de/image.php?img=direcdiemounttemperatjsq9d.png)
http://forums.anandtech.com/showpost.php?p=34053183&postcount=570
http://forums.anandtech.com/showpost.php?p=34059601&postcount=583

Hoffen wir also, dass Intel bei Haswell das wieder fixt und den Abstand kleiner macht.

dargo
2012-11-13, 17:15:24
Gerade bei höherem OC unglaublich der Unterschied.

Ailuros
2012-11-14, 06:48:44
Das ist eben nicht überall der Fall. Schau dir nur mal an was Sixcores bei Intel in Form von SB-E kosten. Bretter gar nicht mal berücksichtigt. Und um nochmal das Thema "IGP kostet nichts" aufzugreifen. Warum verkauft Intel den Ivy Bridge für nahezu den gleichen Preis wie Sandy Bridge obwohl der Leistungszugewinn im Bereich CPU quasi lächerlich ist? Auf der anderen Seite spart man aber einiges an Die-Fläche dank 22nm. Also erzählt mir bitte keine Märchen @die IGP wäre umsonst.

Sie ist quasi umsonst fuer Intel weil es sich Intel leisten kann und es nicht der einzige Fall dort draussen bei CPU/GPU bundles. Macht auch ARM im Fall wo CPU und GPU IP lizenziert wird; die Lizenz-Gebuehren fallen fuer beide wie sonst wo anders, aber royalties nur hauptsaechlich fuer die CPU IP. Intel's hauptsaechliches Ziel ist einen so hohen wie moeglichen Marktanteil fuer Grafik zu erhalten und dabei ist es wurscht ob es sich am Ende nur um einen "office-Beschleuniger" handelt.

Sonst wenn es zu dem Brei mit den N zusaetzlichen core Thesen kommt: da CPU Leistung eben NICHT linear innerhalb einer Architektur (bei gleicher Frequenz) mit steigender Anzahl von cores skaliert, brauchen wir eher effizientere Architekturen als alles andere.

Was man auf sw/OS Ebene vielleicht machen koennte, waere eine Loesung die simultane GPUs bzw. Treiber problemlos erlauben wuerden. Fuer sehr bescheidenes GPGPU Zeug bzw. desktop/UI setzt die integrierte iGPU ein als Beispiel und spart dadurch einiges an Strom (wenn zukuenftige standalone GPUs auf aggressiveres power/clock gating setzen) und fuer alles anspruchsvolle wird die standalone GPU dann eingelegt. Dass aber IHVs je fuer so etwas ernsthaft zusammenarbeiten wuerden will ich ernsthaft bezweifeln.

Skysnake
2012-11-14, 08:59:05
Linux mit dem neuen XServer sollte das eigentlich können.

Ailuros
2012-11-14, 09:20:54
Linux mit dem neuen XServer sollte das eigentlich können.

Ist zwar ein Punkt aber es benutzt eben die breite Masse nicht Linux aus verstaendlichen Gruenden.

Skysnake
2012-11-14, 09:41:30
Naja, die "breite" Masse nutzt eigentlich schon Linux, nur im Homeanwenderbereich siehts anders aus.

Im Bürobetrieb liegt Windows auch noch vorne, wobei es auch stark darauf ankommt, in welche Branchen man schaut.

Und im Homebereich könnte sich Windows auch uninteressanter machen, wenn Steam dann mal unter Linux läuft und viele Spiele anbieten kann, vor allem auch die Blockbuster.

Ein Ubuntu usw. ist kein großer Unterschied mehr zu nem Windows. Selbst meine Freundin und meine Mutter kommen mit Ubuntu klar, und wo Sie nicht mehr klar kommen, wäre das bei Windows auch nicht anders.

Ailuros
2012-11-14, 09:50:14
Naja, die "breite" Masse nutzt eigentlich schon Linux, nur im Homeanwenderbereich siehts anders aus.

Im Bürobetrieb liegt Windows auch noch vorne, wobei es auch stark darauf ankommt, in welche Branchen man schaut.

Und im Homebereich könnte sich Windows auch uninteressanter machen, wenn Steam dann mal unter Linux läuft und viele Spiele anbieten kann, vor allem auch die Blockbuster.

Ein Ubuntu usw. ist kein großer Unterschied mehr zu nem Windows. Selbst meine Freundin und meine Mutter kommen mit Ubuntu klar, und wo Sie nicht mehr klar kommen, wäre das bei Windows auch nicht anders.

Mit Thesen was waere wenn und Deiner Familie bekommt man keine anstaendige Statistik auf die Beine und es ist auch keine breite Masse egal wie man es verdrehen will.

Skysnake
2012-11-14, 13:07:00
Es sind aber klassische "DAUs", wenn ich mal so bösartig sein darf, das zu sagen :ugly:

Die haben echt absolut gar keinen Schimmer, also so wirklich NULLINGER. Meine Freundin nutzt inzwischen Linux sogar lieber, da es etwas schneller lädt, UND Minesweeper drauf ist, was ich bei Win7 net drauf hab :ugly:

Ubuntu ist so was von Windows like geworden, das gibts gar nicht.

Ich hoffe das liest keiner von denen ;D

y33H@
2012-11-14, 13:09:06
In den meisten Firmen wie daheim wird halt Windows genutzt, Linux oder mehr MacOS bedeuten für alle in erster Linie eins: Mehr Aufwand. Was idR Zeit und Geld kostet ... also lässt man es.

boxleitnerb
2012-11-14, 13:12:23
Hier gibt es einen sehr ausführlichen und recht verständlichen Artikel zur Haswell-Mikroarchitektur von David Kanter zu lesen:
http://www.realworldtech.com/haswell-cpu/

Ailuros
2012-11-15, 07:23:22
Es sind aber klassische "DAUs", wenn ich mal so bösartig sein darf, das zu sagen :ugly:

Die haben echt absolut gar keinen Schimmer, also so wirklich NULLINGER. Meine Freundin nutzt inzwischen Linux sogar lieber, da es etwas schneller lädt, UND Minesweeper drauf ist, was ich bei Win7 net drauf hab :ugly:

Ubuntu ist so was von Windows like geworden, das gibts gar nicht.

Ich hoffe das liest keiner von denen ;D

Es geht weder um den Erfahrungsgrad von N Benutzern noch wie Ubuntu heutzutage aussieht, sondern um realistische Marktanteile pro OS.

YfOrU
2012-11-15, 09:09:19
Naja, die "breite" Masse nutzt eigentlich schon Linux, nur im Homeanwenderbereich siehts anders aus.

Im Bürobetrieb liegt Windows auch noch vorne, wobei es auch stark darauf ankommt, in welche Branchen man schaut.

Noch vorne ist gut. Aufgrund der heute zwangsweise nötigen engen Vernetzung in Unternehmen selbst sowie annähernd gleichwertiger Anbindung externer Partner wird sich daran auch auf lange Sicht nichts ändern. Kommunikation und Abwicklung alleine über Formate wie PDF mögen in der Theorie funktionieren, in der Praxis ist das aber nicht der Fall. An MS Office führt im Regelfall kein Weg vorbei.

Selbst wenn das eigene ERP in der Lage ist mit OpenOffice etc. zusammenzuarbeiten bzw. mit enormen Kostenaufwand daran angepasst wurde knallt es im Regelfall spätestens beim Übergabepunkt zu externen Partnern und deren System.

Irgendwie scheint der utopische Gedanke das Lösungen unter Linux kostenlos sind immer noch weit verbreitet zu sein. So viel billiger als zum Beispiel ein Exchange ist eine ordentliche Linux Groupware auch nicht und das sind neben spezialisierter Anwendungssoftware und deren Grundlagen (wie ERP, CAD, Datenbanken etc.) die großen Broken.

Als Beispiel kostet eine SolidWorks Lizenz für einen Arbeitsplatz in einem Planungsbüro mit 25 MAs bereits mehr als Windows, Office und Acrobat für alle. Was das dann im Verhältnis zu den ~40k für das ERP ist kann sich jeder denken - Taschengeldniveau. Nur um ein paar Euro zu sparen holt sich niemand mit Verstand eine zum Großteil der Geschäftswelt inkompatible Software. Entsprechendes würde bereits in diesem Umfang eine zusätzliche Arbeitskraft nötig machen um die Reibungsverluste auszugleichen und egalisiert damit bereits im ersten Monat das theoretische Potential an Einsparungen vollständig. Die exorbitanten Kosten für Anpassungen welche mittelfristig umgesetzt werden müssen um den Mehraufwand zu reduzieren bewegen sich zusätzlich in ganz anderen Spähren.

Boris
2012-11-15, 09:29:28
Noch vorne ist gut. Aufgrund der heute zwangsweise nötigen engen Vernetzung in Unternehmen selbst sowie annähernd gleichwertiger Anbindung externer Partner wird sich daran auch auf lange Sicht nichts ändern. Kommunikation und Abwicklung alleine über Formate wie PDF mögen in der Theorie funktionieren, in der Praxis ist das aber nicht der Fall. An MS Office führt im Regelfall kein Weg vorbei.

Selbst wenn das eigene ERP in der Lage ist mit OpenOffice etc. zusammenzuarbeiten bzw. mit enormen Kostenaufwand daran angepasst wurde knallt es im Regelfall spätestens beim Übergabepunkt zu externen Partnern und deren System.

Irgendwie scheint der utopische Gedanke das Lösungen unter Linux kostenlos sind immer noch weit verbreitet zu sein. So viel billiger als zum Beispiel ein Exchange ist eine ordentliche Linux Groupware auch nicht und das sind neben spezialisierter Anwendungssoftware und deren Grundlagen (wie ERP, CAD, Datenbanken etc.) die großen Broken.

Als Beispiel kostet eine SolidWorks Lizenz für einen Arbeitsplatz in einem Planungsbüro mit 25 MAs bereits mehr als Windows, Office und Acrobat für alle. Was das dann im Verhältnis zu den ~40k für das ERP ist kann sich jeder denken - Taschengeldniveau. Nur um ein paar Euro zu sparen holt sich niemand mit Verstand eine zum Großteil der Geschäftswelt inkompatible Software. Entsprechendes würde bereits in diesem Umfang eine zusätzliche Arbeitskraft nötig machen um die Reibungsverluste auszugleichen und egalisiert damit bereits im ersten Monat das theoretische Potential an Einsparungen vollständig.
Voll Zustimmung, besser hätte man es nicht sagen können.

Skysnake
2012-11-15, 11:26:01
Wie gesagt, es kommt drauf an...

Je nachdem, welche Software man braucht, kommt man halt um Windows nicht rum.

Bei uns in der Uni gibts z.B. genug Entwickler, die mit Linux arbeiten, weil Sie eben Cluster verwalten müssen und und und die unter Linux laufen, und das machen eben die meisten Server, oder eben auch, weil es einiges an Software gibt, die eben für Linux da ist, und genau so gibt es halt welche, die nen Windows brauchen, weil Software da ist, die man unbedingt braucht, und es eben nur für Windows gibt.

Da ist manja aber durch die Software gebunden, und hat mit dem OS an und für sich erstmal nichts zu tun.

Und nein, Linux ist nicht "umsonst" aber ja, je nachdem schon "kostenlos", wobei man gern Geld für Support ausgibt, wenn man den braucht.

Was anderes habe ich nicht behauptet... Mir gings um den Heimanwender, und für den ist es inzwischen ziemlich Jacke für Hose, ob Linux oder Windows, so lange er nicht zockt.

Und im Büro kommts halt drauf an, was man als Software braucht. Wenn da was laufen muss, was Windows braucht, wird man halt eh windows nutzen müssen.

Und bzgl Office usw. ich hatte noch nie Probleme Dateien zwischen Windows und Linux aus zu tauschen.

Iruwen
2012-11-16, 11:35:41
http://wccftech.com/nvidia-roadmap-confirms-20nm-maxwell-gpus-2014-kepler-refresh-arrives-1h-2013/

/e: nichts, falscher Thread :o

Ailuros
2012-11-16, 11:42:32
http://wccftech.com/nvidia-roadmap-confirms-20nm-maxwell-gpus-2014-kepler-refresh-arrives-1h-2013/

Was hat der Link mit Haswell zu tun?

CosmiChaos
2012-11-18, 01:34:11
Ich wollt mich nochmal an diejenigen wenden, die sagen ja den iGPU würde man nicht benötigen und so weiter.

Traditoniell klassisch würde ich dem sogar als Gamer zustimmen, aber es ist doch schon mitlerweile so, dass die Bestrebungen den Framebuffer-Part von der 3D-GPU auszulagern (Lucidlogix VirtuMVP) deutliche vorran gekommen sind.

Wenn eine Haswell-Platform in der Lage ist diese Features auch mit SLI/Crossfire nutzbar zu machen, was derzeit bei Sandy/Ivy noch nicht unterstützt wird, ist das auf jeden Fall ein objektiv dicker Pluspunkt, weil bei Verbund-GPU-Systemen die FPS doch eher die 60Fps überbietet.

Ein Verbund ist nur so stark wie ihr schwächster Teil, welcher in klassischen Systemen immer die Grafikkarte mit Displayanschluss ist. Waren bisher nur SLI Zuwachsraten von ca <80% gegeben, wären nun >90% denkbar.


Der mobile Markt ist breit gefächert, kein Gigant kann es sich erlauben auf einen Konkurrenten angewiesen zu sein. Intel muss mit den iGPUs aus dem Quark kommen, man darf diesem Markt nicht den anderen überlassen.

Bei Desktops interessiert es den Käufer ja auch was er da genau für Komponenten kauft.

Im mobilen Sektor sieht das etwas anders aus. Die wenigsten interessieren sich dafür wer nun der tatsächliche Chiphersteller des CPU/GPU ist, solange die Leistung stimmt und der gewünschte Name auf dem Plastik-Case steht.

Man wird sich auch als Hardcore-iGPU-Feind nicht dagegen wehren können, das Intel damit nun serienmäßig hausieren geht. ;)

gnahr
2012-11-18, 08:38:43
deine aussagen über crossfire, sli und "die last der bildausgabe dabei" sind halbgar/mehrwertsfrei/quark. :)

AnarchX
2012-11-21, 16:38:40
http://pc.watch.impress.co.jp/docs/column/ubiq/20121122_574440.html?ref=rss

Laut dem Artikel könnte Haswell die letzte LGA-CPU für Normalkunden (mit Performance-Orientierung) sein, Broadwell wird wohl nur als auflötbare BGA-CPU geplant.
Da bleiben für Enthusiasten wohl nur umgelabelte Xeons, wie jetzt schon bei LGA2011.

boxleitnerb
2012-11-21, 16:45:35
Ob wir dann den freien Multi gleich vergessen können? Gefällt mir nicht die Entwicklung.

Ronny145
2012-11-21, 17:01:27
Kann ich mir nicht vorstellen. Im GPU Treiber gibt es erst 2 Einträge für Broadwell und die sind für den Desktop Controller bestimmt.

Nightspider
2012-11-21, 17:24:05
Sind schon die Bezeichnungen der Haswell CPUs bekannt?

Core i 7 4700K
Core i 5 4500K usw ?

Ronny145
2012-12-02, 20:35:13
Im 15.31 RC Treiber (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9567357#post9567357) werden Haswell Variationen gelistet. Im Treiberfile ist jetzt Skylake hinzugekommen und Cherryview. Klingt nach einem Valleyview Nachfolger.

iHSWGD0 = "Intel Haswell HD Graphics"
iHSWGM0 = "Intel Haswell HD Graphics"
iHSWGM = "Intel Haswell HD Graphics - GTM"
iHSWGL = "Intel Haswell HD Graphics - GTL"
iHSWGTLD = "Intel Haswell HD Graphics - GTL"
iHSWGTLM = "Intel Haswell HD Graphics - GTL"
iHSWGTMD = "Intel Haswell HD Graphics - GTM"
iHSWGTMM = "Intel Haswell HD Graphics - GTM"
iHSWGTHD = "Intel Haswell HD Graphics - GTH"
iHSWGTHM = "Intel Haswell HD Graphics - GTH"
iHSWGT1D = "Intel Haswell HD Graphics - GT1"
iHSWGT1M = "Intel Haswell HD Graphics - GT1"
iHSWGT2D = "Intel Haswell HD Graphics - GT2"
iHSWGT2M = "Intel Haswell HD Graphics - GT2"
iHSWGT1UT = "Intel Haswell HD Graphics - GT1ULT"
iHSWGT2UT = "Intel Haswell HD Graphics - GT2ULT"
iHSWGT3UT = "Intel Haswell HD Graphics - GT3ULT"
iHSWGT1CW = "Intel Haswell HD Graphics - GT1CW"
iHSWGT2CW = "Intel Haswell HD Graphics - GT2CW"
iHSWGT3CW = "Intel Haswell HD Graphics - GT3CW"
iHSWGT2CWDT = "Intel Haswell HD Graphics - GT2CWDT"
iHSWGT3CWDT = "Intel Haswell HD Graphics - GT3CWDT"
iHSWSVGT1 = "Intel Haswell HD Graphics - SVR-GT1"
iHSWSVGT2 = "Intel Haswell HD Graphics - SVR-GT2"

Undertaker
2012-12-02, 20:53:24
Kann jemand die zusätzlichen Buchstaben interpretieren? ULT und GT1 - 3 sind klar, aber der Rest?

Ronny145
2012-12-02, 21:14:09
SV gehört zu Server. Eine von den CW GT3 müsste eigentlich zum mobile Quadcore mit GT3 gehören.

AnarchX
2012-12-11, 10:06:38
http://twimages.vr-zone.net/2012/12/haswell.jpg
http://chinese.vr-zone.com/43824/intel-haswell-cpu-will-release-at-2013-q2-with-13-model-including-4770k-4670k-for-overclocking-12112012/

boxleitnerb
2012-12-11, 10:11:25
1. Endlich
2. Selber Takt wie bei Ivy Bridge, im Ernst, nichtmal lausige 100 MHz mehr???

Sehr sehr enttäuschend. Jetzt kann man nur hoffen, dass das OC-Potential deutlich besser wird. Davon haben die Käufer ohne K-Versionen leider nix.

MadManniMan
2012-12-11, 10:12:03
*seufz*

Da passiert wahrscheinlich mal wieder so gut wie gar nix. Schnellere interne Grafik ist für uns mit unseren Zockerkisten erstmal höchst unspannend. Wieviel soll Haswell vs. Ivy Bridge schon bringen? 10%?

AnarchX
2012-12-11, 10:32:30
Wenn FMA eingesetzt wird, könnte der Unterschied schon bedeutend größer sein. Aber in aktuellen Games wird da wohl nicht viel passieren.

Siehe auch die Arch-Analyse bei RWT: http://www.realworldtech.com/haswell-cpu/6/

1. Endlich
2. Selber Takt wie bei Ivy Bridge, im Ernst, nichtmal lausige 100 MHz mehr???

Teilweise sinkt der Takt sogar: 3570 (3,4/3,8) -> 4570 (3,2/3,6). Wobei da auch das neue 4670 Modell einen Einfluss hat.

Undertaker
2012-12-11, 10:34:47
Interessant, dass wohl alle Modelle die GT2-GPU bekommen? Zumindest deutet dies die Bezeichnng HD 4600 an.

Edit: Die krumme TDP verwundert auch etwas.

y33H@
2012-12-11, 10:42:16
Halte ich für unwahrscheinlich, warten wir es ab - vll ändert Intel ja seine Strategie, da die GT3 nur für mobile genutzt wird.

AnarchX
2012-12-11, 10:47:42
GT1 gibt es vielleicht nur für Low-End-Dual-Cores (mit max. 3MiB L3). 3 verschiedene GPU-Versionen mit unterschiedlichen Taktraten, sind Intel vielleicht genug?

Vielleicht bietet GT1 nun neben der limtiierten 3D-Performance ein volles Video-Featureset (QuickSync, volle Videobschleunigung).

boxleitnerb
2012-12-11, 10:48:07
Wollte Intel nicht auf 95W TDP gehen wieder? Wobei das ja auch recht schnell geändert werden kann, die 95W für Haswell sind ja schon älter.

Skysnake
2012-12-11, 11:05:42
Halte ich für unwahrscheinlich, warten wir es ab - vll ändert Intel ja seine Strategie, da die GT3 nur für mobile genutzt wird.
Kommt wohl einfach darauf an, wie gut die Fertigung ist.

Wirklich groß wird der DIE wohl nicht werden, und wenn man dann noch minimale Redundanz in die iGPU packt, was da nicht wirklich extrem weh tut, dann könnte das durchaus wirklich so kommen.

Im Februar wissen wir da aber sicherlich mehr.

Gut für AMD ist auf jeden Fall, dass die Schere nicht weiter auseinander klafft bei der Performance. Was den Verbrauch anbelangt, muss man schauen, aber wohl auch nicht viel. Die Hiobsbotschaften einiger hier sind also zum Glück für AMD unbegründet gewesen.

Für uns Nutzer aber natürlich dennoch irgendwo scheise. Aufrüsten lohnt sich absolut nicht, und wir treten auf der Stelle. Auf der anderen Seite wird man auch 2013 mit nem ix-2x00k noch ne Top aktuelle CPU haben :ugly:

Ich beis mir SO in den Arsch 2011 nicht nen SB 2500k gekauft zu haben :ubash3:.... Die Anschaffungskosten hätte ich inzwischen wohl drin, spätestens aber 2013... Und da müsste man ja noch immer nicht aufrüsten :ubash3:

Und ob man JETZT noch aufrüsten soll auf nen Corei5 3570k oder gar nen Core i7 3770k??? Das ist halt echt die Frage... Bisher gings ja auch mit dem E8400@4GHz, aber das Ding säuft halt auch seine 100W im Idle... Das läppert sich halt auf die Dauer, und die CPU kommt schon so langsam wirklich an ihre Grenzen. BF3 usw zock ich ja zum Glück nicht, aber bei Rage, das ich neu habe, nervt das Streaming gewaltig, weil die CPU zu lahm ist....

Wenn ich das so les, dann sollte ich eigentlich auch 2013 nicht aufrüsten, weil der Unterschied praktisch nicht da ist, und bisher gings ja auch ohne Aufrüsten, also warum dann aufrüsten?

Ronny145
2012-12-11, 11:06:51
Die Taktfrequenzen sind doch nicht überraschend. Im Voraus waren vielleicht 100-200 Mhz mehr realistisch, aber jetzt nachdem Haswell wohl 2014 überdauern soll, muss Intel Luft lassen für Taktsteigerungen. IPC Messungen machen sich ja dann richtig einfach. Sehr erfreulich finde ich die dafür durch die Bank weg schnellere GT2 in all den Varianten. Jetzt muss man nicht mehr zwangsläufig ein K-Modell kaufen und kann einfach den günstigsten nehmen. Überraschend die krumme TDP, bislang wurden immer 95W genannt. Der maximale Stromverbrauch könnte demnach zwischen Ivy und Sandy liegen.

dargo
2012-12-11, 11:06:52
Oh man... nur max. 3,4Ghz beim i5. :facepalm: An richtigen Gamerkisten hat Intel wohl kein Interesse mehr, stattdessen werden immer mehr Ressourcen für die nichtsnützige GPU verschwendet. :P

Ronny145
2012-12-11, 11:09:22
Ohne Messungen kannst du noch gar nicht die Gamer Leistung beurteilen. Haswell ist kein einfacher shrink mit kleinen Änderungen.

aufkrawall
2012-12-11, 11:11:41
Gibt es einen letzten Stand, was Gerüchte an gesteigerter IPC angeht?

dargo
2012-12-11, 11:15:37
Ohne Messungen kannst du noch gar nicht die Gamer Leistung beurteilen. Haswell ist kein einfacher shrink mit kleinen Änderungen.
Da hast du natürlich recht. Aber ob die Pro/Mhz-Leistung gegenüber Ivy um 25% steigt bezweifle ich stark. Zudem ist noch offen ob überhaupt 5-5,5Ghz mit Luft möglich sind. Ich möchte halt endlich 2013 nach 4(:freak:) Jahren ein vernünftiges Upgrade vom Lynnfield.

y33H@
2012-12-11, 11:16:21
Angeblich +10 %, es können aber durchaus mehr sein (ohne ISAs).

dargo
2012-12-11, 11:17:17
10%? Das wäre ne Lachnummer.

aufkrawall
2012-12-11, 11:22:25
So hat ichs auch in Erinnerung, reale 10% mehr wären schon langweilig.

dargo, hatte ich dir nicht prophezeit, dass eventuell nur mehr ein GPU-Upgrade rumkommt? :D
Wäre imho aber auch nicht so tragisch, da die Leistung eigentlich reicht (siehe z.B. die großen Menschenmengen bei Hitman mit >60fps).
Für HT-PCs wird Haswell vielleicht ganz nett. Hoffentlich dann auch mit Spec konformer VC-1 DXVA-Unterstützung.

Ronny145
2012-12-11, 11:22:28
Da hast du natürlich recht. Aber ob die Pro/Mhz-Leistung gegenüber Ivy um 25% steigt bezweifle ich stark. Zudem ist noch offen ob überhaupt 5-5,5Ghz mit Luft möglich sind. Ich möchte halt endlich 2013 nach 4(:freak:) Jahren ein vernünftiges Upgrade vom Lynnfield.


Lynnfield kackt mittlerweile ziemlich ab wenn ich mir neuere Benchmarks ansehe. Das kann mit Haswell nur deutlicher werden. Aber dich zwingt keiner zum Aufrüsten, kannst gerne bis 2015 auf Skylake warten.

Skysnake
2012-12-11, 11:27:22
Yeah, dann wäre meine Kiste glaub ich 6-8 Jahre alt :ugly:

Shink
2012-12-11, 11:31:12
Naja, AMDs Steamroller wird nie im Leben an den i5 rankommen in Sachen Spieleleistung und der Cortex-A15 natürlich auch nicht. Warum sollte Intel also groß an der Leistungsschraube drehen müssen?

robbitop
2012-12-11, 11:32:36
Naja Haswell nutzt die FinFETs nun wirklich aus und außerdem sollte er auch mehr IPC haben. Spätestens wenn es um SMT geht. Der Executionbereich wurde ja verbreitert - das war für SMT eines der großen Nadelöhre. @8 Threads sollte der i7 Haswell nun etwas schneller sein als der SB/IVB i7. Die Notwendigkeit eines echten 8 Kerners rückt also mehr in den Hintergrund.

dargo
2012-12-11, 11:34:39
Lynnfield kackt mittlerweile ziemlich ab wenn ich mir neuere Benchmarks ansehe.
Kackt ab ist relativ. Solange ich in Games min. ~50fps habe reicht mir das. Deshalb sollte die neue CPU am besten mindestens Faktor 2 leisten wenn ich schon den ganzen Unterbau wechseln muss. Und die Ausgangsbasis heißt Lynnfield 3,7Ghz.

Naja, AMDs Steamroller wird nie im Leben an den i5 rankommen in Sachen Spieleleistung und der Cortex-A15 natürlich auch nicht. Warum sollte Intel also groß an der Leistungsschraube drehen müssen?
Das ist das was mich so aufregt. AMD kommt nicht hinterher und deswegen ruht sich Intel aus. Zum Kotzen die Situation. :mad:

fondness
2012-12-11, 11:45:52
Sorry, aber jedes Jahr einen neuen Prozessor zu bringen der 10% mehr IPC drauf packt und die GPU substantiell zu beschleunigen ist kein Ausruhen. Schon gar nicht wenn man sich ansieht vom welchen Level aus Intel mittlerweile operiert. Eine CPU ist keine GPU wo man einfach stupide die Einheiten zu skalieren braucht um mehr Leistung zu bekommen.

robbitop
2012-12-11, 11:47:19
Kackt ab ist relativ. Solange ich in Games min. ~50fps habe reicht mir das. Deshalb sollte die neue CPU am besten mindestens Faktor 2 leisten wenn ich schon den ganzen Unterbau wechseln muss. Und die Ausgangsbasis heißt Lynnfield 3,7Ghz.

Ist SB/IVB wirklich deutlich schneller bei gleichem Takt als Lynfield? Das kann ich mir kaum vorstellen. Das sind vieleicht 15 %.
IMO hast du keinen wirklichen Grund aufzurüsten. "Abkacken" ist was anderes. Wenn der abkacken würde, würden +15% nicht ausreichen, um nicht "abzukacken".


Das ist das was mich so aufregt. AMD kommt nicht hinterher und deswegen ruht sich Intel aus. Zum Kotzen die Situation. :mad:
Ernsthafte Frage: Wozu brauchst du bei so einer Ausgangsbasis ein Upgrade? Aufrüstgeilheit? :D
IMO reicht selbst ein Core 2 Quad @ > 3 GHz noch für soziemlich alle Spiele aus.

Sorry, aber jedes Jahr einen neuen Prozessor zu bringen der 10% mehr IPC drauf packt und die GPU substantiell zu beschleunigen ist kein Ausruhen. Schon gar nicht wenn man sich ansieht vom welchen Level aus Intel mittlerweile operiert. Eine CPU ist keine GPU wo man einfach stupide die Einheiten zu skalieren braucht um mehr Leistung zu bekommen.
Das stimmt schon, was IPC angeht. Intel ist da schon so weit oben auf der Kurve des sinkenden Grenzertrags, dass jedes Prozent extra teuer erkauft werden muss.
Aber dennoch ruht Intel sich (was die CPU angeht) aus. Sie haben keinen Handlungsbedarf, da sie AMD mit verbundenen Augen und einer Hand in Schach halten. Wozu Mehrleistung, die dann die Gewinnmarge schwächt? Mich wundert nur, dass sie noch so viel in Fertigungsprozesse investieren.
Ihr Hauptaugenmerk liegt auf der IGP, weil sie dort noch Nachholbedarf haben und das das einzige Feld ist, in dem sie technisch unterlegen sind. Das ist aber dank Intels Fertigungstechnik und deren aktuellen Fokus nur noch eine Frage der Zeit. AMD sitzt auf alten Fertigungsprozessen fest.

Nochmal zum (CPU-) Ausruhen. Intel könnte locker >6 Kerne in den Mainstreamsockel bringen. Die Die-Sizes für die CPU sind lächerlich klein. Auch könnten sie den Takt sicherlich um 500...800 MHz erhöhen. Wenn sie dazu gezwungen wären, gäbe es sicher einen IVB @6 Cores + > 4 GHz. Aber es ist einfach nicht nötig.
Wobei mir der Haswell Ansatz mit der Verbesserung der SMT IPC ebenfalls sehr gut gefällt. Somit werden 6-8 Kerner wirklich für den Mainstream immer mehr obsolet.

MadManniMan
2012-12-11, 11:47:49
Das ist das was mich so aufregt. AMD kommt nicht hinterher und deswegen ruht sich Intel aus. Zum Kotzen die Situation. :mad:

Ein Teufelskreis. Keiner in meinem (Gamer-)Umfeld kauft noch AMD, weil Intel die runderen Angebote macht. Dadurch kriegt AMD keine Kohle mehr, um konkurrenzfähiges Zeug zu entwickeln.

Scheiß :usad:

boxleitnerb
2012-12-11, 11:48:14
Erstens gabs mit Ivy nicht 10% mehr IPC, da gibts also schon ein Defizit zu dieser "Regel", zweitens ist ein Verharren beim Takt ganz sicher ein Ausruhen.

MadManniMan
2012-12-11, 11:48:55
Ernsthafte Frage: Wozu brauchst du bei so einer Ausgangsbasis ein Upgrade? Aufrüstgeilheit? :D
IMO reicht selbst ein Core 2 Quad @ > 3 GHz noch für soziemlich alle Spiele aus.

Hm ... nee :D Habe gerade auf einen Core 2 Quad @ 3,5 aufgerüstet und sehe bei einigen neuen Spielen kein Land mehr :redface:

fondness
2012-12-11, 11:50:05
Ernsthafte Frage: Wozu brauchst du bei so einer Ausgangsbasis ein Upgrade? Aufrüstgeilheit? :D
IMO reicht selbst ein Core 2 Quad @ > 3 GHz noch für soziemlich alle Spiele aus.

Ein Core2 Quad hat keine shared Cache, der unterliegt bei einigen Spielen mittlerweile selbst gegen einen Phenom II.

Erstens gabs mit Ivy nicht 10% mehr IPC, da gibts also schon ein Defizit zu dieser "Regel", zweitens ist ein Verharren beim Takt ganz sicher ein Ausruhen.

Dafür gab es vorher auch mehr als 10% mehr IPC, und Takt kann man nicht beliebig skalieren.
Hier kommt man mittlerweile schon fast an die Grenze dessen was die Lichtgeschwindigkeit hergibt.

aufkrawall
2012-12-11, 11:51:15
IMO reicht selbst ein Core 2 Quad @ > 3 GHz noch für soziemlich alle Spiele aus.
http://www.pcgameshardware.de/Battlefield-3-PC-221396/Specials/Battlefield-3-Multiplayer-Tipps-CPU-Benchmark-1039293/
:redface:

boxleitnerb
2012-12-11, 11:56:29
Dafür gab es vorher auch mehr als 10% mehr IPC, und Takt kann man nicht beliebig skalieren.
Hier kommt man mittlerweile schon fast an die Grenze dessen was die Lichtgeschwindigkeit hergibt.

10% mehr Takt bei 95W TDP hätte man 100pro hinbekommen. Man wollte eben nicht.

robbitop
2012-12-11, 11:57:22
http://www.pcgameshardware.de/Battlefield-3-PC-221396/Specials/Battlefield-3-Multiplayer-Tipps-CPU-Benchmark-1039293/
:redface:
Naja eine Ausnahme. Außerdem erreicht Q9550 @2,83 GHz noch 34 fps im PCGH worstcase Szenario. Dazu noch Multiplayer. @3,4...3,6 GHz + 400 MHz FSB sollten > 40 fps an dieser Stelle rauskommen.
Das sollte doch reichen um spielbar zu bleiben.

Meine Güte, ein einziges Spiel ist an der schlechtesten Einzelstelle im Multiplayer bei >30 fps und wäre mit besagtem OC >40 fps.
Die kackt natürlich total ab und ist unspielbar. :|

Relativ zu den anderen CPUs sackt sie ab - ja das stimmt. Aber es ist jetzt nicht so als wären alle neuen Spiele damit unspielbar. Come on! ;)

fondness
2012-12-11, 11:59:35
10% mehr Takt bei 95W TDP hätte man 100pro hinbekommen. Man wollte eben nicht.

Die 10% mehr Takt kommen dann eben als Refresh.

MadManniMan
2012-12-11, 12:00:06
Robbi,

nee. :D

Anderes aktuelles Beispiel: Chivalry. Close contact FPS auf UE3-Basis. Meine Intel i-Irgendwas Kumpels hängen im Graka-Cap, ich grundsätzlich am CPU-Limit. Bei mir sieht es dank der brauchbaren GTX 460 zwar gut aus, aber ich habe ständig mit nur halb brauchbaren Frameraten zu kämpfen.

Ronny145
2012-12-11, 12:01:47
Naja eine Ausnahme.


Das ist keine Ausnahme. In Far Cry 3 und vielen anderen Spielen läuft es nicht so gut.

aufkrawall
2012-12-11, 12:02:23
Relativ zu den anderen CPUs sackt sie ab - ja das stimmt. Aber es ist jetzt nicht so als wären alle neuen Spiele damit unspielbar. Come on! ;)
Unspielbar nicht (wobei es bei BF3 im MP schon ein spielerischer Nachteil ist), aber für eine Highend GPU ist es zu wenig.
Kann ja nicht der Sinn sein, dass sich diese ständig wegen der CPU langweilen muss. Außerdem sind konstante 60fps etwas sehr feines.
Das ist halt bei zig neueren Spielen mit einer Pre SNB Ära CPU nicht mehr möglich.
Siehe Hitman, AC3, FC3, Borderlands 2 usw...

AnarchX
2012-12-11, 12:04:05
Die schnelle Kommunikation der Cores untereinander wird wohl immer wichtiger. Da hat der Core 2 Quad mit der FSB-Verbindung ziemlich verloren und Lynnfield bekommt ebenso Probleme, da der L3-Cache nur mit 2,13/2,66GHz läuft.

fondness
2012-12-11, 12:04:09
Aber dennoch ruht Intel sich (was die CPU angeht) aus. Sie haben keinen Handlungsbedarf, da sie AMD mit verbundenen Augen und einer Hand in Schach halten. Wozu Mehrleistung, die dann die Gewinnmarge schwächt?

Das gilt auch nur für das immer unbedeutender werdende Desktop-Segment. Sowohl im Serversegment als und im mobilen Bereich (Perf/Watt) gibt es noch genug Potential und auch durchaus Konkurrenz.


Mich wundert nur, dass sie noch so viel in Fertigungsprozesse investieren.

Die sind doch nicht blöd und geben ihren großen Trumpf aus der Hand. Ein Großteil der gesamten Investitionen fließt in die Fertigung. Es wird immer teurer neuen Prozesse und Technologien zu entwickeln, umsonst hat man sich nicht bei ASML eingekauft. Intel rechnet ganz offen damit das in weniger Jahren sich die Zahl der Fertiger halbieren wird, weil viele die Kosten nicht mehr Schultern können.

Naja eine Ausnahme.

Das ist keine Ausnahme, der fehlender shared Cache macht den FSb zum extremen Flaschenhals.

robbitop
2012-12-11, 12:04:40
Das ist keine Ausnahme. In Far Cry 3 und vielen anderen Spielen läuft es nicht so gut.
http://www.pcgameshardware.de/Far-Cry-3-PC-217540/Tests/Far-Cry-3-Test-Grafikkarten-CPU-Benchmarks-1036726/

Schlimmste Stelle: Q6600 @2,4 GHz, min FPS 24 fps.
Extrapoliert: @3,5 GHz + 400 MHz FSB: >40 fps.

Was habt ihr denn für Ansprüche? ;)

Unspielbar nicht (wobei es bei BF3 im MP schon ein spielerischer Nachteil ist), aber für eine Highend GPU ist es zu wenig.
Kann ja nicht der Sinn sein, dass sich diese ständig wegen der CPU langweilen muss. Außerdem sind konstante 60fps etwas sehr feines.
Das ist halt bei zig neueren Spielen mit einer Pre SNB Ära CPU nicht mehr möglich.
Siehe Hitman, AC3, FC3, Borderlands 2 usw...

GPU Limit? Sowas kennst du? Downsampling, SGSSAA, SSAO und co zwingen jede GPU in die Knie und führen zu schicker BQ.
60 fps ist natürlich was feines. Aber wenn du an der schlechtesten Stelle eine min FPS von >40 hast (also meistens deutlich darüber), sollte das noch passen.

Die schnelle Kommunikation der Cores untereinander wird wohl immer wichtiger. Da hat der Core 2 Quad mit der FSB-Verbindung ziemlich verloren und Lynnfield bekommt ebenso Probleme, da der L3-Cache nur mit 2,13/2,66GHz läuft.

OC dämpft das aber erheblich. C2Q sind auf > 400 MHz FSB übertaktbar. Und Lynfields haben sicher auch ein potenzielles Uncore OC.


Das ist keine Ausnahme, der fehlender shared Cache macht den FSb zum extremen Flaschenhals.

So war das nicht gemeint. Dass C2Q ggü Sandy abkackt habe ich nicht bestritten. Das ist bei modernen Spielen prinzipbedingt klar.
Aber dass die Leistung eines gut übertakteten C2Q nicht ausreichend sein soll, war eher eine Ausnahme. Noch hat es niemand wirklich nachweisen können, dass dem so ist. IMO sind >40 fps bei der schlimmsten Stelle nicht "unspielbar".

MadManniMan
2012-12-11, 12:10:39
Was habt ihr denn für Ansprüche? ;)

Stereoskopie halbiert mal eben die Frames, MP mit unter 60 FPS fühlt sich einfach nur mäßig an.

Ronny145
2012-12-11, 12:11:23
http://www.pcgameshardware.de/Far-Cry-3-PC-217540/Tests/Far-Cry-3-Test-Grafikkarten-CPU-Benchmarks-1036726/

Schlimmste Stelle: Q6600 @2,4 GHz, min FPS 24 fps.
Extrapoliert: @3,5 GHz + 400 MHz FSB: >40 fps.

Was habt ihr denn für Ansprüche? ;)


Ändert doch nichts daran, dass das keine Ausnahme ist. Bring dich einfach mal auf den aktuellen Stand. In Most Wanted krepelt der Q9550 bei einer CPU schonenden Stelle um die 30 fps rum. Es braucht in vielen Spielen mindestens 50 fps, alles andere ist zäh.

robbitop
2012-12-11, 12:22:48
Stereoskopie halbiert mal eben die Frames, MP mit unter 60 FPS fühlt sich einfach nur mäßig an.
Ja klar und das macht natürlich jeder. 3D Stereskopie + MP + 60 fps.
Am besten noch mit SSAA.

Für den Anwendungsfall reicht es natürlich nicht. Das ist klar. Aber das heißt doch nicht, dass ein C2Q > 3 GHz jetzt im Generellen nicht mehr für neue Spiele reicht.

Ändert doch nichts daran, dass das keine Ausnahme ist. Bring dich einfach mal auf den aktuellen Stand. In Most Wanted krepelt der Q9550 bei einer CPU schonenden Stelle um die 30 fps rum. Es braucht in vielen Spielen mindestens 50 fps, alles andere ist zäh.
IMO reichen 40 fps aus. Aber das ist natürlich eine subjektive wahrnehmung. Sicherlich kann man auch noch Partikeldetails oder sonstiges runterdrehen.
Es ist eine Frage des Anspruchs. Und von einem so hohen Anspruch - ok! - reicht diese CPU nicht mehr aus.
Von einem etwas gediegenerem Anrpruch her sehe ich es aber ein wenig anders.

y33H@
2012-12-11, 12:24:23
IMO reicht selbst ein Core 2 Quad @ > 3 GHz noch für soziemlich alle Spiele aus.Ausreichend ist Note 4, kurz vor mangelhaft. Und genauso spielen sich auch diverse Titel mit maximalen Details - zäh, schwammig, ausreichend eben. Von flüssig und "smooth" ist ein C2Q mittlerweile weit entfernt, so wie ein Phenom II X4.

Noch hat es niemand wirklich nachweisen können, dass dem so ist. IMO sind >40 fps bei der schlimmsten Stelle nicht "unspielbar".Guck dir mal Messungen aktueller Spiele an ;-)

Skysnake
2012-12-11, 12:24:54
Stereoskopie halbiert mal eben die Frames, MP mit unter 60 FPS fühlt sich einfach nur mäßig an.
Das hängt aber an der GPU nicht an der CPU :freak:
Ändert doch nichts daran, dass das keine Ausnahme ist. Bring dich einfach mal auf den aktuellen Stand. In Most Wanted krepelt der Q9550 bei einer CPU schonenden Stelle um die 30 fps rum. Es braucht in vielen Spielen mindestens 50 fps, alles andere ist zäh.
Die Engine ist auch für die Tonne, da bekommste ja mit keiner CPU wirklich gute Frameraten hin...:rolleyes:

Ronny145
2012-12-11, 12:28:42
Die Engine ist auch für die Tonne, da bekommste ja mit keiner CPU wirklich gute Frameraten hin...:rolleyes:


Das verhilft dem C2Q nicht zur besseren Leistung. Zumal es zig Links zu Spieletests gibt, wo dieser auch nur bei 30 fps rumkrepelt oder weniger. Eben weil PCGH im MW Test eine CPU schonende Stelle verwendet hat. :rolleyes:

MadManniMan
2012-12-11, 12:36:38
Ja klar und das macht natürlich jeder. 3D Stereskopie + MP + 60 fps.

Ich würde es gern können, darum bewege ich mich auch im 3DCenter und nicht auf Computerbildspiele. Wenn die Ansprüche von PC-Gamern hier nicht hoch sein dürfen, wo dann?


Am besten noch mit SSAA.

Werd' nicht zynisch, ich meine das bisher eigentlich total ernst.


Für den Anwendungsfall reicht es natürlich nicht. Das ist klar. Aber das heißt doch nicht, dass ein C2Q > 3 GHz jetzt im Generellen nicht mehr für neue Spiele reicht.

Och, reichen is relativ. Laufen läuft halt alles. Das tat es auch mit meinem Zweikerner noch.


IMO reichen 40 fps aus. Aber das ist natürlich eine subjektive wahrnehmung. Sicherlich kann man auch noch Partikeldetails oder sonstiges runterdrehen.
Es ist eine Frage des Anspruchs. Und von einem so hohen Anspruch - ok! - reicht diese CPU nicht mehr aus.
Von einem etwas gediegenerem Anrpruch her sehe ich es aber ein wenig anders.

Momentan gehe ich meinen Freunden damit auf den Sack, generell alle volleren/größeren Server zu verweigern. Sie würden gern mit 30+ spielen, ich ziehe der Ruckelei wegen 20- vor ...


Das hängt aber an der GPU nicht an der CPU :freak:

Bei CPU-limitierten Spielen? Nein.

dargo
2012-12-11, 12:44:54
Naja eine Ausnahme. Außerdem erreicht Q9550 @2,83 GHz noch 34 fps im PCGH worstcase Szenario. Dazu noch Multiplayer. @3,4...3,6 GHz + 400 MHz FSB sollten > 40 fps an dieser Stelle rauskommen.
Das sollte doch reichen um spielbar zu bleiben.

Du hast andere Ansprüche als ich. In BF3 brauche ich mindestens 60fps, besser 70fps. Das schafft zwar der Lynnfield @3,7Ghz noch, fragt sich nur wie lange noch? Nenn es Aufrüstgeilheit. :D Wird aber auch Zeit nach ~4 Jahren. :)

Botcruscher
2012-12-11, 12:51:50
Wenn da kein OC Knaller kommt kann man dank 2500K mal locker das Jahr 2015 anpeilen. Sind dann mal eben 4+ Jahre Laufzeit. Wozu sich die Konsolenhonks da nach über das *ständige* aufrüsten beschweren.:rolleyes: In den ganzen Jahren ist dann nur eine SSD in den Rechner gewandert und die Graka wird demnächst irgend wann mal getauscht.
PS: Intel tut sich damit selber auch keinen Gefallen. Für 10% mehr IPC rüstet keiner auf. Mutti hat dazu mit einem *alten* C2D mehr als genug Leistung.

Skysnake
2012-12-11, 12:55:35
Lynfield ist noch keine 4 Jahre alt. Da ist gerade mal der Core2Duo rausgekommen :ugly:

Also die E8x00er Serie sowie die meisten Core2Quads.

Die Lynnfields gibts erst seit September 2009. Also erst seid 3 Jahren.

dargo
2012-12-11, 12:58:37
Lynfield ist noch keine 4 Jahre alt. Da ist gerade mal der Core2Duo rausgekommen :ugly:

Wer redet von jetzt? Kannst du heute Haswell kaufen? Ich rede von 2013. Nehme von mir aus 3,5Jahre. Ich werde Haswell eh nicht direkt kaufen weil die Bretter am Anfang überteuert sind. Es sei denn Haswell wird der Knaller, dann überlege ich es mir mit dem Direktkauf.

Henroldus
2012-12-11, 12:59:14
Wenn da kein OC Knaller kommt kann man dank 2500K mal locker das Jahr 2015 anpeilen. Sind dann mal eben 4+ Jahre Laufzeit. Wozu sich die Konsolenhonks da nach über das *ständige* aufrüsten beschweren.:rolleyes: In den ganzen Jahren ist dann nur eine SSD in den Rechner gewandert und die Graka wird demnächst irgend wann mal getauscht.
PS: Intel tut sich damit selber auch keinen Gefallen. Für 10% mehr IPC rüstet keiner auf. Mutti hat dazu mit einem *alten* C2D mehr als genug Leistung.
ich stimme zu 100% zu.
vor allem da nach wie vor in 22nm, mit höherer TDP UND neuem Sockel :freak:
gerade die i2 und i3 K-Modelle reichen noch ne ganze Weile.

Undertaker
2012-12-11, 16:20:27
Das gilt auch nur für das immer unbedeutender werdende Desktop-Segment. Sowohl im Serversegment als und im mobilen Bereich (Perf/Watt) gibt es noch genug Potential und auch durchaus Konkurrenz.

Server vielleicht ein bisschen, auch wenn man da spätestens seit Nehalem in Führung liegt. Bei einem Marktanteil von, keine Ahnung, vielleicht 90% (?) im x86-Bereich ist diese Konkurrenz aber minimal und überlebt auch nur, weil Intel die eigenen Preise hochhält.

Mobil sehe ich die Situation sogar noch eindeutiger. Wo hat man hier überhaupt ernsthafte Konkurrenz? Da gibt es eigentlich nur die Netbooks, wo die 4 Jahre alte Atom-Architektur mittlerweile nicht mehr zu gebrauchen ist.

Anderes Thema sind natürlich Smartphones. Hier ist Intel allerdings gerade erst eingestiegen, und auch das nur mit einer im Grunde 4 Jahre alten Architektur und einem nicht mehr taufrischen Fertigungsprozess.

Ailuros
2012-12-11, 16:34:05
Anderes Thema sind natürlich Smartphones. Hier ist Intel allerdings gerade erst eingestiegen, und auch das nur mit einer im Grunde 4 Jahre alten Architektur und einem nicht mehr taufrischen Fertigungsprozess.

Intel's 32nm ist um ein gutes Stueck besser als Samsung's 32nm dass Samsung selber fuer ihre und Apple's SoCs benutzt. Intel's Medfield von der GPU Seite hinkt im Vergleich zu den anderen zwein gerade 2 Generationen hinterher und die jeweils integrierten video decoder (auch von IMG lizenziert) sind ebenso uralt.

Insgesamt liegt es IMHO eben nicht am Herstellungsprozess alleine sondern insgesamt einfach an total beschissenen Management bzw. Design-Entscheidungen. Im Vergleich zu Apple's neuestem smartphone und tablet liegen Medfield bzw. Clovertrail zumindest um einen Faktor 4.0 zurueck was die GPU Leistung betrifft; von fixed function video decoding IP mal ganz zu schweigen.

Sonst ist Intel nicht "erst" im small form factor Markt eingestiegen. Medfield war lediglich der erste ernsthaftere Versuch in den smartphone Markt einzusteigen und alles davor ist einfach glohreich gescheitert. In den netbooks (die heutzutage auch wieder am sterben sind als device form factor) mit dem damaligen GMA500 erreichte Intel ueber 90 design wins. Kein Wunder dass es keinen anstaendigen Verkaufschlager danach gab, da es rundum ein totaler Schlappschwanz war. Weder GMA500 weder irgendwelcher Nachfolger bis zu Medfield hat es in smartphones geschafft weil jeglicher Hersteller von dem zu hohem Stromverbrauch nichts wissen wollte.

Botcruscher
2012-12-11, 16:45:46
Mag sein das Intel sehr verwöhnt ist. Dem gegenüber stehen aber extreme Veränderungen, welche sich nicht unbedingt positiv auf den Gewinn auswirken werden. Wenn das so weit ist gibt es ordentlich Druck. Wir sind uns ja einig, dass das Management das Problem ist. Wir haben Leistungssättigung im Desktop, Trend zu Günstigrechnern in Asien/Afrika/Südamerika und den Mobiltrend.
Die 10% alle 2 Jahre bei Desktop/Notebook kann man sich da nicht lange leisten. In der Ecke von Intel wird es langsam eng. Auch AMD war einfach zu doof einen abgespeckten SoC für Handys/Tablets zu bringen.

S940
2012-12-11, 17:09:28
Lynnfield kackt mittlerweile ziemlich ab wenn ich mir neuere Benchmarks ansehe. Das kann mit Haswell nur deutlicher werden. Aber dich zwingt keiner zum Aufrüsten, kannst gerne bis 2015 auf Skylake warten.
Naja, halt der Takt, übertaktet mit ~4 Ghz reicht der schon noch ne Weile. Das einzige was dagegen spräche sind die Strompreise, falls man oft Vollastsituationen hat.

Undertaker
2012-12-11, 17:17:35
Sonst ist Intel nicht "erst" im small form factor Markt eingestiegen. Medfield war lediglich der erste ernsthaftere Versuch in den smartphone Markt einzusteigen und alles davor ist einfach glohreich gescheitert.

Lincroft war imo nie ein ernsthafter Smartphone-SoC. Gab es letztlich auch nur in einer Handvoll Windows-Tablets im Business-Sektor.

Coda
2012-12-11, 17:20:01
Naja, AMDs Steamroller wird nie im Leben an den i5 rankommen in Sachen Spieleleistung und der Cortex-A15 natürlich auch nicht. Warum sollte Intel also groß an der Leistungsschraube drehen müssen?
Steamroller wurde gestrichen.

boxleitnerb
2012-12-11, 17:23:47
Nicht nur verschoben? Wie kannst du so sicher sein?

Coda
2012-12-11, 17:27:41
Sie werden sicher nicht erst Steamroller Ende 2014 bringen. Dann können sie den Laden gleich zumachen.

Ich geh stark davon aus, dass sie alle Engineering-Resourcen auf Excavator geschoben haben. Das ist auch das einzig vernünftige, auch mit Steamroller können sie keinen Blumentopf gewinnen.

Ailuros
2012-12-11, 17:29:27
Lincroft war imo nie ein ernsthafter Smartphone-SoC. Gab es letztlich auch nur in einer Handvoll Windows-Tablets im Business-Sektor.

Sag ich doch; Medfield hingegen schluckt zwar um einiges weniger Strom als seine Vorgaenger, ist aber selbst fuer einen erneuten "kickstart" zu lauwarm und der Nachfolger dessen fuer smartphones wird im Vergleich zu dem was die Konkurrenz links und rechts praesentieren wird auch nicht besonders berauschend sein egal was die Medien momentan ueber 22nm versprechen.

Botcruscher hat oben ein paar gute Punkte gepostet; jetzt zaehl dazu dass Texas Instruments und ST Ericsson weg vom Fenster sind was smartphones betrifft und dass die Chinesen (HiSilicon, Allwinner, MediaTek usw.) zunehmend aggressiver werden und dazu noch mit spottbilligen Preisen.

boxleitnerb
2012-12-11, 17:37:50
Sie werden sicher nicht erst Steamroller Ende 2014 bringen. Dann können sie den Laden gleich zumachen.

Ich geh stark davon aus, dass sie alle Engineering-Resourcen auf Excavator geschoben haben. Das ist auch das einzig vernünftige, auch mit Steamroller können sie keinen Blumentopf gewinnen.

Wenn Haswell wirklich nur 10% bei Legacy-Code drauflegt, Broadwell gar nicht im Desktop kommt und AMD mit Steamroller so weitermacht wie sie mit Piledriver angefangen haben, sieht es so schlecht nicht aus.

Coda
2012-12-11, 17:44:44
Es sieht grausam aus, die Intel-Cores sind bei gleicher TDP single-threaded gerade wieviel vorne? 50%?

boxleitnerb
2012-12-11, 17:49:41
Die TDP ist für diesen Vergleich egal, weil Intels 130W CPUs nicht schneller sind als die 95W/77W CPUs in Single-threaded und auch bei AMD sich da nicht wirklich viel unterscheidet, da deren CPUs/Module mit ähnlichem Takt laufen, von FX4xxx bis zu FX8xxx hinauf.

Der Vorsprung ist schon beachtlich, worauf ich aber hinauswollte ist, dass mit Piledriver eine Aufholjagd anfangen könnte. +20% mit PD, vielleicht nochmal 20% mit Steamroller. Was bringt Intel in der Zeit? +10% Haswell, +5% Haswell Refresh (Broadwell gibts wohl nicht im Desktop).

S940
2012-12-11, 17:59:09
Ich geh stark davon aus, dass sie alle Engineering-Resourcen auf Excavator geschoben haben. Das ist auch das einzig vernünftige, auch mit Steamroller können sie keinen Blumentopf gewinnen.Ich hab gehört Excavator wurde gestrichen :freak:
Kann aber auch gut möglich sein, dass Raider jetzt Twix heißt, also das Steamroller-Projekt gestrichen wurde und Excavator unter Steamrollernamen kommt.:freak:

Wenn überhaupt noch irgendein BD kommt. Irgendwie sind die aktuellen Signale mit einfacheren Herstellungsprozessen, weniger Maskenebenen, Mobilmarkt, Microserver etc. alles konträr zur ganzen Bulldozer-Designphilosophie an sich.

Gerade sagte ein AMD Type, dass das AMD Portfolio Ende 2013 anders wäre als jetzt und man dann sehen könne, was 2014 alles käme. Schlagwörter sind Kabini, Temash und embedded.

Coda
2012-12-11, 18:25:14
Ich hab gehört Excavator wurde gestrichen :freak:
Kann aber auch gut möglich sein, dass Raider jetzt Twix heißt, also das Steamroller-Projekt gestrichen wurde und Excavator unter Steamrollernamen kommt.:freak:
Oder irgend ein Mix. Auf jeden Fall wird Steamroller nicht in seiner ursprünglichen geplanten Form erst in 2014 erscheinen.

AnarchX
2012-12-11, 18:37:19
Mal etwas zum Thema:
Charlie meint im Teaser eines seiner mittlerweile $50 teuren Artikel :freak:, dass Crystalwell (der On-Package-Speicher für GT3) wohl zu teuer wäre. (http://semiaccurate.com/2012/12/10/is-intels-crystalwell-being-strangled-to-death/)

Ärgelich, da dass Konzept wohl deutliche Vorteile gebracht hätte. Vielleicht hätte man da besser auf ein 64-Bit GDDR5 SI setzen sollen. Das wäre wohl zwar etwas langsamer als die ~70GB/s von Crystalwell gewesen, aber wohl günstiger in der Implementierung und man 512MiB@40GB/s gehabt, anstatt der 128MiB.

S940
2012-12-11, 18:47:58
Oder irgend ein Mix. Auf jeden Fall wird Steamroller nicht in seiner ursprünglichen geplanten Form erst in 2014 erscheinen.Mein favorisierter Verschiebungsgrund ist ein eventueller Umstieg auf FD-SOI, aber das ist fast reines Wunschdenken ^^
Wahrscheinlich ziehen sie einfach Leute zum ARM-Projekt ab, oder der Sockel musste noch an low-power angepasst werden.

HOT
2012-12-11, 19:05:09
Trotz ist so oder so ein Redesign nötig und da werden die schon Erkenntnisse des Excavator mit einfließen lassen. Der Core, der 2014 erscheint ist mit Sicherheit nicht identisch mit dem Kaveri-SR, der Anfang 2013 erscheinen sollte. Das wird irgendein Mischmasch sein, dann macht die Excavator-Streichung auch Sinn, da man den 2014er SR einfach auf 20nm schrumpfen kann.

AnarchX
2012-12-12, 08:47:29
Die 40 EUs der GT3-Version im Treiberpanel: http://news.mydrivers.com/1/248/248842.htm

MadManniMan
2012-12-12, 09:13:39
Gibt's eigentlich halbwegs verlässliche Launch-Daten?

Shink
2012-12-12, 09:22:18
Wenn Haswell wirklich nur 10% bei Legacy-Code drauflegt, Broadwell gar nicht im Desktop kommt und AMD mit Steamroller so weitermacht wie sie mit Piledriver angefangen haben, sieht es so schlecht nicht aus.
Ich würde mal sagen: 2013 klingt generell furchtbar für PCs und Notebooks.
10% Speedup bei etwas mehr TDP und dafür ein neuer Sockel im Hause Intel. Überhaupt nichts bei AMD.

Halbwegs interessant scheint zur Zeit nur die Lowcost-Schiene: AMDs Jaguar, Intels Valleyview (wenn er sich denn ausgeht) und diverse Quadcore Cortex A15.

Ronny145
2012-12-12, 11:05:23
Die 40 EUs der GT3-Version im Treiberpanel: http://news.mydrivers.com/1/248/248842.htm


Kommt von hier: http://chinese.vr-zone.com/43131/haswell-will-push-25w-tdp-ultra-series-with-gt3-cpu-focus-on14-15-inch-ultrabook-12052012/

kunibätt
2012-12-12, 11:07:00
Mich würde mal der hypothetische Speedup durch FMA (3) interessieren.
Nach meinem Verständnis wäre das maximal Faktor 2 , allerdings habe ich auch Slides gesehen ( wohl Marketing ) in denen deutlich mehr angegeben war.
Lässt sich FMA (3) bei vorhandenem Quellcode durch Neukompilieren ( mit entsprechenden Flags) direkt nutzen, oder sind Modifikationen am Code notwendig?

AnarchX
2012-12-14, 10:17:41
Daten der Core i7 Mobile Haswell mit 47W/57W TDP: http://chinese.vr-zone.com/44251/haswell-mobile-udapte-for-h-series-gt3-cpu-and-naming-rules-changing-12142012/

Auch wenig Verbesserungen. Wie zu erwarten, dürfte HSW (mit GT3) im <20W Bereich die größten Verbesserungen bringen.

Ronny145
2012-12-14, 11:29:10
Und die BGA-GT3 Quads, die später kommen. H-series heißen die laut vr-zone.

Knuddelbearli
2012-12-14, 13:57:35
was schätzt ihr wieviel wird Haswell bei HT mitbringen? Die Cores wurden ja deutlich fetter sind also schwerer von einem Thread auszulasten, bisher brachte HT ja in einem realistischen fall wo alle kerne genutzt werden 20-25% bei ca 10% mehrverbrauch

Undertaker
2012-12-14, 18:06:17
Daten der Core i7 Mobile Haswell mit 47W/57W TDP: http://chinese.vr-zone.com/44251/haswell-mobile-udapte-for-h-series-gt3-cpu-and-naming-rules-changing-12142012/

War der TDP-Anstieg um je 2W nicht auf irgendeine Komponente zurückzuführen, die mit Haswell zusätzlich in die CPU gewandert ist? Kann mich daran leider nicht mehr genau erinnern...

y33H@
2012-12-14, 18:11:05
Teile der VRMs, zudem ist der CPU-Part fetter und die iGPU fei auch ...

Ronny145
2012-12-14, 18:23:46
Abgesehen vom Speicher.

http://s14.directupload.net/images/121214/wvf3mtsg.png

deLuxX`
2012-12-15, 13:34:48
Ist es dann möglich, dass trotz gestiegener TDP die Leistungsaufnahme der kompletten Plattform niedriger ist als vorher?

Undertaker
2012-12-15, 13:36:43
Ich gehe mal davon aus, dass die 2W genau dem Zuwachs durch die VRMs entsprechen. Ohne neuen Prozess wäre eine Verbrauchsreduktion bei gleichzeitiger Leistungssteigerung kaum möglich. Ausnahme sind da nur die ULV-Modelle mit 15W.

mczak
2012-12-17, 02:53:07
Mich würde mal der hypothetische Speedup durch FMA (3) interessieren.
Nach meinem Verständnis wäre das maximal Faktor 2 , allerdings habe ich auch Slides gesehen ( wohl Marketing ) in denen deutlich mehr angegeben war.

Der Faktor 2 ist richtig wenn du einfach Mul+Add durch FMA ersetzt.
Das ist aber nicht dasselbe da FMA genauer arbeitet. Es kann also theoretisch sein dass du einen Algorithmus hast bei dem du um eine garantierte maximale Fehlerabweichung zu erreichen eine bestimmte Anzahl FMAs nicht einfach durch Mul+Add ersetzen kannst weil dann der Fehler grösser werden kann (man kann natürlich direkt auch eine FMA-Operation emulieren das ist dann aber sehr deutlich langsamer).

Lässt sich FMA (3) bei vorhandenem Quellcode durch Neukompilieren ( mit entsprechenden Flags) direkt nutzen, oder sind Modifikationen am Code notwendig?
Das geht mit Compilerflags aber (wie fast immer bei fpu-code) aufgepasst: Hast du irgendwo x*y+z und der Compiler optimiert das zu einem FMA und dieselbe Rechnung sonstwo mit demselben Input und der Compiler erkennt das nicht als FMA (z.B. falls Multiplikation und Addition in verschiedenen Funktionen sind) dann ist das Resultat unter Umständen nicht mehr dasselbe (also x*y+z != x*y+z).
Compiler können also normalerweise fma nur mit fast-math flags u.ä erzeugen (oder direkt über eine Option die fused multiply-add kontrolliert). Es sei denn natürlich du verwendest direkt die fma-Funktion, der Nachteil hierbei ist der Compiler ist dann gezwungen falls deine CPU das nicht unterstützt das zu emulieren. Aus dem Grund hat z.B. OpenCL auch noch eine "muladd" Funktion damit man keine dieser "unsauberen" math flags benutzen muss und trotzdem Code schreiben kann der überall schnell ist wenn es egal ist ob das jetzt ein fused oder unfused mul+add ist.

Ronny145
2012-12-19, 20:10:43
Interview with ASRock COO Mr. LL Shiu (http://www.kitguru.net/site-news/interviews/zardon/interview-with-asrock-coo-mr-ll-shiu/)

I posed the question if ASrock were ready for the upcoming CPU designs.

He smiled and replied “Our motherboard’s production schedule is based on the processors’ and chipsets’ timeframe. Since Intel’s new Haswell will attack the market in late April 2013, ASRock’s official debut of new-gen compatible motherboards will surely correspond with the launch path of Intel.


Asrock verrät hier mehr oder weniger den geplanten Haswell Start. Der Termin selber ist keine Überraschung.

Fetza
2012-12-20, 01:37:34
Ausreichend ist Note 4, kurz vor mangelhaft. Und genauso spielen sich auch diverse Titel mit maximalen Details - zäh, schwammig, ausreichend eben. Von flüssig und "smooth" ist ein C2Q mittlerweile weit entfernt, so wie ein Phenom II X4.

Guck dir mal Messungen aktueller Spiele an ;-)

Also wenn ich eure battlefield-benchmarks nehme, komme ich mit meinem phenom II noch auf 36 frames im worstcase - das würde mir noch reichen. Ich selbst habe meinen phenom II jetzt seit anfang 2009 und bisher konnte ich noch jedes spiel flüssig spielen. Von daher würde mich jetzt mal interessieren, welches spiel bei mir nur zäh laufen soll?
Letztlich möchte ich nur darauf hinaus, das ich sowohl den phenom II als auch die alten c2q als äußerst langlebig empfinde.

Palpatin
2012-12-21, 07:57:41
Von daher würde mich jetzt mal interessieren, welches spiel bei mir nur zäh laufen soll?

Borderlands 2

Ronny145
2012-12-21, 10:46:11
Der Business launch von Q87, Q85, B85 Chipsätzen hat sich von April auf Mai verschoben wie ich gehört habe. Keine Ahnung ob das auch die Consumer Chipsätze betrifft. Würde dann nämlich zwangsläufig die CPUs ebenso auf Mai verschieben.

y33H@
2012-12-21, 11:06:25
Also wenn ich eure battlefield-benchmarks nehme, komme ich mit meinem phenom II noch auf 36 frames im worstcase - das würde mir noch reichen. Ich selbst habe meinen phenom II jetzt seit anfang 2009 und bisher konnte ich noch jedes spiel flüssig spielen. Von daher würde mich jetzt mal interessieren, welches spiel bei mir nur zäh laufen soll? Letztlich möchte ich nur darauf hinaus, das ich sowohl den phenom II als auch die alten c2q als äußerst langlebig empfinde.Mit um die 40 Frames macht's mir halt keinen Spaß, da leidet das Aiming stark. Weitere zähe Spiele sind Project Cars mit 20+ Fahrzeugen, NfS MW 2012, Skyrim mit Mods, Shogun 2 oder Anno 2070 im late game.

PrefoX
2012-12-21, 12:41:44
Also wenn ich eure battlefield-benchmarks nehme, komme ich mit meinem phenom II noch auf 36 frames im worstcase - das würde mir noch reichen. Ich selbst habe meinen phenom II jetzt seit anfang 2009 und bisher konnte ich noch jedes spiel flüssig spielen. Von daher würde mich jetzt mal interessieren, welches spiel bei mir nur zäh laufen soll?
Letztlich möchte ich nur darauf hinaus, das ich sowohl den phenom II als auch die alten c2q als äußerst langlebig empfinde.
36 ist doch schon zäh wie sau oO

Botcruscher
2012-12-21, 13:28:24
Auf der Konsole sind das schon unerreichte Höhen.;D

Fetza
2012-12-21, 13:55:53
Mit um die 40 Frames macht's mir halt keinen Spaß, da leidet das Aiming stark. Weitere zähe Spiele sind Project Cars mit 20+ Fahrzeugen, NfS MW 2012, Skyrim mit Mods, Shogun 2 oder Anno 2070 im late game.

Ok, ehrlich gesagt würde mich davon jetzt nur skyrim und anno 2070 interessieren. Bei skyrim sollten durch die mods doch eigentlich nur die grafikkarte belastet werden, oder?

36 ist doch schon zäh wie sau oO

Eigentlich nicht und wenn ich mir ansehe, wieviel leute gerade in diesem forum fon ssaa und downsampling aa reden, wundert mich so eine aussage schon. Denn mit diesen extremen aa modis hat man doch meist eine ähnliche framerate.

Zudem sind 36 frames ja minimum frames - aber wie gesagt, jeder so wie ers brauch.

Auf der Konsole sind das schon unerreichte Höhen.;D

Eben und da verkaufen sich shooter wie geschnitten brot!

fondness
2012-12-21, 14:19:31
Also wenn ich eure battlefield-benchmarks nehme, komme ich mit meinem phenom II noch auf 36 frames im worstcase - das würde mir noch reichen. Ich selbst habe meinen phenom II jetzt seit anfang 2009 und bisher konnte ich noch jedes spiel flüssig spielen. Von daher würde mich jetzt mal interessieren, welches spiel bei mir nur zäh laufen soll?
Letztlich möchte ich nur darauf hinaus, das ich sowohl den phenom II als auch die alten c2q als äußerst langlebig empfinde.

Das interessante ist vor allem das ein Phenom II einen Core 2 Quad heute teils deutlich hinter sich lässt. Wer damals also einen Phenom II statt einen Core 2 Quad gekauft hat, hat alles richtig gemacht und für damals deutlich weniger Geld heute mehr Leistung.

aufkrawall
2012-12-21, 14:20:42
Beim Phenom II gibts viele OC-Gurken, damit hat man gegenüber einem C2Q gar nichts richtig gemacht.

y33H@
2012-12-21, 14:43:03
Das interessante ist vor allem das ein Phenom II einen Core 2 Quad heute teils deutlich hinter sich lässt. Wer damals also einen Phenom II statt einen Core 2 Quad gekauft hat, hat alles richtig gemacht und für damals deutlich weniger Geld heute mehr Leistung.Die Kentsfield gab's schon im Frühjahr 2007 und die Yorkfield sowie Phenom II X4 seit Frühling 2009 - manch einer hatte also schon zwei Jahre einen C2Q bevor AMD überhaupt launchte.

dildo4u
2012-12-21, 14:43:37
Ich hab auch kein Plan was er meint laut den BF3 Benches ist die pro Mhz Leistung schlecht wie immer(3.4Ghz vs 2.8Ghz) und die 45nm Intel gingen meist besser zu OC.

Botcruscher
2012-12-21, 15:18:37
Eben und da verkaufen sich shooter wie geschnitten brot!

Mit genug Autoaim, Autoheal und moderat schnellen Gegnern spielt eine schwammige Padsteuerung da auch überhaupt keine Rolle. :D
Die Kentsfield gab's schon im Frühjahr 2007 und die Yorkfield sowie Phenom II X4 seit Frühling 2009 - manch einer hatte also schon zwei Jahre einen C2Q bevor AMD überhaupt launchte. Warum AMD keinen Dual-Dualcore zusammengeklebt hat werden wir nie erfahren. Größter Fehler aller Zeiten.


Gibt es von Haswell inzwischen eigentlich ein paar Samples in freier Wildbahn?

Ronny145
2012-12-21, 15:18:40
Ja das stimmt, auf die gleiche Taktfrequenz normalisiert liegen die Core 2 Quad heute noch meist etwas besser in Spielen. Die späteren Phenom II takten dafür deutlich höher in Standardausführung.

Fetza
2012-12-21, 15:30:15
Mit genug Autoaim, Autoheal und moderat schnellen Gegnern spielt eine schwammige Padsteuerung da auch überhaupt keine Rolle. :D

Hehe, das stimmt auch wieder.^^ Wobei ich damit das prinzip des shooters ad absurdum geführt sehe. :D

PrefoX
2012-12-21, 15:36:47
Ok, ehrlich gesagt würde mich davon jetzt nur skyrim und anno 2070 interessieren. Bei skyrim sollten durch die mods doch eigentlich nur die grafikkarte belastet werden, oder?



Eigentlich nicht und wenn ich mir ansehe, wieviel leute gerade in diesem forum fon ssaa und downsampling aa reden, wundert mich so eine aussage schon. Denn mit diesen extremen aa modis hat man doch meist eine ähnliche framerate.

Zudem sind 36 frames ja minimum frames - aber wie gesagt, jeder so wie ers brauch.



Eben und da verkaufen sich shooter wie geschnitten brot!1. ist es async zum monitor und zweitens sieht das auge ca 60 fps. also müssten es schon min. 60 fps sein um flüssig zu sein. alles was nicht flüssig ist = zäh.
klar bei einem RTS oder cityville brauch man keine 60 aber dann sollten sie schon kostant sein. bleiben nur noch 30 übrig.

HPVD
2012-12-22, 22:16:24
hier mal eine vorweihnachtliche Überlegung zur Haswell EN/EX DGEMM Leistung im Vergleich zum K20x von Nividia:

aktuell hat der schnellste Xeon 2687 mit 8 Kernen 130W eine DGEMM-Leistung von 0,17TFlops.
Das ergibt einen "Effizienzfaktor" DGEMM/Verbrauch von 1,308 GFlops/W

Der GK110 K20x von Nividia kommt bei 220W auf 1,22TFlops
das ist ein Effizienzfaktor von 5,304 GFlops/W

Wenn die Haswell-Architektur bei DGEMM
- dank AVX2 um Faktor 2 leistungsfähiger ist und
- zusätzlich 2 mal soviel (8) Kerne enthält (ivybridge hat ja auch bereits 12-15)
- bei gleichem Takt wie der aktuelle 2687 und dabei aber
- bei 130W bleibt
so kommt man auf einen Effizienzfaktor von 5,231 GFlops/W (1,308 GFlops/W*2*2)

Was ja doch schon recht nah am K20x ist :-)

Klar hat Nvidia wenn der Haswell EN/EX H1/2014 erscheint wahrscheinlich schon knapp den Maxwell am Start - trotzdem find ich das sehr beachtlich, wo man doch immer von einem "riesen Unterschied" zwischen CPU und GPU Effizienz bei DGEMM spricht.

Was meint ihr dazu? Kann das so kommen?

Quellen: http://www.nvidia.com/docs/IO/122874/K20-and-K20X-application-performance-technical-brief.pdf

Fetza
2012-12-22, 23:34:06
1. ist es async zum monitor und zweitens sieht das auge ca 60 fps. also müssten es schon min. 60 fps sein um flüssig zu sein. alles was nicht flüssig ist = zäh.
klar bei einem RTS oder cityville brauch man keine 60 aber dann sollten sie schon kostant sein. bleiben nur noch 30 übrig.

1. Stimmt zwar, dafür gibts aber adaptives vsync bei nv
2. Deine position ist halt sehr 'exklusiv' - wenn du das so brauchst ist es ja ok, aber 90% der gamer scheint das anders zusehen. Natürlich wird jemand, der sein bf3 auf esport-niveau zocken möchte, deine ansicht teilen und wenn ich diesen ergeiz teilen würde, hätte ich auch schon längst aufgerüstet. Ich zocke aber z.b. gerade recht gerne mwo und da kommst du auch mit 30 frames minimum noch gut zurecht, aufgrund der mechträgheit. Für rpgs brauche ich auch keine 60 frames und insbesondere bei mmorpgs (ausser vielleicht bei schinken wie wow) ist so ein wert auch absolut utopisch (raids etc.).

Ansonsten verweise ich mal auf den 3dcenterartikel zu dem thema, den ich zumindest recht aufschlussreich fand.

Ronny145
2012-12-23, 11:45:46
Der Business launch von Q87, Q85, B85 Chipsätzen hat sich von April auf Mai verschoben wie ich gehört habe. Keine Ahnung ob das auch die Consumer Chipsätze betrifft. Würde dann nämlich zwangsläufig die CPUs ebenso auf Mai verschieben.


Scheint für alle zu gelten. Vr-zone berichtet von Anfang Mai.

http://chinese.vr-zone.com/45379/intel-release-haswell-qs-edtion-cpu-for-oem-odm-but-seem-will-adjust-timing-for-release-12232012/

Ronny145
2012-12-26, 00:41:08
http://s14.directupload.net/images/121226/xsyrhwcq.jpg

http://s14.directupload.net/images/121226/pnxenkui.jpg
http://diy.pconline.com.cn/cpu/study_cpu/1212/3115955_all.html


Die Dualcores sind wohl doch schon für Q3 geplant? Bislang hieß es immer für Q4.

dildo4u
2012-12-26, 01:01:14
In dem Bereich wird AMD wohl am ehesten was interessantes haben Ende 2013 vielleicht deshalb schon Q3.

Wenn AMD in 28nm 15%+ CPU Leistungs schafft sind sie bei weitem nich so weit zurück wie bei Bulldozer vs i7.
http://www.computerbase.de/artikel/prozessoren/2012/alle-desktop-trinity-im-cpu-vergleichstest/5/

Zergra
2012-12-26, 01:06:18
2500k -> 3570k -> 4670k
2600k (der 2700k wurde nachgeschoben) -> 3770k -> 4770k
Wieso haben die beim i5 so einen Sprung drinne ? Brauchen die noch mehr Nummern ?
Beim i7 kann man es ja verstehen.

Ronny145
2012-12-26, 09:35:15
In dem Bereich wird AMD wohl am ehesten was interessantes haben Ende 2013 vielleicht deshalb schon Q3.


Steamroller ist doch eh gecancelt nächstes Jahr, als ob sich Intel nach AMD richtet, guter Witz.

Ronny145
2012-12-26, 11:38:31
http://s1.directupload.net/images/121226/lggp9iio.png

http://s7.directupload.net/images/121226/g6btjyxs.png
http://chinese.vr-zone.com/45571/intel-adjust-haswell-introduction-date-before-computex-2013-12252012/


Offizieller Verkaufsstart ab 2. Juni, NDA Fall zwischen Ende Mai/Anfang Juni. Eine Verspätung von 6 Wochen (angenommen Ende April war geplant).

muelli
2012-12-26, 12:03:07
Hmm, wollte eigentlich noch auf die mobilen Chips warten, bis ich mir ein neues Laptop kaufe. Jetzt muss ich doch überlegen, ob ich nicht noch zu Ivy-Bridge greife, sechs Monate sind dann doch noch eine lange Zeit.


Gruß

dargo
2012-12-26, 12:10:36
Offizieller Verkaufsstart ab 2. Juni, NDA Fall zwischen Ende Mai/Anfang Juni. Eine Verspätung von 6 Wochen (angenommen Ende April war geplant).
Wir kommen den 4 Jahren nach Lynnfield immer näher. :ugly:

Duplex
2012-12-26, 14:05:20
Steamroller ist doch eh gecancelt nächstes Jahr, als ob sich Intel nach AMD richtet, guter Witz.
Soweit ich weiß hat AMD bisher davon noch nichts bestätigt, im Februar 2013 ist der Finanzial Analyst Day von AMD, wenn dann Steamroller in der neuen Roadmap für 2013 nicht marktiert/angekündigt ist, dann kann man erst sagen das SR verschoben wird, das hängt Primär von der 28nm Fertigung ab, wenn 28nm für High End n. Jahr optimal ist, dann gibts bestimmt auch wieder große DIEs für Server & Desktop, die alte Strategie 1 DIE für mehrere Bereiche ist immer noch die günstigste für AMD :), in 6-9 Monaten sollte die Revision bereits optimal laufen, also selbst wenn AMD noch keine Masken hat, die brauchen nicht viel Zeit, sprich wenn 28nm HP in 3-4 Monaten gut läuft, dann gibts n. Jahr garantiert auch Steamroller Server CPUs, der CPU Takt muss ja nicht höher als die aktuellen Opterons ausfallen, das Design hat sowieso mehr IPC durch das neue Frontend, da sollte 15-20% mehr IPC das minimum sein. Wenn AMD jetzt 20/22nm zur verfügung hätte (ähnlicher Prozess wie Intels Ivy Bridge), dann könnten die mit SR in kleinen Strukturen bis zu 50% mehr Leistung gegenüber Piledriver rausholen. Schuld ist in erster Linie immer der Prozess bei AMD.

reaperrr
2012-12-26, 15:54:51
die alte Strategie 1 DIE für mehrere Bereiche ist immer noch die günstigste für AMD :)
Es ist eher so, dass AMD mangels Ressourcen keine andere Wahl hat.

Schuld ist in erster Linie immer der Prozess bei AMD.
Das ist doch Quark, Phenom I und Bulldozer sind auch vom Design her nun wahrlich nicht das gelbe vom Ei. Ein paar gute Ideen und Ansätze, aber mehr schlecht als recht umgesetzt.

Du könntest Piledriver auf Intels 22nm portieren, viel mehr als vielleicht 600-1000 MHz mehr Takt bei gleichbleibend hohem Stromverbrauch käme da auch nicht bei heraus. Selbst für ein auf hohe Taktraten ausgelegtes Design ist die pro-Kern-pro-MHz-Leistung einfach noch zu schlecht.
Halbwegs konkurrenzfähige Performance pro Kern würde ich nicht vor Excavator erwarten.

Und ob es SR-basierte 4-Moduler für Desktop/Server geben wird bezweifle ich sowieso, ich würde an AMDs Stelle die Ressourcen lieber dafür einsetzen, Excavator früher und in besserem Zustand rausbringen zu können.

=Floi=
2012-12-26, 16:24:40
2 juni
:facepalm:

omg! mein Q6600 ist einfach schon viel zu langsam und jetzt lohnt sich ivy auch nicht mehr. ich hoffe die bringen mal einen anständigen performancezuwachs im desktopbereich. eigentlich wäre da ein 6 core mal angemessen. :(

S940
2012-12-26, 17:10:58
Und ob es SR-basierte 4-Moduler für Desktop/Server geben wird bezweifle ich sowieso, ich würde an AMDs Stelle die Ressourcen lieber dafür einsetzen, Excavator früher und in besserem Zustand rausbringen zu können.So genau gehts bei AMD sowieso nicht,siehe die unterschiedlichen Piledriver-Kerne bei Trinity und Vishera.
Geplant waren auch schon mal 5 Module in 32nm, das würde ich für 28nm dann auch erwarten.
eigentlich wäre da ein 6 core mal angemessen. :(Na dann kauf Dir nen 3930k oder größer ;-)

deLuxX`
2012-12-26, 18:49:59
ich hoffe die bringen mal einen anständigen performancezuwachs im desktopbereich. eigentlich wäre da ein 6 core mal angemessen. :(
Mehr als 10% mehr IPC im Durchschnitt wirds wohl nicht werden. Und höhere Frequenzen wohl auch eher nicht wirklich.
Hexa-Cores gibts doch schon....

Auf der Performanceseite wirds wohl stinke langweilig. Zumindest was die CPU angeht.

edit2: In der Tabelle von PCOnline steht der 4670k (also der Nachfolger des 3570k) mit 3,4-3,8Ghz Takt drin -> Sag ich doch, strunzlangweilig -.-
Und von ATI und nVidia wird auch nichts besonderes kommen weil die 2013 immer noch mit 28nm rumkrebsen. Also nächstes Jahr sind wir im Desktopbereich nur knapp über Stillstand.

Knuddelbearli
2012-12-26, 21:00:41
Es ist eher so, dass AMD mangels Ressourcen keine andere Wahl hat.


Das ist doch Quark, Phenom I und Bulldozer sind auch vom Design her nun wahrlich nicht das gelbe vom Ei. Ein paar gute Ideen und Ansätze, aber mehr schlecht als recht umgesetzt.

Du könntest Piledriver auf Intels 22nm portieren, viel mehr als vielleicht 600-1000 MHz mehr Takt bei gleichbleibend hohem Stromverbrauch käme da auch nicht bei heraus. Selbst für ein auf hohe Taktraten ausgelegtes Design ist die pro-Kern-pro-MHz-Leistung einfach noch zu schlecht.
Halbwegs konkurrenzfähige Performance pro Kern würde ich nicht vor Excavator erwarten.

Und ob es SR-basierte 4-Moduler für Desktop/Server geben wird bezweifle ich sowieso, ich würde an AMDs Stelle die Ressourcen lieber dafür einsetzen, Excavator früher und in besserem Zustand rausbringen zu können.

Im Spielebereich würd es schon ne Menge nützen wenn der L3 mit dem Coretakt läuft. würde wohl +50% fps geben wenn nicht mehr und wäre damit konkurenzfähig.

"Leider" legt AMD zuviel wert auf Anwendungssoftware, da sie wohl damit die letzten jahre den meisten gewinn gemacht haben ( die "gamer" cpus mussten sie ja meistens verramschen ) und würde den APUs kaum helfen

fdk
2012-12-27, 15:00:11
Im Spielebereich würd es schon ne Menge nützen wenn der L3 mit dem Coretakt läuft. würde wohl +50% fps geben wenn nicht mehr und wäre damit konkurenzfähig.
Wenn das Wörtchen wenn nicht wär ... bräuchte man dafür auch keine Fantasie-TDP.

AMA eines Intel-Ingenieur.
http://www.reddit.com/r/IAmA/comments/15iaet/iama_cpu_architect_and_designer_at_intel_ama/

paar interessante Antworten:
http://www.reddit.com/r/IAmA/comments/15iaet/iama_cpu_architect_and_designer_at_intel_ama/c7mqeg5

http://www.reddit.com/r/IAmA/comments/15iaet/iama_cpu_architect_and_designer_at_intel_ama/c7mprur

http://www.reddit.com/r/IAmA/comments/15iaet/iama_cpu_architect_and_designer_at_intel_ama/c7mp6n2

http://www.reddit.com/r/IAmA/comments/15iaet/iama_cpu_architect_and_designer_at_intel_ama/c7mq17h

http://www.reddit.com/r/IAmA/comments/15iaet/iama_cpu_architect_and_designer_at_intel_ama/c7mq6n4

Ronny145
2012-12-27, 15:42:58
Die BCLK Übertaktung oder was könnte noch gemeint sein?

What do you usually do with your system? If you like to overclock, Haswell is worth it (can't tell you why but read the Haswell Anandtech preview very carefully for buried treasure). On-die graphics is improving quite a bit as well. If you're into energy efficiency or even more graphics, Broadwell. I think the tech community will be very pleasantly surprised with Broadwell. But I'm biased, so we'll just going to have to prove it the hard way.


Bezüglich dem Clown:

It's laughable too how the information that get's out is easily traceable too. For example, it's clear that the people who leak to semiaccurate work very far removed from any real engineering work. We have a laugh when they get code names wrong or announce features that don't exist.


Btw, wird bei euch semiaccurate derzeit auch als attackierend gemeldete Webseite gemeldet?

Weitere interessante:


It's my job to make all form factors of computing machines run on our processors. To be completely candid (personal opinion disclaimer), with what I know is coming from Intel, the likelihood of ARM getting into the PC space is very low. Nevertheless, we're not taking our foot off the gas. For mobile, we have no choice but to become relevant. As for when, my personal prediction for substantial growth is Q1 2014, domination in 2015.

P6. It's proven to be very scalable across power and performance. But I'm biased.

Dirk Meyer, formerly of DEC and Intel, had the right ideas.

Haswell will improve over Ivy Bridge. Broadwell will be a bigger jump.

gnahr
2012-12-27, 16:47:25
also gerade das letzte zitat sagt doch wieder aus "evolution und danach noch etwas mehr"...
also constant 10%. :/ nicht schlecht, aber nix zum entgegenfiebern irgendwie. ich lass mich gern positiv überraschen.

S940
2012-12-27, 17:36:36
Btw, wird bei euch semiaccurate derzeit auch als attackierend gemeldete Webseite gemeldet?Jupp, hab auch schon in nem Forum gelesen, dass sich einer da auch wirklich was eingefangen hat.
Keine Ahnung mit welchem Browser, aber ich mach da erstmal nen Bogen um die Seite.

Ronny145
2012-12-27, 17:59:06
also gerade das letzte zitat sagt doch wieder aus "evolution und danach noch etwas mehr"...
also constant 10%. :/ nicht schlecht, aber nix zum entgegenfiebern irgendwie. ich lass mich gern positiv überraschen.


Die Antwort bezog sich auf die Frage der GPU Leistung. Haswell basiert bekanntlich auf Gen7. Broadwell mit Gen8 dürfte wieder eine stärker überarbeitete GPU Architektur spendiert bekommen.

Intel 3000 graphics were a disappointment, intel 4000 are slightly better but not much. Any plans to make any bigger leaps in terms of improving graphics? (not sure if this applies to you)


Jupp, hab auch schon in nem Forum gelesen, dass sich einer da auch wirklich was eingefangen hat.
Keine Ahnung mit welchem Browser, aber ich mach da erstmal nen Bogen um die Seite.


Bei Fudzilla übrigens das gleiche.

S940
2012-12-27, 23:33:00
Bei Fudzilla übrigens das gleiche.Da bekomm ich keine Meldung :confused: