PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Haswell - 22nm, DX11.1 und AVX2 in H1/2013 - HSW-Refresh Q2/2014


Seiten : 1 2 3 4 5 6 [7] 8

Konami
2013-05-12, 17:25:06
[...]
Gewissheit hab ich natürlich keine. Aber du musst das mit der WLP in Relation sehen: Ivy Bridge war bis jetzt die einzige CPU-Serie (zumindest im Desktop – kA über Mobile/SFF), bei der Intel den IHS nicht verlötet hat. Aus einem einzigen Messpunkt kann man keine Regel ableiten – zumal Intel bis jetzt keinerlei Anstalten gemacht hat, Käufer von K-CPUs zu gängeln. Ich halte meine Ansicht für wahrscheinlicher, weil damit zumindest irgendwie ein sinnvoller "Trend" entsteht.
Gulftown war kein Shrink, da hat der neue Prozess überhaupt erst 6 Kerne in einem vernünftigen TDP-Budget ermöglicht. Im Mainstream war Clarkdale allerdings schon uninteressant für den Enthusiasten, dank IMC abseits des Die und iirc nicht dramatisch verbesserter Übertaktbarkeit.

Im Desktop-Mainstream mit inzwischen winzigen 4 Kernen bringt ein Shrink allein halt nicht mehr viel, weil die Gesamtabwärme längst niedrig genug ist. (Gesamtabwärme != Wärmedichte, letztere wird aber durch einen Shrink nicht verbessert, sondern eher verschlimmert)

Außerdem... ich bin zwar Laie, aber war es nicht so, dass man grundsätzlich am Design Hand anlegen muss, wenn man einen neuen Prozess taktmäßig ausnutzen will? Die Signallaufzeiten werden ja vermutlich unterschiedlich verkürzt, dürften also wieder Tweaking erfordern. Es war bisher immer so, dass der "Tock" wesentlich höheres Overclocking ermöglicht hat als der "Tick".

Das alles spricht dagegen, die Fertigungskapazitäten bei einem neuen Prozess für den Desktopmarkt rauszuballern, wenn es in Mobile sinnvoller ist, wo jede TDP-Verbesserung zählt. Clarkdale war uninteressant, Ivy Bridge war uninteressant, und Broadwell kommt halt gar nicht mehr für LGA. Wie gesagt, der Kontext macht für mich mehr Sinn als Verschwörungstheorien über Intels Wunsch, den Übertakter zu unterdrücken, obwohl man ihm gleichzeitig einen astronomischen Multi und BCLK-OC spendiert.

mironicus
2013-05-12, 17:52:39
Ivy Bridge = WLP = hohe Temperaturen = niedrige Übertaktbarkeit
Haswell = gelötet = niedrigere Temperaturen = bessere Übertaktbarkeit = Kaufgrund für Plattformwechsel selbst für Ivy-Besitzer

Intel = war alles von Anfang so geplant = böse :D

Duplex
2013-05-12, 17:55:11
Selbst bei 5,5Ghz OC würde ich kein Haswell kaufen, das ist nichts besonderes gegenüber mein 2700k @32nm der für 5,0Ghz nur 1.36v benötigt. Erst bei 5,8-6,0 Ghz würde ich meine Meinung ändern.
Die meißten Leute werden auf 14nm warten und selbst dort gibt es bzgl. x86 Fortschritte keine Garantie, möglicherweise wird auch Skylake ein reinfall was den CPU Part angeht.

mironicus
2013-05-12, 18:06:21
Fragt sich nur ob die weitere Verkleinerung überhaupt noch was großartig bringt. Die verkleinern den Die immer mehr, und es gibt mehr Hitze auf einen kleineren Punkt. Bei den GPUs bleibt die Fläche gleich und es gibt entsprechende Steigerungen bei der Performance, bei den CPUs macht das Intel nicht weil es keinen Bedarf für eine höhere Performance gibt.

Zergra
2013-05-12, 20:44:51
Selbst bei 5,5Ghz OC würde ich kein Haswell kaufen, das ist nichts besonderes gegenüber mein 2700k @32nm der für 5,0Ghz nur 1.36v benötigt. Erst bei 5,8-6,0 Ghz würde ich meine Meinung ändern.
Die meißten Leute werden auf 14nm warten und selbst dort gibt es bzgl. x86 Fortschritte keine Garantie, möglicherweise wird auch Skylake ein reinfall was den CPU Part angeht.
Sehe ich genau so, ich werde auch auf Skylake warten und schauen was der so bringt. Alles andere kann erstmal getrost übersprungen werden.

Knuddelbearli
2013-05-12, 21:00:07
Skylake bedeutet für mich als 2600K Besitzer aber über 5 Jahre nix neues und es kribbelt mich jetzt schon ...

Spasstiger
2013-05-12, 21:40:32
Skylake bedeutet für mich als 2600K Besitzer aber über 5 Jahre nix neues und es kribbelt mich jetzt schon ...
Dann vielleicht auf einen IB-E mit 8 Kernen als Core i7 hoffen. ;)

Zergra
2013-05-12, 21:44:47
Dann vielleicht auf einen IB-E mit 8 Kernen als Core i7 hoffen. ;)
Eher Haswell-E :D Ivi bekommt man wohl nur 6 Kerne...

CrimsoN
2013-05-12, 22:17:57
Bei alles was man so liest seh ich keinen grund mir dem zu Kaufen da hole ich lieber noch was aus meinen 2500K raus und ruhe ist.

Knuddelbearli
2013-05-12, 23:03:59
8 Kerne wären nur ne überlegung wert wenn das auch als 350€ CPU kommt, also wird das ziemlich sicher nix ^^

Hayab
2013-05-13, 01:25:24
Ich bin nicht wirklich auf die 8 Cores scharf.
Ausser mentalray renderer habe ich kaum software die diese sinnvoll auslasten wuerden.
Viel mehr wuerde ich mich ueber verdoppelung der single Core leistung freuen, damit manch alte Software richtig fetten Boost bekommt.
Da ist leider nur ein Leistungs zuwachs von weniger als 20% von einer neuen Prozzi Generation zu erwarten.

Ich kann nur hoffen, dass intel die GPU Seite relativ schnell an die leistungssteugerungsgrenze bringt, so dass, die sich wieder an neue CPU Architekturen wagen .

Knuddelbearli
2013-05-13, 05:06:17
och gibt ja schon einige spiele die aus mehr als 4 kern gut performance ziehen und echte kerne sind nicht durch HT zu ersetzen.

aber klar doppelte Singlethread leistung nehme ich auch lieber als doppeltkernanzhal ^^

V2.0
2013-05-13, 08:07:08
SO einen Intel 6er für einen vernünftigen Preis würde ich nicht ablehnen.

Ronny145
2013-05-13, 12:41:32
http://chinese.vr-zone.com/63020/intel-core-i7-4800mq-hand-on-review-with-intel-hd-graphics-4600-05132013/

Ein paar i7-4800MQ Benchmarks.

Skysnake
2013-05-13, 13:22:34
Ist schon geklärt woran das liegt? Ich könnte mir hier den entkoppelten L3-Takt und daher kommende größere Latenzen als Ursache vorstellen.
Kann auch an dem/den zusätzlichen Hopp für den eDRAM usw liegen.

Auf dem Träger sitzen die Elkos Kondensatoren, im Die die Regler. Die Wandler sind auf dem Mainboard.
Jup, die Spannungsversorgung auf dem Board macht 12,0V->1,8V im Normalfall. Wenn ich das richtig verstanden habe, ist es auch nicht zwingend so, das man am MB mehr als diese 1,8V einstellen kann. Das wird sich aber erst bei den MB Tests zeigen. Vorallem bei den einfacheren Boards.

Auf der CPU sollten aber nicht nur Spannungsregler sitzen. Man bekommt vom MB ja nur die ~1,8V. Die real verwendeten Spannungen müssen ja auf der CPU generiert werden! Nur mit Reglern ohne Wandler/Teiler, wäre das extrem ineffizient... Bzw. ich bin mir jetzt nicht mal sicher ob das überhaupt geht, bzw ob der "Regler" der derart funktioniert nicht ein Teiler wäre.

Du hast eine Eingangspannung, die dann im Die in weitere Spannungen unterteilt wird.
Und dafür nutzt man normal Spannungs Wandler/Teiler. Teiler gehen natürlich auch, Sie würden aber gerade bei Änderungen von nur einzelnen Spannungen dafür sorgen, das man überproportional mehr Energie verbrät, weil die ohmschen Widerstände zur kompensation der Teilung angehoben werden müssen. Man legt ja die so aus, das es im Normalbetrieb richtig/optimal funktioniert!

Also das muss man sich nochmal genauer anschauen.

Also greifen Haswell-Prozis NUR noch die 12V-Schiene ab? (mit 3,3V lassen sich immense Stromflüsse nicht verhindern)

Wäre ja ein (erfreuliches) Ding!
Nein, du gehst mit 1,8V im Normalfall in die CPU. Das ist aber die einzige Spannung die die CPU bekommt. Damit wird die Ausnutzung der Pins einfacher.

Ist es wirklich so schwer zu verstehen was eine interne Regulierung der Spannung bewirkt ?

Pauschal ist der Unterschied zu früher nur das die CPU nicht mehr mit unzähligen Spannungen über das MB versorgt werden muss sondern mit einer.

Eine Spannungsregulierung sorgt aber nur dafür, dass die Schwankungen auf der Spannung ausgeglichen werden (Rückgekoppelte Steuerungssysteme im Normalfall). Um Teilspannungen zu generieren verwendet man Spannungsteiler und eben Transformatoren, also Spulenpaare. Alles andere ist mehr oder weniger Ineffizient. Da wir hier ja aber bereits Gleichspannung haben, und ja ich kenne die Vorteile eines Schaltnetzteils.., gehe ich davon aus, das man Spannungsteiler einsetzen wird. Man will nicht wirklich Wechselspannungen auf der CPU haben.... Die Auswirkungen einer derartigen Schaltung auf die CPU stelle ich mir grauenvoll vor. Da müsste man mit Groundblades noch und nöcher arbeiten...


Diese CPU Spannung liegt oberhalb aller in der CPU benötigten Spannungen. Die Regulierung in der CPU generiert dann die Spannungen für die einzelnen Teilbereiche.

ja, das, was du da beschreibst, nennt sich aber Spannungsteiler :ugly:


Das schneller und genauer als früher und gleichzeitig gibt es praktisch keine Limitierungen bezogen auf die Anzahl unabhängiger Bereiche. Schneller und genauer heißt zwangsläufig das die Spannungen in der CPU niedriger ausfallen als bei externer Regulierung. Ist das jetzt gut oder schlecht für OC ? ;)

Nein bedeutet es nicht. Du erkennst nämlich durchaus richtig, dass das grundsätzlich besser ist. Die Schaltgruppen sind aber eben für gewisse Lasten ausgelegt, und da es für ALLE!!! CPUs nur noch eine gleichartige Schaltgruppe geben wird, wird man die eben nicht an den paar OC-Hanseln auslegen, sondern eben am default Topmodell+paar Prozent Sicherheit. Ansonsten baust du nämlich alles wieder zu groß, was dann am Ende die Effizienz wieder leiden lässt....


-> Reguliert wird innerhalb der CPU. Die Leistungstransistoren sind weiterhin auf dem MB (12V -> 2,4V ? ~ 50A).

1,8V, Siehe unten ;)

Nope, die Eingangsspannung für die integrierten Spannungsregler liegt typischerweise zwischen 1,8 und 2,3 Volt:

http://abload.de/img/screen20shot202013-047haqy.png
Quelle: http://www.anandtech.com/show/6898/intel-details-haswell-overclocked-at-idf-beijing
Der Stromfluß über den Sockel wird damit gegenüber Ivy Bridge nicht ganz halbiert.

Danke für den link. Ich war mir nicht mehr ganz sicher, ob es jetzt 1,3 oder 1,8V waren, die die CPU bekommt. Ich hatte mit ASRock eine sehr interessante Unterhaltung über die Spannungsversorgung. ;)

Über die 2,3V hatte man aber nicht gesprochen, sondern von 1,8V, eventuell hatte ich es aber auch einfach im Messelärm nicht 100% richtig verstanden, und habe daher auch die 1,3V (wohl eher 2,3 ;)) und 1,8V im Hinterkopf

Fragt sich nur ob die weitere Verkleinerung überhaupt noch was großartig bringt. Die verkleinern den Die immer mehr, und es gibt mehr Hitze auf einen kleineren Punkt. Bei den GPUs bleibt die Fläche gleich und es gibt entsprechende Steigerungen bei der Performance, bei den CPUs macht das Intel nicht weil es keinen Bedarf für eine höhere Performance gibt.
GPUs senken im Zweifel einfach die Leistung pro "Thread", wenn man dadurch die Gesamtleistung durch mehr Einheiten steigern kann. Man arbeitet eh schon massiv parallel. Da ists dann auch scheis egal, ob man 30% mehr "Threads" hat oder nicht

Bei CPUs sieht das anders aus. Man braucht/will eine gewisse Single-Thread-Leistung. Da tut sich aber nicht viel, also spart man sich das aufblasen des Kerns, vor allem wenn man nicht unter druck steht....
Und für mehr parallele Leistung gibts ja dann noch immer die großen Xeons.:wink:


Dann vielleicht auf einen IB-E mit 8 Kernen als Core i7 hoffen. ;)
Wird es nicht geben.... Wie oft denn noch :P

YfOrU
2013-05-13, 14:36:44
ja, das, was du da beschreibst, nennt sich aber Spannungsteiler :ugly:

Oder auch Abwärtsregler. Sich auf einen Begriff zu versteifen bringt nichts denn am Ende wird es heute pauschal unter VR(M) zusammengefasst.


Nein bedeutet es nicht. Du erkennst nämlich durchaus richtig, dass das grundsätzlich besser ist. Die Schaltgruppen sind aber eben für gewisse Lasten ausgelegt, und da es für ALLE!!! CPUs nur noch eine gleichartige Schaltgruppe geben wird, wird man die eben nicht an den paar OC-Hanseln auslegen, sondern eben am default Topmodell+paar Prozent Sicherheit.

Der IVR ist mit Sicherheit zumindest bei dieser Generation sehr großzügig dimensioniert. Alles andere wäre bezogen auf die Serienfertigung (teildefekte IVRs) zu riskant. Der IVR darf praktisch in keinen Fall zum Ausschuss (Produktion) führen.


Ansonsten baust du nämlich alles wieder zu groß, was dann am Ende die Effizienz wieder leiden lässt....

Ein Blick auf das Design hilft ;)
http://www.psma.com/sites/default/files/uploads/tech-forums-nanotechnology/resources/400a-fully-integrated-silicon-voltage-regulator.pdf

Es müssen bereits grundsätzlich ausreichend Power Cells vorhanden sein um bei maximaler Last (Prozessor) überhaupt noch die höchste Effizienz erreichen zu können. Mehr beeinträchtigen die Effizienz kein Stück denn der optimale Arbeitspunkt muss in jeder Richtung gehalten werden können (Abschaltung, Verteilung). Bei OC wird man früher oder später darüber hinaus laufen aber einiges an Luft ist bei diesem Design somit automatisch vorhanden. Oben drauf kommen noch Faktoren wie Fertigung und Toleranz.

-> der IVR ist extrem flexibel denn ansonsten müsste der bei jeder TDP Klassifizierung angepasst werden. Interessant wird noch ob die variable Eingangsspannung in der Praxis genutzt wird. Für mobile Geräte durchaus interessant um das Layout weiter zu vereinfachen.

Knuddelbearli
2013-05-13, 16:59:47
Mehr beeinträchtigen die Effizienz kein Stück denn der optimale Arbeitspunkt muss in jeder Richtung gehalten werden können (Abschaltung, Verteilung). Bei OC wird man früher oder später darüber hinaus laufen aber einiges an Luft ist bei diesem Design somit automatisch vorhanden. Oben drauf kommen noch Faktoren wie Fertigung,

Frage ist halt wieviel, ein ordentlich geocte SandyBrudge schafft aj schon ihre 150W was dann fast doppelter Verbrauch ist. Und kann mir einfach nicht vorstellen das da die IVR noch absolut stabil sind, Bei Highend Mainboards werden aber aktuell entsprechend stabile verbaut

YfOrU
2013-05-13, 17:12:12
Frage ist halt wieviel, ein ordentlich geocte SandyBrudge schafft aj schon ihre 150W was dann fast doppelter Verbrauch ist. Und kann mir einfach nicht vorstellen das da die IVR noch absolut stabil sind, Bei Highend Mainboards werden aber aktuell entsprechend stabile verbaut

Um die 125-130W sollten mindestens möglich sein und das ist in Relation gleichwertig bis besser. Stabil ist übrigens relativ denn ich würde es hier eher unter dem Gesichtspunkt der (abnehmenden) Effizienz betrachten. Ersteres ist bei diesem Design das kleinere Problem. So stabil ist kein MB VRM.

Knuddelbearli
2013-05-13, 17:21:57
naja 125-130W wären ebenso wie bei Ivy dank WLP wieder 100-300Mhz weniger

summiert sich somit auf 200-600Mhz ...
Naja bin mal auf Anfang Juni gespannt vielleicht verlötet es Intel ja doch wieder dann wäre zumindest das Problem weg.
Dazu noch bessere IVR ( die statt auf 90W auf min 130W ausgelegt sind mit Sicherheitspudder also locker 160+ gehen ) bei den K Prozessoren und Referenztakt Übertaktung ( das mit +25% und +66% )bei den nicht K und ich nehme alles zurück ^^

Aber für mich muss sich Intel erst mal wieder beweisen nach den ganzen Mist in letzter Zeit.

YfOrU
2013-05-13, 17:34:04
naja 125-130W wären ebenso wie bei Ivy dank WLP wieder 100-300Mhz weniger

Gegenüber SB ? Definitiv nicht. Die Core Voltage liegt deutlich unter IB.

Knuddelbearli
2013-05-13, 17:41:08
gegenüber das was er bei lukü und sehr guter WLP ( dürfte dann mit verlöten vergleichbar sein ) schafft.

Konami
2013-05-13, 17:53:06
Ein Blick auf das Design hilft ;)
http://www.psma.com/sites/default/files/uploads/tech-forums-nanotechnology/resources/400a-fully-integrated-silicon-voltage-regulator.pdf

Es müssen bereits grundsätzlich ausreichend Power Cells vorhanden sein um bei maximaler Last (Prozessor) überhaupt noch die höchste Effizienz erreichen zu können. Mehr beeinträchtigen die Effizienz kein Stück denn der optimale Arbeitspunkt muss in jeder Richtung gehalten werden können (Abschaltung, Verteilung). Bei OC wird man früher oder später darüber hinaus laufen aber einiges an Luft ist bei diesem Design somit automatisch vorhanden. Oben drauf kommen noch Faktoren wie Fertigung und Toleranz.

-> der IVR ist extrem flexibel denn ansonsten müsste der bei jeder TDP Klassifizierung angepasst werden. Interessant wird noch ob die variable Eingangsspannung in der Praxis genutzt wird. Für mobile Geräte durchaus interessant um das Layout weiter zu vereinfachen.
Kann man aus der Angabe von 20 Zellen à 25 Ampere keine Rückschlüsse ziehen? Adam Riese flüstert mir irgendwas von 500 A gesamt. Bei einer Ausgangsspannung von ~1V müsste das Ding eine Effizienz von 30% haben, damit >150W zum Problem werden? :ugly:

Ist natürlich eine Milchmädchenrechnung – ich geh davon aus, dass einem bei so niedriger Effizienz längst die Temperatur um die Ohren fliegen würde. Mir gehts nur rein rechnerisch um die Frage: Was muss passieren, damit das 500A-Rating nicht mehr reicht?

YfOrU
2013-05-13, 18:40:40
Das ist ein 90nm Test Vehicle welches auf das Package eines Xeon gesetzt wurde und nicht der finale Haswell IVR. Rückschlüsse auf die Belastbarkeit in exakten Zahlen sind damit nicht möglich. Konzept und Design werden aber deutlich und daraus lassen sich Rückschlüsse ziehen.

Ich gehe durchaus davon aus das der Haswell IVR mehr als 130W physikalisch bei entsprechender Kühlung verträgt. Allerdings könnte die abnehmende Effizienz ab einem gewissen Punkt zum Problem werden da sich die Verlustleistung des IVR zur CPU addiert. Temperatur zu hoch -> Notbremse. Wenn Intel allerdings mehr als nötig verbauen sollte (was nicht so unwahrscheinlich ist) kann man sich ganz beruhigt zurücklehnen.

Ronny145
2013-05-14, 02:02:05
http://www.coolaler.com/showthread.php/303785-%E5%8B%87%E6%B8%A1%E9%BB%91%E6%B0%B4%E6%BA%9D%E7%9A%84%E7%9B%92%E8%A3%9D-Core-i7-4770K-Retail-%E6%AD%A3%E5%BC%8F%E7%89%88


Retail Sample von Coolaler. Es ist beim C0 Stepping geblieben. Um die 10 Punkte im Cinebench 11.5 zu knacken braucht Haswell 4/8 ~4620 Mhz.

http://www.coolaler.com.tw/coolalercbb//corei7_4770k_retail/3.png

Knuddelbearli
2013-05-14, 05:24:49
also ca 5%-7% mehr im Multithreaded

wäre eine extrem miese Leistung dafür was da alles geändert wurde ...

robbitop
2013-05-14, 08:52:42
Ist Cinebench nicht relativ FPU lastig? Vor allem die INT Leistung müsste bei SMT besser werden, da ja noch eine ALU hinzukam.

YfOrU
2013-05-14, 09:12:25
Ist Cinebench nicht relativ FPU lastig? Vor allem die INT Leistung müsste bei SMT besser werden, da ja noch eine ALU hinzukam.

Ja und deshalb sehen die BD bzw. PD immer recht schlecht aus. Wirklich repräsentativ für alltägliche Workloads ist Cinebench nicht.

Duplex
2013-05-14, 12:20:38
also ca 5%-7% mehr im Multithreaded

wäre eine extrem miese Leistung dafür was da alles geändert wurde ...
Die SMT Performance wird etwas besser ausfallen, die IPC wird gegenüber den Vorgänger fast identisch ausfallen, es gibt halt im x86 Bereich keine Fortschritte mehr, die Konkurrenz macht seit ende K8 keine großen Schritte mehr, mit BD wurde ein großer Rückschritt geschaffen. Intel ist nicht gezwungen die Leistung spürbar zu erhöhen, Sie könnten den CPU Takt in richtung 4,5Ghz Turbo hinbekommen.
Ja und deshalb sehen die BD bzw. PD immer recht schlecht aus. Wirklich repräsentativ für alltägliche Workloads ist Cinebench nicht.Nicht nur bei Cinebench ist das Bulldozer Design so schlecht, denk doch mal nach...ein aktueller Intel Kern hat über 50% mehr Instruction per Cycle + > 30% SMT & effizienzvorteil durch überlegende Fertigung (kleinere Strukturen + Qualitäts Fertigung / kein Globalfoundries oder IBM bockmist).

YfOrU
2013-05-14, 13:07:00
Es ging hier explizit um die FPU und Cinebench.

robbitop
2013-05-14, 13:37:36
Die SMT Performance wird etwas besser ausfallen, die IPC wird gegenüber den Vorgänger fast identisch ausfallen, es gibt halt im x86 Bereich keine Fortschritte mehr, die Konkurrenz macht seit ende K8 keine großen Schritte mehr, mit BD wurde ein großer Rückschritt geschaffen. Intel ist nicht gezwungen die Leistung spürbar zu erhöhen, Sie könnten den CPU Takt in richtung 4,5Ghz Turbo hinbekommen
Zwar müsste man Skylake abwarten - aber ich vermute mal, dass CPUs was Realworldperformance angeht (also keine SIMD Synthies), schon ziemlich weit oben auf der Kurve des sinkenden Grenzertrags sind. Was man jetzt hat, wurde hart erkämpft. Alle low hanging fruits und auch aufwändige Maßnahmen (schnelle caches, ausgefeiltestes OoO, ausgefeilte Decoder, Loop detector, integrierter Speichercontroller, breites Design etcpp) sind bereits abgeerntet. Jetzt muss man jedes % hart und immer härter erkämpfen.
AMD kann noch einige Früchte ernten. Gerade bei BD klemmt noch vieles. (Steamroller soll angeblich eine IPC Steigerung in Cinebench von 25 % haben.) Aber ich vermute, Intel wird aus den so oft genannten Gründen immer im Vorteil bleiben.

Xaver Koch
2013-05-14, 13:47:08
also ca 5%-7% mehr im Multithreaded

wäre eine extrem miese Leistung dafür was da alles geändert wurde ...
Selbst gegenüber Sandy Bridge halten sich die Performance-Gewinne in Grenzen. Dafür, dass man sich auch noch ein neues Board kaufen soll (S. 1150), wird wirklich fast nichts geboten. Gut, die integrierte Grafik hat gegenüber Ivy und vor allem Sandy stark zugelegt, aber das ersetzt bei weitem keine Spiele-Karte (GTX oder was Vergleichbares von AMD) und fürs Arbeiten am Desktop bringt es auch nichts.

Was spricht denn eigentlich für Hasewell, außer das neueste zu haben? Wenn eine Anwendung oder ein Spiel mit einer schnellen Sandy/Ivy zu langsam ist, wird es mit einem Hasewell nicht brauch- bzw. spielbar. Unter 30% Leistungsgewinn denke ich nicht mal an einen Neukauf. Und wenn ich dann schon wieder von einem Bug im Chipsatz lese erst recht nicht (einmal Board tauschen gegen "B3-Stepping" -P67 und Z68- reicht). Aber gut, Geld und Arbeit gespart - danke Intel. ;)

Iruwen
2013-05-14, 14:00:08
Nicht jeder hat sich ein SB/IB System gekauft? Viele dich ich kenne haben noch i7-920 Nehalems um die 4GHz laufen, die würden jetzt auch nicht aus Performance- sondern aus Effizienzgründen umsteigen. Mit der Northbridge meines X58 Boards kann ich das Wohnzimmer heizen.

dildo4u
2013-05-14, 14:06:30
I7-4930MX

3DMark 11 Physik 9100
http://im42.gulfup.com/BaNIT.png

Der Vorgänger Core i7-3940XM 6200
http://cpuboss.com/cpu/Intel-Core-i7-3940XM

http://im32.gulfup.com/R2uvR.png

http://www.neogaf.com/forum/showpost.php?p=57640908&postcount=14623

Scheint ordentlich zu Takten für ne Mobile CPU viel schneller als der Vorgänger.
Vemutlich nutzt der Turbo das TDP Budget um längen besser.

Ronny145
2013-05-14, 14:08:28
Zwar müsste man Skylake abwarten - aber ich vermute mal, dass CPUs was Realworldperformance angeht (also keine SIMD Synthies), schon ziemlich weit oben auf der Kurve des sinkenden Grenzertrags sind. Was man jetzt hat, wurde hart erkämpft. Alle low hanging fruits und auch aufwändige Maßnahmen (schnelle caches, ausgefeiltestes OoO, ausgefeilte Decoder, Loop detector, integrierter Speichercontroller, breites Design etcpp) sind bereits abgeerntet. Jetzt muss man jedes % hart und immer härter erkämpfen.
AMD kann noch einige Früchte ernten. Gerade bei BD klemmt noch vieles. (Steamroller soll angeblich eine IPC Steigerung in Cinebench von 25 % haben.) Aber ich vermute, Intel wird aus den so oft genannten Gründen immer im Vorteil bleiben.


Intel hat sich auf Effizienz fokussiert und weniger auf Performance.

http://intelstudios.edgesuite.net/idf/2012/sf/ti/SPCS001/index.htm#

Ab 23:25

Skylake müsste nicht unbedingt die IPC großartig steigern. Im Jahr 2015 dürfte eine Kernzahlerhöhung deutlich wertvoller sein.

robbitop
2013-05-14, 14:14:19
Irgendwann muss man die Shrinks ja auch mal für 4 Kerne nehmen. Ich meine streng genommen gibt es seit 65 nm 4 Kerne (aber auf 2 Dice). Auf einem Die seit 45 nm.
Wobei sich die Frage stellt, wieviel es am Ende des Tages bringt, die Anzahl der Kerne immer weiter zu verdoppeln. Ich frage mich, ob ein asymetrisches Design ab einem gewissen Punkt nicht besser ist: also ein paar IPC starke Cores die sehr viele Transistoren kosten und viele kleine IPC-schwache Cores (oder aber HSA). Was sich sehr gut parallelisieren lässt, kann man vermutlich auch billiger beschleunigen als mit einer vervielfältigung großer Kerne.

Nightspider
2013-05-14, 15:05:35
Naja das Thema hatten wir ja schon oft genug.
Klar nimmt der Anstieg der Leistung mit steigender Kernzahl ab aber 8 Kerne würden schon noch einen merklichen Performance-Sprung bringen, selbst wenn sich ein paar der "HighTech" Kerne nur um ""unwichtige"" Threads kümmern.

Die Spieleentwickler werden schon schnell genug lernen die 8 Kerne der PS4 und Xbox3 bestmöglich auszulasten.

Mich würde es auch wundern wenn Intel nicht spätestens mit Skylake die Anzahl der Kerne erhöht.

Broadwell scheint ja nicht für den Desktop zu kommen aber vielleicht shrinkt Intel dennoch die "alte" Haswell Architektur auf 14nm und erhöht die Kernzahl und bringt diesen dann auch in den Dekstop Markt.

Mit dem neuen 45nm Prozess hatte Intel damals auch den ersten echten QuadCore eingeführt.

2phil4u
2013-05-14, 15:10:30
Ich denke es ist nur noch eine Frage der Zeit, bis diese unterschiedlichen Kerne kommen werden.
Man denke nur an die mögliche Performance/Watt Steigerung, die man mit vielen kleinen niedrig getakteren Kernen haette.
Allerdings werden halt auch die GPUs immer flexibler, so dass bei APU (der Trend geht ja eindeutig da hin) dann dieser Teil für parallesierenden Sachen genutzt wird, starke 3D-Leistung braucht man ja ausserhalb von Spielen nur selten.

dildo4u
2013-05-14, 15:11:25
Intel wird einfach die kleineren Quad's mit HT ausstatten,alles was an man an Transistorren dazu bekommt wird zu 90% in die GPU gehen.Die gepatchten Crysis 3 Benches zeigen das HT,die 8Core's noch lange auf Abstand halten wird.

http://www.pcgameshardware.de/Crysis-3-PC-235317/Tests/Crysis-3-CPU-Test-1068140/

robbitop
2013-05-14, 15:49:25
Die Spieleentwickler werden schon schnell genug lernen die 8 Kerne der PS4 und Xbox3 bestmöglich auszulasten.
Wobei das schon verdammt schwer ist. Vieles an Multithread-Optimierungen geht laut Coda/Alphatier nur bei einer statischen Umgebung (Konsole).
Ich vermute mal, dass man das Spielchen im PC Bereich noch bis 8...16 Kernen betreibt und danach dann die Entwickler weit genug sind für HSA (oder ähnliche Dinge).

Xaver Koch
2013-05-14, 15:49:59
Nicht jeder hat sich ein SB/IB System gekauft? Viele dich ich kenne haben noch i7-920 Nehalems um die 4GHz laufen, die würden jetzt auch nicht aus Performance- sondern aus Effizienzgründen umsteigen. Mit der Northbridge meines X58 Boards kann ich das Wohnzimmer heizen.
Ja schon, aber die TDP eines Core i5 3770(K) beträgt 77W, die eines 4770(K) 82W.

Da man für Hasewell ein neues Board kaufen muss, warum nicht ein im Vergleich ausgereiftes Z77 mit einer schnellen Ivy nehmen? Auf 1150 würde ich erst umsteigen, wenn da mindestens eine anständige refresch-CPU kommt. Ansonsten kann man gleich auf den nächsten Sockel warten bzw. (wenn noch keine Sandy/Ivy vorhanden) jetzt eine schnelle Ivy nehmen.

Für gerade mal oder eher < 5% mehr Leistung einen neuen Sockel? Das kann es doch nicht sein.

Man "spürt" beim Arbeiten auf dem Desktop zwischen einer eher langsameren i5 2400 und einem im Vergleich flotter getakteten i5 3550 (gleiches Brett und Ram) absolut keinen Unterschied (die deutlich schnellere IGPU auch nicht - außer bei Spielen vielleicht).

Ronny145
2013-05-14, 15:56:20
Was soll das affige Gejammer? Dich zwingt keiner zum Kauf. Nimm IVB wenn dir der besser gefällt, wen juckt das?

robbitop
2013-05-14, 16:19:33
Ich verstehe es auch nicht. Man sollte sich freuen, dass die HW länger hält und man weniger Investitionen tätigen muss.

YfOrU
2013-05-14, 17:06:04
Ja schon, aber die TDP eines Core i5 3770(K) beträgt 77W, die eines 4770(K) 82W.

Wenn IB mit Haswell verglichen wird (Verlustleistung, Effizienz) führt der Weg nur über die gesamte Plattform (also inkl. MB). Oben drauf kommt noch die potentere GPU. Die Verlustleistung der CPU selbst ist bei exakter Betrachtung des Paketes zwangsläufig geringer (als bei IB). Genaugenommen muss auch die HD4600 effizienter sein als eine HD4000 denn sonst geht die Rechnung (+ IVR) kaum auf.

boxleitnerb
2013-05-14, 17:37:44
Ich frage mich, ob Intel jemals auch die Spieleleistung genauso steigern kann wie die 3DMark-Leistung. Laut den ersten Ergebnissen sieht es ja in realen Anwendungen deutlich düsterer aus als in synthetischen Benchmarks.

dildo4u
2013-05-14, 17:40:14
Viehleicht ist 3DMark nicht so Bandbreiten limitiert bis jetzt hat noch niemand die IGP Version mit edram getestet.

4770R hat diese GPU.
http://images.anandtech.com/doci/6926/Screen%20Shot%202013-05-01%20at%205.36.57%20PM.png

YfOrU
2013-05-14, 17:42:47
Ich frage mich, ob Intel jemals auch die Spieleleistung genauso steigern kann wie die 3DMark-Leistung. Laut den ersten Ergebnissen sieht es ja in realen Anwendungen deutlich düsterer aus als in synthetischen Benchmarks.

Was ich bisher gesehen habe war alles FHD mit Kantenglättung (4 - 8). Um (klassische) IGPs zu vergleichen nicht gerade sinnvoll - egal ob mit oder ohne OC des Arbeitsspeichers. Ein Teil der höheren Rohleistung zerbröselt so an der verfügbaren Bandbreite.

Knuddelbearli
2013-05-14, 17:44:49
am pc zocke ich lieber mit FHD und low details als 720p mit medium.
Am TV ist es natürlich umgekehrt

Spasstiger
2013-05-14, 17:45:34
Was heißt düster, die Spieleleistung wurde mit 25% mehr Recheneinheiten (HD 4600 = 20 EUs) und 9% mehr Turbotakt um rund 30% gegenüber der HD 4000 gesteigert, das ist ziemlich optimal. Die 3DMark-11-Ergebnisse riechen nach Treiberschummelei, ich weiß nicht, was ich davon halten soll.
GT3e sollte die Leistung der HD 4600 nochmal verdoppeln (40 statt 20 EUs, mehr Bandbreite durch eDRAM) und das wird im mobilen Bereich schon eine Messlatte für IGPs sein. Mit einem Faktor 2,5 bei der Spieleperformance gegenüber der HD 4000 rechne ich schon.

Ronny145
2013-05-14, 17:50:04
Was heißt düster, die Spieleleistung wurde mit 25% mehr Recheneinheiten (HD 4600 = 20 EUs) und 9% mehr Turbotakt um rund 30% gegenüber der HD 4000 gesteigert, das ist ziemlich optimal.


Du bist schlecht informiert. Mit nur 25% mehr EUs und 9% mehr Takt wären 25%+ nicht drin ohne im gleichen Maß die Bandbreite zu steigern. Es gab andere Verbesserungen an der Architektur. Müssen die jetzt ständig neu aufgezählt werden?

y33H@
2013-05-14, 18:15:30
Rechnerisch +36 Prozent zuzüglich den Architekturverbesserungen ... die Messungen der Spiele bei China Daily sehen also durchaus realistisch aus, wenngleich vll noch was bremst (Treiber).

Ronny145
2013-05-14, 18:25:28
Die rechnerischen Prozente sind nur theoretischer Natur mit dem Bandbreitenproblem. Das sieht in GPGPU Benchmarks sicherlich anders aus. Bei AMDs iGPUs ist das auch nicht anders. Die müssten rein von der Rechenleistung sich viel deutlicher von der HD4000 absetzen können. Der 3dmark11 ruckelt sich einen mit 5fps ab, vielleicht ist das Bandbreite dort vernachlässigbar. In Unigine Full HD Very High (was sich auch einen bei rund 5ps abruckelt) und einigen OpenCL Benchmarks sehe ich auch Steigerungen im Bereich von 50%. Die Spieleperformance der GT2 liegt genau im erwarteten Bereich oder wenn dann leicht drüber. Vorausgesagt waren 20%.

Botcruscher
2013-05-14, 18:30:26
Ich verstehe es auch nicht. Man sollte sich freuen, dass die HW länger hält und man weniger Investitionen tätigen muss.

Nannte sich früher mal Fortschritt. Da gab es tatsächlich alle Jahre mal mehr Geschwindigkeit für das Geld. Übrigens hält die Hardware genau so lange wie die letzte auch. Es dauert nur länger bis sie jemand anderes in der Familie bekommt.

Xaver Koch
2013-05-14, 20:55:44
Nannte sich früher mal Fortschritt. Da gab es tatsächlich alle Jahre mal mehr Geschwindigkeit für das Geld. Übrigens hält die Hardware genau so lange wie die letzte auch. Es dauert nur länger bis sie jemand anderes in der Familie bekommt.
Es fehlt schlicht an ernster Konkurrenz (siehe nVidia 700er Karten - Kepler-Refresh). Aber schön, bleibt die Sandy halt noch ein, zwei Jährchen länger drin. ;)

Wuge
2013-05-14, 22:45:29
Na dann kann der Gulfi ja noch ne Weile bleiben.

An die Gurus:
Könnte man mit den aktuellen Fertigungstechnologien und dem inzwischen dazugewonnenen Know-How einen Weg gehen, der höhere Taktraten ermöglicht ohne die IPC so stark zu belasten wie Netburst damals? Da man in Sachen IPC ja an die Mauer des Grenzertrags kommt, wäre das eine Möglichkeit?!?

S940
2013-05-14, 22:53:30
Könnte man mit den aktuellen Fertigungstechnologien und dem inzwischen dazugewonnenen Know-How einen Weg gehen, der höhere Taktraten ermöglicht ohne die IPC so stark zu belasten wie Netburst damals? Da man in Sachen IPC ja an die Mauer des Grenzertrags kommt, wäre das eine Möglichkeit?!?
Ein Kombi-Prozess aus Finfet+FD-SOI sollte die Leckströme schon im Zaum halten und nen hohen Takt ermöglichen.
Aber das ist heutzutage halt sowas von egal ... stattdessen schmeißt man halt 1-2 mehr Kerne aufs DIEs. Oder halt ne größere GPU, die zieht auch gut Strom.

Soll heißen es ginge wohl, aber mittlerweile gibts sinnvollere Sachen die freigewordene TDP zu verballern.

AMDs BD geht ja ein bisschen in die Richtung. Die INT-Cluster sind schön schlank und können relativ gut getaktet werden .. aber naja TDP-mäßig klappts nicht wirklich. Bin wirklich gespannt, welchen Prozess AMD bei 20/14nm verwendet.

Knuddelbearli
2013-05-14, 23:49:51
naja was die igp verbraucht kann einem ja egal sein wenn man sie nicht nutzt ^^

horn 12
2013-05-14, 23:55:44
Also wohl doch lieber zur Konkurrenz greifen, zusammen mit AM3+ Board und FX 8320 weitaus günstiger, zwar mehr Stromverbrauch aber wohl besser gewappnet für de Zukunft.

PS: Wie läuft übrigens "Metro Last Light" auf den Intel / FX Cpu´s ?

kunibätt
2013-05-15, 00:07:34
Für Liebhaber von lahmen Ramsch definitiv zu empfehlen!
Oder kommt da bald ein neuer Cpu-Treiber?

Atma
2013-05-15, 00:29:02
PS: Wie läuft übrigens "Metro Last Light" auf den Intel / FX Cpu´s ?
AMD wird wie so oft völlig von den Intels zersägt. Und hier wurden wohlgemerkt nur Sandys getestet:

http://gamegpu.ru/images/stories/Test_GPU/Action/Metro%20Last%20Light/test/metro%20proz.jpg

PhysX Bench:

http://gamegpu.ru/images/stories/Test_GPU/Action/Metro%20Last%20Light/test/metro%20proz%20x.jpg

horn 12
2013-05-15, 00:38:54
Uii, Uii dies sieht ganz und gar nicht gut aus!
Danke schonmal, da wird es doch HASWELL werden müssen, da ich von S775 QuadCore Q9550 @3,45 Ghz umsteige.

Ronny145
2013-05-15, 01:00:12
Aua das sieht übel aus.

dildo4u
2013-05-15, 02:01:43
Die FPS sind Ingame ok mit AMD,das ist der Bench du hast im Game selber nicht so viele Figuren + Action.

http://youtu.be/BT5VIxim1xw

Loeschzwerg
2013-05-15, 08:08:16
Uii, Uii dies sieht ganz und gar nicht gut aus!
Danke schonmal, da wird es doch HASWELL werden müssen, da ich von S775 QuadCore Q9550 @3,45 Ghz umsteige.

Bei mir wird es auch Haswell + ITX Board. Steige von einem Phenom II X6 1050T @3GHz (auch ITX :freak:) um. Von AMD gibt es leider nichts vergleichbares.

Gut, die CPU Leistung von Haswell ist jetzt nicht sonderlich gestiegen, aber es war ja eigentlich klar das man sich auf den GPU Teil konzentriert. Intel kann sich beim CPU Teil auch irgendwo den "Stillstand" leisten ^^

Skysnake
2013-05-15, 09:56:20
AMD wird wie so oft völlig von den Intels zersägt. Und hier wurden wohlgemerkt nur Sandys getestet:

http://gamegpu.ru/images/stories/Test_GPU/Action/Metro%20Last%20Light/test/metro%20proz.jpg

PhysX Bench:

http://gamegpu.ru/images/stories/Test_GPU/Action/Metro%20Last%20Light/test/metro%20proz%20x.jpg
Hast du einen Link zu dem Test?

Lustig finde ich ja die ziemlich durcheinander geratene Farbgebung ;D

BTT:
Die Ergebnisse sehen schon SEHR seltsam aus. Das kann eigentlich nicht stimmen. Der Abstand zwischen i5-760 und FX-8350 ist lächerlich.

Selbst in SC2, was ja BD mal gar nicht liegt, da nur einige wenige Threads die richtig reinhauen, liegen der FX-8350 vor dem i5-760... http://www.pcgameshardware.de/FX-8350-CPU-256473/Tests/FX-8350-Test-Vishera-Piledriver-1031473/galerie/2005902/#?a_id=1031473&g_id=-1&i_id=2005898

Ansonsten liegen i5-760 und FX-8350 im Allgemeinen wenn schon auf Augenhöhe, aber nicht so eklatant auseinander.

Das sieht eher so aus, als ob die AMD Fraktion auf x87 Code zurückfällt. Haben die etwa nen asbach uralten Intelcompiler genommen? :ugly:

Ronny145
2013-05-15, 12:45:17
Hier der Link: http://gamegpu.ru/action-/-fps-/-tps/metro-last-light-test-gpu.html


i5-4350U und i7-4650U Spezifikation: http://www.cpu-world.com/news_2013/2013051501_Specifications_of_Intel_Core_i7-4650U_and_i5-4350U_CPUs.html

Skysnake
2013-05-15, 13:26:10
Also das sieht echt SEHR seltsam aus.

Gerade wenn man sich die Kernauslastung auch anschaut, dann macht das mal überhaupt keinen Sinn. Die Idealn da ja halb rum.

Also den "Benchmark" kannste wohl ziemlich in die Tonne kloppen. Da macht irgendwas fürchterlich die krätsche, weils wohl ungeschickt implementiert ist. Ist ja anscheinend auch nicht representativ fürs Game.

YfOrU
2013-05-15, 13:27:06
i5-4350U und i7-4650U Spezifikation: http://www.cpu-world.com/news_2013/2013051501_Specifications_of_Intel_Core_i7-4650U_and_i5-4350U_CPUs.html

Bleibt zu hoffen das die Hersteller den gewonnen Raum (kompaktere Systemplatinen) für größere Akkus nutzen und in der Sub bzw. Ultrabook Kategorie häufiger 50+ Wh verbauen.
Führt zwar zu einem etwas höheren Gewicht aber zusammen mit der reduzierten Leistungsaufnahme bei Leerlauf und Teillast sollte das auch unter realistischen Bedingungen für einen Arbeitstag reichen.

Allerdings habe ich die Befürchtung das im Schnitt eher das Gegenteil passieren wird -> leichter, flacher und am Ende keine große Verbesserung bei der realen Laufzeit abseits von Leerlauf.

Atma
2013-05-15, 16:38:08
Also das sieht echt SEHR seltsam aus.

Gerade wenn man sich die Kernauslastung auch anschaut, dann macht das mal überhaupt keinen Sinn. Die Idealn da ja halb rum.

Also den "Benchmark" kannste wohl ziemlich in die Tonne kloppen. Da macht irgendwas fürchterlich die krätsche, weils wohl ungeschickt implementiert ist. Ist ja anscheinend auch nicht representativ fürs Game.
Ändert aber leider nichts an der Tatsache, dass AMD in den meisten aktuellen Games teilweise deutlich hinter Intel liegt. Nur wenn man aufs Geld achten muss, sind AMD CPUs zu empfehlen, sonst jedoch nicht.

Schaffe89
2013-05-15, 16:50:41
Kann ich mir jetzt auch irgendwie icht vorstellen, der FX-8350 arbeitet eigentlich was Spiele angeht etwa 15% unter einem i5 2500k im Mittel.

Mal gucken wann der CPU Test von der PCGH kommt.

Undertaker
2013-05-15, 19:39:48
i5-4350U und i7-4650U Spezifikation: http://www.cpu-world.com/news_2013/2013051501_Specifications_of_Intel_Core_i7-4650U_and_i5-4350U_CPUs.html

Ah ja, das war eigentlich schon zu vermuten: Die geringere TDP und die starke GPU erfordern eine deutliche Absenkung der Basistaktrate. Sofern der Chip aber sauber erkennt, ob CPU oder GPU limitieren und dementsprechend die Taktraten setzt, ist das ja kein größeres Problem. In reinen CPU-Anwendungen dürfte durch die IPC-Steigerung wohl immer noch ein kleines Plus herausspringen.

y33H@
2013-05-15, 20:15:14
Mal gucken wann der CPU Test von der PCGH kommt.Zu Metro LL? Nicht geplant.

Ronny145
2013-05-16, 17:24:21
Test von pconline (http://diy.pconline.com.cn/329/3297240.html). Die letzten beiden sind load Verbrauchswerte vom System. Die würde ich mit Vorsicht genießen weil das Board einen großen Einfluss drauf nehmen kann, sieht dennoch vielversprechend aus der Verbrauch.


http://s1.directupload.net/images/130516/dcahofxo.jpg http://s14.directupload.net/images/130516/ddprf8hy.jpg

http://s7.directupload.net/images/130516/xcs4xuty.jpg http://s1.directupload.net/images/130516/v7f2yybx.jpg

http://s7.directupload.net/images/130516/zmhvrg3d.jpg http://s14.directupload.net/images/130516/8rypknf2.jpg

http://s14.directupload.net/images/130516/ugoqkovw.jpg http://s14.directupload.net/images/130516/ukdp8fxx.jpg

http://s1.directupload.net/images/130516/sh3f63jl.jpghttp://s1.directupload.net/images/130516/qbhfb437.jpg

http://s7.directupload.net/images/130516/uv5gojaw.jpg

Ronny145
2013-05-16, 18:10:32
HD4600 @1250 Mhz Test:

http://s1.directupload.net/images/130516/vlx3akbt.jpg http://s1.directupload.net/images/130516/9t2mivrj.jpg

http://s7.directupload.net/images/130516/beg7sbu9.jpg http://s1.directupload.net/images/130516/a4az6ws7.jpg

Verbrauch mit iGPU:


http://s1.directupload.net/images/130516/cgrofv3w.jpg http://s14.directupload.net/images/130516/5fkea2yf.jpg

http://s14.directupload.net/images/130516/8jwcwd2b.jpg

Schaffe89
2013-05-16, 18:52:39
3 bis 10% mehr CPU Power, immerhin.

die IGP überzeugt aber, 30% mehr Leistung bei deutlich weniger Stromaufnahme, nicht schlecht.


Tante edit:
Was hat es sich mit der letzten IGP Leistungsaufnahme auf sich? Da ändert sich nix?

Knuddelbearli
2013-05-16, 18:57:25
würd sagen idle, cpu last und cpu+gpu last

wenn die japanisch wäre könnte ich meine Nachbarin fragen ... ^^

Ronny145
2013-05-16, 19:08:52
Idle, GPU load (vermutlich ein Spiel) und das letzte CPU load mit Prime95. Bei GPU load kommt die deutlich bessere Effizienz der HD4600 zum Vorschein.

Knuddelbearli
2013-05-16, 19:36:04
26W beim spielen= das glaube ich irgendwie kaum :-/ außer es war FTL ^^
oder ein integrierte gpu benchmark der nur die gpu auslastet

Ronny145
2013-05-16, 19:43:14
Komplett Idle ist das wohl nicht gewesen: Browsing the web platform power consumption

Ronny145
2013-05-17, 14:02:34
http://www.pcpop.com/doc/0/907/907180.shtml

Weiterer Test.

Nightspider
2013-05-17, 14:13:03
Give me more OC data, plz. :(

Duplex
2013-05-17, 15:20:23
4,5Ghz OC ist garnichts, was ist das...
Die IPC ist nicht höher als Ivy Bridge.
Toll wird der Prozessor nicht, kann man zu 100% auslassen.

Coda
2013-05-17, 16:31:06
Die IPC ist nicht höher als Ivy Bridge.
Schau mal nochmal genau hin.

Duplex
2013-05-17, 17:48:29
Schau mal nochmal genau hin.
Schau dir mal SuperPi an, merkste was?
Bisher hat jede neue Architektur von Intel (z.b. ab Core2) hier mehr Leistung demonstriert, jetzt sehe ich aber kein Unterschied, also gleiche IPC, heißt das Design hat nicht mehr Power in diesem Bereich, einige Anwendungen zeigen bischen + aber das kommmt bestimmt nur von SMT, also kannste Haswell was den CPU Part angeht vergessen und bei Sandy bleiben. Wirkliche Fortschritte wären 10-15% ohne SMT.

dildo4u
2013-05-17, 17:50:13
Das Design ist breiter geworden logisch das sich bei Superpi nix tut.

Ronny145
2013-05-17, 17:54:12
Schau dir mal SuperPi an, merkste was?



Weil Superpi der alleinige Maßstab ist :rolleyes: Die IPC ist gestiegen, Coda hat schon recht.

Duplex
2013-05-17, 17:54:52
Warten wir mal auf Deutsche Tests ohne SMT bei gleichem Takt.

S940
2013-05-17, 18:00:08
Was man mal testen sollte wäre y-Crunsher mit AVX256 (oder irgendwas anderes mit viel AVX256), da könnte der HSW durch die 2x256bit Anbindung an den L1 auch ne bessere IPC haben. SSE128 hat davon logischerweise nix

Konami
2013-05-17, 18:37:08
http://www.pcpop.com/doc/0/907/907180.shtml

Weiterer Test.
Noch heißer als Ivy Bridge – ernsthaft? Fuck that shit ;(

Bei höherer TDP und FIVR einerseits natürlich zu erwarten, aber irgendwie hatte ich gehofft, dass der Heatspreader wieder verlötet wäre, was ja doch niedrigere Temps ermöglichen sollte...

y33H@
2013-05-17, 18:39:26
Was man mal testen sollte wäre y-Crunsher mit AVX256 (oder irgendwas anderes mit viel AVX256), da könnte der HSW durch die 2x256bit Anbindung an den L1 auch ne bessere IPC haben. SSE128 hat davon logischerweise nixWas misst den AIDA ... weißt du das aus dem Kopf?

http://www.aida64.de/aida64-extreme-edition/uebersicht

S940
2013-05-17, 19:07:34
Was misst den AIDA ... weißt du das aus dem Kopf?

http://www.aida64.de/aida64-extreme-edition/uebersicht
Was die genau testen - nö weiss ich nicht, sollte aber irgendwas Kleines sein, dass von den L1-Ports profitieren könnte. Nen Versuch wärs allemal wert.

Ronny145
2013-05-19, 12:33:00
Neuer Test: http://www.itocp.com/htmls/33/n-4533.html

http://s1.directupload.net/images/130519/t6tatj77.png

http://s1.directupload.net/images/130519/wyikfkvs.png

http://s1.directupload.net/images/130519/jgisdv7h.png

Knuddelbearli
2013-05-19, 13:25:15
Media Espresso -33% :-/
Und Trinity immer noch gutes Stück schneller Richland ist also ungefähredt.

danke für den testlink

schreiber
2013-05-19, 13:28:03
Sieht auf CPU-Seite schon mal wesentlich besser aus als befürchtet. Gibt also doch je nach Anwendung einen ordentlichen Schub.

Knuddelbearli
2013-05-19, 13:28:33
Was mir gerad noch aufgefallen ist bei den Spielebenches. je höher die FPS desto weiter ist AMD vorne. Nur ein Zufall? eigentlich sollte es ja umgekehrt sein da Intel die bessere CPU hat und bei 90+ sollte man je nach spiel ja langsam ins cpu limit laufen

dildo4u
2013-05-19, 13:29:09
Media Espresso -33% :-/
Und Trinity immer noch gutes Stück schneller Richland ist also ungefähredt.

danke für den testlink

Das sind die Modelle ohne Edram.Die Modelle mit edarm soll's nich nur in der teuerste Version geben.


http://www.computerbase.de/news/2013-04/intels-schnellste-haswell-grafik-hd-5200-auch-im-desktop/

Knuddelbearli
2013-05-19, 14:07:26
das ist mir durchaus klar aber weder gibt es die mit offenem Multi noch als Sockel, noch gibt es aktuell ( wird sich hoffentlich zu Weihnachten ändern wenn die Dualcores kommen ) preiswerte R CPUs

dildo4u
2013-05-19, 14:20:58
Glaub kaum das man die OC muss um mit Richland mitzuhalten was die CPU angeht,OC macht hier eh wenig Sinn da diese SOC's für sparsame System ausgelegt sind.

Knuddelbearli
2013-05-19, 14:39:22
65W und sparsam wenn der größte 84W hat und es nichts dazwischen gibt?

mczak
2013-05-19, 15:36:13
Media Espresso -33% :-/
Ich vermute schwer da läuft etwas schief, z.B. Feature-detection der CPU oder etwas in der Art, oder es wird sonst aus irgendwelchen Gründen ein anderer Codepath verwendet.

Und Trinity immer noch gutes Stück schneller Richland ist also ungefähredt.

Naja also bei -7% im Durchschnitt würde ich jetzt nicht von "gutes Stück schneller" sprechen. Richland wird das auch bloss auf etwa 10% Vorsprung erhöhen (hat ja bloss 5% mehr GPU-Takt). Wenn ich das richtig sehe wurde da mit ddr3-1600 bei beiden Systemen getestet, höchstwahrscheinlich würde Trinity/Richland etwas mehr von schnellerem Speicher profitieren, aber so wahnsinnig viel dürfte der Unterschied auch nicht grösser werden.
Das Problem von AMD ist bisher hatte man eine langsame CPU aber eine deutlich schnellere GPU. Jetzt ist die CPU immer noch langsam aber die GPU bloss noch minimal schneller - und das gilt auch bloss nur für die schnellste Variante. Wobei man GT1 immer noch locker schlagen kann, ich schätze mal die Desktop core i3 (pentium und celeron jedenfalls sicher) kriegen nur die?
Ausserdem sagen die Werte hier noch nicht viel aus wie sich das bei den Mobile-Chips verhält da geht es nicht darum was die GPU theoretisch leisten könnte sondern wie schnell die tatsächlich mit bestimmter TDP noch ist. Mal abgesehen davon dass GT3 jeden Richland locker schlagen sollte.

S940
2013-05-19, 15:43:32
Ich vermute schwer da läuft etwas schief, z.B. Feature-detection der CPU oder etwas in der Art, oder es wird sonst aus irgendwelchen Gründen ein anderer Codepath verwendet.
Ja sieht merkwürdig aus. Vermutlich gibts da keine Feature-Detection, sondern nur ne primitive Abfrage if IvyB then use AVX... sowas gabs schon öfters mal, dass Architektur-Features am CPU-Modell festgemacht wurden. Bei der Nachfolgegeneration fällt man dann damit schön auf die Nase ... :freak:

Bin mal gespannt, was es am Ende war, aber eigentlich gibts keine anderen Optionen.

Ronny145
2013-05-19, 16:37:27
Media Espresso -33% :-/
Und Trinity immer noch gutes Stück schneller Richland ist also ungefähredt.

danke für den testlink


Der Abstand ist aber erstaunlich gering muss man dazu sagen. Mit stärkerer GPU Last und DDR3-1866 sollte der Abstand größer werden. Dennoch sieht das bislang ordentlich aus. Ein Defizit von 30% wäre ziemlich gut für die GT2. Im Notebook Bereich sollte das noch besser aussehen.


Ich vermute schwer da läuft etwas schief, z.B. Feature-detection der CPU oder etwas in der Art, oder es wird sonst aus irgendwelchen Gründen ein anderer Codepath verwendet.



Mediaespresso 6.5 ist alt. Aktuell ist 6.7. Vielleicht taucht das Phänomen damit nicht mehr auf.

VooDoo7mx
2013-05-19, 20:21:38
Media Espresso -33% :-/
Und Trinity immer noch gutes Stück schneller Richland ist also ungefähredt.

danke für den testlink

Du weißt shcoin, dass dies nur die mittelschnelle GT2 Grafik ist?

Im Durchnitt 7% hinter Trinity ist jetzt keine Glanzleistung von AMD.
Mit nicht mal 5% mehr GPU Takt wird auch Richland nicht viel drauflegen können. Wenn man dann den Dual Core Haswell 60W gegen den 100W Top Trinity/Richland vergleicht. Finde ich die Leistungs ehr gut die Intel bringt.
Außerdem geht sicher noch einiges beim Intel Treiber.

Im Mobile sieht es ganz anders aus, da muss AMD mit Trinity/Richland mit den GPU Takt um fast 50% runter gehen um im TDP zu bleiben. Hier wird schon die Haswell GT2 Einheit ausreichen um AMD zu schlagen.

Von GT3e wollen wir gar nicht erst anfangen. Da wird auch Kaveri mit gerade mal 25% mehr Rechenleistung hinten anstehen müssen.

Knuddelbearli
2013-05-20, 02:29:53
ob es eine Glanzleistung ist muss sich erst zeigen.

DIE dürfte ja ähnlich groß sein wie von AMD trotz einem fullnode Vorteil für Intel und deutlich kleineren CPU Kernen. Dazu ist immer die Frage ob AMD nicht bereits bei der CPU Performance aus gebremst wird. Zumindest in Titeln wie Shogun nicht unmöglich.

Ronny145
2013-05-20, 05:40:20
ob es eine Glanzleistung ist muss sich erst zeigen.

DIE dürfte ja ähnlich groß sein wie von AMD trotz einem fullnode Vorteil für Intel und deutlich kleineren CPU Kernen. Dazu ist immer die Frage ob AMD nicht bereits bei der CPU Performance aus gebremst wird. Zumindest in Titeln wie Shogun nicht unmöglich.


Sind 4 Haswell Kerne wirklich so viel kleiner als 2 Trinity Module? 22-32nm bereinigt veranschlagt Trinity um einiges mehr an GPU size (85 mm² vs 103 mm²) als die GT2 von Haswell.

Knuddelbearli
2013-05-20, 11:18:23
wie bereinigst du das? einfach Faktor 2,15?

Ronny145
2013-05-20, 11:36:57
wie bereinigst du das? einfach Faktor 2,15?


Faktor 1,5.

Spasstiger
2013-05-20, 12:06:21
Von GT3e wollen wir gar nicht erst anfangen. Da wird auch Kaveri mit gerade mal 25% mehr Rechenleistung hinten anstehen müssen.
Danach sieht es aus. Speziell im Mobilbereich wird es für AMD düster aussehen.

Zergra
2013-05-20, 12:42:45
Danach sieht es aus. Speziell im Mobilbereich wird es für AMD düster aussehen.
Wo siehst denn bei den CPU´s nicht düster aus ?

Knuddelbearli
2013-05-20, 13:07:46
Bobcat / Jaguard XD

YfOrU
2013-05-20, 13:20:30
Wo siehst denn bei den CPU´s nicht düster aus ?

Bisher konnte AMD zumindest bezogen auf das Marketing mit der flotteren IGP punkten. In der Realität sah das je nach TDP Einstufung und Ausbaustufe bereits gegenüber IB nicht mehr so gut aus. Haswell (mobil) wird im Mittel praktisch immer schneller sein.

S940
2013-05-20, 14:10:13
Danach sieht es aus. Speziell im Mobilbereich wird es für AMD düster aussehen.In welchem Mobilbereich? Der Notebookbereicht schrumpft zusammen mit dem PC-Markt, da jeder nur noch billige Tablets kauft.
Gibts ne Tabletversion mit GTe3?

fdk
2013-05-20, 14:50:36
Klar werden Spielzeugnotebooks durch Tablets ersetzt. Gleichzeitig werden aber auch Desktops durch höherpreisige Notebooks ersetzt. Im Endeffekt bedeutet das für Intel, das sie statt einem $150 Desktop i5 einen $200+ Notebook i5/i7 verkaufen.

AMD hat sich damals für "Vision" und den APU Ansatz entschieden (zu einer Zeit als niemand danach gefragt hat) statt ordentliche CPU-performance zu bringen. Das rächt sich nun eben.

YfOrU
2013-05-20, 14:51:35
In welchem Mobilbereich? Der Notebookbereicht schrumpft zusammen mit dem PC-Markt, da jeder nur noch billige Tablets kauft.
Gibts ne Tabletversion mit GTe3?

Das würde ich so nicht unterschreiben. Mit den heutigen Tablets lassen sich vollwertige Notebooks bzw. PCs nur in Ausnahmefällen vollständig ersetzen.

Mir fehlt bei dieser Betrachtung die Differenzierung. Die absoluten Low-Cost Tablets verkaufen sich zum Beispiel in den entsprechend sensitiven Märkten (mit extremen Wachstum) wie geschnittenes Brot. Das führt aber vor allen zu einer prozentualen Verschiebung der Marktanteile. Das ist allerdings nicht mit einer Verschiebung des Volumens Richtung Bedeutungslosigkeit (Notebooks) gleichzusetzen da das Volumen insgesamt (inkl. Tablets) massiv zu nimmt. Hinzu kommt das sich das Segment der heutigen Notebooks (Windows - x86 -> PC) mit zunehmender Verfügbarkeit geeigneter Plattformen auch im Bereich der typischen ARM Tablets etablieren wird.

Knuddelbearli
2013-05-20, 15:00:48
AMD hat sich damals für "Vision" und den APU Ansatz entschieden (zu einer Zeit als niemand danach gefragt hat) statt ordentliche CPU-performance zu bringen. Das rächt sich nun eben.

als ob sich AMD da entschieden hätte ...

Undertaker
2013-05-20, 15:40:59
Gibts ne Tabletversion mit GTe3?

GT3e in Tablets? Vielleicht auch noch als Quad-Core? :freak:

Die eDRAM-Version gibt es ja nicht einmal für Ultrabooks, für die Y-Serie ist ein solches Modell also vollkommen ausgeschlossen. Ich weiß gar nicht, ob dort überhaupt eine GT3-Version geplant ist.
Selbst mit einer GT2-GPU und mittlerer Taktrate hätte Haswell allerdings ziemlich komfortabel die stärkste GPU in dieser Klasse.

y33H@
2013-05-20, 16:14:17
Die bisherigen Y-Chips basieren ja auf den U-Designs. Möglicherweise nutzt Intel bei HSW eine extrem niedrig getaktete GT3 für die Y-Serie.

Undertaker
2013-05-20, 16:16:55
Jep, einen eigenen Die wird es für die Y-Serie nicht geben; aber ob es reicht, die GT3 einfach noch niedriger zu takten (wir reden hier vermutlich von maximal 300-400 MHz)? Die soll ja schon bei den ULV-Modellen sehr langsam laufen. Ab einem gewissen Punkt könnte es Sinn machen, doch eher nur auf 20 EUs mit mehr Takt zu setzen.

y33H@
2013-05-20, 16:52:20
Die HD 5000 bei den ULTs wie dem 4650U oder 4350U läuft mit 200 MHz base und 1.100 MHz turbo - bei den bisherigen ULVs wie dem 3667U mit 350 1.200 MHz erreichte die Grafikeinheit bei Last meistens um/über 1 GHz. Bei den Y-SKUs wie dem 3689Y läuft die Grafik mit 350 bis 850 MHz, ich kann mir daher durchaus eine GT3 mit 200 bis 500 MHz vorstellen.

Undertaker
2013-05-20, 17:00:22
Ich muss gesehen, dass ich irgendwie gerade niedrigere Taktraten für die 15W-Modelle im Kopf hatte... Bei 1100 MHz/15 Watt besteht wohl noch ausreichend Spielraum, dass die GT3 u.U. auch in den Y-Modellen denkbar wäre.

Edit: Da fällt mir auch wieder ein wieso: Laut Intels letzten Zahlen (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9757639#post9757639) soll die HD 5000 wohl langsamer als die HD 4600 sein. Bei 1100 MHz wäre das aber ziemlich unlogisch... Hmm, komisch.

Egal, die GT3e scheidet aus bekannten Gründen in jedem Fall aus.

y33H@
2013-05-20, 17:27:52
Intel vergibt bei den ULVs / ULTs generell höhere Namen, das sieht man auch an den CPU-Bezeichnungen.

Undertaker
2013-05-20, 18:18:39
Nein, meine Verwirrung resulitert daraus, wie die HD 5000 bei hohen 1100 MHz langsamer als die HD 4600 sein soll.

Ronny145
2013-05-20, 18:35:39
Das ist der maximal dynamische Takt. Der durchschnittlich anliegende ist die andere Frage.

y33H@
2013-05-20, 18:51:38
i7-3840QM mit HD 4000 (16 EUs @ 1,3 GHz) --> i7-4900MQ mit HD 4600 (20 EUs @ 1,3 GHz) --> +60 %
i7-3687U mit HD 4000 (16 EUs @ 1,2 GHz) --> i7-4650U mit HD 5000 (40 EUs @ 1,1 GHz) --> +50 %

Ich tippe darauf, dass wie Ronny145 sagt, der iGPU-Turbo beim 4650U nicht ganz so hoch geht, zudem bremst hier eventuell auch der niedrigere CPU-Takt (zumal wenn der Turbo nicht voll zieht). Dachte erst, der Combined-Test liefe mit in den Graphics Score rein, aber der Combined ist einzig für den Overall Score von Relevanz.

Ansonsten wäre da noch die Option, dass die HD 5000 zwar eine GT3 nutzt, aber nur 20 EUs ;-)

Undertaker
2013-05-20, 18:52:25
@ Ronny: Schon klar, aber immerhin hat Intel Benchmark-Werte für den 3DMark 11 angeben - hier sind idR die maximalen GPU-Taktraten zu beobachten, da die CPU-Last in den Grafiktests extrem gering ist. Wenn die HD 5000 hier nicht annähernd Maximaltakt erreicht, wo dann?

Edit: Intel hat übrigens GPU-Scores angegeben, da gibt es eigentlich keine CPU-Limits.

horn 12
2013-05-21, 00:26:24
MSI Z87 GD65 Gaming Vorstellung
Sieht enorm aufgeräumt und hochklassig aus.
http://www.hardwareluxx.de/community/f12/intel-lynx-point-mainboards-news-reviews-specs-bilder-z87-h87-h81-q87-q85-b85-902183-10.html

So langsam sollten die Mainboard wohl auch gelistet werden, preislich sehr interesasant die Gigabyte und MSI Boards...
Hoffe Mitte der Woche kann man mehr zur Verfügbarkeit und Preise sagen.

Zergra
2013-05-21, 00:30:39
i7-3840QM mit HD 4000 (16 EUs @ 1,3 GHz) --> i7-4900MQ mit HD 4600 (20 EUs @ 1,3 GHz) --> +60 %
i7-3687U mit HD 4000 (16 EUs @ 1,2 GHz) --> i7-4650U mit HD 5000 (40 EUs @ 1,1 GHz) --> +50 %

Ich tippe darauf, dass wie Ronny145 sagt, der iGPU-Turbo beim 4650U nicht ganz so hoch geht, zudem bremst hier eventuell auch der niedrigere CPU-Takt (zumal wenn der Turbo nicht voll zieht). Dachte erst, der Combined-Test liefe mit in den Graphics Score rein, aber der Combined ist einzig für den Overall Score von Relevanz.

Ansonsten wäre da noch die Option, dass die HD 5000 zwar eine GT3 nutzt, aber nur 20 EUs ;-)
Die HD 4000 ist aber mit 1.2 höher getaktet als die HD 5000 mit 1.1 Ghz, das sollte man das sind ja 10%

y33H@
2013-05-21, 09:03:55
Beachte die EUs.

Knuddelbearli
2013-05-21, 10:03:35
i7-3687U mit HD 4000 (16 EUs @ 1,2 GHz) --> i7-4650U mit HD 5000 (40 EUs @ 1,1 GHz) --> +50 %

Rohleistung wohl eher +130% ?

Zergra
2013-05-21, 11:04:06
Beachte die EUs.

Jo das habe ich natürlich gesehen, nur gleiche Taktraten wären schon besser.

Kann es daran liegen das die HD5000 eine geringere TDP hat?

DavidC1
2013-05-22, 05:57:18
Nein, meine Verwirrung resulitert daraus, wie die HD 5000 bei hohen 1100 MHz langsamer als die HD 4600 sein soll.

This is explained in their IDF 2012 presentation.

They have a graph(IDF 2012: HD Graphics in Low Power Environments) where they mention "Fmax @ Vmin" offers the best perf/watt. Unlike in Quad core chips where the TDP goes from 45W to 47W, in the U chips it goes from 17W to 15W while including the PCH.

The interesting point in the graph is where they seem to compare GT3 with GT2. The max performance shows 2x performance at 2x the power. But Fmax @ Vmin shows 30% better performance at nearly half the power.

That means while there may be some cases where it can run at 1.1GHz, in reality it may run almost always at Fmax @ Vmin to conserve power, probably at 60-70% of the peak frequency.* Not to mention for the HD 4000, the quad core chips get ~30% better 3DMark11 scores than the ULV chips. That's how you get HD 5000 U = HD 4600 Quad

*(A 17W Ivy Bridge chip had 3W power for the Misc, 9W for the iGPU, and 4W for the CPU.

http://www.anandtech.com/show/5878/mobile-ivy-bridge-hd-4000-investigation-realtime-igpu-clocks-on-ulv-vs-quadcore

It'd be most worth it to lower iGPU power as that's what takes up the most. CPU is already trivial at 4W, and there may not much to cut on the Misc part. The presentation suggests that doubled EU part can perform 30% higher than the GT2 at almost half the power!

Ivy Bridge 17W: 4W CPU, 9W iGPU, 3W Misc
Haswell GT3 U 15W: 4W CPU, 5W iGPU, 3W Misc, 3W PCH
Haswell GT3 U 28W: 4W CPU, 18W iGPU, 3W Misc, 3W PCH

All I did from the Ivy Bridge power figure, was assume that the A) PCH power did not change B) Power decreased almost 50% for the iGPU portion for the 15W, and doubled for the 28W)

Nightspider
2013-05-22, 08:16:55
Das ist schon hart, wenn die IGP 4,5 mal soviel Strom verbraucht, wie die CPU in der 28W Version. :D

Knuddelbearli
2013-05-22, 08:41:35
Intel kocht halt auch nur mit Wasser hat aber den Vorteil der viel effizienteren CPU und dem 1 Node Vorsprung

Undertaker
2013-05-22, 09:55:48
Achtung, derartige Verbrauchswerte gelten nur für Spiele! Bei reiner CPU-Last schöpfen die CPU-Kerne (+ Misc) der schnelleren IB ULV die vollen 17 W auch alleine aus.

Die Theorie zu den GPU-Taktraten leuchtet mir auch noch nicht ganz ein. Es macht doch keinen Sinn, eine Obergrenze zu definieren, die selbst im Best-Case 3DMark 11 nicht erreicht wird. In vielen Spielen könnte etwas weniger Takt anliegen, keine Frage.

Ronny145
2013-05-22, 16:36:07
Ivy Bridge 17W: 4W CPU, 9W iGPU, 3W Misc
Haswell GT3 U 15W: 4W CPU, 5W iGPU, 3W Misc, 3W PCH
Haswell GT3 U 28W: 4W CPU, 18W iGPU, 3W Misc, 3W PCH

All I did from the Ivy Bridge power figure, was assume that the A) PCH power did not change B) Power decreased almost 50% for the iGPU portion for the 15W, and doubled for the 28W)


You don't expect a stronger CPU for the 28W model? I would expect a higher base clock or multithread turbo which should increase CPU power consumption.

DavidC1
2013-05-22, 21:39:31
You don't expect a stronger CPU for the 28W model? I would expect a higher base clock or multithread turbo which should increase CPU power consumption.

Maybe, maybe not.

If you look at the quad core power figures though, its only using 30-38W out of the total 45W. While for the ULV its almost "power-virus" like going close to the full 17W.

So not all applications will load the chip to TDP, and not all chips behave the same in each application.

But the weird number for the higher ULT, 28 gives us a clue. Maybe the TDP is just for 3D graphics/gaming figure. Or perhaps even at same base frequency, 28W allows AVX2 to be fully used in a CPU-intensive applications when a lower 15W won't be able to. FPU does take a lot of power, considering Intel Burn Test uses Linpack.

Die Theorie zu den GPU-Taktraten leuchtet mir auch noch nicht ganz ein. Es macht doch keinen Sinn, eine Obergrenze zu definieren, die selbst im Best-Case 3DMark 11 nicht erreicht wird. In vielen Spielen könnte etwas weniger Takt anliegen, keine Frage.

Point taken.

But nothing is free. They had to cut somewhere to get the TDP lower by 2W while including the PCH. But 22nm gives Intel the advantage to run at lower voltages without sacrificing too much frequency(because of the 37% gain in frequency at those lower voltages).

Just refer to the original 22nm presentation graph: http://www.realworldtech.com/includes/images/articles/trigate-2.png?b22ba0

Half the voltage didn't mean half the frequency, rather something lower than half. So you had a non-linear relationship between frequency and voltage. 22nm allows that curve to be better on the lower voltages.

Let's also note this. The 28W version is 50% faster than the 15W version despite both having the GT3 SKU. Since the frequency of the GPUs top out at 1.3GHz, that suggests the 15W version is at most 1.3/1.5. That's just in 3DMark11, where the GPU takes more of the TDP because the scenes are so demanding. It may be even lower if the 28W version is at lower frequencies than 1.3GHz. You have applications like QuickSync and OpenCL for potential candidates on the top clock as well, not just 3D.

fondness
2013-05-23, 18:34:33
Frühstart: Intels Haswell im Kurztest
http://www.heise.de/ct/meldung/Fruehstart-Intels-Haswell-im-Kurztest-1868226.html

Ronny145
2013-05-23, 18:43:05
Naja sehr dünner Test. CB11.5, 3dmark, Linpack reicht nicht aus, um eine CPU sinnvoll zu vergleichen. CB11.5 ist von vielen anderen Leaks bekannt, genauso wie der 3dmark. Auch der Anstieg im Linpack mit AVX2 ist keine sonderlich große Überraschung. Benchmarks von der c't sind eh stark zurückgeblieben. GPU Leistung testen die immer mit 3dmark anstatt in Spielen.

Nightspider
2013-05-23, 18:47:02
Woher haben die alle schon die Mainboards, welche eh nicht final sind?

Ronny145
2013-05-23, 18:47:54
Redaktionen bekommen Samples im Voraus.

Nightspider
2013-05-23, 18:55:52
Okay du hast recht. Es sind ja nur noch ~1,5 Wochen bis zum Release.

boxleitnerb
2013-05-25, 12:19:11
Wo ist mein Post? Der ist einfach verschwunden...

AnarchX
2013-05-25, 12:20:34
Ist nun einem eigenen Thread: http://www.forum-3dcenter.org/vbulletin/showthread.php?goto=newpost&t=542314

Da sollten wohl im Laufe der Woche noch einige Tests folgen.

Ronny145
2013-05-26, 20:01:46
Jep, einen eigenen Die wird es für die Y-Serie nicht geben; aber ob es reicht, die GT3 einfach noch niedriger zu takten (wir reden hier vermutlich von maximal 300-400 MHz)? Die soll ja schon bei den ULV-Modellen sehr langsam laufen. Ab einem gewissen Punkt könnte es Sinn machen, doch eher nur auf 20 EUs mit mehr Takt zu setzen.


Im Windows Update gibt es einen neuen Treiber mit aktualisierter inf und dort sind für ULX GT1 und GT2 eingetragen. Im Treiber ist für ULX auch noch eine GT1.5 eingetragen. Demnach keine GT3 für die Y-Serie. Iris ist jetzt im übrigen mit dabei.

; HSW ULT
iHSWGT1UT = "Intel(R) HD Graphics"
iHSWGT2UT = "Intel(R) HD Graphics Family"
iHSWGT3UT = "Intel(R) HD Graphics 5000"
iHSWGT3UT28W = "Intel(R) Iris(TM) Graphics 5100"
iHSWGT2UX = "Intel(R) HD Graphics Family"
iHSWGT1ULX = "Intel(R) HD Graphics"
; HSW CRW
iHSWGT3CW = "Intel(R) Iris(TM) Pro Graphics 5200"
iHSWGT3CWDT = "Intel(R) Iris(TM) Pro Graphics 5200"

2phil4u
2013-05-27, 12:56:37
Und die Frage ist natürlich, wieviel von der Leistungssteigerung durch verbesserte Mehrkernskalierung und wieviel Prozent ein einzelner Kern mehr Leistung bringt.
10% ist da wohl eher (ohne spezielle Befehle) eine Kombination aus Beidem und lange nicht überall zu sehen.
Wenn sich die Karte jetzt relativ leicht auf 5 Ghz übertakten lässt, ist sie natürlich einen Kauf wert, vorallem für mich der derzeit aufgrund eines Deffektes mit einem Core 2 auf 2.0 ghz unterwegs ist.
Für mich wäre das ja glatt die 8-fache Leistung.

Konami
2013-05-27, 13:10:29
Und die Frage ist natürlich, wieviel von der Leistungssteigerung durch verbesserte Mehrkernskalierung und wieviel Prozent ein einzelner Kern mehr Leistung bringt.
10% ist da wohl eher (ohne spezielle Befehle) eine Kombination aus Beidem und lange nicht überall zu sehen.
Ich muss sagen, von der angeblich verbesserten Mehrkern-/Multithread-Skalierung sehe ich bis jetzt nicht viel. Hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=9772929&postcount=1591) verzeichnet der i5 ohne HT sogar eine größere Steigerung als der i7 mit HT.

AnarchX
2013-05-31, 15:53:27
GT3e Mobile Preise:
i7-4950HQ 657 USD
i7-4850HQ 468 USD
Quelle: PCGH print

~$300 Aufpreis gegenüber einem 4800MQ (378 USD), mit 100MHz mehr auf den Turbos. :freak:

Ronny145
2013-05-31, 16:15:44
i7-4950HQ 657 USD
i7-4900MQ 568 USD

i7-4850HQ 468 USD
i7-4800MQ 378 USD


Das ist die richtige Gegenüberstellung. 90 USD Aufpreis für die Iris Pro. Die beiden 49xx haben generell ein schlechtes P/L Verhältnis. Ob die CPU nun 100-200 Mhz schneller oder langsamer ist, interessiert doch da keinen.

AnarchX
2013-05-31, 17:44:17
Trotzdem übel, dass der 4950HQ gar noch einen Aufpreis hat, obwohl er bei Takt und L3 beschnitten ist.

Nett wäre wohl ein 2C/4T-GT3e Chip um die 30W gewesen. Aber der "Angriff" erfolgt wohl erst mit Broadwell.

Ronny145
2013-05-31, 18:09:55
Taktbeschneidung ist das eher nicht. Da wird einfach nicht mehr in die TDP passen. Das sind ja alles 47W Modelle und die Iris Pro mit edram sollte nunmal deutlich mehr TDP veranschlagen. Der 4900MQ ist dennoch nicht sinnvoll mit dem Preis. 190 USD Aufpreis für 100 Mhz mehr CPU Takt gegenüber dem 4850HQ ist unverhältnismäßig. Zum Cache: die 4C GT3 haben ein eigenes quadratisches Die. Auch die Desktop Modelle haben maximal 6MB L3. Vielleicht besitzt das Die nur 6MB L3. Wäre sonst verschenkte Die Fläche.

Undertaker
2013-05-31, 20:01:05
Alles was über einen niedrigeren Base-Clock hinaus geht ist schon Beschneidung, denn die schnellere IGP dürfte bei reiner CPU-Last das TDP-Budget kaum belasten.

Ronny145
2013-05-31, 20:04:02
Alles was über einen niedrigeren Base-Clock hinaus geht ist schon Beschneidung, denn die schnellere IGP dürfte bei reiner CPU-Last das TDP-Budget kaum belasten.


Du verwechselst Base mit Turbo. Base muss immer anliegen bei GPU Last. Bei reiner CPU Last liegt es am Turbo. Was ihr vergesst ist der L4 Cache. Der ist nicht nur für die GPU vorhanden.

Undertaker
2013-05-31, 21:21:39
Ich glaube du hast mich nur missverstanden. ;) Nochmal ausführlicher: Ein niedrigerer Base-Clock ist logisch, da dieser auch bei GPU-Last gehalten werden muss. Ein geringerer CPU-Turbo dagegen nicht. Zumindest denke ich nicht, dass der Speicher bei CPU-Last den Verbrauch wirklich nennenswert in die Höhe treibt. Und Single-Core ist die TDP ohnehin kein Problem.

Ronny145
2013-05-31, 21:42:20
Zumindest denke ich nicht, dass der Speicher bei CPU-Last den Verbrauch wirklich nennenswert in die Höhe treibt.


Nennenswert sicher nicht, der CPU Takt unterscheidet sich ja auch nicht nennenswert. Komplett ohne zusätzlich power wird der L4 Cache dennoch nicht laufen. Interessanter ist die Frage, wie viel zusätzliche Pro-Takt Leistung der große L4 Cache für die CPU bringt.

Undertaker
2013-06-01, 10:02:03
Gute Frage. Bei nicht speziell darauf angepasster Software denke ich allerdings nicht, dass wir große Differenzen sehen werden... Aber gut, das ist nur Spekulation.

fondness
2013-06-01, 10:21:08
Gute Frage. Bei nicht speziell darauf angepasster Software denke ich allerdings nicht, dass wir große Differenzen sehen werden... Aber gut, das ist nur Spekulation.

Seit wann muss Software auf Cache angepasst werden? Mehr Cache bringt immer was.

Undertaker
2013-06-01, 10:42:49
Mehr Cache bringt nicht immer etwas. Zumindest nicht in einem Rahmen außerhalb der Messtoleranzen. ;) Dies setzt eine Problemstellung voraus, die a) deutlich mehr als 6-8 MB (also die typische L3-Größe) mit hoher Bandbreite/niedriger Latenz benötigt, b) wiederum aber auch nicht deutlich mehr als die 128 MB der Cachegröße (wo man dann eh auf den RAM zurückfällt). Intels ausgezeichnete Prefetching-Logik federt da sicherlich auch das Meiste ab.

Ich sage ja nicht, dass der Cache in CPU-Anwendungen nichts bringen wird. Aber ich bezweifle, dass man sich davon im Regelfall arg mehr als vielleicht 5 Prozent erhoffen kann, vielleicht nicht einmal das. Man kann schon bei der Größe des L3-Cache stark abnehmende Zugewinne erkennen.

Edit: Das beste Indiz für diese These ist übrigens, dass sowohl im Desktop als auch Notebook die Topmodelle ohne eDRAM daherkommen. Wäre der Leistungsgewinn wirklich bedeutsam, sähe das anders aus.

2phil4u
2013-06-01, 10:46:24
Wer sagt überhaupt, dass der DDR4 für die CPU ist.
Er ist doch eigentlich dafür gemacht worden, um die relative grosse GPU nicht an Bandbreite verhungern zu lassen.
Wenn er so toll waere, dann gaebe es ihn doch auch beim Spitzenmodell.

Skysnake
2013-06-01, 11:12:43
Seit wann muss Software auf Cache angepasst werden? Mehr Cache bringt immer was.
Schon immer...

Du musst immer dafür sorge tragen, dass dein Problem eine dataset kleiner als der Cache hat, ansonsten funktioniert der nicht richtig.

Oft ist das aber eben schon durch das Problem an sich gegeben.

Wer sagt überhaupt, dass der DDR4 für die CPU ist.
Er ist doch eigentlich dafür gemacht worden, um die relative grosse GPU nicht an Bandbreite verhungern zu lassen.
Wenn er so toll waere, dann gaebe es ihn doch auch beim Spitzenmodell.
Von was für DDR4 redest du? :confused:

Knuddelbearli
2013-06-01, 12:25:21
er meint den L4

Ronny145
2013-06-01, 13:49:05
Wer sagt überhaupt, dass der DDR4 L4 für die CPU ist.
Er ist doch eigentlich dafür gemacht worden, um die relative grosse GPU nicht an Bandbreite verhungern zu lassen.
Wenn er so toll waere, dann gaebe es ihn doch auch beim Spitzenmodell.


Das sagt Intel.

http://abload.de/img/24wc5r.png

dildo4u
2013-06-01, 16:06:10
Intel Iris Pro 5200 Graphics Review
http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/6

Ronny145
2013-06-01, 18:26:48
Nennenswert sicher nicht, der CPU Takt unterscheidet sich ja auch nicht nennenswert. Komplett ohne zusätzlich power wird der L4 Cache dennoch nicht laufen. Interessanter ist die Frage, wie viel zusätzliche Pro-Takt Leistung der große L4 Cache für die CPU bringt.


Anandtech mit Verbrauchsangaben:


At idle, simply refreshing whatever data is stored within, the Crystalwell die will consume between 0.5W and 1W. Under load, operating at full bandwidth, the power usage is 3.5 - 4.5W.

AnarchX
2013-06-01, 19:02:42
The eDRAM clock tops out at 1.6GHz.
http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/3

Wohl möglich eine 128-Bit Verbindung mit 3.2Gbps?

ndrs
2013-06-02, 10:15:10
Wie sind jetzt eigetnlich die weiteren Launches geplant? Ich hab nur noch im Kopf, dass die Desktop zweikerner ca im September kommen sollten. Mich interessieren hauptsächlich die Notebook-Modelle mit HD5100 (2C-GT3)

Edit: ist das eigentlich korrekt, dass die oben genannte GPU nur in den 28W und nicht in den normalen Notebook-CPUs zum Einsatz kommt?

Undertaker
2013-06-02, 10:34:33
Ja, ist es. In der 15W-Klasse gibt es nur die HD 5000.

Anandtech mit Verbrauchsangaben:

Doch mehr als ich erwartet hätte. Nun wäre noch die Frage, inwieweit die CPU-Leistung ansteigt. Das hat wohl leider keiner gemessen?

AnarchX
2013-06-02, 10:39:01
Doch mehr als ich erwartet hätte. Nun wäre noch die Frage, inwieweit die CPU-Leistung ansteigt. Das hat wohl leider keiner gemessen?
Etwas in die Richtung: http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/18

Undertaker
2013-06-02, 10:49:07
Die Werte sehen sehr unzuverlässig aus. Sinkende Leistung in x264 Pass 2? Und der Gewinn von fast 10% im Cinebench ist auch nicht korrekt, da andere Mobilmodelle mit 3,4 GHz ebenfalls auf ~7,4 Punkte kommen.

MSABK
2013-06-02, 11:21:36
Bin mal echt gespannt welche Cpu/gpu es in das Retina macBook 15 schafft.

dildo4u
2013-06-02, 13:03:49
Bin mal echt gespannt welche Cpu/gpu es in das Retina macBook 15 schafft.
http://www.notebookcheck.com/Intel-Core-i7-4950HQ-Notebook-Prozessor.90975.0.html Ohne extra GPU,sollte die Laufzeit ordentlich verbessern.
Apple nutzt ja z.b für ihre Videoschnitt Software OpenCL dort ist der neue Intel sogar besser als die midrange Nvidia Karten.

http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/17

S940
2013-06-02, 13:09:29
http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/3

Wohl möglich eine 128-Bit Verbindung mit 3.2Gbps?
Ja, halt das Doppelte des Speicherinterfaces.
Schon irgendwie ein "lustiges" Teil .. 128MB L4 ... mal schauen, ob Intel den Cache auch bei einigen Serverprozessoren verbaut.
Edit:
Gibts eigentlich schon nen Die-Shot von dem Teil? Wäre mal interessant wie das technisch gelöst ist, eventuell einfach ein übertakteter Dual-Channel DDR3-Kontroller? Könnte Intel das Die eventuell ohne L4 als Quad-Channel Chip verkaufen?

ndrs
2013-06-02, 13:45:19
Gibts eigentlich schon nen Die-Shot von dem Teil? Wäre mal interessant wie das technisch gelöst ist, eventuell einfach ein übertakteter Dual-Channel DDR3-Kontroller?
Kann ich mir nicht vorstellen. Die kurze Distanz erlaubt bestimmt deutlich kleinere Treiber und weniger Spannung. Immerhin muss das Signal nicht über LGA, Board und DRAM-Slot. Der Controller sollte deutlich kompakter als ein gewöhnlicher DRAM-Controller sein.

MSABK
2013-06-02, 14:11:39
http://www.notebookcheck.com/Intel-Core-i7-4950HQ-Notebook-Prozessor.90975.0.html Ohne extra GPU,sollte die Laufzeit ordentlich verbessern.
Apple nutzt ja z.b für ihre Videoschnitt Software OpenCL dort ist der neue Intel sogar besser als die midrange Nvidia Karten.

http://anandtech.com/show/6993/intel-iris-pro-5200-graphics-review-core-i74950hq-tested/17

Iris Pro sollte also realistisch sein im 15er retina?:)

dildo4u
2013-06-02, 14:13:32
Ja die Dinger sind Teuer genug damit die CPU ins Budget passt.

S940
2013-06-02, 15:05:36
Kann ich mir nicht vorstellen. Die kurze Distanz erlaubt bestimmt deutlich kleinere Treiber und weniger Spannung. Immerhin muss das Signal nicht über LGA, Board und DRAM-Slot. Der Controller sollte deutlich kompakter als ein gewöhnlicher DRAM-Controller sein.

Ja, aber wenn man etwas mehr verbaut, könnte man das Teil auch als i7-3820 Nachfolger verkaufen -- allerdings ist der Haswell-E noch ein ganzes Stück entfernt .. vielleicht also doch ein Extra-Die.

Skysnake
2013-06-02, 16:00:37
Also über Haswell-E würde ich mir KEINE! gedanken machen. Der liegt noch >=1 Jahr entfernt.

Je nachdem, ob Intel mal die großen DIEs im Zeitplan raushaut, oder nicht.

Auf der letzten CeBIT haben sich so manche Board-/System-Hersteller ziemlich genervt von Intel und deren "ständige" Verschiebungen nach hinten für S2011 gezeigt.

S940
2013-06-02, 16:13:08
Ja schrieb ich ja, dass der noch länger weg ist. Außerdem fiel mir gerade ein, dass da ja auch DDR4 kommt .. also was anderes.

Zu den Boardhersteller: Klar sind die sauer, die haben schon Kapital investiert und die Gewinne aus der Investition verschieben sich immer wieder nach hinten. Manche haben vielleicht nen Kredit aufgenommen, für den dürfen sie dann schön Zinsen zahlen ...

Ronny145
2013-06-02, 16:42:36
Haswell-E war nie vor 2014 angedacht. Und IVB-E wird seit langer Zeit für H2 2013 vermeldet. Von ständiger Verschiebung kann keine Rede sein.

Ronny145
2013-06-03, 15:25:19
http://vr-zone.com/articles/long-live-haswell-with-broadwell-only-in-2015-a-midterm-refresh-is-on-the-cards/33920.html


Noch eine Bestätigung zum Haswell refresh.

ndrs
2013-06-03, 16:40:13
http://vr-zone.com/articles/long-live-haswell-with-broadwell-only-in-2015-a-midterm-refresh-is-on-the-cards/33920.html
So, our Computex sources advised us to give more focus on the Haswell, as we’ll be stuck with it pretty much until early 2015 at least; that’s the current Broadwell launch timeframe, too bad.
Heißt das jetzt, dass Broadwell doch, aber nur verspätet für Desktop kommt? Dann würde sich ja wohl Skylake auch nach hinten verschieben. Die werden doch wohl nicht auf die blöde Idee kommen, Desktop grundsätzlich ein Jahr nach Notebook zu bringen.

Ronny145
2013-06-03, 17:03:02
Heißt das jetzt, dass Broadwell doch, aber nur verspätet für Desktop kommt? Dann würde sich ja wohl Skylake auch nach hinten verschieben. Die werden doch wohl nicht auf die blöde Idee kommen, Desktop grundsätzlich ein Jahr nach Notebook zu bringen.


Broadwell wird übersprungen. Für LGA kommt erst Skylake 2015.

ndrs
2013-06-03, 17:48:05
Broadwell wird übersprungen. Für LGA kommt erst Skylake 2015.
Ja, mich wunederte nur die mehrfache Erwähnung von Broadwell DT für 2015. Also ein Fehler vom VR-Zone-Autor. Danke für die Klarstellung.

Konami
2013-06-03, 17:58:03
Ich frag mich, warum SATA Express nur mit "1000 MB/s" erwähnt wird, auch schon in dieser älteren News (http://www.techpowerup.com/182860/intel-9-series-chipset-could-feature-sata-express-interface.html). Die Spezifikation erlaubt ja auch 16 Gbit/s per 2x PCIe. Journalistischer Irrtum oder echte Limitation der Boards?

Godmode
2013-06-03, 19:24:57
Kann hier mal ein Mod zumachen, es nervt immer in zwei Threads zum gleichen Thema parallel zu lesen.

Konami
2013-06-03, 19:33:36
Kann hier mal ein Mod zumachen, es nervt immer in zwei Threads zum gleichen Thema parallel zu lesen.
Das hier ist der Speku-Thread. Wenn dich das nicht interessiert, kannst du ihn deabonnieren...

Knuddelbearli
2013-06-03, 19:36:26
na zumindest für haswell-EP wäre ein eigener nett hat mich auch bei IVY immer genervt wenn man was dazu sucht

Godmode
2013-06-03, 19:41:45
Das hier ist der Speku-Thread. Wenn dich das nicht interessiert, kannst du ihn deabonnieren...

Was wollt ihr noch spekulieren? Das Ding ist raus und im Reviewthread gehts ja weiter.

ndrs
2013-06-03, 19:51:46
Wenn es um noch nicht veröffentlichte Modelle geht, dürfen die doch wohl hier rein.
Ansonsten ignorier den Thread doch einfach.

Knuddelbearli
2013-06-03, 19:58:04
I3, Pentium, Celeron, Produktergänzungen für nächstes Jahr da broadwell ja nicht kommt usw


da gibt es noch genug Spekulatius

Godmode
2013-06-03, 20:01:01
Ok das habe ich nicht bedacht. Ich glaubte es wäre schon alles da.

Knuddelbearli
2013-06-03, 20:27:24
ne das dauert noch 21 Monate

1 jahr für Haswell refresh aufgrund des Broadwell ausfall fürs desktop und dann nochmal ~9 Monate bis auch die letzten Celerons draußen sind

Ronny145
2013-06-13, 14:14:06
http://asder00.blogspot.it/2013/05/intel-desktop-roadmap-2013-2014.html


i7-4771 ???

Dualcore Modelle ab Q3, aber das ist ja nichts neues.

Nightspider
2013-06-13, 14:24:29
O__o

Ohne IGP?
Verlöteter HS?
Neues Stepping?
Mit eDRAM?
A joke?

Knuddelbearli
2013-06-13, 14:26:10
Wiederauferstehung von Skulltrail? ^^

AnarchX
2013-06-13, 14:45:52
Wahrscheinlich ist wohl ein verbesserter IGP. Vielleicht 1,35GHz statt der 1,2GHz beim 4770.

Ronny145
2013-06-14, 02:10:32
100 Mhz mehr Basistakt. Die Dualcore i3 takten zwischen 3,4-3,6 Ghz. Zwei Modelle mit HD4600, das unterste mit HD4400. Ich bin mir nicht sicher, ob das eine GT1/GT1.5 ist.

http://s1.directupload.net/images/130614/uojqwylo.png
http://asder00.blogspot.it/2013/06/intel-desktop-skus.html


edit: ist eine GT1.5

iHSWGT15D = "Intel(R) HD Graphics 4400"
iHSWGT2D = "Intel(R) HD Graphics 4600"

YfOrU
2013-06-14, 07:42:30
Der Vollständigkeit halber von der 3DC Hauptseite:
http://seekingalpha.com/article/1495912-intel-has-a-secret-version-of-haswell

Haswell (Y) mit 4,5W SDP.

Was die Leistungsaufnahme der Plattform im Leerlauf betrifft hat Intel auch im Vergleich zu IB einen riesigen Schritt gemacht.
Da wünscht man sich direkt Broadwell bzw. Skylake denn in 14nm sollten entsprechende CPUs weniger exotisch sein.

Knuddelbearli
2013-06-14, 07:53:00
schon beindruckend düfte ja immer noch schneller als ein 1Ghz Jaguar quad sein
Grafikkarte ist aber schwer einzuschätzen und idle sicher deutlich höherer verbrauch,
vom Preis reden wir lieber gar nicht ^^

YfOrU
2013-06-14, 07:56:02
0,04W bei C9 bzw. 0,1W C8 gelten für die "gesamte" Plattform da die PCH auf dem CPU Package verbaut wird.
Bin mir nicht so sicher ob Temash hier wirklich besser abschneidet. Silvermont SoCs (da auch für Smartphones) auf jeden Fall.

Wird die nächsten zwei Jahre auf jeden Fall sehr interessant denn eine breitere Verfügbarkeit solcher CPUs ermöglicht die meiner Ansicht nach ultimativen "Tablets".
Also vergleichsweise leistungsfähig und mit Dockingstation für den Desktopeinsatz wie bei professionellen Notebooks.

Godmode
2013-06-14, 09:05:33
O__o

Ohne IGP?
Verlöteter HS?
Neues Stepping?
Mit eDRAM?
A joke?

Ich denke nicht das sie für uns paar Nerds eine Extrawurst braten.

AnarchX
2013-06-14, 09:38:10
100 Mhz mehr Basistakt. Die Dualcore i3 takten zwischen 3,4-3,6 Ghz. Zwei Modelle mit HD4600, das unterste mit HD4400. Ich bin mir nicht sicher, ob das eine GT1/GT1.5 ist.

http://s1.directupload.net/images/130614/uojqwylo.png
http://asder00.blogspot.it/2013/06/intel-desktop-skus.html

Sehr sinnvoll. :freak:

Hoffentlich tut sich beim Haswell Refresh etwas mehr. Immerhin gibt es bis dahin schon Quad-Core-Celerons auf Baytrail-Basis. Da könnte man auf den Pentiums/Celerons wohl auch endlich mal SMT freischalten. Turbo Boost für die i3 wäre auch wünschenswert. Aber das wird wohl auch von Kaveris Erfolg abhängen.

Nightspider
2013-06-14, 10:03:28
Wow. Mit teilweise nur 0,05W könnte ein Tablet montelang im Standby verweilen.

y33H@
2013-06-14, 10:07:59
Da kommen ja noch andere Bauteile hinzu ;-)

HarryHirsch
2013-06-14, 22:31:16
Wird es eigentlich eine Haswell-E geben? Und wird sie X79-Kompatible sein?

Akkarin
2013-06-14, 23:11:56
Ja, Nein, weil DDR4.

Knuddelbearli
2013-06-15, 05:58:59
nein weill immer nur 2 Generationen in einen sockel passen

Ronny145
2013-07-08, 14:27:12
Im Windows Update gibt es einen neuen Treiber mit aktualisierter inf und dort sind für ULX GT1 und GT2 eingetragen. Im Treiber ist für ULX auch noch eine GT1.5 eingetragen. Demnach keine GT3 für die Y-Serie. Iris ist jetzt im übrigen mit dabei.

; HSW ULT
iHSWGT1UT = "Intel(R) HD Graphics"
iHSWGT2UT = "Intel(R) HD Graphics Family"
iHSWGT3UT = "Intel(R) HD Graphics 5000"
iHSWGT3UT28W = "Intel(R) Iris(TM) Graphics 5100"
iHSWGT2UX = "Intel(R) HD Graphics Family"
iHSWGT1ULX = "Intel(R) HD Graphics"
; HSW CRW
iHSWGT3CW = "Intel(R) Iris(TM) Pro Graphics 5200"
iHSWGT3CWDT = "Intel(R) Iris(TM) Pro Graphics 5200"


Update:


http://s14.directupload.net/images/130708/kp3djv6v.png


HD4200 heißt das GT2 Modell für ULX offenbar. Nach der Treiber inf zu urteilen gibt es darunter auch noch ein GT1 Modell.

Nightspider
2013-12-11, 14:50:55
Haswell Refresh nur 100 Mhz mehr, enttäuschend.

http://www.computerbase.de/news/2013-12/vier-modelle-von-intels-haswell-refresh-spezifiziert/

Akkarin
2013-12-11, 15:02:11
Afaik gabs Gerüchte über Broadwell Xeons und K CPUs. Gibs da was neues ?

dargo
2013-12-11, 15:06:52
Haswell Refresh nur 100 Mhz mehr, enttäuschend.

http://www.computerbase.de/news/2013-12/vier-modelle-von-intels-haswell-refresh-spezifiziert/
Was hast du denn erwartet bei der momentanen Marktsituation? Zudem wird der IHS garantiert wieder nicht verlötet werden. Und übrigens es sind noch nicht mal 100Mhz mehr wenn man ganz kleinlich sein will. ;)
http://geizhals.de/intel-xeon-e3-1285-v3-cm8064601466703-a954081.html

Sunrise
2013-12-11, 15:10:36
Haswell Refresh nur 100 Mhz mehr, enttäuschend.

http://www.computerbase.de/news/2013-12/vier-modelle-von-intels-haswell-refresh-spezifiziert/
Wie jetzt, das neue Topmodell ist kein K-Modell mehr? Schreibfehler oder meint Intel das ernst?

AnarchX
2013-12-11, 15:13:01
According to a new chart obtained by VR-Zone, Intel will begin the refresh process in the second quarter with the non-K series of chips then move on to the K-series in the third quarter. The K-series will use the Haswell-E architecture and likely support DDR4.
http://vr-zone.com/articles/haswell-refresh-trickle-gradually-2014/66507.html

Nightspider
2013-12-11, 15:13:41
Was hast du denn erwartet bei der momentanen Marktsituation? Zudem wird der IHS garantiert wieder nicht verlötet werden. Und übrigens es sind noch nicht mal 100Mhz mehr wenn man ganz kleinlich sein will. ;)
http://geizhals.de/intel-xeon-e3-1285-v3-cm8064601466703-a954081.html

Intel hat den Haswell Refresh extra namentlich in die Roadmap gepackt. Da erwartet man nicht nur 100 Mhz mehr.
Zumal Intel früher auch mal Modelle mit 100 Mhz mehr auf den Markt gebracht hat, ohne diese neu zu benennen.

Wenn ich mich nicht irre soll das ja jetzt wohl als Haswell Refresh - Architektur gelten. :rolleyes:

Duplex
2013-12-11, 15:17:58
100MHz mehr Takt ist in der Tat eine Lachnummer, die Bezeichnung "Haswell Refresh" ist irreführend.

Edit: >5% mehr IPC würde ich nicht ausschließen.

Knuddelbearli
2013-12-11, 16:30:13
Wie jetzt, das neue Topmodell ist kein K-Modell mehr? Schreibfehler oder meint Intel das ernst?

gut Möglich wieso sollte Intel sowas auch anbieten ? wer OCen will soll sich S2011 kaufen, und wenn sie damit durckommen werden als nächstes die 250$ S2011er auch gesperrt :P

Skysnake
2013-12-11, 16:39:42
Intel hat den Haswell Refresh extra namentlich in die Roadmap gepackt. Da erwartet man nicht nur 100 Mhz mehr.
Zumal Intel früher auch mal Modelle mit 100 Mhz mehr auf den Markt gebracht hat, ohne diese neu zu benennen.

Wenn ich mich nicht irre soll das ja jetzt wohl als Haswell Refresh - Architektur gelten. :rolleyes:
DU nennst doch schon den springenden Punkt: Perfekt, also Vergangenheit :tongue::wink:

Sunrise
2013-12-11, 17:10:45
gut Möglich wieso sollte Intel sowas auch anbieten ? wer OCen will soll sich S2011 kaufen, und wenn sie damit durckommen werden als nächstes die 250$ S2011er auch gesperrt :P
Naja, die $250 sind mir herzlich egal. Werd mir eh bald den 8-Core Haswell gönnen, von mir aus kann Intel dann im Mainstream-Desktop machen was sie wollen, solange es wenigstens beim großen Sockel endlich mal bezahlbare und schnelle 8 Kerne gibt.

http://vr-zone.com/articles/haswell-refresh-trickle-gradually-2014/66507.html
Danke, das beantwortet meine Frage. Wollte mir sowieso den Haswell-E als nächstes kaufen.

Nightspider
2013-12-11, 17:36:11
Herbst 2014 ist bei dir bald?^^

Sunrise
2013-12-11, 17:55:44
Herbst 2014 ist bei dir bald?^^
Bald ist für mich ein unbestimmter Zeitpunkt irgendwann in der Zukunft. Insofern, ja. :D

Nightspider
2014-03-12, 19:53:27
Bekommen die Haswell-Refresh zumindest ein neues Stepping oder sind die bis auf den Takt zu 100% identisch?

dildo4u
2014-03-15, 15:42:40
Haswell E auf Q2 vorgezogen

http://www.kitguru.net/components/cpu/anton-shilov/intel-pulls-in-introduction-of-core-i7-extreme-haswell-e-5000-series-to-q2/

Nightspider
2014-03-15, 16:17:23
Nice

Rente
2014-03-15, 17:12:24
Mal sehen ob es bis dahin dann auch DDR4-Ram zu kaufen gibt, wäre schon lustig wenn es zum Launch quasi nicht kaufbar sein sollte.

Reaping_Ant
2014-03-17, 09:42:12
Wenn das stimmt, wäre das echt mal eine gute Nachricht. Die "richtigen" CPUs von Intel hinken den Mobile-Varianten und deren Desktop-Verschitten ja schon genug hinterher. Mein Gulftown kann zwar eigentlich noch ganz gut mithalten aber acht Kerne und vor allem die höhere Speicherbandbreite hören sich schon ziemlich lecker an. Zwischenzeitlich hatte ich mir schon mit Ivy-E geliebäugelt, der war mir aber dafür, dass die Plattform nicht mehr besonders aktuell ist und bei einem eventuellen Upgrade wieder ersetzt werden müsste, dann doch zu teuer.

Allerdings wird Haswell-E, selbst wenn es eine Achtkern-Variante unterhalb des Topmodells (also in der 500 € Klasse) gibt sicher kein billiger Spaß. Weder die Boards noch DDR4 Ram (so überhaupt zu bekommen) werden zu Anfang besonders preiswert sein...

Ailuros
2014-03-17, 14:18:55
Wenn Stromverbrauch egal ist, laesst man so manche "Konkurrenz" in GFXbench3.0 im Staub: http://www.glbenchmark.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Mobile+Media+iConsole.tv+Utopian+Forerunner&testgroup=overall

Was jetzt der Unterschied zu dem hier:

http://www.glbenchmark.com/device.jsp?benchmark=gfx30&os=Android&api=gl&D=Mobile%20Media%20iConsole.tv%20Evolution

....keine Ahnung. Das erste ist eine utopische Vorschau der Zukunft (wayne juckt es?) und das zweite da realistisch moeglich fuer N power envelope? Wenn ja welchen genau?

Nightspider
2014-03-17, 14:36:01
Ich könnte mir vorstellen das die HexaCores auf ~350-400 Euro fallen während die OctaCores bei ~500-650 Euro bleiben.

Botcruscher
2014-03-17, 15:45:17
Der BWL Trupp von Intel blickt gerade zur Konkurrenz und fängt ganz laut an zu lachen.

Nightspider
2014-03-17, 15:48:29
In der Vergangenheit hat Intel auch schon öfters mal neue und sehr gute P/L-Hardware auf den Markt geworfen. Man kann ja noch hoffen. Auf jeden Fall dürfte der 6-Kerner billiger werden, wenn noch eine 8-Kern Variante dazu kommt.

AnarchX
2014-03-17, 15:54:05
Die Folien sprachen ja nur von 6 und 8 Kernen. Wenn man die drei Segemente wieder gleich besetzen will, sollte es da einen <300€ 6-Core geben. Aber angesichts der Konkurrenzsituation wäre das schon ein eher zu gutes Angebot.

Nightspider
2014-03-17, 15:57:19
Naja 300 hoffe selbst ich nicht. Eher 350-360€.

Selbst mit den Mainboards verdient Intel ja schon mehr Geld. Die ganze Plattform ist ja immer noch teurer als beim normalen Haswell.

dildo4u
2014-03-17, 16:53:05
Die Folien sprachen ja nur von 6 und 8 Kernen. Wenn man die drei Segemente wieder gleich besetzen will, sollte es da einen <300€ 6-Core geben. Aber angesichts der Konkurrenzsituation wäre das schon ein eher zu gutes Angebot.
Desktop Verkäufe laufen doch schon ne Weile schleppend wie noch nie,da geht's nich gegen AMD sondern darum die Verkäufe zumindest zu stabilisieren.

Hugo78
2014-03-17, 18:20:52
Genau und der 14nm Ausbau liegt auch nicht im Plan, da wäre mehr Umsatz mit 22nm natürlich wünschenswert und ein vorgezogener Launch eine Maßnahme dafür.

mrck
2014-03-19, 20:41:32
...

Konami
2014-03-19, 21:42:27
Das ist nicht bekannt. Es wird aber wohl ein verbessertes TIM geben.


http://s14.directupload.net/images/140319/fs8hf325.png
http://chinese.vr-zone.com/105547/intel-codename-devils-canyon-is-fourth-intel-core-unlocked-cpu-03202014/
Jetzt ist etwas-weniger-beschissene Wärmeübertragung also schon ein Marketingpunkt. :usad:

dargo
2014-03-19, 23:47:52
Jetzt ist etwas-weniger-beschissene Wärmeübertragung also schon ein Marketingpunkt. :usad:
Jupp... einfach nur arm. Jetzt fehlt nur noch, dass die neuen K-CPUs noch etwas teurer werden als non K im Vergleich zu Haswell. Weil... da ist ja wieder ein größerer OC-Anreiz da. :freak:

mrck
2014-03-19, 23:54:45
...

Rente
2014-03-20, 06:18:16
Es kommt auch noch ein Haswell-Dual-Core mit freigeschaltetem Multiplikator, die Pentium Anniversary Edition:

http://abload.de/img/1_mb8u0v.png

Nette Geste von Intel, aber irgendwie 5-6 Jahre zu spät. Mal schauen ob der mit HT kommt (ist aber wohl unwahrscheinlich), QuickSync ist auf jeden Fall an Bord.

Quelle: http://www.computerbase.de/2014-03/intel-pentium-anniversary-edition-unlocked-20-years/

Schaffe89
2014-03-20, 07:13:30
Könnte trotzdem eine interessante CPU für Gamer sein.
Auf ~5ghz übertaktet dürfte sein ein Dualcore auch die kleinen i5 schlagen, zumindest in Spielen.

Rente
2014-03-20, 08:05:55
Könnte trotzdem eine interessante CPU für Gamer sein.
Auf ~5ghz übertaktet dürfte sein ein Dualcore auch die kleinen i5 schlagen, zumindest in Spielen.
Sobald auch nur im Ansatz mehr als 2 Kerne benötigt werden, oder eine nVidia-Karte zum Einsatz kommt, sieht ein reiner DC ohne HT kein Land mehr, da kann er auch mit 5 GHz takten.

y33H@
2014-03-20, 08:24:35
http://www.intel.com/newsroom/kits/desktop/2014/pdfs/DT_press_day_briefing.pdf

Konami
2014-03-20, 09:46:32
Sollte Intel die Änderung geheim halten oder was wäre dein Vorschlag? Dann würden sich wieder Leute aufregen, weil sie kurz vorm refresh noch die erste Haswell Generation gekauft haben. Die Änderung ist von großem Interesse, es wäre dämlich von Intel wenn sie nicht darüber informieren würden. Ich bin gespannt wie sich das auswirkt. Die Temperaturen wurden oft auf die kleine Fläche geschoben oder dem 22nm Prozess.


Computerbase hat mehr Infos.
Natürlich informieren sie darüber. Mein Punkt ist, dass wir uns schon so an Hitzkopf-CPUs mit "Integrated Heat Insulator" gewöhnt haben, dass wir uns jetzt eine vermutlich eher geringfügige Milderung der Probleme als tolle Revolution andrehen lassen müssen. Dass damit das Niveau von Sandy Bridge wieder erreicht wird, bezweifle ich halt. Lass mich aber gerne überraschen.

Reaping_Ant
2014-03-20, 09:55:20
http://www.intel.com/newsroom/kits/desktop/2014/pdfs/DT_press_day_briefing.pdf
Für "Maximize Enthusiast segment" dürfte es aber gerne mehr als eine Folie zu Haswell-E sein. Andererseits ist es ja schön zu sehen, dass sie bei dem ganzen Mobile-hier, Tablet-da und All-in-one-dort das obere Desktop-Segment nicht ganz vergessen haben. Auch die angekündigte Verbesserung der thermischen Eigenschaften für die "kleinen" K-CPUs ist begrüßenswert, andererseits hätte man da auch nach Ivy schon drauf kommen können.
Der Jubiläums-Pentium dagegen ist wohl nur in Ausnahmefällen sinnvoll. Klar gibt es noch so einige Spiele und Software die schlecht oder gar nicht mit mehreren Kernen skalieren, aber ich hoffe doch stark, dass wir das bald mal hinter uns haben.

G3cko
2014-03-20, 21:33:19
Nachdem man durch die k-CPUs das overclocking schon auf ausgewählte CPUs beschränkt hat war es nur ein logischer Schritt dies durch schlechte wärmeübertragung oder ähnliche Spielereien noch weiter einzudämmen. Ich bin mal gespannt wie viel der 8-Kerner so kostet. Eine CPU mit vielen Kernen, wenig Takt und oc gab es seit c2q nicht mehr. Also auch eine bewusste Beschränkung des ocs.

AnarchX
2014-05-08, 09:01:36
LGA? Xeons mit Iris Pro: http://newsroom.intel.com/community/intel_newsroom/blog/2014/05/07/chip-shot-intel-discloses-first-ever-integrated-graphics-on-intel-xeon-processor-e3-1200-product-family?utm_source=feedburner&utm_medium=feed&utm_campaign=Feed%3A+IntelNewsroom+%28Intel+Newsroom%29

edit:
Oder wohl doch eher BGA: http://www.cpu-world.com/CPUs/Xeon/Intel-Xeon%20E3-1284L%20v3.html

mrck
2014-05-11, 07:58:08
...

AnarchX
2014-05-11, 10:30:15
Zumal der Non-K mit 3,6/4,0 vorgestellt wurde. :|
Vielleicht ein Versuch 1150 preislich wieder etwas höher zu positionieren.

Thunder99
2014-05-11, 10:44:56
Zu Preisen von 300€ wäre das ein starkes Stück und es würde wirklich eine Mehrleistung geboten werden

Botcruscher
2014-05-11, 11:43:47
Ich tip da auch eher auf höhere Preise. Mal sehen wie weit die mit OC noch gehen.

Skysnake
2014-05-11, 12:10:58
Schau dir nen geköpften IB an, dann weiste was maximal drin ist.

Realistisch gesehen natürlich etwas weniger. Die Gen kann man als OCler eigentlich direkt wieder vergessen, es sei denn einem raucht was ab, aber alles aber nem 2x00k braucht sich auch mit dieser Gen eigentlich keinerlei Gedanken ums Aufrüsten machen.

Vielleicht mit Broadwell dann, wobei auch das glaube ich nicht wirklich. Dann doch lieber gleich auf Skylake warten. Das wird dann wohl irgendwann 2016 sein :ugly:

Das muss man sich mal vorstellen! Die Leute, die sich im Januar 2011! OMFG nen 2x00k gekauft haben, müssen erst Ende 2015, aber wohl eher 2016 sich erst wirklich Gedanken ums aufrüsten machen. Das sind dann 4-5 Jahre! :ugly:

Holy shit, wan gabs denn sowas bitte jemals zuvor? Ich empfinde das wirklich als erschreckend, und bereue wirklich, das ich mir damals nicht nen 2x00k geholt habe -.- Das wäre die beste Investition in meinem IT-Leben gewesen. Aber nein, ich hielt am E8400 fest, weil ich sparen wollte, und seit nem Jahr jetzt nen i7-920, wobei der einem OCed auch so langsam echt die Haare vom Kopf frisst, auch wenn er in der Anschaffung wie ich finde ein Schnäppchen war.

mrck
2014-05-11, 12:20:03
...

Ex3cut3r
2014-05-11, 12:24:43
Also, wenn die neuen Haswell K Modelle jetzt auf die 5.0 Ghz zugehen, bin ich echt neidisch. :D