PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Intels Haswell kommt am 2. Juni - Zweikerner erst im vierten Quartal


Leonidas
2013-03-29, 21:05:13
Link zur News:
http://www.3dcenter.org/news/intels-haswell-kommt-am-2-juni-zweikerner-erst-im-vierten-quartal

Konami
2013-03-29, 21:18:52
Ich will nur wissen, wann dann die gefixten Prozessoren/Chipsätze (was auch immer) ohne USB3-Bug kommen. Bis dahin sitz ich auf heißen Kohlen. :D

dbass
2013-03-29, 21:44:55
Ich bin mal auf die Leistungsaufnahmen gespannt (z. B. im Idle). 84 W TDP finde ich persönlich nicht toll (auch wenn die GPU überarbeitet wurde etc.). Die Ivy Bridge CPUs haben eine TDP von max. 77 W und das finde ich immernoch viel. Ich persönlich denke auch, Intel und co. sollten mehr Gas geben, was geringere Leistungsaufnahmen anbelangt - auch im Desktopbereich.

Naja, ich werde nun mal erste Tests abwarten. Vermutlich bleibe ich aber meinem Core i5 750 treu und schaue, was die 14nm-Architektur (Skylake) so reißen wird.

Knuddelbearli
2013-03-29, 21:57:31
wenns dir zuviel ist nimm halt einen S oder T

kann das Gejammere nicht mehr höheren das das Spitzenmodel zu viel verbraucht ...

schreiber
2013-03-29, 21:59:32
Dito, wenn Intel ein Ghz mehr garantieren würde, wären mir auch 50 Watt mehr egal.

Ronny145
2013-03-29, 22:05:17
Abweichend zu Ivy Bridge wird es am 2. Juni allerdings noch keine Zweikern-Prozessoren geben


Was soll da abweichend sein? Bei IVB gab auch anfangs nur Quadcores. Außerdem stimmt das so nicht. Aus dem gleichen Dokument:


Product Name
4th Gen U-Processor Line (Haswell): 4th Gen Intel® Core™ i7-4650U, i5-4350U, i7-
4550U, i7-4500U, i5-4250U, i5-4200U, i3-4100U, i3-4010U processors
Product Introduction Date 27 May – 7 June 2013 (Day/Time TBD)
Sales and Advertising
Dates (to end users)
Advertising: NO forms of advertising or promotions to end users allowed (includes print/web)
until 9 June (for APAC/PRC/IJKK) and 23 June (for ASMO/EMEA)
Sales, Shipments: NO sales/shipments to end users until 9 June (for APAC/PRC/IJKK)
and 23 June (for ASMO/EMEA)



Die ganzen Ultrabook Modelle sind Zweikerner, muss man dir hoffentlich nicht erklären.

Knuddelbearli
2013-03-29, 22:05:56
Intel streckt damit auch diesen Launch wieder etwas – schon bei Ivy Bridge gab es ein ähnliches Spiel, wenngleich nicht so stark ausgeprägt. Damit zeigt sich durch die Blume, daß auch Intel die einstmals fest geltenden Release-Abstände von jeweils einem Jahr nicht mehr wirklich einhalten kann: Stand im Januar 2010 noch ein komplettes Portfolio an Nehalem/Clarkdale-Prozessoren an, verschoben sich die Release-Zeitpunkte der Zweikern-Modelle immer weiter im Jahr nach hinten:

Richtige Schlussfolgerung aber falsche Überlegung, die Dies die du vergleichst wurden ja immer kleiner und du vergleichst High end mit Mainstream


Sinnvoller ist
QX6700 Q4 2006
QX9650 Q4 2007
i7-965 XE Q4 2008
i7-980X Q1 2010
i7-3960X Q4 2011
i7-4960X Q3 2013

sind zuletzt also eher zwei Jahre gewesen als eines, also ganz schön extremer Unterschied

Gast
2013-03-29, 23:11:47
Ist schon was bekannt ob es bei WLP zwischen DIE und IHS bleibt oder ob es wieder verlötet wird ?

Elkinator
2013-03-30, 05:48:07
da hat wohl wieder jemand nicht verstanden was eine TDP ist...

Knuddelbearli
2013-03-30, 09:02:15
wenn jemand über die TDP jammert ( gerade bei 12 Posts ), jammert er wohl über den Verbrauch wieso juckt ihn den ansonsten die TDP?

und wie gesagt das gejammere nervt einfach wieso sollten alle andere schlechtere CPUs kaufen müssen nur weill denen der verbrauch des Spitzenmodells zu hoch ist ...
Oder sind die einfach zu dämlich sich die für sie passende CPU zu kaufen und kaufen deshalb einfach das Topmodell? Und jammern dann rum das die CPU nicht ihren Ansprüchen passt

Undertaker
2013-03-30, 11:37:13
Ich möchte daran erinnern, dass sowohl ein-Smilie-Postings als auch gegenseitige Troll-Unterstellungen unerschwünscht sind.

FlashBFE
2013-03-30, 12:44:35
Ich bin auch der Meinung, dass man im Desktop keine Notebook-Verbräuche braucht, sondern Leistung. Und ich hätte absolut nichts dagegen, wenn das Spitzenmodell 150Watt max. verballert, wenn ich für die elektrische Leistung entsprechend mehr Rechenleistung erhalte. Bei den High-End-GPUs beschwert sich doch auch niemand über den Verbrauch der Karten.

Und man darf ja auch nicht vergessen, dass seit Prescott viel passiert ist. Einerseits drücken Stromsparmechanismen den Leelaufverbrauch nach unten, die Lüfter-/ Kühler-/ Gehäuseindustrie hat sich auch stark weiterentwickelt und Netzteile sind auch viel effizienter und stärker. Also woher kommt noch die Abneigung?

dbass
2013-03-30, 13:23:59
Und man darf ja auch nicht vergessen, dass seit Prescott viel passiert ist. Einerseits drücken Stromsparmechanismen den Leelaufverbrauch nach unten, die Lüfter-/ Kühler-/ Gehäuseindustrie hat sich auch stark weiterentwickelt und Netzteile sind auch viel effizienter und stärker. Also woher kommt noch die Abneigung?

Ja, das stimmt sicherlich, da gebe ich dir Recht. Ich persönlich wünschte mir aber trotzdem, alle würden da eine Schippe noch nachlegen. Im Mobile-Bereich schafft es Intel im Moment ja auch, da diese sonst ARM gegenüber zu viel Land verlieren würden. Der Markt verlangt es hier.

Auch im Hinblick auf Highend-GPUs finde ich den Verbrauch ungünstig. Und ich gebe dir Recht: Selten wird sich darüber beklagt und das ist vielleicht auch das Problem (Stichwort Boost-Version der HD 7870). Gerade AMD-/ATI-Karten (und ich nutze seit Jahren nur AMD-/ATI-Karten) haben einen (im Verhältnis) sehr hohen Verbrauch. Ein Beispiel: Wenn ich mir die GTX 660 TI ansehe und dazu eine äquivalente AMD-/ATI-Karte, fällt die Leistungsaufnahme, finde ich, deutlich auf (z. B. hier zu sehen http://www.tomshardware.com/charts/2012-vga-gpgpu/23-Power-Consumption-Load,2981.html).

Knuddelbearli
2013-03-30, 13:40:16
dann guck ht4u

660 TI und 7870 genau gleichauf

http://ht4u.net/reviews/2012/amd_radeon_hd_7950_boost_edition_test/index28.php

660TI 150W
7870 160W

ist jetzt wirklich kein weltbewegender unterschied gerade wo du dir den Moment ausgesucht hast wo NV da erste mal seit Jahren besser als AMD dasteht ^^

Außerdem ist der Vergleich auch schlicht falsch du hast dich über den verbrauch der TOP CPU beschwert, nur weil die top CPU schneller ist und deshalb mehr verbraucht verbrauchen die kleineren ja nicht auch mehr

dbass
2013-03-30, 17:49:52
dann guck ht4u
660 TI und 7870 genau gleichauf
http://ht4u.net/reviews/2012/amd_radeon_hd_7950_boost_edition_test/index28.php
660TI 150W
7870 160W
Nicht nur das, die GTX 660 TI ist auch noch schneller:
http://www.computerbase.de/artikel/grafikkarten/2013/test-17-grafikkarten-im-vergleich/4/, http://www.techpowerup.com/reviews/ASUS/GTX_650_Ti_Boost_Direct_Cu_II/26.html


Außerdem ist der Vergleich auch schlicht falsch du hast dich über den verbrauch der TOP CPU beschwert, nur weil die top CPU schneller ist und deshalb mehr verbraucht verbrauchen die kleineren ja nicht auch mehr
Ich weiß zwar nicht, von welchem Vergleich du sprichst aber wir werden sehen. Vielleicht redest du von einer Schlussfolgerung?! Wie gesagt, ich warte nun erste Tests ab.

Knuddelbearli
2013-03-30, 19:27:11
sieh ht4u dort sind sie gleich auf

und ich beziehe mich darauf

Ich bin mal auf die Leistungsaufnahmen gespannt (z. B. im Idle). 84 W TDP finde ich persönlich nicht toll (auch wenn die GPU überarbeitet wurde etc.). Die Ivy Bridge CPUs haben eine TDP von max. 77 W und das finde ich immernoch viel. Ich persönlich denke auch, Intel und co. sollten mehr Gas geben, was geringere Leistungsaufnahmen anbelangt - auch im Desktopbereich.

Nur weill das Topmodell mehr verbraucht und dafür mehr leistet verbrauchen ja die kleineren nicht auch mehr. Wenn es jetzt einen Haswell mit 130W und dafür 4,2 Ghz gäbe wo wäre das problem? Kleinere CPUs verbrauchen deshalb bei gleicher Leistung ja nicht mehr.

Leonidas
2013-04-03, 09:23:27
Die ganzen Ultrabook Modelle sind Zweikerner, muss man dir hoffentlich nicht erklären.



Da hast Du Recht, die müssen ja auch Zweikerner sein, dürften keine teildeaktivierten Vierkerner sein. D.h. Intel hat DC doch daliegen, nimmt aber alle Produktion nur für Ultrabooks. Ergo wohl keine echten Produktionsprobleme, sondern schlicht ein gewaltiges Vertrauen in Ultrabooks.


Allerdings hab ich genau die Möglichkeit auch schon notiert gehabt, ich zitiere:
"... vorher dürften jene Zweikerner entweder gar nicht vorhanden sein oder aber rein für Ultrabook-Belange zur Verfügung stehen."