PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Haswell - 22nm, DX11.1 und AVX2 in H1/2013 - HSW-Refresh Q2/2014


Seiten : 1 2 3 [4] 5 6 7 8

Ronny145
2012-12-27, 23:38:05
http://s14.directupload.net/images/121227/56v9a9y9.png

So sieht das bei mir aus.

S940
2012-12-27, 23:52:58
Schon klar, hab auch FF und bekomm die gleiche Seite ja mit semiacc. vorgesetzt. Aber komisch, dass ich das bei fudzilla nicht bekomme ... keine Ahnung wieso. Klick mal auf das "Warum", da steht dann mehr.

Edit: Bin selbst übers Linkanpassen auf die Seite gekommen:
http://safebrowsing.clients.google.com/safebrowsing/diagnostic?client=Firefox&hl=en-US&site=http://fudzilla.com

Da steht also:
What is the current listing status for fudzilla.com?

This site is not currently listed as suspicious.

Part of this site was listed for suspicious activity 2 time(s) over the past 90 days.

Solltest Du also eigentlich auch nicht (mehr) bekommen, seit 25ten ist alles ok.

Ronny145
2012-12-28, 00:05:58
Ok ich klicke das weg. Chrome meldet weder bei semiaccurate noch fudzilla attackierende Seite.

Ph0b0ss
2012-12-28, 03:37:36
Die BCLK Übertaktung oder was könnte noch gemeint sein?

Zitat:
What do you usually do with your system? If you like to overclock, Haswell is worth it (can't tell you why but read the Haswell Anandtech preview very carefully for buried treasure). On-die graphics is improving quite a bit as well. If you're into energy efficiency or even more graphics, Broadwell. I think the tech community will be very pleasantly surprised with Broadwell. But I'm biased, so we'll just going to have to prove it the hard way.

Vielleicht lassen sich die Kerne bei Haswell besser takten als bei Ivy/Sandy, weil der L3-Cache/Uncore wieder entkoppelt ist?

Skysnake
2012-12-28, 09:37:30
Noch besser takten???

Leuts, was erwartet ihr denn bitte immer? -.-

Die Geschichte hatte wir doch erst mit IB, wo alle die absoluten Wunder-OC-CPUs herbeigepredigt haben, wo 5 GHz unter Luft ja 0815 wären und sowieso alles was unter 5 GHz wäre ja schon ne Schrott-CPU sei...

Die Taktgrenzen werden sich nur marginal verschieben mit Haswell. Stellt euch drauf ein, dann werdet ihr nicht wieder sehr enttäuscht sein. Und Falls doch etwas mehr geht, dann könnt ihr euch geich doppelt freuen.

Jetzt aber wieder mit Spekulationen bzgl einer nochmals gestiegenen OC-Leistung ins Kraut zu schiesen ist halt voll fürn Arsch...

Sorry meine Meinung.

robbitop
2012-12-28, 10:50:08
An sich sollte beim BCLCK der L3 nicht der Flaschenhals sein sondern der andere I/O Kram. Vieleicht war das aber sein Hint. (dass man für mittelhohes OC keine K-CPU mehr braucht).

Skysnake
2012-12-28, 11:09:30
Glaub ich eher nicht. Intel würde sich damit viel Geld durch die Lappen gehen lassen, und Sie haben absolut keinen Druck, den OC´lern entgegen zu kommen. So hart es ist, aber die haben eh kaum eine andere Wahl als Intel zu nehmen, da Sie einfach viel stärker sind in Games.

Undertaker
2012-12-28, 11:44:55
Noch besser takten???

Leuts, was erwartet ihr denn bitte immer? -.-

Die Geschichte hatte wir doch erst mit IB, wo alle die absoluten Wunder-OC-CPUs herbeigepredigt haben, wo 5 GHz unter Luft ja 0815 wären und sowieso alles was unter 5 GHz wäre ja schon ne Schrott-CPU sei...

Die Taktgrenzen werden sich nur marginal verschieben mit Haswell. Stellt euch drauf ein, dann werdet ihr nicht wieder sehr enttäuscht sein. Und Falls doch etwas mehr geht, dann könnt ihr euch geich doppelt freuen.

Jetzt aber wieder mit Spekulationen bzgl einer nochmals gestiegenen OC-Leistung ins Kraut zu schiesen ist halt voll fürn Arsch...

Sorry meine Meinung.

Gerade weil Ivy Bridge trotz neuem Prozess und nur minimalen Änderungen am Kern kaum verbessertes OC-Potential bot, könnte man bei Haswell auf selbiges spekulieren. Der Prozess sollte mittlerweile ausgereift und das Design besser darauf ausgelegt sein. Das allerdings nur als rein theoretische Überlegung. ;)

Ronny145
2012-12-28, 11:57:47
Glaub ich eher nicht. Intel würde sich damit viel Geld durch die Lappen gehen lassen, und Sie haben absolut keinen Druck, den OC´lern entgegen zu kommen. So hart es ist, aber die haben eh kaum eine andere Wahl als Intel zu nehmen, da Sie einfach viel stärker sind in Games.


BCL Übertaktung ala SB-E ist mehrmals bestätigt von Intel. Das kannst du als gesichert hinnehmen. Die Sache kann er damit gemeint haben, man weiß es nicht.

robbitop
2012-12-28, 12:24:53
Bessere Gesamttaktraten werden nur anfallen, wenn die Schaltgeschwindigkeit der Transistoren oder die TDP vorher limitiert hat. Das wird ja durch Shrinks ggf besser. Wenn es aber Signallaufzeiten sind, dann bringt dir ein Shrink nicht zwangsweise etwas.

Botcruscher
2012-12-28, 12:42:05
Wenn der Chip kleiner wird, werden auch die Wege im Chip kleiner. Die Frage ist eher ob die 3D Transistoren von der besseren Herstellung profitieren. Viel sollte man nicht erwarten.

robbitop
2012-12-28, 12:49:29
Hat bei Ivy aber nicht geholfen. Und Haswell wird nicht kleiner.

dargo
2012-12-28, 14:43:42
Noch besser takten???

Leuts, was erwartet ihr denn bitte immer? -.-

5,5Ghz bei leiser Luftkühlung und 70°C CPU-Temperatur. :D

Ph0b0ss
2012-12-28, 15:11:34
An sich sollte beim BCLCK der L3 nicht der Flaschenhals sein sondern der andere I/O Kram. Vieleicht war das aber sein Hint. (dass man für mittelhohes OC keine K-CPU mehr braucht).

Vom BCLCK hab ich doch gar nichts geschrieben. Ich meinte, dass der maximale L3/Uncore Takt (der bei Sandy/Ivy ja dem Kerntakt entspricht) den Kerntakt limitiert. Vielleicht geht ja z.B. beim Haswell 5,5Ghz Kerntakt bei maximal 4,8Ghz L3/Uncore Takt! Genauso wie man beim Nehalem ja meist mehr Spannung beim L3/Uncore als bei den Cores braucht, wenn beides auf gleichem Takt ist (oder die Cores bei gleicher Spannung höher gehen).

Zergra
2012-12-28, 15:23:01
5,5Ghz bei leiser Luftkühlung und 70°C CPU-Temperatur. :D
Mit Boxed-Kühler :D

dargo
2012-12-28, 15:51:41
Mit Boxed-Kühler :D
Na... wir wollen nicht übertreiben. ;)

btw.
Weiß man schon um wieviel Prozent die CPU (nicht den IGP-Anteil mitgerechnet) größer sein wird als Ivy? Ich spekuliere hier auf eine bessere Wärmeabgabe an den Kühler.

Coda
2012-12-28, 15:57:01
Nur um manche Leute mal wieder dran zu erinnern:

x86/x64 will not die. Contrary to popular opinion, this is not bad. I've worked on the instruction decoder and there is a lot of FUD out there. Every time we look at adopting another ISA, it makes no technical sense. Do you mean evolving the P6 microarchitecture?

Nightspider
2012-12-28, 16:05:11
Ich glaube zwar auch nicht an viel besseres OC Potential aber ich hoffe dennoch, das man ein paar hundert Mhz mehr aus Haswell quetschen kann, gerade weil Ivy da eine Niete war kann man 2 Jahre nach Sandy auf etwas mehr hoffen.

Ronny145
2012-12-28, 17:25:34
btw.
Weiß man schon um wieviel Prozent die CPU (nicht den IGP-Anteil mitgerechnet) größer sein wird als Ivy? Ich spekuliere hier auf eine bessere Wärmeabgabe an den Kühler.


Die Kerne alleine sind im Bereich von um die 14% größer.

deLuxX`
2012-12-28, 19:31:40
Ob Haswell wirklich kühler bleibt als Ivy Bridge? Ich bezweifel es. Vor allem muss ja jetzt auch noch ein Teil der Wärme der Spannungswandler(die vorher auf der Hauptplatine saßen) über den Heatspreader abgeführt werden.

Konami
2012-12-28, 22:47:35
Sollte nicht der FIVR (integrierter Spannungswandler) sogar die Übertaktbarkeit erhöhen, indem er (wie hier ganz unten zu sehen (http://www.anandtech.com/show/6355/intels-haswell-architecture/2)) die Umschaltzeiten zwischen verschiedenen Spannungsniveaus verkürzt und so dafür sorgt, dass die volle Spannung weniger lang anliegt? (-> höhere Spannung einstellbar, ohne dass es zu heiß wird)

Oder soll nur die ULV-Variante von Haswell mit FIVR kommen? Ich blick da noch nicht ganz durch.

Noch besser takten???

Leuts, was erwartet ihr denn bitte immer? -.-

Die Geschichte hatte wir doch erst mit IB, wo alle die absoluten Wunder-OC-CPUs herbeigepredigt haben, wo 5 GHz unter Luft ja 0815 wären und sowieso alles was unter 5 GHz wäre ja schon ne Schrott-CPU sei...
Den reddit-Link übersehen? Wenn ein Intel-Ingenieur ankündigt, dass Haswell für Übertakter interessant wird, dann wird da schon was dran sein. Bei IVB waren es reine User-Spekulationen - die dann nicht zuletzt am miserablen TIM gescheitert sind.

Blediator16
2012-12-28, 23:13:08
Nur um manche Leute mal wieder dran zu erinnern:

Ist das aus dem IAMA eines Intel Ingenieurs von Reddit? Ich meine genau den Satz dort gelesen zu haben.

deLuxX`
2012-12-29, 10:16:40
Sollte nicht der FIVR (integrierter Spannungswandler) sogar die Übertaktbarkeit erhöhen, indem er (wie hier ganz unten zu sehen (http://www.anandtech.com/show/6355/intels-haswell-architecture/2)) die Umschaltzeiten zwischen verschiedenen Spannungsniveaus verkürzt und so dafür sorgt, dass die volle Spannung weniger lang anliegt? (-> höhere Spannung einstellbar, ohne dass es zu heiß wird)

Oder soll nur die ULV-Variante von Haswell mit FIVR kommen? Ich blick da noch nicht ganz durch.
Ist halt die Frage ob die Effizienzsteigerung durch die Stromversorgung wieder durch die schiere Anwesenheit der Schaltung direkt neben der CPU aufgefressen wird (temperaturseitig). Oder denke ich da gerade um zu viele Ecken?

Hamster
2012-12-29, 11:38:54
wird die igp jetzt eigentlich edram besitzen oder nicht? man liest darüber gar nichts mehr...

falls ja: in welchen ausbaustufen und mit welchen größen? (meine mal gelesen zu haben bis 128MB, was ja nicht schlecht wäre)

Skysnake
2012-12-29, 13:50:21
Sollte nicht der FIVR (integrierter Spannungswandler) sogar die Übertaktbarkeit erhöhen, indem er (wie hier ganz unten zu sehen (http://www.anandtech.com/show/6355/intels-haswell-architecture/2)) die Umschaltzeiten zwischen verschiedenen Spannungsniveaus verkürzt und so dafür sorgt, dass die volle Spannung weniger lang anliegt? (-> höhere Spannung einstellbar, ohne dass es zu heiß wird)

Oder soll nur die ULV-Variante von Haswell mit FIVR kommen? Ich blick da noch nicht ganz durch.


Den reddit-Link übersehen? Wenn ein Intel-Ingenieur ankündigt, dass Haswell für Übertakter interessant wird, dann wird da schon was dran sein. Bei IVB waren es reine User-Spekulationen - die dann nicht zuletzt am miserablen TIM gescheitert sind.
Und? Was erwartest von einem von Intel???

Das heißt aber erst mal gar nichts. Jede Intel CPU ist doch immer toll für Übertackter, die halt nen X oder K im Namen trägt :rolleyes:

Zudem kann man dann halt auch billigere Boards für OC nehmen. DAs ist auch "gut" für Übertackter, bzw "interessant"

Das sind halt alles Nullaussagen.

AnarchX
2012-12-29, 16:06:41
wird die igp jetzt eigentlich edram besitzen oder nicht? man liest darüber gar nichts mehr...

falls ja: in welchen ausbaustufen und mit welchen größen? (meine mal gelesen zu haben bis 128MB, was ja nicht schlecht wäre)

Die letzte Meldung dazu kam von Charlie@Semiaccurate: Crystalwell soll den Herstellern wohl zu teuer sein.

Hamster
2012-12-29, 20:54:22
hm, das wäre schade. danke für das update.

aber jetzt nur für mein verständnis: inwiefern zu teuer? wenn intel das eben mit aufs die klatscht, was wollen da groß andere hersteller mitreden?

Coda
2012-12-29, 21:02:05
Nehmt ihr ehrlich schon wieder Semiaccurate für bare Münze oder was?

Ronny145
2012-12-29, 21:22:00
Der ein oder andere schon.

Fetza
2012-12-30, 04:52:46
Ist der neue juni termin für haswell eigentlich als warscheinlich einzustufen, oder ist das nur speku-gelaber? Ich liebäugele auch mit einer neuanschaffung um meinem phenom II zu ersetzen, da wäre mir april-mai natürlich gut zu paß gekommen.

Konami
2012-12-30, 05:54:50
Und? Was erwartest von einem von Intel???

Das heißt aber erst mal gar nichts. Jede Intel CPU ist doch immer toll für Übertackter, die halt nen X oder K im Namen trägt :rolleyes:

Zudem kann man dann halt auch billigere Boards für OC nehmen. DAs ist auch "gut" für Übertackter, bzw "interessant"

Das sind halt alles Nullaussagen.
Die Frage war, ob sich für jemanden, der sich gerade erst ein IVB-System gekauft hat, ein Upgrade auf Haswell lohnt. Die Antwort: Ja, wenn man übertakten will - und die Ursache soll irgendwo im Anandtech-Preview zu finden sein ("buried treasure").
Klar wird ein Intel-Mitarbeiter nie ganz neutral berichten, aber für eine "Nullaussage" klingt mir das viel zu spezifisch. Aber wie du meinst.

Ist halt die Frage ob die Effizienzsteigerung durch die Stromversorgung wieder durch die schiere Anwesenheit der Schaltung direkt neben der CPU aufgefressen wird (temperaturseitig). Oder denke ich da gerade um zu viele Ecken?
Die Gesamtabwärme des CPU-Package ist die eine Sache, da hast du Recht. Aber für die oft kritischere Wärmedichte im Die sollte sich das schon positiv auswirken.

Ist der neue juni termin für haswell eigentlich als warscheinlich einzustufen, oder ist das nur speku-gelaber? Ich liebäugele auch mit einer neuanschaffung um meinem phenom II zu ersetzen, da wäre mir april-mai natürlich gut zu paß gekommen.
VR-Zone hat die Info angeblich von OEMs/ODMs.

Hamster
2012-12-30, 11:10:38
Nehmt ihr ehrlich schon wieder Semiaccurate für bare Münze oder was?

ich kenne semiaccurate noch nicht mal... ich möchte lediglich wissen, ob haswell jetzt edram hat, oder nicht.
und AnarchX war zumindest so freundlich zumindest irgendeine ihm bekannte info zu posten, was ich sehr nett fand.

ob diese jetzt richtig oder falsch ist, vermag ich nicht zu beurteilen. falls du jedoch andere oder tiefergehende informationen hast, dann teile sie doch mit uns. das wäre zumindest freundlicher als das geschreibsel von da oben.

Coda
2012-12-30, 11:39:05
ich kenne semiaccurate noch nicht mal... ich möchte lediglich wissen, ob haswell jetzt edram hat, oder nicht.
Mit Sicherheit sagen kann dir das wohl noch niemand.

StefanV
2012-12-30, 15:49:36
Die Frage war, ob sich für jemanden, der sich gerade erst ein IVB-System gekauft hat, ein Upgrade auf Haswell lohnt. Die Antwort: Ja, wenn man übertakten will - und die Ursache soll irgendwo im Anandtech-Preview zu finden sein ("buried treasure").
Klar wird ein Intel-Mitarbeiter nie ganz neutral berichten, aber für eine "Nullaussage" klingt mir das viel zu spezifisch. Aber wie du meinst.
Sorry, aber wer einem Mitarbeiter in solchen Sachen glaubt, dem ist kaum noch zu helfen.

Zumal bisher nicht klar ist, was er gemeint hat oder wie er es gemeint hat. Solange das nicht der Fall ist, sollten wir besser die Füße still halten und der Aussage nicht weiter Beachtung schicken.

Denn das neue wird immer, in jedem Punkt, unter absolut jeder Gelegenheit so unglaublich viel toller als alles was man zu vor gemacht hat, das kannst du dir nicht vorstellen...
Das ist überall so, wenn etwas vorgestellt wird. Bei jeder Band ist as neue Album immer so viel toller/besser/geiler als alles was davor kam. Bei jedem Hersteller genau so...

Und wenn man sich mal ein paar Minuten mit PR/Marketing beschäftigt, kann das nur zu einem führen: Ignorieren des gesagten und warten auf neutrale Aussagen...

Oder, wie es (früher) bei Grafikchips war: Willst was wissen, fragst überall, nur nicht bei dem Chiphersteller (also Fabs, Mitbewerber)...

Coda
2012-12-30, 15:55:14
Das war aber kein Marketing-Schwätzer, sondern ein Engineer.

StefanV
2012-12-30, 17:40:06
Das ist richtig. Nur muss jeder Vertreter einer Firma die eigenen Produkte so gut wie möglich aussehen lassen.

Und er hat nur gesagt, dass die wohl irgendwie für Übertakter besser sein könnten. Aber er sagte nicht was. Und solange wir nicht ungefähr wissen, was er nun meinte, wie er es meinte, sollten wir diese Aussage wenig Beachtung schenken...
Und wie Skysnake schon sagte, sind alle Intel CPU Generationen irgendwie gut zum Übertakten. Und genau das ist ja gerade der Punkt: Denn er kann ja wieder irgendwelche 'Special Editions' meinen, die sich besonders toll zum Übertakten eignen könnten...
Letztendlich wissen wir nichts genaues und können nur drüber spekulieren, wovon er überhaupt gesprochen hat.

Und was zum Beispiel eine Möglichkeit wäre, dass der IHS wieder verlötet wird oder der IHS verbessert wurde, so dass man die Temperaturen senken konnte...

Coda
2012-12-30, 18:03:22
Das ist richtig. Nur muss jeder Vertreter einer Firma die eigenen Produkte so gut wie möglich aussehen lassen.
Genau so ist das. Alles hirnlose Söldner, die sowieso nicht nachdenken müssen und wenn sie die Konkurrenz sehen zu rasenden, mördenden Bestien werden. Chip-Design kann eh jeder.

Du hast Recht und ich meine Ruhe :facepalm:

gnahr
2012-12-30, 18:13:21
die angestellten werden ja auch eingeschläfert nach der arbeit, er darf sich gar nicht privat äußern und gehört seinem arbeitgeber...
lass gut sein stefan, du kannst es argwönisch betrachten aber nicht die welt bevormunden mit dem einstauchen von erwartungen. dass miesepeter niemand mag ham wir ja beim bulldozer-fiasko gelernt. ;)

=Floi=
2012-12-30, 18:31:22
Sorry, aber wer einem Mitarbeiter in solchen Sachen glaubt, dem ist kaum noch zu helfen.

Zumal bisher nicht klar ist, was er gemeint hat oder wie er es gemeint hat. Solange das nicht der Fall ist, sollten wir besser die Füße still halten und der Aussage nicht weiter Beachtung schicken.

Denn das neue wird immer, in jedem Punkt, unter absolut jeder Gelegenheit so unglaublich viel toller als alles was man zu vor gemacht hat, das kannst du dir nicht vorstellen...
Das ist überall so, wenn etwas vorgestellt wird. Bei jeder Band ist as neue Album immer so viel toller/besser/geiler als alles was davor kam. Bei jedem Hersteller genau so...

Und wenn man sich mal ein paar Minuten mit PR/Marketing beschäftigt, kann das nur zu einem führen: Ignorieren des gesagten und warten auf neutrale Aussagen...

Oder, wie es (früher) bei Grafikchips war: Willst was wissen, fragst überall, nur nicht bei dem Chiphersteller (also Fabs, Mitbewerber)...


das mit dem album ist wohl das blödeste beispiel was du finden konntest. :freak:

dildo4u
2013-01-07, 22:03:37
Intel CES 2013 Stream

http://live.cnet.com/Event/Intels_CES_2013_keynote

Twodee
2013-01-07, 22:09:45
meine fresse haut der auf die kacke, wegen einem einigermaßen guten atom im handy.. lange hats ja gedauert

dildo4u
2013-01-07, 22:21:00
Die 7 Watt Version(Vorher 10) und soll schon in Produktion sein.(Ivy)

http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9389/vjb_0207.jpg

http://images.scribblelive.com/2013/1/7/36763d1e-bfe1-43f1-93ca-60954078513d.jpg

13 Stunden Laufzeit mit i5/i7 Haswell im Ultrabook Formfaktor Akku im Display und Keyboard.

http://d35lb3dl296zwu.cloudfront.net/uploads/photo/image/9395/vjb_0264.jpg

http://live.theverge.com/live-from-intel-ces-2013-liveblog/

Knuddelbearli
2013-01-07, 22:28:11
die ersten sind soweit ich weiß noch ivy ( sind doch die Y CPUs oder ? )

Twodee
2013-01-07, 22:28:12
Ivy ist es. Haswell hat er später extra erwähnt. Und mit Haswell gibts den größten Mobile-Powerconsumption-Reduce Sprung in der Geschichte von Intels :eek:

Eggcake
2013-01-07, 22:32:21
Bringing back family nights...right :)

Edit: Wie geil, dank der Verlinkung mit dem Smartphone, kann jemand, der kacken gehen muss weiterspielen! Revolutionary :)

Die Ultrabookspecs hören sich toll an, dafür kann man sich wohl auch happige Preise freuen.

Twodee
2013-01-07, 22:35:26
Bringing back family nights...right :)

Edit: Wie geil, dank der Verlinkung mit dem Smartphone, kann jemand, der kacken gehen muss weiterspielen! Revolutionary :)
;D sowas ähnliches ging mir auch durch den kopf.

YfOrU
2013-01-08, 07:48:51
Ivy ist es. Haswell hat er später extra erwähnt. Und mit Haswell gibts den größten Mobile-Powerconsumption-Reduce Sprung in der Geschichte von Intels :eek:

Jetzt ist mir endgültig klar weshalb Anand beim "In-Depth Power Analysis of Atom, Krait & Cortex A15" Haswell so deutlich angesprochen hat. Wenn IB als reales Produkt auf 7 Watt zu bekommen ist dann lässt sich Haswell wohl wirklich im gleichen (Tab) Formfaktor unterbringen wie Quad A15.

AnarchX
2013-01-08, 11:38:03
Mit den aktuellen Atoms dürfte man relativ einen ähnlich großen Sprung gemacht haben. Aber die IPC-stärkste x86-Architektur kombiniert mit den Idle-Verbräuchen eines LP-SoCs ist natürlich ein anderes Niveau.

Ronny145
2013-01-09, 23:54:43
Intel used a mobile customer reference board in a desktop chassis featuring Haswell GT3 with embedded DRAM (the fastest Haswell GPU configuration that Intel will ship) and compared it to an ASUS UX15 with on-board NVIDIA GeForce GT 650M.

Intel Haswell GT3e GPU Performance Compared to NVIDIA's GeForce GT 650M (http://www.anandtech.com/show/6600/intel-haswell-gt3e-gpu-performance-compared-to-nvidias-geforce-gt-650m)

dildo4u
2013-01-10, 00:11:56
Könnte sehr kompakte Steam Boxen ermöglichen,wäre schon ein Ding wenn sie Mobile Karten mit GDDR5 erreichen.

Knuddelbearli
2013-01-10, 05:57:52
http://www.tweakpc.de/news/26500/intel-schoent-verbrauchsangaben-der-neuen-ulv-prozessoren/

frecht ...

wobei sich tweakpc auch nicht gerade mit ruhm bekleckern würfeln da atom und ivybridge bezeichnungen durcheinander

Twodee
2013-01-10, 07:41:48
http://www.tweakpc.de/news/26500/intel-schoent-verbrauchsangaben-der-neuen-ulv-prozessoren/

frecht ...

wobei sich tweakpc auch nicht gerade mit ruhm bekleckern würfeln da atom und ivybridge bezeichnungen durcheinander
hat nicht AMD auch schon Server-CPUs mit ACP anstatt TDP Angaben vorgestellt?

AnarchX
2013-01-10, 07:57:15
Wobei die Szenario TDP von Intel wohl, nichts mit der Auslastung, sondern mit der Temperatur zu tun hat: http://www.computerbase.de/news/2012-12/vor-haswell-noch-sparsamere-ivy-bridge-geplant/

Ebenso lassen sich die CPUs auf 10W herabkonfigurieren.

Knuddelbearli
2013-01-10, 07:58:22
nicht ganz

AMD gibt immer ( bzw gab, kA wie das jetzt ist ) das absolute maximum an. Intel hatte schon immer nen wert leicht darunter. die ACP war ( bzw sollte ) dann vergleichbar mit intels TDP sein.

Ob dann wirklich beide gleich waren kann wohl nur ein AMD oder Intel mitarbeiter sagen

boxleitnerb
2013-01-10, 08:09:39
Was AMD angibt, sind pure Fantasieangaben:

http://forums.anandtech.com/showthread.php?t=2289809

Knuddelbearli
2013-01-10, 08:12:45
und was hat das jetzt mit der cpu zu tun?
Angaben zur Spannung usw kommen alle vom MB und gerade Asus oc Boards sind da keine kostverächter.
soweit ich das sehe nimmt er einfach differenz von idle zu vollast?
Dazu hängt bei den 200W noch ne Menge anderes zeug dran zB die NB usw
kA was Asus bei dem Board alles draufgelötet hat ^^
alles in allem ein schwachsinstest soweit ich das sehe

Siehe auch MB tests, GB gibt da auch gerne mal deutlich mehr Saft

und wenn dann glaube ich eher HT4U ( die sind einfach die besten auch wen sie sich ab und an auch Fehler erlauben ^^ ) und die Messen 137W inkl Wandler
wenn die 90% schaffen ( kA was die schaffen ) ist man bei 123W fast ne Punktlandung^^

und last but not least

AMD wirbt nicht damit das sie nur 125W verbrauchen ^^ und damals bei den Servern haben sie es richtigerweise mit ACP angegeben

boxleitnerb
2013-01-10, 08:34:28
Du willst mir erklären, dass Board und RAM und Netzteil 75W verbrauchen? Ja genau. Der Mod dort hat mehr Kompetenz als hier 10 User zusammen, der hat schon alle möglichen Sachen professionell untersucht. Davon abgesehen wurden die Ergebnisse später im Thread von AtenRa mit dessen Setup verifiziert.

Anderes Board, bis zu 210W:
http://forums.anandtech.com/showpost.php?p=34389779&postcount=92

Ich vermute eher, AMD hat Golden Samples verschickt, aber wenn du Retail kaufst, sieht es halt düster aus.

Knuddelbearli
2013-01-10, 08:39:00
wie gesagt Messung ist trotzdem quatsch

HT4u misst es richtig schließt alles andere aus und kommt auf nichtmal 140W
http://ht4u.net/reviews/2011/amd_bulldozer_fx_prozessoren/index24.php

oder von mir aus auch PCGH die für das ganze System keine 200W messen
http://www.pcgameshardware.de/FX-8350-CPU-256473/Tests/FX-8350-Test-Vishera-Piledriver-1031473/3/

Je näher ich mir deinen ersten Link ansehe desto eher Schlage ich mir an den Kopf. Steht ja nichtmal dabei auf was für Boards die Intel CPUs liefen ( oder ich bin zu müde und blind? ^^ )

Am enormen Stromhunger von FX gibts nicht schönzureden aber was du da betreibst ist mal wieder bashing ...

boxleitnerb
2013-01-10, 08:55:04
Wie gesagt, Retail vs. Testmuster. Du findest in dem Forum auch die Ergebnisse der anderen CPUs, da gibts viele Threads dazu. Nix "mal wieder bashing", nicht persönlich werden, nur weil dir was Verlinktes nicht passt.

Knuddelbearli
2013-01-10, 09:13:54
nö unsinne Testverfahren ( willd durcheinadergewürfelte boards ) vs ordentliche Testverfahren ( ht4u cpu only pcgh bei intel und amd gleich sparsame boards )


Wie gesagt das die MB hersteller viel Mist bei amd bauen will ich gar nicht bestreiten. sieht man aktuell jaa auch schön an Trinity und Llano. Da könnt man super Notebbok systeme zusammenbasteln aber alle Hersteller bieten nur schrott an ...
AMD ist vielzusehr in der billigschiene verankert und das merkt man dann halt auch zB bei den Komponenten.

Trotzdem stimmt AMDs TDP!
Wenn es die MB Hersteller dann versauen durch günstige Spawas wo sie dann mehr Spannung geben müssen um sicher zu sein usw ist das nicht AMDs schuld ( und ohne Martkmacht können sie da auch wenig dagegen tun )

Undertaker
2013-01-10, 09:18:46
nicht ganz

AMD gibt immer ( bzw gab, kA wie das jetzt ist ) das absolute maximum an. Intel hatte schon immer nen wert leicht darunter. die ACP war ( bzw sollte ) dann vergleichbar mit intels TDP sein.

Nein. Weder AMDs noch Intels TDP-Angaben sind echte, elektrische Maximalwerte, sondern Angaben für die thermische Dimensionierung. Bei AMD heißt der Maximalwert übrigens "Max Power":

Max Power (http://support.amd.com/us/Processor_TechDocs/43374.pdf): "The maximum sustained power dissipated by the processor at nominal voltage and maximum specified case or die temperature."


Trotzdem stimmt AMDs TDP!

Nur als thermische Größe, also die abgegebene Wärmeleistung über einen bestimmten Zeitraum gemittelt. Programme wie Prime schließt AMD dabei übrigens explizit aus.

Thermal Design Power: "The thermal design power is the maximum power a processor can
draw for a thermally significant period while running commercially useful software."

Knuddelbearli
2013-01-10, 09:24:23
denke mal den verlust der nicht durch wärme zustande kommt kann man ignorieren ^^
und selbst bei Prime scheint AMD ja drinnzubleiben sofern das MB nicht mist baut

aber stimmt schon wärme ist träge, also kurze spitzen zählen da nicht mit rein, bleibt aber bei der Kernaussage das Intel und AMD sie an und für sich gleich berechnen ( eher AMD noch näher am maximum, dafür geht Intel, da sie nicht im zugzwang sind, nicht so nahe an die grenze ran ) und das mit den 7W einfach gesagt eine Massive! Täuschung ist ( 7W nur bei extremer Kühlung und nicht zu extremer Auslastung ) sonst 13W also mal eben das doppelte ...

Undertaker
2013-01-10, 09:35:11
denke mal den verlust der nicht durch wärme zustande kommt kann man ignorieren ^^

Das ist damit auch nicht gemeint, natürlich entspricht die el. Leistungsaufnahme der thermischen Leistungsabgabe (für große t). Es geht wie gesagt um kurze Spitzen, die zwar elektrisch bedeutsam sind, bzgl. der sehr träge reagierenden thermischen Auswirkungen aber vernachlässigt werden können und darum nicht in die TDP einfließen. Das übrigens Prime oder LinX bei bestimmten Modellen nicht doch die TDP knacken wird dabei eben laut Definition nicht garantiert (das wird bei Intel nicht anders sein).

und das mit den 7W einfach gesagt eine Massive! Täuschung ist ( 7W nur bei extremer Kühlung und nicht zu extremer Auslastung ) sonst 13W also mal eben das doppelte ...

Wie schon geschrieben wurde: Das ist doch der gleiche Scharrn wie AMDs ACP-Angabe. Immerhin: Intel spezifiziert weiterhin auch sauber eine echte TDP-Angabe, wenn man mal die Marketing-Folien außen vor lässt:

http://ark.intel.com/products/72015/Intel-Core-i7-3689Y-Processor-4M-Cache-up-to-2_60-GHz

Knuddelbearli
2013-01-10, 09:40:14
ähm

1.) sagte AMD dazu ACP statt TDP, bei Intel steht überall nur TDP
2.) sind das ganz andere Größen, ACP von TDP unterschieden sich um 10-15% hier sind es über 90%!

y33H@
2013-01-10, 09:44:13
Bei Intel in der Ark steht ganz klar "Max TDP" - wo also ist dein Problem?

1) AMD sagt ACP und TDP
2) Die ACP gilt für Server, die SDP für Tablets und Ultrabooks - ergo nicht vergleichbar

Twodee
2013-01-10, 09:47:32
ähm

1.) sagte AMD dazu ACP statt TDP, bei Intel steht überall nur TDP
2.) sind das ganz andere Größen, ACP von TDP unterschieden sich um 10-15% hier sind es über 90%!

nö bei Intel steht SDP!

Bei AMD kann das ACP-Verhältnis auch mal 50% betragen: http://www.amd.com/us/Documents/43761C_ACP_WP_EE.pdf

Undertaker
2013-01-10, 11:57:47
http://www.anandtech.com/show/6600/intel-haswell-gt3e-gpu-performance-compared-to-nvidias-geforce-gt-650m

Dirt 3 Haswell vs. GT 650M

Leider ohne Performancezahlen und darum kaum genau verwertbar. Aber: FullHD und immerhin hohe Details auf einer Ultrabook-IGP sieht nicht übel aus.

robbitop
2013-01-10, 13:06:17
Naja AMD hat auf der CES ein Tamesh Tablet mit Dirt Showdown in FullHD gezeigt (5,9 W TDP, Jaguar, 128 GCN Cores mit sehr niedrigem Takt). Allerdings sicher mit weniger Details. Ohne Genaueres ist das sehr schwer einzuschätzen.

Twodee
2013-01-10, 13:17:01
Naja AMD hat auf der CES ein Tamesh Tablet mit Dirt Showdown in FullHD gezeigt (5,9 W TDP, Jaguar, 128 GCN Cores mit sehr niedrigem Takt). Allerdings sicher mit weniger Details. Ohne Genaueres ist das sehr schwer einzuschätzen.
Und das hat jetzt genau was mit Haswell zu tun?

mekakic
2013-01-10, 13:18:13
Dennoch angenehm dass Intel auf den Punkt die IGP zu verbessern so nicht-destruktiv gekommen ist.

Ronny145
2013-01-10, 13:19:43
Naja AMD hat auf der CES ein Tamesh Tablet mit Dirt Showdown in FullHD gezeigt (5,9 W TDP, Jaguar, 128 GCN Cores mit sehr niedrigem Takt). Allerdings sicher mit weniger Details. Ohne Genaueres ist das sehr schwer einzuschätzen.

Detailstufe und Auflösung ist bekannt. Die HD4000 oder eine mobile Trinity GPU liefert in den settings nur eine verbesserte Diashow ab.

http://www.anandtech.com/show/6600/intel-haswell-gt3e-gpu-performance-compared-to-nvidias-geforce-gt-650m

Dirt 3 Haswell vs. GT 650M

Leider ohne Performancezahlen und darum kaum genau verwertbar. Aber: FullHD und immerhin hohe Details auf einer Ultrabook-IGP sieht nicht übel aus.

http://www.forum-3dcenter.org/vbulletin/showthread.php?p=9611414#post9611414

robbitop
2013-01-10, 14:10:34
Detailstufe und Auflösung ist bekannt. Die HD4000 oder eine mobile Trinity GPU liefert in den settings nur eine verbesserte Diashow ab.

http://www.computerbase.de/videos/2013-01/amd-temash-tablet/[/QUOTE]

FullHD laut CB.

Ronny145
2013-01-10, 14:16:43
http://www.computerbase.de/videos/2013-01/amd-temash-tablet/

FullHD laut CB.


Das ist höchstens die Bildschirmauflösung. Über die Renderauflösung sagt das nichts aus. Selbst der langsamste 17W Trinity ist weitaus schneller als Temash.

AnarchX
2013-01-19, 09:32:47
Charlie behauptet wohl, dass man bei Broadwell bzw. später dedizierte GPUs ausschließen will, in dem man nur PCIe x4 Gen2 aktiviert: http://forum.beyond3d.com/showpost.php?p=1695192&postcount=217

Für die gesamte Produktpalette ist das wohl eher unglaubwürdig. Aber für bestimmte Mobile-CPUs, die wohl möglich etwas günstiger sind als die x16 Gen3 Versionen, wäre das wohl durchaus denkbar. So lohnt es sich vielleicht finanziell dann eher eine GT3/GT4-Version zu verbauen, als die x16 CPU+dedizierte GPU.

Skysnake
2013-01-19, 10:27:30
Auf jeden Fall. Für sehr viele Geräte ist es eh nicht notwendig. Intel legt bei der iGPU ja nochmal massig zu bis dahin. Da wird die Kombination mit ner extra GPU einfach immer fragwürdiger.

Es gibt aber noch einen weiteren Punkt, der da Intel in die Karten spielt.

Wenn man auf das PCI-E Interface verzichtet, kann man die TDP eventuell um 1-5 Watt senken. Gerade Gen3 sollte doch einiges an Leistung ziehen.

Ronny145
2013-01-19, 11:01:40
Der Clown behauptet viel wenn der Tag lang ist und meistens liegt er falsch.

Nightspider
2013-01-19, 14:04:59
Bedenkt aber das es vielleicht schon 20nm Movilversion von Nvidias und AMDs neuen Grafikchips geben wird bis die Broadwell Mobilversionen im Herbst 2014 erscheinen.

Vielleicht macht das Kartellamt Intel dann wieder Feuer, weil Intel die Konkurenz aus dem eigenen Ökosystem drängt.

mboeller
2013-01-30, 14:41:34
wurde das hier schon diskutiert?

http://www.xtremesystems.org/forums/showthread.php?284868-Haswell-First-Benchmark-Performance-Results

Wenn ja, hat es überhaupt eine Aussagekraft?


ach ja, gefunden habe ich es hier:
http://forum.beyond3d.com/showpost.php?p=1700003&postcount=228

Knuddelbearli
2013-01-30, 17:19:20
ist ohne HT oder?

Konami
2013-01-30, 17:38:54
Ist singlethreaded... Also, Super PI und PiFast jedenfalls.
Trotzdem hoffe ich mal nicht, dass das die finale Performance ist.

Knuddelbearli
2013-01-30, 17:42:27
wprime ist multithreaded

Nightspider
2013-01-30, 18:45:22
Wäre arg enttäuschend :O

Undertaker
2013-01-30, 18:52:12
Ihr haltet das doch nicht ernsthaft für echt? Die Zahlen sind arg unschlüssig, z.B. der Unterschied zwischen WPrime 32 und 1024M, genauso SuperPi 1M und 32M. Hier sollten der Abstand zwischen verschiedenen CPUs prozentual immer identisch sein, egal welche Größe berechnet wird.

Nightspider
2013-01-30, 18:55:08
Gut möglich das ein Vorserienmodel noch Probleme macht und Bugs enthält.

Ich erhoffe mir immer noch 10-15% mehr IPC Power durch Haswell bei SingleThread Power.

Bei Nutzung von SMT dann vllt nochmal 15% mehr Power.


Ich hoffe die bisher vermuteten 10-15% waren noch nicht der Durchschnitt, wo das mehr an SMT Leistung schon eingerechnet war.

Skysnake
2013-01-30, 19:22:39
Single Thread würde ich nicht mehr als 5% im Schnitt erwarten.

Erst im Multithread kann man von ~10% ausgehen, wobei ich im Schnitt auch nicht mehr erwarten würde, wenn man sich nicht die Sonderfälle rauspickt, wo Haswell eben durch die Neuerungen die Performance massiv steigern kann.

Ronny145
2013-01-30, 21:41:39
wurde das hier schon diskutiert?

http://www.xtremesystems.org/forums/showthread.php?284868-Haswell-First-Benchmark-Performance-Results

Wenn ja, hat es überhaupt eine Aussagekraft?


ach ja, gefunden habe ich es hier:
http://forum.beyond3d.com/showpost.php?p=1700003&postcount=228


Weiter unten im Thread.

if you see some #intel #Haswell numbers online, I doubt their veracity,since they are nowhere close to what I have in my lab, please ignore
https://twitter.com/FPiednoel/status/296459612377468928


Ein CPUz screen wäre das Mindestens. Was nicht heißt das man den fälschen kann. Aber so gar nichts bei einer unbekannten Quelle, sehr zweifelhaft.

Tobalt
2013-01-31, 20:00:56
Paar prozentpunkte performance hin oder her..

Ich will es mal so auf den Punkt bringen:

Das einzige was hier für Desktops wichtig und interessant bei Haswell ist, ob er sich gut übertakten lässt und ein richtiger Knüller wäre, wenn auch die non-K modelle wenigstens rudimentäre Overclock funktionen hätten.


Denn mal ehrlich. Kaum einen hier im forum interessiert Performance/Watt oder Performance/Preis. Im Nenner steht IMMER die Performance bei maximalen Overclock (mit evtl leicht erhöhter Spannung)

RLZ
2013-01-31, 20:24:11
Denn mal ehrlich. Kaum einen hier im forum interessiert Performance/Watt oder Performance/Preis. Im Nenner steht IMMER die Performance bei maximalen Overclock (mit evtl leicht erhöhter Spannung)
Ich würde eher das Gegenteil vermuten. Die maximale Übertaktung wird auch hier im Forum die wenigsten hier interessieren.

Duplex
2013-01-31, 21:23:08
Das einzige was hier für Desktops wichtig und interessant bei Haswell ist, ob er sich gut übertakten lässt und ein richtiger Knüller wäre, wenn auch die non-K modelle wenigstens rudimentäre Overclock funktionen hätten.
Wenn Haswell 5,5Ghz OC schaft & 15-20% mehr IPC als Sandy Bridge hat, dann werde ich mir auch Haswell kaufen, mein aktueller i7-2700k macht die 5Ghz bei 1.36v, wenn Haswell das nicht packt gibt es keinen grund für mich die neue Plattform zu kaufen, auch wenn das OC Potential von Haswell mit Sandy gleichauf wäre was den Takt angeht, das wäre für mich immer noch eine enttäuschung! Dann kann ich gleich auf 14nm & OC > 6Ghz warten.

Knuddelbearli
2013-01-31, 22:01:40
und wer sagt das 14nm 6Ghz schafft?

YfOrU
2013-02-01, 07:29:41
und wer sagt das 14nm 6Ghz schafft?

Ist eine sehr berechtigte Frage da die Desktop CPUs ihre Wurzeln bei den mobilen Produkten haben. Hier ist Effizienz der wichtigste Faktor und damit zwangsläufig mehr Transistoren und IPC bei moderaten Frequenzen.

Von einer Eignung für extrem hohe Frequenzen ist bei diesen Designs eher nicht auszugehen. Zusätzlich verschiebt sich der Fokus weiter Richtung GPU wodurch diese automatisch eine höheren Stellenwert als bisher bei Anpassung und Fertigung bekommt.

gnahr
2013-02-01, 10:54:34
Ist eine sehr berechtigte Frage da die Desktop CPUs ihre Wurzeln bei den mobilen Produkten haben.
Was? spielst du jetzt drauf an, dass die core2 wieder vom pentium 3 ausgingen?
falls das dein einziger bezugspunkt ist: der pentium 4 netburst lebt in seinen grundzügen genauso im bloomfield, sandy und co weiter.

also wenn du die wurzeln meinst, davon hat man sich lange emanzipiert. es stimmt, dass auch für den desktop im consumer-bereich extrem kleine und effiziente chips üblich sind und damit recht ähnlich auch in notebooks wieder auftauchen.

die taktkurve an sich ging mit core2, bloomfield, lynnfield, sandy immer weiter nach oben, unabhängig von den strukturgrößen. der limitierende faktor war immer häufiger ne hardwaredrossel in der architektur wie der gefixte basistakt nun, denn auch sandy-e nicht loswurde. 6ghz sind nicht unmöglich oder absurd-hoch, aber wohl nicht für den alltag. sandy schaffte teils schon 5ghz unter luft, das plus ein paar hundert mhz ist aber damit wieder die einstiegshürde für ein cherrypicked demo-system. (mittlerweile haben die chargen ja auch fast keinen einfluss mehr aufs overclocking, nächstes indiez...)

robbitop
2013-02-01, 11:20:12
Er meinte wohl eher, dass die Architekturen u.A. mit Fokus auf mobile Plattformen entwickelt werden, damit niedrige TDP Klassen drin sind.
Core 2 / Nehalem und Nachfolger sind schon völlig neue µ-Archs.

Konami
2013-02-01, 11:28:58
Was? spielst du jetzt drauf an, dass die core2 wieder vom pentium 3 ausgingen?
Er spielt darauf an, dass Intel seit Core 2 alle Mainstream-Desktop-CPUs aus der Mobil-Entwicklung auskoppelt. Auch ein 3770K ist nur eine Notebook-CPU auf Steroiden.

Abgesehen davon bringen Shrinks gar nicht mehr unbedingt so viel für die Taktbarkeit, weil eine erhöhte Wärmedichte immer die Kühlung erschwert. Sprich: auch mit 50W Abwärme kann ein hochgetakteter Quadcore zu heiß werden, wenn die Kerne so klein sind, dass die Wärme (mangels Fläche) nicht mehr ordentlich abtransportiert werden kann.

Auf Haswells Taktbarkeit bin ich trotzdem gespannt. Besser als Ivy Bridge dürft's auf jeden Fall werden.

YfOrU
2013-02-01, 11:29:05
also wenn du die wurzeln meinst, davon hat man sich lange emanzipiert. es stimmt, dass auch für den desktop im consumer-bereich extrem kleine und effiziente chips üblich sind und damit recht ähnlich auch in notebooks wieder auftauchen.

Anders herum. Die Notebook CPUs finden sich im Desktop wieder ;)

Desktop < Mobility

Dementsprechend läuft die Entwicklung.

Duplex
2013-02-01, 14:01:28
und wer sagt das 14nm 6Ghz schafft?
Wenn der Prozess das bei 4 Kerne nicht packt, unabhängig von der Wärmeentwicklung (dafür hab ich WaKü), dann würde es keine Fortschritte mehr geben, für was soll ich dann eine neue CPU kaufen wenn meine 32nm Sandy CPU bereits 5,2Ghz stabil läuft?

boxleitnerb
2013-02-01, 14:03:31
Für mehr iGPU Performance? :)

robbitop
2013-02-01, 14:33:06
Die Transistorgröße limitiert nicht in jedem Fall den maximalen Takt. Das tun eher kritische Pfade (Signallaufzeiten), zu lange Schaltzeiten, verschleifen des Taktsignals in der Verdrahtung etc pp.

Duplex
2013-02-01, 14:34:11
Der CPU Part wird unabhängig von der GPU entwickelt, schließlich gibt es auch CPUs ohne IGP, der 14nm Prozess muss theoretisch höhere Taktbarkeit bei gleicher Energie als der Vorgänger zulassen, es sei denn Intel möchte das verhindern. Sandy Bridge hat eine kürzere Pipeline als der Vorgänger & den 32nm Vorteil und die übertaktbarkeit war trotzdem deutlich besser geworden (14 vs. 16 Stage Pipeline), warum sollte das bei 14nm nicht ähnlich ausfallen, soweit ich weiß hat Haswell & Broadwell sogar eine etwas längere Pipeline als Sandy, die Chancen auf höhere Taktbarkeit sind damit sogar größer.

Botcruscher
2013-02-01, 14:45:52
Für mehr iGPU Performance? :)

Endlich mehr von dann noch immer unbrauchbar wenig. Wenn wenigstens Abschalten der Graka im Idle problemlos funktionieren würde.

... die Chancen auf höhere Taktbarkeit sind damit sogar größer.

Wenn da zu viel raus kommt werden die K Modelle schnell mal deutlich teurer. Intel hat kein Interesse an großen Sprüngen.

Duplex
2013-02-01, 15:01:45
Wenn da zu viel raus kommt werden die K Modelle schnell mal deutlich teurer. Intel hat kein Interesse an großen Sprüngen.
Meinetwegen sollen die K Modelle teurer werden, wenn die Leistung spürbar steigt bin ich auch bereit mehr Geld auszugeben ;)
Sicher hat Intel interesse, dadurch werden die CPUs nur noch attrativer als Sie bereits sind.

Knuddelbearli
2013-02-01, 15:02:53
Wenn der Prozess das bei 4 Kerne nicht packt, unabhängig von der Wärmeentwicklung (dafür hab ich WaKü), dann würde es keine Fortschritte mehr geben, für was soll ich dann eine neue CPU kaufen wenn meine 32nm Sandy CPU bereits 5,2Ghz stabil läuft?

ich wett 5€ das sich Broadwell nicht besser takten lassen wird als Haswell

es also mehr oder weniger bei 5Ghz bleibt

Knuddelbearli
2013-02-01, 15:05:11
Der CPU Part wird unabhängig von der GPU entwickelt, schließlich gibt es auch CPUs ohne IGP, der 14nm Prozess muss theoretisch höhere Taktbarkeit bei gleicher Energie als der Vorgänger zulassen, es sei denn Intel möchte das verhindern. Sandy Bridge hat eine kürzere Pipeline als der Vorgänger & den 32nm Vorteil und die übertaktbarkeit war trotzdem deutlich besser geworden (14 vs. 16 Stage Pipeline), warum sollte das bei 14nm nicht ähnlich ausfallen, soweit ich weiß hat Haswell & Broadwell sogar eine etwas längere Pipeline als Sandy, die Chancen auf höhere Taktbarkeit sind damit sogar größer.


nur lässt sich Sandy auch besser als 32nm Clarkdale taktet dein Argument hinkt also

Zergra
2013-02-01, 15:38:19
ich wett 5€ das sich Broadwell nicht besser takten lassen wird als Haswell

es also mehr oder weniger bei 5Ghz bleibt
Ich dachte Broadwell kommt gar nicht für den Desktop ? ;)

ndrs
2013-02-01, 16:02:14
Deshalb ist er sich ja so sicher :)

Undertaker
2013-02-01, 16:18:40
Endlich mehr von dann noch immer unbrauchbar wenig.

Auch da geht's wieder um den Mobilsektor, speziell ULV. Eine schnellere GPU als die IGP Haswells wirst du im <15-Watt-Bereich nicht finden. Und für größere Notebooks gibt es dann eben dedizierte GPUs mit Optimus.

Im Desktop sind jegliche IGPs imo eh nur was für HTPCs oder Office-PCs. Dedizierte GPUs sind hier einfach viel zu schnell und preiswert, als das ein Spieler darauf verzichten sollte.

Undertaker
2013-02-01, 18:09:18
http://www.computerbase.de/news/2013-02/15-haswell-prozessoren-fuer-notebooks-benannt/

ULV-Modelle auch schon im 2. Quartal? Das wäre früher als erwartet.

Ronny145
2013-02-02, 13:30:42
http://bbs.pceva.com.cn/thread-80481-1-1.html


Dort gibt es ein Fritzchess Benchmark eines angeblichen Haswell ES. Angenommen das sind 2,6 Ghz ohne Turbo, was für ein frühes ES nicht ungewöhnlich wäre, entspricht das einer Steigerung von 16,8%. Simuliert habe ich das mit meinem i5 @2,6 Ghz +25% für SMT, der speedup kommt etwa hin für IVB in Fritzchess. SMT soll ja mehr bringen in Haswell, daher die 16,8% nicht mit IPC Verbesserung gleichsetzen.

Konami
2013-02-04, 14:24:55
Totenstille seit dem letzten Post :ugly:
Mag vielleicht nochmal jemand mit einem 3770K auf 2,6 GHz messen, damit wir eine genauere Referenz haben?

diedl
2013-02-05, 23:43:29
Kein 3770K, sondern ein
2600K bei 2,6 GHz.
Win7 64 SP1

Gut 10% Unterschied für das "übernächste Model" finde ich etwas dürftig.

OgrEGT
2013-02-06, 06:30:18
Zum Zocken wirds wohl reichen... Interessant wird sein ob man die Effizienz weiter steigern können wird also Perf/W vor allem auch bei hohen Frequenzen...

boxleitnerb
2013-02-06, 15:55:46
Die CPUs sind in letzter Zeit aber verdammt groß geworden :freak:

Mist, schon ist das Bild weg.

kunibätt
2013-02-06, 19:20:21
Welches Bild ?
Welche Größe war denn angegeben ?

boxleitnerb
2013-02-06, 19:20:55
War ne Nvidia Tesla...halt im falschen Thread gepostet. Ich hab versucht witzig zu sein ;)

Ronny145
2013-02-09, 23:45:52
Kann jemand die zusätzlichen Buchstaben interpretieren? ULT und GT1 - 3 sind klar, aber der Rest?


Im aktuellen Treiber ist das genauer aufgeschlüsselt. CW müsste eigentlich für Crystal Well stehen.


; HSW A0/A1
iHSWGTLD = "Intel Haswell HD Graphics - GTL"
iHSWGTLM = "Intel Haswell HD Graphics - GTL"
iHSWGTMD = "Intel Haswell HD Graphics - GTM"
iHSWGTMM = "Intel Haswell HD Graphics - GTM"
iHSWGTHD = "Intel Haswell HD Graphics - GTH"
iHSWGTHM = "Intel Haswell HD Graphics - GTH"
; HSW Classic
iHSWGT1D = "Intel(R) HD Graphics"
iHSWGT1M = "Intel(R) HD Graphics"
iHSWGT15D = "Intel(R) HD Graphics 4400"
iHSWGT2D = "Intel(R) HD Graphics 4600"
iHSWGT2M = "Intel(R) HD Graphics 4600"
; HSW ULT
iHSWGT1UT = "Intel(R) HD Graphics"
iHSWGT2UT = "Intel(R) HD Graphics Family"
iHSWGT3UT = "Intel(R) HD Graphics 5000"
iHSWGT3UT25W = "Intel(R) HD Graphics 5100"
iHSWGT2UX = "Intel(R) HD Graphics Family"
iHSWGT1ULX = "Intel(R) HD Graphics"
; HSW CRW
iHSWGT2CW = "Intel(R) HD Graphics 4600"
iHSWGT2CWDT = "Intel(R) HD Graphics 4600"
iHSWGT3CW = "Intel(R) HD Graphics 5200 with High Speed Memory"
iHSWGT3CWDT = "Intel(R) HD Graphics 5200 with High Speed Memory"
; HSW SRVR
iHSWSVGT1 = "Intel(R) HD Graphics"
iHSWSVGT2 = "Intel(R) HD Graphics P4600/P4700"


iHSWGT15D = "Intel(R) HD Graphics 4400"

GT1.5 besitzt 12 EUs und 2x Samplers (statt 1x für GT1)

http://pc.watch.impress.co.jp/docs/news/event/20130306_590559.html

Ronny145
2013-02-10, 00:29:51
Bei sisoftware gibt es mehrere Einträge von der HD5200.


Intel(R) HD Graphics 5200 (40CU 40SP SM5.0 600MHz/800MHz, 1.8GB DDR3 1.6GHz/3GHz 128-bit, Integrated Graphics) (D3D 11)
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcdfbddbcdde0d1e3d0e4d7e1c7b588b89efb9ea393b5c6fbc9&l=en

Genuine Intel(R) CPU 0000 @ 2.00GHz (4C 8T 3GHz, 3GHz IMC, 4x 256kB L2, 6MB L3, 128MB L4)
http://www.sisoftware.eu/rank2011d/show_run.php?q=c2ffcfe988e9d4e7dfe9d1e9d0f684b989afcaaf92a284f7caf8&l=en

In der Übersicht.

http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d1bfcbaec2e2aaeece89fb9aea82eb88fbdbeedcecdcfa9da08dbc9a e8d5e5c3aa97a583ebd6e3c5bd80b197f297aa9abccff2c0&l=en

Ronny145
2013-02-11, 12:54:21
Intel(R) Core(TM) i5-4670K CPU @ 3.40GHz: http://uat.hwbot.org/xtu/share/507

Processor Turbo Ratios:
1 Active Core: 38.0 x
2 Active Cores: 38.0 x
3 Active Cores: 37.0 x
4 Active Cores: 36.0 x

Die Turbo Stufen sind identisch mit dem i3-3570k wenn mich nicht alles täuscht. Ich weiß nicht was der XTU score aussagt, kennt jemand den Benchmark? Ich kann ja mal nachher mit meinem 3570k gegentesten. edit: na klasse, das ist Intels Tuning Utility. Wie sinnvoll.

Von der HD4600 gibt es hier schon eine GPUz Validierung: http://www.techpowerup.com/gpuz/67re5/

Intel(R) HD Graphics P4700= http://appsnet.bentley.com/mstnbenchmark/Reporting/ViewSubmission.aspx?submissionId=d725f02f-e53d-4a1c-9a16-0f46dda2bafb

Dort gibt es Benchmark Werte der P4700 vom MicroStation Graphics Benchmark. Aber ich glaube das hat eh kein Aussagekraft ohne wenigstens die Taktfrequenz zu kennen. Genuine Intel deutet auf altes ES hin und die haben immer deutlich niedrigere GPU Frequenzen. Das wäre nur interessant bei einem Modell mit Verkaufsnamen, weil die in der Regel finale Takfrequenzen besitzen.

Ronny145
2013-03-08, 20:16:24
HD 4600 bei sisoftsandra (http://www.sisoftware.eu/rank2011d/show_device.php?q=c9a598d1bfcbaec2e2aaeece89fb9aea82eb88fbdbefd9e9d9ff98a588b99f edd0e0c6af92b4dce1c7bf82a4c1a499a98ffcc1f3&l=en)....aber wieder ohne Aussagekraft ohne Infos zu Taktfrequenzen. Das einzige was sich leicht auf der Seite erkennen lässt, sind die deutlich höheren Mpix/s Werte der HD5200 gegenüber der besser einschätzbaren HD4000. HD Graphics 5200 High Speed mehr als doppelt so hoch, Intel HD Graphics 5200 etwas unter dem doppelten.

http://www.sisoftware.eu/rank2011d/top_device.php?q=c2ffcdf4d2bfd2efdbeccab885b593fac7f7d1b984b197efd2e3c5a0c5f8c8e e9da090&l=en
http://www.sisoftware.eu/rank2011d/top_device.php?q=c2ffcdfbddb0dde0d4e3c5b78aba9cf5c8f8deb68bbe98e0ddeccaafcaf7c7e 192af9f&l=en

Knuddelbearli
2013-03-14, 15:01:10
http://www.computerbase.de/news/2013-03/intel-will-haswell-eingeschraenkt-aber-puenktlich-veroeffentlichen/


Wegen Chipsatz-Fehler vorerst nur in kleinen Stückzahlen
Intel will Haswell eingeschränkt, aber pünktlich veröffentlichen

Undertaker
2013-03-14, 15:11:56
Die neue Revision ist nötig, um den Fehler zu beheben, der unter Umständen verhindert, dass per USB 3.0 angeschlossene Geräte nach dem Aufwachen aus dem Standbymodus S3 korrekt funktionieren.

Also passiert das gar nicht zwangsläufig und in jedem Fall? Wenn ja, unter welchen Randbedingungen? Genau das wäre ja die entscheidende Frage dafür, wie kritisch der Fehler wirklich ist. Imo sollte Intel hier etwas genauere Fehlerdetails publizieren, um die Early Adopter nicht abzuschrecken.

Knuddelbearli
2013-03-14, 15:14:31
zeigt ihmo nur das auch Intel die Designs scheinbar mit heißer Nadel strickt
2 neue Architekturen mit 2 gröberen Fehlern

y33H@
2013-03-14, 15:17:38
Die CPU ist doch gar nicht betroffen, sondern (erneut) der PCH.

Lowkey
2013-03-14, 15:22:46
Übersetzt heißt das nun:

1.) Haswell wird zum Marktstart deutlich teurer sein.
2.) Intel verkauft die defekten Haswellchipsätze anstatt sie einzustampfen (sehr umweltbewußt).
3.) Ivy oder Haswell? "Warte auf Haswell" "Warte auf die neue Haswell Chipsatz Revision"
4.) Kauf dir eine Haswellplattform zum Start und nach ein paar Wochen ließt man überall nur noch etwas von Revision 2.0 ohne Fehler. So machen die Hersteller der Mainboards leichten Mehrumsatz.

Knuddelbearli
2013-03-14, 15:24:19
Die CPU ist doch gar nicht betroffen, sondern (erneut) der PCH.

ändert das was? der PCH gehört ja mit dazu oder läuft die CPU auch ohne oder mit dem PCH von Sandy? Im Mobile ist der PCH ja sogar auf dem selben Trägermaterial

Coda
2013-03-14, 15:33:06
Aha, weil also eine Komponente im PCH einen kleinen Bug hat ist sofort alles mit "heißer Nadel gestrickt".

Ist ja nicht alles komplex und so.

Botcruscher
2013-03-14, 15:33:17
Intel versucht halt mit allen Mitteln USB3 zu bremsen.:D Insgesamt ist der Bug doch unbedeutend. Wichtig ist doch nur ob OC endlich wieder ordentlich möglich und wie hoch das Potential ist.
Für Sandy und Ivy Besitzer sieht es doch so langweilig aus.

Iruwen
2013-03-14, 15:38:58
Die meisten Leute übertakten immer noch nicht und werden eher über den Bug stolpern ;)

Nightspider
2013-03-14, 15:40:59
Die Frage ist wie schnell es Intel schafft die neuen Chips auszuliefern.

Noch mehr interessieren mich aber atm Spiele-Benchmarks.

Am besten von Crysis 3, da das stark von SMT profitiert.

Wichtig ist doch nur ob OC endlich wieder ordentlich möglich und wie hoch das Potential ist.
Für Sandy und Ivy Besitzer sieht es doch so langweilig aus.

In der tat. Die letzten 2 Jahre waren richtig langweilig, was CPU-Leistung betraf.

y33H@
2013-03-14, 16:44:55
ändert das was? der PCH gehört ja mit dazu oder läuft die CPU auch ohne oder mit dem PCH von Sandy?Ohne nicht, aber rein technisch sollte ein PCH der 6er oder 7er Reihe keine Probleme mit Haswell haben, der PCH bindet ja nur USB und so Zeug an, mit der CPU selbst hat der nicht wirklich etwas zu tun.

AnarchX
2013-03-18, 11:12:19
THG: Core i7-4770K: Haswell's Performance, Previewed (http://www.tomshardware.com/reviews/core-i7-4770k-haswell-performance,3461.html)
de: http://www.tomshardware.de/core-i7-4770k-haswell-performance-Vorschau,testberichte-241235.html

Knuddelbearli
2013-03-18, 11:18:02
kaum mehr IPC als der Shrink von Sandy zu Ivy?
und GT2 alias HD4600 immer noch weit hinter Trinity?

robbitop
2013-03-18, 11:31:27
Interessant wird doch eh erst GT3.
Dass es schwer sein wird, größere IPC Sprünge hinzulegen, ist doch klar. Intel hat die IPC über Jahre nach oben geprügelt ... irgendwann sind nur noch kleine Fortschritte machbar. Gesetz des sinkenden Grenzertrags...

Knuddelbearli
2013-03-18, 11:36:53
GT3 wird doch vermutlich eh nur in Überteuerten ULV Chips kommen?

und die letzte Generation brachte immerhin über 20% da sind 3% jetzt schon schwach vor allem wenn man bedenkt was da Intel alles auffährt

Fetza
2013-03-18, 11:44:15
THG: Core i7-4770K: Haswell's Performance, Previewed (http://www.tomshardware.com/reviews/core-i7-4770k-haswell-performance,3461.html)
de: http://www.tomshardware.de/core-i7-4770k-haswell-performance-Vorschau,testberichte-241235.html

Kann mir jemand erklären warum das tsx-feature nicht in den k-ausführungen von haswell vertreten, bzw. aktiviert sein wird? Das finde ich ehrlich gesagt ziemlich lächerlich, wenn die enthusiastenprodukte nicht voll befeatured werden.

robbitop
2013-03-18, 11:53:55
GT3 wird doch vermutlich eh nur in Überteuerten ULV Chips kommen?

und die letzte Generation brachte immerhin über 20% da sind 3% jetzt schon schwach vor allem wenn man bedenkt was da Intel alles auffährt
20 %? Du meinst IPC bei einer CPU Generation? Sandy hatte IIRC +15 % IPC ggü Nehalem. Und da war halt eine Verdopplung des L3 Caches enthalten, was ordentlich was brachte.

Die großen tief hängenden Früchte wurden halt alle schon geerntet: Integrierter Speichercontroller, fullspeed L3, mehrere Kerne nativ an ein schnelles Interface hängen, schnelle L1/L2 Caches, µ Op Instruction Caches, Loop Caches etc pp.

Es sieht halt so aus als wäre man jetzt einfach im Bereich des Grenzertrags. Irgendwann gibt die Anwendung nicht mehr her. Da hilft dann nur noch konsequente Multithreadprogrammierung.

Undertaker
2013-03-18, 11:56:56
IPC sieht so ziemlich wie erwartet aus, ein weiterer kleiner Schritt über Ivy Bridge. Große Sprünge wirds nur mit AVX2 geben, aber das wird praktisch wohl noch dauern... Ganz interessant ist möglicherweise noch der deutlich schnellere Cache - traditionell zahlt sich der ja vor allem in Spielen aus.

Für die HD 4600 sehen die GPU-Ergebnisse recht solide aus, die Einheitenerhöhung schlägt gut durch (edit: und da dürfte die langsame Speicherperformance des Samples noch bremsen). Spannend wird's dann natürlich erst mit der GT3 - endlich spieletaugliche Ultra-/Subnotebooks ohne extra GPU (und mit dem Effizienzvorteil der 22nm-Fertigung). :) Mal schauen, wo die preiswertesten Modelle beginnen.

Ronny145
2013-03-18, 13:19:34
kaum mehr IPC als der Shrink von Sandy zu Ivy?
und GT2 alias HD4600 immer noch weit hinter Trinity?


Es sind in dem Preview glatt 8% mehr IPC vom 4770k zu 3770k. 3 Anwendungen sind aber auch zu wenig, um sich schon festzulegen. Ich hätte ganz gerne ein paar Spielebenchmarks mit dedizierter GPU gesehen. Die GT2 war mit den längst bekannten Hardware Eckdaten nie als Trinity Desktop Bezwinger erwartet. Mich wundert da sogar, dass der schnellste Trinity nur 21-22% vor der HD4600 in Full HD liegt. Normalerweise müssten mindestens 50% übrig bleiben. Im Notebook sieht es hingegen anders aus, weil AMD dort geringere Taktraten ansetzt und nur 1 Modell voll ausgebaut mit vernünftigem Takt ausliefert. Die GT3 mit eDRAM werden doch deutlich vor Trinity und Richland liegen so wie es aussieht. Ich sage es schon länger, dass AMD so schnell wie möglich Kaveri braucht. Auch wegen der viel besseren GPGPU Fähigkeiten von GCN.

ndrs
2013-03-18, 14:09:28
Kann mir jemand erklären warum das tsx-feature nicht in den k-ausführungen von haswell vertreten, bzw. aktiviert sein wird?
Das war auch bei Sandy und Ivy nicht anders.

Skysnake
2013-03-18, 14:54:33
Es sind in dem Preview glatt 8% mehr IPC vom 4770k zu 3770k. 3 Anwendungen sind aber auch zu wenig, um sich schon festzulegen. Ich hätte ganz gerne ein paar Spielebenchmarks mit dedizierter GPU gesehen. Die GT2 war mit den längst bekannten Hardware Eckdaten nie als Trinity Desktop Bezwinger erwartet. Mich wundert da sogar, dass der schnellste Trinity nur 21-22% vor der HD4600 in Full HD liegt. Normalerweise müssten mindestens 50% übrig bleiben. Im Notebook sieht es hingegen anders aus, weil AMD dort geringere Taktraten ansetzt und nur 1 Modell voll ausgebaut mit vernünftigem Takt ausliefert. Die GT3 mit eDRAM werden doch deutlich vor Trinity und Richland liegen so wie es aussieht. Ich sage es schon länger, dass AMD so schnell wie möglich Kaveri braucht. Auch wegen der viel besseren GPGPU Fähigkeiten von GCN.
AMD braucht vorallem auch einen eDRAM oder was vergleichbares. Die iGPU kannst sonst so stark sein wie Sie will. Sie verhungert schlicht.

Nightspider
2013-03-18, 14:58:11
Was schätzt ihr wieviel schneller GT3 im Vergleich zu GT2 wird?

Es sind in dem Preview glatt 8% mehr IPC vom 4770k zu 3770k.

4770k ist also 8% langsamer als 3770k? :ugly:

time_me
2013-03-18, 15:49:19
Was schätzt ihr wieviel schneller GT3 im Vergleich zu GT2 wird?

Schwer zu vergleichen, da die GT3 nur im Notebookbereich eingesetzt wird. Vielleicht so 60%-70%.

Allerdings scheint man vorwiegend die GT2 einzusetzen und die teureren Notebooks haben ja doch meistens einen dedizierten Grafikprozessor verbaut...

Duplex
2013-03-18, 16:11:59
Geht ihr jetzt davon aus das die Haswell Architektur auf Sandy Bridge oder Nehalem Basis weiterentwickelt wurde?

robbitop
2013-03-18, 16:31:27
Davon ist auszugehen.

Konami
2013-03-18, 16:38:42
THG: Core i7-4770K: Haswell's Performance, Previewed (http://www.tomshardware.com/reviews/core-i7-4770k-haswell-performance,3461.html)
de: http://www.tomshardware.de/core-i7-4770k-haswell-performance-Vorschau,testberichte-241235.html
Bei den lower=better Benchmarks hat THG in ihren Zusammenfassungen natürlich die Prozentrechnung verkackt :rolleyes: z.B. Blender 2.64, laut THG ist Haswell 14% schneller als Sandy (was wohl daher kommt, dass sie 1-(hsw/snb) gerechnet haben), in Wirklichkeit sinds aber 16% (von 1/(hsw/snb)).
In Visual Studio ist Haswell ganze 18% schneller als Sandy Bridge. Überrascht mich ehrlich gesagt positiv.

BTW, bezüglich der OpenCL-Berechnungen (z.B. Photoshop): würde das nicht automatisch die diskrete Graka übernehmen, wenn man eine eingebaut hat?
Und wenn nicht - muss man dann den Display-Ausgang des Mainboards nutzen, damit die iGPU für solche Zwecke (oder z.B. für QuickSync) "aktiv" ist?

Coda
2013-03-18, 16:53:56
Visual Studio überrascht mich nicht, da vollständig parallel und Haswell hat eine Int-ALU mehr für SMT.

del_4901
2013-03-18, 17:02:42
Visual Studio überrascht mich nicht, da vollständig parallel und Haswell hat eine Int-ALU mehr für SMT.
Warum laufen dann alle Plugins immernoch im GUI Thread?

Duplex
2013-03-18, 17:18:49
Davon ist auszugehen.
Was den nun?
Sandy oder Nehalem, sind ja 2 unterschiedliche Design, 14 vs. 16 Stage Pipeline

Neues Backend bei Nehalem und 256 Bit AVX Instruction waere aber auch möglich, immerhin hat das Nehalem Team seit 2008 nichts mehr neues gezeigt.

robbitop
2013-03-18, 17:21:57
Was den nun?
Sandy oder Nehalem, sind ja 2 unterschiedliche Design, 14 vs. 16 Stage Pipeline

Neues Backend bei Nehalem und 256 Bit AVX Instruction waere aber auch möglich, immerhin hat das Nehalem Team seit 2008 nichts mehr neues gezeigt.
Sandy ist eine Nehalemweiterentwicklung. Nehalem eine Conroeweiterentwicklung. Haswell sicherlich eine Sandyweiterentwicklung.

Ich verstehe die Frage nicht ganz.

Godmode
2013-03-18, 17:28:18
Meint ihr das IVB-E zu Haswell auch wieder ähnlich wie SB-E zu IVB skaliert?

Duplex
2013-03-18, 17:29:16
@robbitop
Ich dachte Sandy wurde unabhängig von Nehalem entwickelt und Haswell unabhängig von Sandy. Es sind 2 doch Teams.

Core2 Israel
Sandy Israel

Nehalem USA
Haswell USA

Coda
2013-03-18, 17:36:44
Warum laufen dann alle Plugins immernoch im GUI Thread?
Ich red vom kompilieren.

Botcruscher
2013-03-18, 17:38:38
Was soll an 18% zu Sandy toll sein? Ivy liegt doch schon bei der Hälfte. Da muss zumindest deutlich mehr Takt drin sein. Von spürbar ist das Lichtjahre entfernt.

Konami
2013-03-18, 18:08:00
Was soll an 18% zu Sandy toll sein? Ivy liegt doch schon bei der Hälfte. Da muss zumindest deutlich mehr Takt drin sein. Von spürbar ist das Lichtjahre entfernt.
In dem speziellen Benchmark liegt Ivy nicht schon bei der Hälfte, sondern hat nur +2,5% gegenüber Sandy. Aber Coda hat ja schon den Grund genannt.

@robbitop
Ich dachte Sandy wurde unabhängig von Nehalem entwickelt und Haswell unabhängig von Sandy. Es sind 2 doch Teams.

Core2 Israel
Sandy Israel

Nehalem USA
Haswell USA
Auch wenns zwei Teams sind, glaube ich nicht, dass bei Intel die eine Hand nicht weiß, was die andere macht... sicherlich wird Haswell auf Sandy Bridge aufsetzen (bis auf den unabhängigen L3-Takt, der wieder von Nehalem "geborgt" wird).

ndrs
2013-03-18, 18:50:51
(bis auf den unabhängigen L3-Takt, der wieder von Nehalem "geborgt" wird).
Das würde ich nicht so sagen. Der L3 kann weiterhin mit vollem Kerntakt laufen. Neu ist lediglich, dass er es aus energiespargründen nicht zwangsläufig muss, wenn die Cores genug mit den L2-Daten zu schaffen haben.

y33H@
2013-03-18, 19:09:48
Der läuft auch load idR mit Kerntakt.

horn 12
2013-03-18, 19:22:31
Somit kann man wohl auch getrost einen FX 8350 nehmen, da jene in Zukunft wohl immer besser skalieren, sieht man ja bei den letzten 3 Neuerscheinungen bei Games.

Coda
2013-03-18, 19:23:46
Somit kann man wohl auch getrost einen FX 8350 nehmen, da jene in Zukunft wohl immer besser skalieren, sieht man ja bei den letzten 3 Neuerscheinungen bei Games.
:facepalm:

ndrs
2013-03-18, 19:27:24
Der läuft auch load idR mit Kerntakt.
Redest du von Haswell? Wenn ja, wie kommst du da drauf? Kann man den Powerstate explizit messen? Ich würde wetten, dass er (besonders im SingleThread-Fall) des öfteren kurz Clock-/Power-gated.

Godmode
2013-03-18, 19:50:09
Somit kann man wohl auch getrost einen FX 8350 nehmen, da jene in Zukunft wohl immer besser skalieren, sieht man ja bei den letzten 3 Neuerscheinungen bei Games.

Den würde ich nicht mal geschenkt haben wollen. Wie kannst du nur so einen Vergleich machen? Ich freu mich auf IVB-E mit hoffentlich 8 Kernen. AMD soll erstmal wieder ordentliche Highend CPUs bauen, alles andere können sie behalten, IMHO.

Zergra
2013-03-18, 19:52:10
Somit kann man wohl auch getrost einen FX 8350 nehmen, da jene in Zukunft wohl immer besser skalieren, sieht man ja bei den letzten 3 Neuerscheinungen bei Games.
:D klar Junge du weißt wie viele Jahre du dafür warten musst?

Ivi ist ca 5% schneller als Sandy wenn da nochmal ca 15% draufkommen macht das schon eine Menge aus.

Knuddelbearli
2013-03-18, 19:55:24
Es sind in dem Preview glatt 8% mehr IPC vom 4770k zu 3770k. 3 Anwendungen sind aber auch zu wenig, um sich schon festzulegen.

also ich sehe da nur einen IPC Test, Rest ist mit mehreren Trades und oder Turbo der das Ergebnis ähnlich wie bei Ivy verfälscht

aufkrawall
2013-03-18, 20:06:54
Ivi ist ca 5% schneller als Sandy wenn da nochmal ca 15% draufkommen macht das schon eine Menge aus.
Ach Gottchen, obs 15% in Spielen wird, glaub ich erst wenn ichs sehe.

Wird alles davon abhängen, wie viel Takt das Ding mitmacht und selbst wenn es da brauchbar ist, wird der Unterschied zu SNB trotzdem nur "ein Upgradechen" sein.

Wenn mal nicht ein neues QuickSync aus Anwendersicht am interessantesten von dem ganzen Teil wird.
Das wird performancemäßig wohl der Konkurrenz den Arsch aufreißen. Wenn dann noch die Quali mal halbwegs brauchbar sein sollte, vielleicht ja mal mit Multipass..., dann wirds interessant.
Auch hier gilt: Abwarten.

Sind PC-CPUs langweilig geworden. :(

dildo4u
2013-03-18, 20:10:38
Somit kann man wohl auch getrost einen FX 8350 nehmen, da jene in Zukunft wohl immer besser skalieren, sieht man ja bei den letzten 3 Neuerscheinungen bei Games.
Konsolenport's werden nicht das Problem sondern PC only Games,Guild Wars 2 und Planetside 2 werden auf dem AMD zum Problem so bald richtig Aktion ist.
Bei den neuen Konsolen wurden extra Netbook/Tabelt Kerne genommen damit man mehr vom Power Budget in die GPU stecken kann.Bei der PS3/360 war die CPU Leistung viel dichter am PC High-End von 2005.(Ahtlon64 X2)

Nightspider
2013-03-18, 20:10:44
Bleibt immer noch zu hoffen, das sich die CPUs besser übertakten lassen.

Meint ihr das IVB-E zu Haswell auch wieder ähnlich wie SB-E zu IVB skaliert?
Davon kann man wohl ausgehen, mit dem Unterschied das Haswell eben noch ~10% bessere IPC-Leistung hat.
Über das OC Verhalten ist noch gar nichts bekannt. Ein 5,5 Ghz Haswell wäre jedem IvyBridgeE vorzuziehen, wobei 5,5Ghz eher Wunschdenken sind.

Undertaker
2013-03-18, 20:13:22
also ich sehe da nur einen IPC Test, Rest ist mit mehreren Trades und oder Turbo der das Ergebnis ähnlich wie bei Ivy verfälscht

2700K, 3770K und 4770K haben alle die gleichen Turbostufen; zudem liegt der Turbo (bei den Desktop-Modellen und in nicht-synthetischen Anwendungen sowieso) absolut konstant an. Da sollte also nix verfälscht sein.

Ronny145
2013-03-18, 20:16:34
2700K, 3770K und 4770K haben alle die gleichen Turbostufen; zudem liegt der Turbo (bei den Desktop-Modellen und in nicht-synthetischen Anwendungen sowieso) absolut konstant an. Da sollte also nix verfälscht sein.


Der 2700k hat den kleineren multithread Turbo. Nur 3770k und 4770k sind gleich.

Coda
2013-03-18, 20:21:10
Bei der PS3/360 war die CPU Leistung viel dichter am PC High-End von 2005.(Ahtlon64 X2)
Pro Kern? Nö.

Nightspider
2013-03-18, 20:28:08
Pro Kern? Nö.

Hat er was von Pro Kern gesagt? Nö.

Wenn die 8 Kerne der PS4 richtig genutzt werden, werden sicherlich auch unübertaktete Core i5 QuadCores ins Schwitzen kommen und alte Core2 Quads werden sicherlich überfordert sein.

Klar könnte ein Core2Quad @ 4 Ghz von der reinen Rechenpower fast gleichziehen aber da an den Konsolen hardwarenäher programmiert wird, dürfte ein Core2Quad kaum noch ausreichen für Konsolenports, welche die Leistung von 6-8 Kernen auch voll ausnutzen.

Coda
2013-03-18, 20:30:02
Wenn man alle 8 Jaguar-Kerne benutzt mit ordentlich optimiertem AVX kommt man auch auf derzeitige 4-Kern-Leistung.

Ich seh da wirklich keinen großen Unterschied zu damals. Was wirklich anders ist, ist die GPU-Leistung. Die ist bissel schwachbrüstig bei der PS4.

dildo4u
2013-03-18, 20:31:15
Hat er was von Pro Kern gesagt? Nö.

Wenn die 8 Kerne der PS4 richtig genutzt werden, werden sicherlich auch unübertaktete Core i5 QuadCores ins Schwitzen kommen und alte Core2 Quads werden sicherlich überfordert sein.

Nein du wieder sprichst auch meinem Punkt(Die Alten Konsolen waren CPU lastiger) ein 8 Core Jaguar bringt ca die Hälfte eines 2500k.Dagegen kannste GTA4 auf einem Athlon X2(2005 High-End) vergessen selbst mit Konsolendetails.

Nightspider
2013-03-18, 20:34:36
Letzteres stimmt. Ich bezweifel aber das optimierter Code auf einem 8Kern-Jaguar mit Konsolen-Taktraten nur halbe 2500k-Leistung(fps) bringt.

Undertaker
2013-03-18, 20:41:09
Der 2700k hat den kleineren multithread Turbo. Nur 3770k und 4770k sind gleich.

Oh, danke für die Korrektur. :)

Letzteres stimmt. Ich bezweifel aber das optimierter Code auf einem 8Kern-Jaguar mit Konsolen-Taktraten nur halbe 2500k-Leistung(fps) bringt.

4 Jaguar-Kerne sind wohl etwa so schnell wie 2 Ivy-Bridge-Kerne inkl. SMT auf gleicher Taktrate. Die PS4-CPU sollte damit etwa einem 2 GHz i7 entsprechen - allerdings nur bei perfekter Auslastung. Und ob die mal so schnell erreicht wird...?

dildo4u
2013-03-18, 20:50:20
Letzteres stimmt. Ich bezweifel aber das optimierter Code auf einem 8Kern-Jaguar mit Konsolen-Taktraten nur halbe 2500k-Leistung(fps) bringt.
Also wenn man den 8350 sieht der mit 4Ghz läuft,sehe ich nicht wie ein Jaguar@2Ghz nur die die nähe eines 2500k kommen soll.Selbst in Games die sehr gut skalieren wie z.b BF3.

http://www.pcgameshardware.de/Battlefield-3-PC-221396/Specials/Battlefield-3-Multiplayer-Tipps-CPU-Benchmark-1039293/

Viel besser wird das Skaling auch in Zukunft imo nicht sein,alles was sich super Parallelisieren lässt ist eh besser auf der GPU aufgehoben.(z.b Effekt Physik Simulation)

Coda
2013-03-18, 21:46:59
Nein du wieder sprichst auch meinem Punkt(Die Alten Konsolen waren CPU lastiger) ein 8 Core Jaguar bringt ca die Hälfte eines 2500k.
Bullshit.

Dagegen kannste GTA4 auf einem Athlon X2(2005 High-End) vergessen selbst mit Konsolendetails.
Das liegt am grausigen PC-Port. Die In-Order-Kerne der XBox sind furchtbar langsam pro Takt.

Nightspider
2013-03-18, 21:59:01
Bullshit.

Das ein 8Kern Jaguar die halbe Leistung eines 2500K hat?
Du kannst das als Spiele-Programmierer ja sicherlich besser beurteilen, weshalb auch ich dir für eine ausführlichere Antwort dankbar wäre.

Palpatin
2013-03-18, 22:04:21
Dagegen kannste GTA4 auf einem Athlon X2(2005 High-End) vergessen selbst mit Konsolendetails.
http://www.tomshardware.de/GTA-IV-liberty-city-EFLC,testberichte-240557-4.html High Details also gutes Stück über Konsole.

boxleitnerb
2013-03-18, 22:05:31
Ich hab das Spiel damals auf einem E6600@3000 gespielt und es war kein Vergnügen, auch auf mittleren Details nicht. Das sind ja nur avg fps, richtig flüssig ist das nicht.

Coda
2013-03-18, 22:10:53
Das ein 8Kern Jaguar die halbe Leistung eines 2500K hat?
Du kannst das als Spiele-Programmierer ja sicherlich besser beurteilen, weshalb auch ich dir für eine ausführlichere Antwort dankbar wäre.
Was gibt's da zu begründen? Die Jaguar-Kerne sind mit ordentlicher Optimierung halb so schnell (2Ghz gegen 3.3Ghz und weniger IPC) wie der i5 und es sind eben doppelt so viele.

8 * 0.5 = 4. 7. Klasse?

"Halbe Leistung" ist halt ziemlich absurd.

Nightspider
2013-03-18, 22:15:30
Achso, Dildo4U hatte geschrieben das alle 8 Kerne zusammen nur halb so schnell wie ein i5 sind. Das ist natürlich Quatsch da hast du recht.

Beachtet man aber das die CPU auf den Konsolen nur ~30fps schaffen muss, brauch man am PC mindestens einen stark übertakteten i7 um auf vernünftige fps (>60) in Shootern wie Battlefield 4 zu kommen.
Bin mal gespannt ob Intel erst 2015 einen HexaCore rausbringen will.

Zergra
2013-03-18, 22:18:32
Achso, Dildo4U hatte geschrieben das alle 8 Kerne zusammen nur halb so schnell wie ein i5 sind. Das ist natürlich Quatsch da hast du recht.

Beachtet man aber das die CPU auf den Konsolen nur ~30fps schaffen muss, brauch man am PC mindestens einen stark übertakteten i7 um auf vernünftige fps (>60) in Shootern wie Battlefield 4 zu kommen.
Bin mal gespannt ob Intel erst 2015 einen HexaCore rausbringen will.
Wie rausbringen ? :D der wird doch schon verkauft. Da müssen die einfach den Preis senken und fertig ;)

dildo4u
2013-03-18, 22:20:38
Achso, Dildo4U hatte geschrieben das alle 8 Kerne zusammen nur halb so schnell wie ein i5 sind. Das ist natürlich Quatsch da hast du recht.

Beachtet man aber das die CPU auf den Konsolen nur ~30fps schaffen muss, brauch man am PC mindestens einen stark übertakteten i7 um auf vernünftige fps (>60) in Shootern wie Battlefield 4 zu kommen.
Bin mal gespannt ob Intel erst 2015 einen HexaCore rausbringen will.
Laut Leaks zu BF4 soll die PS4 Version mit 60fps laufen,hängt also wie immer davon ab was der Entwickler entscheidet.

Palpatin
2013-03-18, 22:58:08
Ich hab das Spiel damals auf einem E6600@3000 gespielt und es war kein Vergnügen, auch auf mittleren Details nicht. Das sind ja nur avg fps, richtig flüssig ist das nicht.
Ich habs damals auf der Xbox gespielt und wär froh über 30 avg. FPS gewesen. :)

Pentium M
2013-03-19, 00:34:32
Was gibt's da zu begründen? Die Jaguar-Kerne sind mit ordentlicher Optimierung halb so schnell (2Ghz gegen 3.3Ghz und weniger IPC) wie der i5 und es sind eben doppelt so viele.

8 * 0.5 = 4. 7. Klasse?

"Halbe Leistung" ist halt ziemlich absurd.

Danke für einen Lachkrampf den ich schon lange nicht mehr hatte. :smile:

Fetza
2013-03-19, 05:30:28
Das war auch bei Sandy und Ivy nicht anders.

Hmm, aber soll tsx nicht das tolle neue feature von haswell sein? Und wo hatte denn sandy- und ivy bridge jemals tsx support?

Also ich meine das hier:

http://en.wikipedia.org/wiki/Transactional_Synchronization_Extensions

Das soll doch ein exklusives haswell feature sein und darum verstehe ich nicht, wieso die k version dieses feature nicht bieten sollen.

ndrs
2013-03-19, 09:28:48
Hmm, aber soll tsx nicht das tolle neue feature von haswell sein? Und wo hatte denn sandy- und ivy bridge jemals tsx support?

Also ich meine das hier:

http://en.wikipedia.org/wiki/Transactional_Synchronization_Extensions

Das soll doch ein exklusives haswell feature sein und darum verstehe ich nicht, wieso die k version dieses feature nicht bieten sollen.
Huch, da hab ich wohl etwas zu schnell gelesen und TSX mit TXT verwechselt. Jedenfalls waren die K-Versionen schon immer feature-seitig beschnitten, zumindest was VT-d, TXT und VPro angeht. Dass man diese beschneidung auf TSX erweitert ist dann wohl nicht so abwegig.

robbitop
2013-03-19, 09:33:48
@robbitop
Ich dachte Sandy wurde unabhängig von Nehalem entwickelt und Haswell unabhängig von Sandy. Es sind 2 doch Teams.

Core2 Israel
Sandy Israel

Nehalem USA
Haswell USA

Und du meinst, dass die sich nicht absprechen und komplett unterschiedliche Architekturen entwickeln, die nicht aufeinander aufbauen? ;)
Die sehen einfach zu ähnlich aus. Jedes Mal kommt halt etwas hinzu. Da wird sich sicherlich nicht nur abgesprochen werden sondern jeder Synergieeffekt, der rauszuquetschen ist, wird rausgequetscht. Die werden ein Dokumentenmanagementsystem haben und auf die gleichen Modelle, Zeichnungen und Dokumente zugreifen können.

IMO werden die sich schon absprechen, was wer macht. Der nächste nimmt natürlich das, was der letzte beim letzten Mal gemacht hat mit. Wirklich als unabhängige Einheiten sollten diese nicht gesehen werden.

Knuddelbearli
2013-03-19, 09:58:40
die Unterschiede sind wohl vor allem darauf das sich Team A besonders mit Bereich X einer CPU beschäftigt und Team B mit Bereich Y

mboeller
2013-03-19, 10:14:08
Ich seh da wirklich keinen großen Unterschied zu damals. Was wirklich anders ist, ist die GPU-Leistung. Die ist bissel schwachbrüstig bei der PS4.

und bei der neuen XBox nicht?

Coda
2013-03-19, 22:36:59
Gibt's doch bisher nur Gerüchte.

y33H@
2013-03-20, 08:38:51
Und Dev-Kits ;-)

DinosaurusRex
2013-03-20, 09:14:53
Was wirklich anders ist, ist die GPU-Leistung. Die ist bissel schwachbrüstig bei der PS4.

Unter Berücksichtigung einer vernünftigen Konsolen TDP und APU Chipfläche oder im Verhältnis zu 400€ teuren Desktop Grafikkarten mit 200 Watt Verlustleistung?

Ronny145
2013-03-22, 02:44:09
Haswell-EN Modelle hatten wir glaube noch nicht.

http://s14.directupload.net/images/130322/dh4srvzp.png
http://webcache.googleusercontent.com/search?q=cache:_c30pbbLdDMJ:www.intel.it/content/dam/www/secure/emea/distributor/files/server-roadmap.pdf+&cd=1&hl=de&ct=clnk&gl=de


Hier gibt es die Desktop Version im Cache: http://webcache.googleusercontent.com/search?q=cache:qAh_ujnv2uAJ:www.intel.fr/content/dam/www/secure/emea/distributor/files/desktop-roadmap.pdf+&cd=1&hl=de&ct=clnk&gl=de

Hübie
2013-03-22, 04:09:46
Wie darf ich denn "# of internal graphic engines" verstehen? Ist die iGPU jetzt auch modular und wird mittels Interconnect "zusammengepappt"? Hab ich was verpasst?

Knuddelbearli
2013-03-22, 07:02:36
geht vermutlich nur darum was aktiviert ist

Skysnake
2013-03-22, 10:28:25
gibt ja GT 1 2 und 3, die GT3 ist ja ne doppelte GT2 Ich denke mal darum dreht sichs.

2phil4u
2013-03-24, 16:44:42
Ziemliche Unverschämtheit von Intel, dass sie für den Socke 2016 immer noch total veraltete CPUs zu völlig überzogenen Preisen verkaufen.
Warum gabs eigentlich keine neuen CPU auf Ivy Bridge Basis, wäre es denn so schwer gewesen 2 8-Kerner rauszubringen, eine Extremmodell und 1 für 500 Euro, so wie jetzt schon, nur halt fast 2 Jahre alt und nur 6 Kerne.

War ja am Überlegen, mir einen 6-Kerner zu kaufen, aber wenn ich sehe, wie lahm die sind fürs Geld, habe ich es gelassen, vorallem weil ich nicht einsehe 32nm Produkte zu kaufen im Jahr 2013.

kunibätt
2013-03-24, 17:51:26
Thematischer Bezug?

Fetza
2013-03-24, 17:54:11
Hat eigentlich jemand mittlerweile eine schlüssige erklärung dafür, das intel bei haswell nicht grundsätzlich auf tsx setzt?

Ronny145
2013-03-24, 18:21:51
Vielleicht ist TSX eher ein Server oder workstation orientiertes Feature? Die fehlenden Features der K-Modelle haben afaik nur die Absicht, dass sich das Server/workstation Klientel nicht Consumer K-Modelle kaufen und diese stark übertakten und sich so potenziell schnellere 6+ Kerner sparen. Das verwunderliche sind nur die beiden i5-4430 Modelle. Neben den beiden K-Modellen die einzigen ohne TSX. Das macht auf den ersten Blick kein Sinn.

Coda
2013-03-24, 19:52:58
Vielleicht ist TSX eher ein Server oder workstation orientiertes Feature?
Nein.

Es wäre wirklich sehr ärgerlich, wenn das in manchen Modellen nicht aktiviert ist. Das macht parallele Algorithmen potentiell deutlich schneller, weil man sich Locks sparen kann.

Fetza
2013-03-25, 16:22:39
Nein.

Es wäre wirklich sehr ärgerlich, wenn das in manchen Modellen nicht aktiviert ist. Das macht parallele Algorithmen potentiell deutlich schneller, weil man sich Locks sparen kann.

Ich habe mal in einem artikel lesen können, das es wohl zwei verschiedene möglichkeit gäbe, tsx in programme einzubauen. Eine lösung ginge dabei schnell und wäre einfach zu integrieren, für die andere müsste man wohl das ganze programm darauf optimieren.
Glaubst du, dass tsx relativ schnell von den meisten programmen (spielen) genutzt werden wird, oder könnte es jetzt sein, das aufgrund intels seltsamer strategie, dass tsx-feature kaum genutzt werden wird?

Knuddelbearli
2013-03-25, 16:49:58
breit durchsetzten wird es sich eh erst nach 6+ jahren egal wie gut es ist bzw wie sehr es beschleunigt

Ronny145
2013-03-25, 20:12:50
http://s1.directupload.net/images/130325/ef3o8tfx.png

http://s14.directupload.net/images/130325/ljak8e7t.png

http://s1.directupload.net/images/130325/hedqk6qo.png
http://chinese.vr-zone.com/56926/intel-hd-graphic-naming-rules-with-gt2-gt2-gt2-package-cache-memory-03252013/


Bis auf 1300 Mhz takten die großen GT3 mit eDRAM. Ich dachte eher die takten geringer als die schnellen GT2. Warum haben die 6 MB L3? Müssten doch eigentlich 8 MB sein.

Undertaker
2013-03-25, 20:30:53
8 MB hat neben der EE eigentlich immer nur der zweitschnellste Quad der ~500€-Klasse.

Was mich wundert: Warum keine ULV mit Cache? Oder kommen die einfach erst später? Schön aber, dass es die GT3 prinzipiell bis hinab zu den i3-Modellen gibt. Mit schnellem Dual-Channel RAM sollte auch ohne Cache ein netter Leistungssprung herauskommen.

Edit: Oder limitiert hier vielleicht schon die kompakte Package-Größe der ULV-Modelle?

Ronny145
2013-03-25, 20:39:32
Ja ich habe es schon bemerkt. 8MB bekommen nur die schnellsten Versionen. Dass nur die großen GT3 Quadcore den Cache bekommen, war schon länger bekannt. Keine Ahnung ob das Platzgründe hat, auf jeden Fall werden ULV GT3 niedriger takten und somit weniger bandbreitenabhängig sein.

time_me
2013-03-25, 21:19:38
Dürfte nicht auch der Stromverbrauch signifikant höher ausfallen und somit begrenzend wirken (zumindest im Ultrabook Segment)? Verglichen mit der HD4000 hat man ja mehr als doppelt so viele Ausführungseinheiten und dann auch noch eDram dazu.

Nightspider
2013-03-25, 21:28:39
Bin echt mal auf die ersten Benchmarks der IGP gespannt und wie groß der Unterschied mit eDRAM ist.
Wäre natürlich toll wenn die Versionen ohne eDRAM nicht viel langsamer sind.

Ob die CPU auch auf den schnellen eDRAM zugreifen kann? Wäre vielleicht interessant, falls eine dedizierte GPU vorhanden ist. Dann hätte die CPU vielleicht etwas von dem eDRAM.

Ob zukünftig alle CPUs eDRAM haben werden? Aber vielleicht wäre das für die Masse auch zu teuer und unnötig.

VooDoo7mx
2013-03-25, 21:29:09
Man darf nicht vergessen das bei den Ultrabook Varianten das Package deutlich kleiner ist und das auch noch der PCH mit auf dem Package ist. Der Cache Speicher dürfte auch des weiteren nochmal mehr Strom ziehen.

Ich frage mich wie Intel überhaupt mit einer mehr als doppelt so großen Grafikeinheit und etwas größeren CPU Cores bei gleicher Fertigung weiter bei 17W bleiben kann. Das kann ich mir ehrlich gesagt gar nicht so wirklich vorstellen.
Vielleicht haben auch die Ultrabook Varianten mit GT3 eine höhere TDP. Schätze mal zwischen 20 und 25W für etwas dickere Ultrabooks ~20mm
Die mit GT2 bleiben dann bei 17W.

Aber HD5200 mit 1300MHz + Cache Speicher dürfte wohl mit Richland den Boden aufwischen.
Hätte ich vor 3 Jahren behauptet, dass Intel irgendwann mal einen CPU mit fusionierter Grafikeinheit auf den Markt bringt, die auch in 3D mit allen AMD Angeboten den Boden aufwischt, hätten mich wahrscheinlich alle für verrückt erklärt. :hammer:
HD 4400 sollte ausreichen um an die schnellsten Richland Mobile ranzureichen.

Auf jeden Fall spannend. :)

Undertaker
2013-03-25, 21:32:06
Dürfte nicht auch der Stromverbrauch signifikant höher ausfallen und somit begrenzend wirken (zumindest im Ultrabook Segment)? Verglichen mit der HD4000 hat man ja mehr als doppelt so viele Ausführungseinheiten und dann auch noch eDram dazu.

Der zusätzliche Cache dürfte imo mehr Leistung bringen, als er an Energie verschlingt, und damit die Effizienz steigern. Ich tippe darum eher auf Platzprobleme.

Knuddelbearli
2013-03-25, 21:36:07
Ich frage mich wie Intel überhaupt mit einer mehr als doppelt so großen Grafikeinheit und etwas größeren CPU Cores bei gleicher Fertigung weiter bei 17W bleiben kann. Das kann ich mir ehrlich gesagt gar nicht so wirklich vorstellen.

erreicht einfach unter Dauerlast nicht mehr annähernd den max boost und gut

Nightspider
2013-03-25, 21:43:28
Wird der eDRAM auch von Intel in 22nm gefertigt?

Skysnake
2013-03-25, 21:44:04
Der HD5200 mit 1300MHz + Cache Speicher dürfte wohl mit Richland den Boden aufwischen.
Hätte ich vor 3 Jahren behauptet, dass Intel irgendwann mal einen CPU mit fusionierter Grafikeinheit auf den Markt bringt, die auch in 3D mit allen AMD Angeboten den Boden aufwischt, hätten mich wahrscheinlich alle für verrückt erklärt. :hammer:
HD 4400 sollte ausreichen um an die schnellsten Richland Mobile ranzureichen.

Auf jeden Fall spannend. :)
DAS muss sich erst noch zeigen.

Undertaker
2013-03-25, 21:45:31
erreicht einfach unter Dauerlast nicht mehr annähernd den max boost und gut

Die Frage bleibt, in wie weit die Energieeffizienz der GPU gesteigert werden konnte. Bei Taktraten um ~800 MHz und einigen Verbesserungen könnte das Ganze schon in das geplante TDP-Budget von 15 Watt passen. Wirklich erreicht werden muss der Turbo ja nur im GPU-Limit (und natürlich abseits synthetischer Tools).

DAS muss sich erst noch zeigen.

Die HD 4400 ist eine ULV-Variante; im diesem TDP-Bereich liegt Trinity maximal auf noch unter (http://www.notebookcheck.com/AMD-Radeon-HD-7500G.74839.0.html) HD 4000 Niveau. Entsprechend dürften sich diese Vorhersage durchaus bewahrheiten.

Ronny145
2013-03-25, 21:52:40
Dürfte nicht auch der Stromverbrauch signifikant höher ausfallen und somit begrenzend wirken (zumindest im Ultrabook Segment)? Verglichen mit der HD4000 hat man ja mehr als doppelt so viele Ausführungseinheiten und dann auch noch eDram dazu.


Die ULVs mit GT3 können dafür niedriger takten. Eine breite GPU mit mäßigen Takt ist generell effizienter. So werden die ULV GT3 vielleicht mit 800 Mhz takten oder noch weniger anstatt der 1000+ von GT2 und sich dennoch leistungsmäßig deutlich absetzen. Schau dir AMD an, die takten mit 327-427 Mhz ihr 17W Modell. Man kann den Verbrauch nicht 1:1 von der HD4000 hochskalieren. Es gab Anpassungen an der Architektur und am 22nm Prozess. Das bestätigt doch der Quadcore mit GT3 bis 1300 Mhz. Die TDP bleibt bei dem ja auch gleich. (2W sind bei allen Standard Modellen dazugekommen).


Ich frage mich wie Intel überhaupt mit einer mehr als doppelt so großen Grafikeinheit und etwas größeren CPU Cores bei gleicher Fertigung weiter bei 17W bleiben kann. Das kann ich mir ehrlich gesagt gar nicht so wirklich vorstellen.
Vielleicht haben auch die Ultrabook Varianten mit GT3 eine höhere TDP. Schätze mal zwischen 20 und 25W für etwas dickere Ultrabooks ~20mm
Die mit GT2 bleiben dann bei 17W.


Die Ultrabook Klasse von Haswell hat eine TDP von 15W. Da wird es mit Sicherheit keine Unterschiede geben. Der Unterschied liegt in der Taktfrequenz.

VooDoo7mx
2013-03-25, 23:42:22
Die HD 4400 ist eine ULV-Variante; im diesem TDP-Bereich liegt Trinity maximal auf noch unter (http://www.notebookcheck.com/AMD-Radeon-HD-7500G.74839.0.html) HD 4000 Niveau. Entsprechend dürften sich diese Vorhersage durchaus bewahrheiten.
Es gibt ja auch noch A8-4555 mit voller Grafik 320-424MHz bei 19W und A10-4655 mit voller Grafik 360-496MHz bei 25W.
Bei verbrauchen mehr schon mehr als die 17W LV Ivy Bridge und dürften auch nicht an deren Grafik rankommen, die je nach SKU auf bis zu 650-1200MHz taktet.
Die AMD LV Varianten unterstützen auch nur maximal DDRIII-1333 was der Grafikeinheit sicher auch nicht unbedingt zu Gute kommt.
Im Ultrabook/Ulltrathin Bereich muss sich AMD sowohl bei CPU als auch GPU Performance geschlagen geben. Hier kommt leider die deutlich schlechtere Fertigung bei AMD zu tragen.
AMD hat aber bisher noch keine Richland Ultrathin APUs vorgestellt. Vielleicht tut sich da ja noch ein wenig mehr als bei den Desktop und Mobile Varianten.

Die Ultrabook Klasse von Haswell hat eine TDP von 15W. Da wird es mit Sicherheit keine Unterschiede geben. Der Unterschied liegt in der Taktfrequenz.
Ach und das weißt du woher? Bisher gibt es zu den LV Modellen noch gar keine TDP Angaben.

--------------------------------------

Also die Grafik vom 4770K Desktop ist ja HD4600 bei 1,25GHz, da kann es auch sein, dass Intel da bei den Mobile Varianten HD4400 mit den Takt ne Ecke runter geht. Oder sind die vielleicht auch nur so bezeichnet weil der Maximaltakt nicht permanent anliegt.

Ronny145
2013-03-25, 23:56:45
Ach und das weißt du woher? Bisher gibt es zu den LV Modellen noch gar keine TDP Angaben.


Das hat Intel offiziell in diversen Vorführungen angegeben. 15W ist die neue TDP Klasse für die Haswell SoC Ultrabooks. Und in sämtlichen geleakten Roadmaps wird die GT3 explizit mit 15W angegeben: http://www.3dcenter.org/dateien/abbildungen/Intel-Mobile-Haswell-Presentation-Slide05.jpg
http://s7.directupload.net/images/111107/kzr5rgqu.jpg
http://s7.directupload.net/images/120827/3w4defw5.png

Hugo78
2013-03-25, 23:57:56
Wann kommt Haswell jetzt eigentlich?
Release sollte ja April sein, aber das hatte sich ja verschoben um 2 Monate oder hab ich das falsch in Erinnerung?

Ronny145
2013-03-26, 00:06:21
Wann kommt Haswell jetzt eigentlich?
Release sollte ja April sein, aber das hatte sich ja verschoben um 2 Monate oder hab ich das falsch in Erinnerung?


Verkaufsstart ab 2. Juni für Quadcores. Erste Ultrabook Modelle ab 23. Juni.

Product Introduction Date 27 May – 7 June 2013 (Day/Time TBD)
Sales and Advertising
Dates (to end users)
Advertising: NO forms of advertising or promotions to end users allowed (includes print/web)
until 2 June
Sales, Shipments: NO sales/shipments to end users until 2 June

Nightspider
2013-03-26, 03:03:45
Leichte Preissteigerungen bei Haswell?

http://www.hartware.de/news_57407.html

VooDoo7mx
2013-03-26, 09:22:19
Das hat Intel offiziell in diversen Vorführungen angegeben. 15W ist die neue TDP Klasse für die Haswell SoC Ultrabooks. Und in sämtlichen geleakten Roadmaps wird die GT3 explizit mit 15W angegeben: http://www.3dcenter.org/dateien/abbildungen/Intel-Mobile-Haswell-Presentation-Slide05.jpg
http://s7.directupload.net/images/111107/kzr5rgqu.jpg
http://s7.directupload.net/images/120827/3w4defw5.png

Naja die Roadmaps sind alle veraltet.

Aber allein schon vom logischen Denken her:

1. Eine mehr als doppelte so große Grafikeinheit gegenüber 17W Ivy Bridge
+
2. Etwas größere und komplexere CPU Kerne gegenüber 17W Ivy Bridge
+
3. PCH auf dem Package der im gesamtverbrauch auch mitwirkt während das bei 17W Ivy Bridge ausgeklammert ist.
+
4. Eine um 11% reduzierte Leistungsaufnahme auf 15W

Jetzt mal im Ernst, wie soll das alles auf einmal gehen bei der gleichen 22nm Fertigung? Toll wäre es schon, zaubern kann Intel auch nicht. Es sei denn Intel geht mit den Taktraten weiter runter. Kann ich mir aber nicht vorstellen, dann wären die CPU seitig langsamer als die Vorgänger Generation.

Leichte Preissteigerungen bei Haswell?

http://www.hartware.de/news_57407.html

Diese News ist schon so dumm und wertlos, das es sich gar nicht lohnt zu kommentieren.

Iruwen
2013-03-26, 09:23:52
Verkaufsstart ab 2. Juni für Quadcores. Erste Ultrabook Modelle ab 23. Juni.

Product Introduction Date 27 May – 7 June 2013 (Day/Time TBD)
Sales and Advertising
Dates (to end users)
Advertising: NO forms of advertising or promotions to end users allowed (includes print/web)
until 2 June
Sales, Shipments: NO sales/shipments to end users until 2 June

Also finale Reviews auch erst am 2. Juni? :(

Undertaker
2013-03-26, 11:30:36
Jetzt mal im Ernst, wie soll das alles auf einmal gehen bei der gleichen 22nm Fertigung? Toll wäre es schon, zaubern kann Intel auch nicht. Es sei denn Intel geht mit den Taktraten weiter runter. Kann ich mir aber nicht vorstellen, dann wären die CPU seitig langsamer als die Vorgänger Generation.

Bei der GPU geht man mit den Taktraten ziemlich sicher ein gutes Stück runter; IB taktet bei den ULVs bis zu 1200 MHz, bei Haswell kann man wohl eher auf ~800 MHz tippen. Das ermöglicht wiederum deutlich niedrigere Spannungen und sollte so dem Mehrverbrauch der zusätzlichen Einheiten entgegenwirken.

Beim Thema Perf/Watt der GPU-Architektur hat Intel sicherlich auch noch einiges Potential.

ndrs
2013-03-26, 11:37:52
Hat Intel nicht auch irgendwo mal erwähnt, dass der Prozess besser auf die Anforderungen der GPU angepasst wurde? Bisher wurde ja wie gehabt die Fertigung auf die CPU optimiert und die GPU einfach drangeflanscht. Ich meine mich an sowas erinnern zu können.

Nightspider
2013-03-26, 11:54:18
Intel wird die 3D Transistoren dieses Mal vielleicht effektiver beim Design von Haswell eingesetzt haben. Bzw. die Fertigung besser darauf ausgelegt haben.

Bei Ivy Bridge hat man ja noch keinen Vorteil durch die 3D-Transistoren gepürt.

Ronny145
2013-03-26, 12:24:28
Leichte Preissteigerungen bei Haswell?

http://www.hartware.de/news_57407.html


Die Newsschreiber werden auch immer dümmer. Vorverkaufspreise minimal höher, welch eine Weltsensation. Das sind doch keine offiziellen Preise. Eher im Gegenteil, wenn die Preise in den shops vorm launch kaum höher liegen, deutet das auf die selben Preise hin. Mehr als +-5€ Anpassungen sind nicht zu erwarten.

Naja die Roadmaps sind alle veraltet.

Aber allein schon vom logischen Denken her:

1. Eine mehr als doppelte so große Grafikeinheit gegenüber 17W Ivy Bridge
+
2. Etwas größere und komplexere CPU Kerne gegenüber 17W Ivy Bridge
+
3. PCH auf dem Package der im gesamtverbrauch auch mitwirkt während das bei 17W Ivy Bridge ausgeklammert ist.
+
4. Eine um 11% reduzierte Leistungsaufnahme auf 15W

Jetzt mal im Ernst, wie soll das alles auf einmal gehen bei der gleichen 22nm Fertigung? Toll wäre es schon, zaubern kann Intel auch nicht. Es sei denn Intel geht mit den Taktraten weiter runter. Kann ich mir aber nicht vorstellen, dann wären die CPU seitig langsamer als die Vorgänger Generation.

Intel hat die 15W mehrfach offiziell bestätigt, keine Ahnung was es da zu diskutieren gibt. Es gibt nirgends auch nur den Hauch von Hinweis auf eine höhere TDP der GT3 Modelle obwohl wir jetzt nur noch 2 Monate vom launch entfernt liegen. GT3 ist effizienter als GT2, weil breitere GPU mit sicherlich geringerem Takt als die GT2. Den Effizienvorteil wird Intel für bessere Performance ausnutzen wollen. Und wie schon mal erwähnt, es gab Anpassungen am Prozess und an der Architektur.

Also finale Reviews auch erst am 2. Juni? :(


Der Verkaufsstart hat mit den reviews erstmal nichts zu tun. NDA Fall zwischen Ende Mai und Anfang Juni. Eher Ende Mai kurz vorm Verkaufsstart. Das war die letzten male immer so.

Zergra
2013-03-26, 12:47:51
Das heißt wohl aus Skylake warten ;), wenn mein 2500k dann noch lebt.
Ich finde Haswell jetzt nicht so überzeugend das ich ihn Kaufen würde. Auch Broadwell wird wohl nicht viel dran ändern.

Lowkey
2013-03-26, 12:51:00
Warte auf die Reviews und entscheide dann, ob sich Haswell lohnt. Wir warten ja alle gespannt auf erste OC Ergebnisse der Retail-CPUs.

Zergra
2013-03-26, 12:55:48
Warte auf die Reviews und entscheide dann, ob sich Haswell lohnt. Wir warten ja alle gespannt auf erste OC Ergebnisse der Retail-CPUs.
Naja selbst wenn 5Ghz bei jeder CPU gehen, mein Sandy läuft auch schon mit 4.8Ghz gut.
Dann hätte ca 20-25% (inkl. der IPC) mehr Leistung vllt. etwas mehr. Dafür ein neues Board zu kaufen mhh.. ich weiß nicht.

Thoro
2013-03-26, 13:29:48
Das heißt wohl aus Skylake warten ;), wenn mein 2500k dann noch lebt.
Ich finde Haswell jetzt nicht so überzeugend das ich ihn Kaufen würde. Auch Broadwell wird wohl nicht viel dran ändern.

Ich habe die sehr starke Hoffnung, dass mit Haswell für Notebooks mit IGP ein guter Sprung drinnen ist. Weniger Verbrauch, etwas mehr CPU-Leistung und wesentlich mehr Grafik-Leistung, damit wären eigentlich alle Kritikpunkte an Ivy (für mich) ausgemerzt und ich könnte mir endlich ein Notebook zulegen.

V2.0
2013-03-26, 13:36:21
Ich habe die sehr starke Hoffnung, dass mit Haswell für Notebooks mit IGP ein guter Sprung drinnen ist. Weniger Verbrauch, etwas mehr CPU-Leistung und wesentlich mehr Grafik-Leistung, damit wären eigentlich alle Kritikpunkte an Ivy (für mich) ausgemerzt und ich könnte mir endlich ein Notebook zulegen.

Wobei man auch sagen muss, dass es im mobilen Beriech irgendwo Quark ist. Ich habe gerade ein neues Ivy Notebook mit einer GT640M und NV Optimus in die Finger gekriegt. Das funktioniert so gut, dass mir die Leistung der integrierten GPU echt egal ist.

Trotzdem wird ein Haswell wohl meinen 2600 Sandy ablösen. Ist einfach an der Zeit mal wieder zu basteln.

Coda
2013-03-26, 13:44:49
Ich habe mal in einem artikel lesen können, das es wohl zwei verschiedene möglichkeit gäbe, tsx in programme einzubauen. Eine lösung ginge dabei schnell und wäre einfach zu integrieren, für die andere müsste man wohl das ganze programm darauf optimieren.
Glaubst du, dass tsx relativ schnell von den meisten programmen (spielen) genutzt werden wird, oder könnte es jetzt sein, das aufgrund intels seltsamer strategie, dass tsx-feature kaum genutzt werden wird?
Es wird die Adoption definitiv verlangsamen. Deshalb kann ich das auch nicht verstehen.

Screemer
2013-03-26, 13:54:27
viele die noch sandys haben müssten wohl auch ram dazu kaufen, oder denkt ihr das 1333er nicht limitieren könnte?

Zergra
2013-03-26, 13:57:51
viele die noch sandys haben müssten wohl auch ram dazu kaufen, oder denkt ihr das 1333er nicht limitieren könnte?
Wieso ? die meisten nutzen doch auch so schon 1600er Ram...

Iruwen
2013-03-26, 14:05:28
Die Newsschreiber werden auch immer dümmer. Vorverkaufspreise minimal höher, welch eine Weltsensation. Das sind doch keine offiziellen Preise. Eher im Gegenteil, wenn die Preise in den shops vorm launch kaum höher liegen, deutet das auf die selben Preise hin. Mehr als +-5€ Anpassungen sind nicht zu erwarten.

http://www.cpu-world.com/news_2011/2011121902_Prices_of_Ivy_Bridge_desktop_CPUs.html
Wenn man danach geht, das scheinen ja MSRPs zu sein, hätte es bei IB keinen Preisverfall sondern sogar eine leichte Steigerung gegeben, was ja Quatsch ist. PCSuperStore ist wohl einfach teuer :D

Der Verkaufsstart hat mit den reviews erstmal nichts zu tun. NDA Fall zwischen Ende Mai und Anfang Juni. Eher Ende Mai kurz vorm Verkaufsstart. Das war die letzten male immer so.

Ich hab Reviews jetzt mal zu Advertising und Promotion gezählt :D

Ronny145
2013-03-26, 14:11:04
http://www.cpu-world.com/news_2011/2011121902_Prices_of_Ivy_Bridge_desktop_CPUs.html
Wenn man danach geht, das scheinen ja MSRPs zu sein, hätte es bei IB keinen Preisverfall sondern sogar eine leichte Steigerung gegeben, was ja Quatsch ist. PCSuperStore ist wohl einfach teuer :D

Die Preise in dem Link stimmten von Anfang an nicht.

Thoro
2013-03-26, 14:26:58
Wobei man auch sagen muss, dass es im mobilen Beriech irgendwo Quark ist. Ich habe gerade ein neues Ivy Notebook mit einer GT640M und NV Optimus in die Finger gekriegt. Das funktioniert so gut, dass mir die Leistung der integrierten GPU echt egal ist.

Ich meine ja ein Notebook ohne dezidierte Grafikkarte. Klar, wenn man eine dabei hat oder so oder so will kann man genauso gut IB kaufen, da bringt Haswell wohl nur sehr bedingt Mehrnutzen.

Screemer
2013-03-26, 14:41:48
Wieso ? die meisten nutzen doch auch so schon 1600er Ram...
aha. ich hab in meinem bekanntenkreis sogut wie niemanden, der damals den aufpreis zahlen wollte. vor allem weil es überall hieß, dass es eh nix bringt.

ich hab mir später mal noch 8gb ripjaws dazu gekauft die 1600er sind, aber meine steine die ich zum 2500k gekauft habe sind 1333. damit bin ich sicher nicht alleine.

V2.0
2013-03-26, 14:43:47
Ich meine ja ein Notebook ohne dezidierte Grafikkarte. Klar, wenn man eine dabei hat oder so oder so will kann man genauso gut IB kaufen, da bringt Haswell wohl nur sehr bedingt Mehrnutzen.
Ich frage mich nur ob diese Zunahme der Leistungsfähigkeit und Größe der integrierten GPU überhaupt sinnvoll ist. Irgendwann hat man zuviel Leistungsaufnahme für reine 2D Lösungen und trotzdem nicht genug Leistung für 3D. Irgendwie erscheint mir die dezidierte GPU, die sich bei Nichtbenutzung völlig abschaltet, da irgendwie effektiver.

Skysnake
2013-03-26, 15:01:54
Ja effektiver im sinnfrei Geld kosten und Strom fressen :ugly:

Es ist schon sehr begrüßenswert, dass die iGPUs immer weiter wachsen. Und bzgl Effizienz gibt es da die gleichen Tricks wie bei den dedizierten auch. Schlicht den Takt massiv im 2D Betrieb senken, und eventuell sogar ganze Teile der iGPU abschalten. Dann kostet dich das auch praktisch keinen zusätzlichen Strombedarf dafür, dass da eine größere GPU hockt.

Zergra
2013-03-26, 16:01:17
aha. ich hab in meinem bekanntenkreis sogut wie niemanden, der damals den aufpreis zahlen wollte. vor allem weil es überall hieß, dass es eh nix bringt.

ich hab mir später mal noch 8gb ripjaws dazu gekauft die 1600er sind, aber meine steine die ich zum 2500k gekauft habe sind 1333. damit bin ich sicher nicht alleine.

Okay, kann bei dir so sein. Ich habe allen leuten immer den 1600er Empfohlen weil der Aufpreis so gering war. Ich denke aber auch das der Ram selbst bei Haswell keine Bremse sein wird, außer man nutz die iGPU


Skysnake das hat was von Skylake :D

Thoro
2013-03-26, 16:06:38
Ich frage mich nur ob diese Zunahme der Leistungsfähigkeit und Größe der integrierten GPU überhaupt sinnvoll ist. Irgendwann hat man zuviel Leistungsaufnahme für reine 2D Lösungen und trotzdem nicht genug Leistung für 3D. Irgendwie erscheint mir die dezidierte GPU, die sich bei Nichtbenutzung völlig abschaltet, da irgendwie effektiver.

Kommt in meinen Augen massiv auf den Anspruch der "Leistung für 3D" an. Beim Notebook reicht´s mir zB schon absolut, wenn ich n paar Casual Games und grafisch moderat anspruchsvolle Spiele wie Civilization V oder dergleichen nebenbei zocken kann, weil das Teil hauptsächlich für die Uni gedacht ist.

Dezidierte Graka will ich nicht, weil erstens laut, zweitens heiß und drittens das NB (meist) größer ist. Mit ner HD3000 geht letztlich noch so gut wie gar nix, die HD4000 ist ein guter Schritt und ich hoffe dass der Sprung mit Haswell nochmal gut genug ist, dass man eben genannte Dinge so als Zeitvertreib spielen kann.

Dass wir hier nicht von High-End Settings oder grafisch anspruchsvollen Spielen sprechen sollte klar sein, aber die Welt besteht halt aus mehr als Crysis 3 :)

Botcruscher
2013-03-26, 17:54:52
Wer so dumm war und sich 1333er besorgt hat soll bei einem neukauf nicht rumheulen.

Knuddelbearli
2013-03-26, 18:00:03
naja als sandy neu war war der preisunterschied noch durchaus bemerkbar

anderseits kann man eigentlich jeden 1333er auf 1600 ocen bei selben Timing also sogar besseren latenzen dann

YfOrU
2013-03-26, 18:00:40
Ich frage mich nur ob diese Zunahme der Leistungsfähigkeit und Größe der integrierten GPU überhaupt sinnvoll ist. Irgendwann hat man zuviel Leistungsaufnahme für reine 2D Lösungen und trotzdem nicht genug Leistung für 3D.

Dagegen sprechen zwei Faktoren:
Die Leistungsaufnahme einer integrierten GPU ist in Relation grundsätzlich niedriger.
Die Differenz zwischen einer dedizierten 650 und einer Titan liegt im Leerlauf bei 3 Watt. Wobei sich das noch deutlich drücken lassen würde denn Titan ist alles andere als ein mobiles Design.

Nightspider
2013-03-26, 18:17:27
1600er Speicher dürfte eh nicht so viel bringen.
Zumal man heute günstig 1866er oder 2133er Speicher bekommt, wenn man denn wirklich alles übertakten will, da nützt einem 1600er auch nicht mehr viel.

Ailuros
2013-03-27, 06:43:57
Dagegen sprechen zwei Faktoren:
Die Leistungsaufnahme einer integrierten GPU ist in Relation grundsätzlich niedriger.
Die Differenz zwischen einer dedizierten 650 und einer Titan liegt im Leerlauf bei 3 Watt. Wobei sich das noch deutlich drücken lassen würde denn Titan ist alles andere als ein mobiles Design.


Manche SFF SoCs loesen es schon heute anders: dedizierte 2D only Prozessoren.

AnarchX
2013-03-28, 17:35:14
Haswell mit programmierbaren ROPs für eine beschleunigte Order Independent Transparency Variante:
http://www.anandtech.com/show/6863/intels-pixelsync-instantaccess-two-new-directx-extensions-for-haswell
http://www.legitreviews.com/news/15334/

Ronny145
2013-03-28, 18:09:56
http://legitreviews.com/images/reviews/news/pixelsyncsmoke.jpg

In größer wäre nicht schlecht gewesen. Sieht auf jeden Fall volumetrischer aus der Rauch.

Nightspider
2013-03-28, 19:07:30
Ist das etwas Besonderes? Können das nicht auch alle anderen (DX11?) Grafikkarten und AMD APUs ?

Ronny145
2013-03-28, 20:24:11
Sie könnten es darstellen so wie sich das anhört. Es geht hierbei um den Performance Verlust, der ohne dieser extension kostspielig wäre. Die Frage ist, ob ein directx Update mit dieser extension AMD und Nvidia zum gleichen verhelfen würde. Das wäre wünschenswert.


The first of these extensions, called PixelSync, provides access to underlying hardware that allows programmers to properly composite partially transparent pixels without the need for an expensive sorting operation. Game developers have long awaited this capability in order to more realistically render smoke, hair, windows, foliage, fences and other complex geometry and natural phenomena.

"The artists working on 'Grid2' have been requesting this type of effect for years, and prior to this, it wasn't possible to achieve it at a reasonable cost," said Clive Moody, senior executive producer at Codemasters Racing*. "The fact that this capability will be available to millions of consumers on forthcoming 4th generation Intel® Core™ processors is very exciting to us."



Hier eine weitere Zusammenfassung: http://hothardware.com/News/Intel-Demos-4th-Gen-Core-Graphics-Announced-New-Rendering-Extensions-and-Developer-Tools-at-GDC/