PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Haswell EP => GPU als Gegner?


HPVD
2012-06-13, 22:28:55
Auf vr-zone gibts die interessante Aussage, dass die kommenden Intel Server/Workstaion/HPC Prozessoren nicht mehr gegen AMD (Server-) Prozessoren konkurrieren sollen, sondern direkt gegen (Computing-)GPUs (Tesla, Firestream)

Um ausreichend Leistung zu erreichen, sollen auch die Randbedingungen an die der GPUs angenähert werden, und so die TPD-Anforderungen entsprechend ausgebaut werden (bis 160W).
http://vr-zone.com/articles/intel-haswell-ep-brings-ddr4-to-eat-up-to-160w-190-amps/16141.html

Was meint ihr: ist da was dran?
Falls ja, ist ja durch den kleineren Fertigungsprozess und die Weiterentwicklung der Architektureffizienz plus das mehr an TPD mit sehr beachtlichen Leistungssteigerungs-Potentialen zu rechen !!

Zafi
2012-06-21, 10:24:23
Eine TDP von 160W wäre nicht so ungewöhnlich. In Netburst-Zeiten waren auch 165W im Einsatz. Aktuell sind 130W Gang und Gäbe und in Extrem Situationen auch 150W (http://ark.intel.com/products/64582). Ein Sprung bis 160W wäre also nicht so gewaltig.

Ich glaube VR-Zone spekuliert hier nur wild um die spärlichen Fakten herum. Denn um tatsächlich mit AMDs oder nVidias GPUs direkt konkurrieren zu können, müssten Intels CPUs 20-mal leistungsfähiger werden, als sie es im Moment sind. Das wäre dann doch ein ziemlich großer Sprung für Haswell.

Vielleicht baut Intel in Haswell eine leistungsstärkere GPU ein, um dann GPU gegen GPU antreten zu lassen. Das halte ich zumindest für theoretisch möglich, zumal die bisherigen Intel HD Graphics Lösungen schon +/- soviel Leistung besitzen (in GFlops), wie der Prozessor, in dem sie sitzen.

Dennoch dürfte auch dies unwahrscheinlich sein. Intel vernachlässigte schon immer seine GPUs. Ich glaube nicht, dass sich das plötzlich ändert. Am wahrscheinlichsten ist, dass VR-Zone nur heiße Luft produziert und alles seinen bisherigen Gang geht. Aber ich lasse mich gerne eines Besseren belehren.

HOT
2012-06-21, 10:50:09
Das stinkt nach schlankeren Kernen. Das wird vielen Intel-Anhängern überhaupt nicht gefallen, was die vorhaben mMn :D.

AnarchX
2012-06-21, 10:57:53
Die schlanken Kerne gibt es in den MIC-Prozessoren. ;)

Mit HMCs kann man diese vielleicht auch langfristig in den normalen CPU-Sockel versenken bzw. kombinieren mit Fat-Cores.

HPVD
2012-06-21, 11:22:33
Die schlanken Kerne gibt es in den MIC-Prozessoren. ;)

Mit HMCs kann man diese vielleicht auch langfristig in den normalen CPU-Sockel versenken bzw. kombinieren mit Fat-Cores.

cool - dann kann man in einem normalen Dual-CPU board einen "normalen" Xeon einbauen und einen "Xeon-Phi" (Labree)
und beide können gemeinsam auf den gleichen Hauptspeicher zugreifen... träum...

YfOrU
2012-06-21, 11:33:28
Dennoch dürfte auch dies unwahrscheinlich sein. Intel vernachlässigte schon immer seine GPUs. Ich glaube nicht, dass sich das plötzlich ändert.

Das Intel den GPU Part traditionell vernachlässigt ist heute nicht mehr richtig. Seit der HD2000/HD3000 zeigt die Kurve In Relation zu den Vorgängern sowohl bei der Hardware selbst als auch bei der Software steil nach oben. Zusätzlich haben die IGPs eine Größe erreicht das für die unterschiedlichen Ausbaustufen separate Chips produziert werden*.

*Ein IvyBridge Dualcore mit GT2 (HD4000) besteht zu 2/5 aus der GPU. Bei Haswell (theoretische 2C) würde der maximale GPU Ausbau (GT3) dementsprechend mindestens die Hälfte der Fläche des Chips belegen. Von vernachlässigen kann da also keine Rede mehr sein. Eher steht die GPU wie bei AMD im Fokus ;)

Sehr deutlich wird das auch bei der Gegenüberstellung von Intel HD (Arrandale) zu HD2500/HD4000 (IB). Dazwischen liegen schlichtweg Welten. Die alte Intel HD Lösung war selbst lange nach der Markteinführung abseits von der zu geringen Leistung bezogen auf die Software eine Zumutung. Im Gegensatz dazu kommt die aktuelle Generation mit brauchbaren (aber etwas lahmen) OpenGL Treibern, OpenCL Unterstützung und Optimierungen für viele AAA Titel. Das ist zwar trotzdem noch lange nicht das Optimum aber zeigt in welche Richtung es geht.

Zafi
2012-06-21, 13:44:24
Das Intel den GPU Part traditionell vernachlässigt ist heute nicht mehr richtig. Seit der HD2000/HD3000 zeigt die Kurve In Relation zu den Vorgängern sowohl bei der Hardware selbst als auch bei der Software steil nach oben. Zusätzlich haben die IGPs eine Größe erreicht das für die unterschiedlichen Ausbaustufen separate Chips produziert werden*.

Ich habe auch immer die Hoffnung, dass sich da was tut. Doch man wird immer wieder eines besseren belehrt. (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=528856) Und das ist nur die Spitze des Eisbergs (google mal). Wenn Intel nach so vielen Jahren immer noch nicht das nötige Personal hat, um Fehler zu vermeiden, dann wird man es in 1-2 Jahren auch nicht besser hin bekommen. Bedenke, dass wir hier immerhin vom Workstation- und Server-Bereich reden. Bei solchen Kunden kann sich Intel keine Experimente erlauben. Wenn Intel schon in den GPGPU-Bereich einsteigen sollte, muss man auch überzeugende Produkte liefern.

YfOrU
2012-06-21, 14:08:19
Probleme im Zusammenspiel mit Monitoren, Beamern, Fernsehern und AV Receivern gibts auch bei Nvidia und AMD ohne Ende. Wer hier auf Nummer sicher gehen will muss sich im Vorfeld informieren ob die Kombination reibungslos funktioniert denn HDCP ist eine böse Stolperfalle. Ob das dann im Einzelfall der Hersteller des Monitors oder der GPU Entwickler verbockt hat spielt schlussendlich keine Rolle. Garantierte Kompatibilität ist hier (HDMI/DVI mit HDCP) einfach nicht gegeben.

Vergleichsweise unproblematisch ist praktisch nur die native EDV Variante: DisplayPort auf beiden Seiten. Wer im professionellen Segment heute unnötigerweise etwas anderes einkauft muss im Zweifelsfall auch mit den Konsequenzen leben.

Zafi
2012-06-21, 15:48:28
Es gibt noch ein weiteres Problem. Eine Intel-CPU samt einer GPU die so leistungsstark ist, wie eine Radeon HD 7970 (oder einer dann aktuellen Radeon HD 8970), müsste von der Die-Fläche her min. 3-mal (bzw. 4-mal) so groß sein, wie eine jetzige Ivy-Bridge. Ein solch großes Monster passt vermutlich nicht mal mehr unter den Heatspreader. Also selbst wenn Intel in diese Richtung geht, werden sie vermutlich eher kleinere Brötchen backen und die GPU-Leistung nicht ganz so extrem anwachsen lassen. Von echter Konkurrenz kann man da doch gar nicht mehr reden.

Aber bleiben wir mal sogar ganz realistisch. Es kam doch bisher oft genug vor, dass man sich von zukünftigen Produkten große Verbesserungen erhofft hat und dann bekam man doch wieder den üblichen Einheitsbrei serviert. Gerade was Intels GPU-Power anbelangt, kam doch bisher mit jeder neuen Generation die Vermutung auf, dass Intel nun "richtig loslegt" und seinen Radeon- und Geforce-Killer auspackt. Und was war? Pustekuchen... Klar verbessert sich Intel, aber niemals mit einem Knall. Es ist eher ein kleiner schrittweiser Wandel der über einen langen Zeitraum herbei geführt wird. Und ich glaube, dass es auch diesmal so sein wird.

y33H@
2012-06-21, 15:54:54
AMD ist in Sachen APU-Fertigung noch mehr limitiert als Intel ... einen Killer für dedizierte Radeons und Geforces zu erwarten, ist ohnehin fehl am Platz. Die Low-End-Karten aber kriegen schon jetzt Probleme.

YfOrU
2012-06-21, 16:11:43
Es gibt noch ein weiteres Problem. Eine Intel-CPU samt einer GPU die so leistungsstark ist, wie eine Radeon HD 7970 (oder einer dann aktuellen Radeon HD 8970), müsste von der Die-Fläche her min. 3-mal (bzw. 4-mal) so groß sein, wie eine jetzige Ivy-Bridge. Ein solch großes Monster passt vermutlich nicht mal mehr unter den Heatspreader. Also selbst wenn Intel in diese Richtung geht, werden sie vermutlich eher kleinere Brötchen backen und die GPU-Leistung nicht ganz so extrem anwachsen lassen. Von echter Konkurrenz kann man da doch gar nicht mehr reden.

Der HPC Bereich wird grundsätzlich über separate Karten abgedeckt. Genau dafür gibt es Larrabee und die zugehörigen Weiterentwicklungen (aktuell: Knights Corner).

Absolute highend GPUs wie auf dem Desktop sind für Intel nicht interessant denn der hierfür nötige Aufwand steht in keiner Relation zum Nutzen (Absatzmenge, weder integriert noch dediziert).
AMD hat schon gezeigt wo der Weg in Zukunft hingeht: Die Verschmelzung von Mainstream GPUs mit der CPU (Cape Verde GPU, HSA 3, ->Kaveri APU).

Ein so aufgebauter Prozessor ist bezogen auf die verfügbare Rechenleistung und den Energiebedarf eine sehr runde Sache und damit auch für den Einsatz in Servern interessant. Da der ganz große Teil der (dedizierten) Desktop und Notebook GPUs (Absatz, OEM Komplettsysteme) ebenfalls in diesem Bereich angesiedelt ist ergibt das durchaus ein sehr konkurrenzfähiges Gesamtpaket. Auch gegenüber Lösungen mit dedizierten GPUs denn der Kostendruck nimmt durch die Verfügbarkeit leistungsfähiger IGPs (Zukunft: SoCs) weiter zu.

Zafi
2012-06-21, 16:36:45
Schön, aber wie kommt VR-Zone dann dazu Intels Haswell mit nVidias Maxwell in einen Topf zu werfen? Denn auf der CPU Seite ist Intels 16-Kerner (in jedem Fall) der kleinen nVidia CPU haushoch überlegen. Und auf der GPU Seite hat Intel gegen nVidia nicht den Hauch einer Chance.

Wie können den zwei solch grundsätzlich unterschiedliche Produkte den gleichen Kunden bedienen?

YfOrU
2012-06-21, 16:48:18
Die Produkte sind nicht vollkommen unterschiedlich denn eine hypothetische Haswell CPU für Server mit integrierter GPU (in Konkurrenz zu Maxwell) hätte keine 16 x86 Kerne sondern viel weniger. Dafür aber eine sehr große Anzahl an EUs.

Zafi
2012-06-21, 17:22:40
Ich hab es mir nochmal durchgelesen und ich glaube viel eher, dass sich VR-Zone hier nur etwas missverständlich ausgedrückt hat. Sie wollen damit wohl nur sagen, dass Haswell als 16-Kern CPU so leistungsstark wird, dass er damit auch den GPGPU-Lösungen Konkurrenz bereiten kann. Wogegen AMDs zukünftiger Opteron weit abgeschlagen keinerlei Rolle im HighPerformance-Bereich spielen wird.