PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel Larabee - 16 Cores, 2 GHz, 150 W, ... (+ Blick auf CPU-Architektur Gesher)


AnarchX
2007-06-01, 23:39:45
Larrabee: 16 Cores, 2GHz, 150W, and more... @B3D (http://www.beyond3d.com/content/news/242)
It is amazing how much information is out there in the wild, when you know where to look. TG Daily has just published an article partially based on a presentation they were tipped off about, and which was uploaded on the 26th of April. It reveals a substantial amount of new information, which we will not focus on analysing right now, so we do encourage you to read it for yourself.[...]

http://img70.imageshack.us/img70/9137/larabeeqc8.png (http://imageshack.us)
http://img70.imageshack.us/img70/3035/larrabee1202fdeam2.png (http://imageshack.us)
http://img70.imageshack.us/img70/6949/larrabee3270244wj5.jpg (http://imageshack.us)

http://www.tgdaily.com/content/view/32282/137/

Und dann gibt es noch ein interessantes Gerücht:

Intel set to announce graphics partnership with Nvidia?

Chicago (IL) – Intel may soon be announcing a close relationship with Nvidia, which apparently will be contributing to the company’s Larrabee project, TG Daily has learned. Larrabee is expected to roll out in 2009 and debut as a floating point accelerator product with a performance of more than 1 TFlops as well as a high-end graphics card with dual-graphics capabilities.

Rumors about Intel’s Larrabee processor have been floating around for more than a year. Especially since the product’s official announcement at this year’s spring IDF and an accelerating interest in floating point accelerators, the topic itself and surrounding rumors are gaining traction every day.
[...]

Was aber besser hier diskutiert werden sollte:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5548430#post5548430

Da scheint sich ja wirklich etwas anzubahnen...

Spasstiger
2007-06-01, 23:54:36
Hm, wird das die erste marktreife Karte für Echtzeit-Raytracing?
Scheint ja wie geschaffen dafür.

=Floi=
2007-06-01, 23:54:50
was bedeutet 11X14???

ist wohl eher ein montecito nachfolger
(wer soll denn sonst so einen core bezahlen...)

ich dachte der CSI bus ist endlich schneller aber das ist ja wieder so ein flaschenhals...

AnarchX
2007-06-01, 23:57:45
Hm, wird das die erste marktreife Karte für Echtzeit-Raytracing?
Scheint ja wie geschaffen dafür.

Wohl noch mehr siehe die verlinkte Präsentation:
http://bt.pa.msu.edu/TM/BocaRaton2006/talks/davis.pdf

Hier frage ich mich, ob das wirklich an die Öffentlichkeit geraten sollte? :|

http://img70.imageshack.us/img70/9112/geshervslarabeear9.jpg (http://imageshack.us)

w0mbat
2007-06-02, 00:03:43
So ist das mit NDA Vorträgen, irgendwas sickert immer durch. Aber die Daten sehen ja unglaublich aus :O

laser114
2007-06-02, 00:20:53
Hier frage ich mich, ob das wirklich an die Öffentlichkeit geraten sollte?

Da unten Links steht INTEL SECRET. Wohl eher nicht.
Wobe sich Intel Gedanken machen sollte, da die anscheinend ein Leak direkt in der Firma haben. An Partner ist diese Präsentation sicherlich nicht gegangen.

=Floi=
2007-06-02, 00:25:02
bis dahin vergeht ja noch ein bischen zeit aber die tendenz zu raytracing finde ich sehr interessant (baut etwa id an einer solchen engine?)
und gesher mit 4ghz ist auch eher der normale werdegang inclusive multicore und mehr cache
beruhigend sind die 150watt der "graka" da es wohl nicht weiter ausufernd wird

schön ist so ein pdf allemale weil man soetwas nicht jeden tag sieht

DaEmpty
2007-06-02, 00:44:24
Irgendwie ensteht momentan ein seltsamer Hype um das Ding, den ich nicht ganz verstehe.
Also 2010 steht Gesher aka Sandy Bridge an. Larrabee scheint für den selben Zeitraum angesetzt, wenn ich die Folien richtig deute.
Schauen wir uns mal den Kontext für 2010 an:
GPUs: 2008 überschreiten wir wohl 1 TFlop (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1153&Itemid=1), 2010 kann man also mit >2 TFlop rechnen. Die Effizienz bei ihrer Aufgabe ist zu gut um Larrabee eine Chance zu lassen.
Intel CPUs: Gesher im Bereich von 0.1-0.2 TFlop mit OoO. Intel scheint auch weiterhin auf OoO setzten zu wollen.

Larrabee: 1 TFlop mit x86 Befehlssatz. Für GPU zu wenig und der Befehlssatz ist dort unwichtig. Die normalen CPUs existieren auch weiterhin. Also muss Larrabee sich dazwischen einordnen und ist für die bisherigen GPGPU Anwendungen aber sehr interessant.

IBM CPU: Cell-Nachfolger mit ~1 TFlop (Quelle (http://www.heise.de/ct/07/08/018/)). Huch? Haben wir hier etwa den direkten Konkurrenten gefunden? :rolleyes:

AMD: Den letzten Präsentation nach zu urteilen spaltet sich das Ganze in normale Multicore CPUs (Gesher Konkurrent) und CPU+StreamingCPU (Cell+Larrabee Konkurrenz) auf. *schreck* Die machen ja alle das Selbe. :tongue:

Hm, wird das die erste marktreife Karte für Echtzeit-Raytracing?
Scheint ja wie geschaffen dafür.
Jain.
Genausogut wie ein Cell zu dem Zeitpunkt.
Aber
*Gerüchte kombinier*
Man vereine Larrabee fürs Raycasting mit einer GPU fürs Shading und - voila - wir haben eine sehr sehr leistungfähige Raytracinglösung.

Ok ist viel Spekulatius dabei. :biggrin:

Spasstiger
2007-06-02, 12:26:39
Genausogut wie ein Cell zu dem Zeitpunkt.
Aber Cell hat doch keine Textur-Sampling-Einheiten.

DaEmpty
2007-06-02, 13:06:14
Aber Cell hat doch keine Textur-Sampling-Einheiten.
Ist die Frage, ob Larrabee die auch in der Version hat, die nicht für Grafikkarten gedacht ist. Wenn IBM mit Cell in den Grafikkartenmarkt wollte, würden sie es auch in 3 Jahren hinkriegen noch Textursampler dranzubauen.
Ausserdem musst du immer dran denken, dass Raytracing zuerstmal nur die Rasterisierung ersetzt und dieser Teil soviel Leistung kostet. Dort nutzen dir Texturesampler nicht mehr als normaler Speicherzugriff.

Coda
2007-06-02, 14:19:53
Hm, wird das die erste marktreife Karte für Echtzeit-Raytracing?
Scheint ja wie geschaffen dafür.
Das sieht für mich eher nach einer "ganz normalen" D3D1x-Karte aus. Sonst wären die Textursampler ziemlich seltsam.

Imho ist das also Intels Grafikprojekt, dass schon eine gewisse Zeit im Raum schwebt. Aber CSI als Multi-Chiplösung dafür ist sehr interessant. Vielleicht zieht da ATI ja mit Hypertransport nach ;)

Ansonsten scheint das Ding aber auch noch als Streamprozessor einsetzbar zu sein und Intel scheint dabei viel weiter zu gehen als nVIDIA. Ich verstehe gar nicht warum nVIDIA da mitmacht, das is doch extreme Konkurenz für sie. Das riecht ja schon nach einer weitreichenden zukünftigen Partnerschaft zw. Intel und nVIDIA.

Gast
2007-06-02, 17:03:03
Falls mit 49,5mm Kantenlänge nicht das Multi-Chip-Substrat gemeint ist, können die sowas nur im Bundle mit Itanium verkaufen, da sonst zu teuer für alles.


Q

turboschlumpf
2007-06-02, 21:17:26
1) Warum wird Larrabee mit Gesher (heißt ja jetzt Sandy Bridge) verglichen? Gesher steht erst für Ende 2010 auf der Roadmap. Können die Angaben zu Gesher jetzt überhaupt schon feststehen? Für mich hört sich das eher nach Nehalem an. Was meint ihr? Kommen Larrabee und Nehalem also eventuell zusammen Ende 2008?

2) Wie ist CSI (17 GB/s/link, 50 ns) im Vergleich zu Hypertransport einzuschätzen? GB meint hier Gigabit? Sind die 17 GB/s/link dann pro Richtung oder in beide Richtungen zusammen? Es war ja mal die Rede von 4,8 und 6,4 GT/s/direction. Wie breit wäre dann ein solcher CSI-Link?

Slipknot79
2007-06-02, 21:28:36
Naja 2010 haut sowas dann auch niemanden mehr vom Hocker vermute ich mal ^^.

Gast
2007-06-02, 21:43:17
1) Warum wird Larrabee mit Gesher (heißt ja jetzt Sandy Bridge) verglichen? Gesher steht erst für Ende 2010 auf der Roadmap. Können die Angaben zu Gesher jetzt überhaupt schon feststehen?
Für einen 2010er Release müssen sie jetzt schon fleißig an der Entwicklung sein. Somit steht das Designziel fest.
Für mich hört sich das eher nach Nehalem an. Was meint ihr? Kommen Larrabee und Nehalem also eventuell zusammen Ende 2008?
Für Nehalem müssen für Ende 2008 schon jetzt oder relativ zeitnah lauffähige Prototypen fertig sein.
Larrabee ist noch weit weg. Ende 2007/Anfang 2008 soll Polaris 2 fertig sein, auf welchem Larrabee aufbauen soll. Dazu hat man noch jede Menge neue Fertigungstechniken, die auch mit Polaris 2 das erste mal getestet werden.
Bis zur Massenfertigung sind 2 weitere Jahre nicht zu wenig geschätzt.

Gmax
2007-06-02, 22:00:34
Ist das die für 08 angepeilte gpu? Sollte da nicht etwas von
ImgTec drinnen sein?

HOT
2007-06-02, 22:01:11
Hmm... ich frage mich ob PowerVR Technik in dem Ding steckt. Grad die TMUs und andere grafiktypischen Einheiten werden irgendwo hergekommen sein. Von NV sicherlich eher weniger, von denen kommt wohl eher Technik für HD Videobeschleunigung etc., denn sonst würde sich NV bei dem Ding sein eigenes Grab schaufeln. Das Projekt zeigt eindrucksvoll warum AMD ATI wirklich kaufte und wie ernst es wirklich um NV bestellt ist. Wenn das Ding mit der R700/G100 Konkurrenz mithalten kann, heisst es AMD gegen Intel auch im Grafiksektor und NV könnte da durchaus Schwierigkeiten bekommen, die Situation ist delikat. Sowohl bei AMD als auch bei Intel bestehen zudem Pläne die Grafik vom PCIe wegzuholen und auf HT bzw. CSI aufzusetzen, das wäre hingegen NVs grosse Chance, da sie evtl. beide Märkte bedienen können.

Demirug
2007-06-02, 22:26:12
Irgendwie sieht das Ding für mich so aus als wolle man den Grafikkern vom IGP nehmen davon ein paar in einen Chip bündel und auf 2 GHz hochprügeln.

=Floi=
2007-06-02, 22:36:44
@ hot
unrealistisch
schau den core an (WO willst du den noch integrieren?) und nebenbei ist nv eine ziemlich kompetente firma
sie haben sich auch im mainboard markt kurzfristig an der spitze etabliert und gegen den G100 sollte die karte nicht mithalten können (der G100 sollte 2tflop erreichen)
auch verfolgt intel nicht ganz das 3d spiele segment

HOT
2007-06-03, 00:20:51
Die Karte spricht aber einer andere Sprache - denn einen HighEnd-Chip kann man nur für eine grosse Menge an Kunden als Spielekarte absetzen. Das ist also sehr wohl eine Spielekarte, der Chip ist zudem sehr gut skalierbar, von integriert (bis in den Prozessor) bis HighEnd. Zudem kann trotzdem PowerVR Technik vorhanden sein - siehe Demis Beitrag. Jeder einzelne Kern ist ein kleiner Grafikchip. Grade hierfür bietet sich die PowerVR Technik an, da sie sich sehr für Integration eignet. ATI hatte ja angekündigt mit dem R700 in eine ähnliche Richtung zu gehen. Man will genauso viele Cores oder vllt. sogar viele Dies auf einem Träger platzieren. Wir werden sehen, was bis dahin alles passiert.

Brechreiz
2007-06-03, 01:31:49
Wenn ich bedenke, was Intel aktuell noch an den Treiber der aktuellen Grarfikchips rumgurkt, brauchen ATI und Nvidia erstmal keine Sorgen haben.

Ich verweise mal auf http://www.forum-3dcenter.org/vbulletin/showthread.php?t=321049 wo mit jedem neuen Treiber die freischalten von HW-Funktionen beim GMA3000 versprochen wurde, und was kam bisher? nicht viel besser wie GMA950, wenn überhaupt.

Ich kann mir dahinter nur eine "2-Flanken-Strategie" vorstellen um AMD mittel/langfristig aus dem Markt zu drängen. Den Hauptsächlich will Intel an (gut zahlende) Business Kunden verkaufen, und die brauchen keine Hypermega Grafik.

Tjell
2007-06-03, 01:32:01
Bei der Zusammenarbeit von Intel + nVidia wird sicher für beide Beteiligten etwas als Nutzen "abfallen". Ob das für nVidia eine x86-Lizenz (und mehr) sein könnte?

In einem Interview vor geraumer Zeit räumte man bei nVidia ein, ein gewisses Interesse daran zu haben, auch CPUs anbieten zu können.

Black-Scorpion
2007-06-03, 20:40:09
Es kann keine Intel Strategie geben AMD aus dem Markt zu drängen.
Jedenfalls nicht die CPU Sparte.
Damit würde sich Intel ins eigene Knie schießen und die Kartellbehörden auf den Plan rufen.
Ob sie das unbeschadet und in einem Stück überstehen würden, möchte ich bezweifeln.

HOT
2007-06-03, 21:04:40
Bei der Zusammenarbeit von Intel + nVidia wird sicher für beide Beteiligten etwas als Nutzen "abfallen". Ob das für nVidia eine x86-Lizenz (und mehr) sein könnte?

In einem Interview vor geraumer Zeit räumte man bei nVidia ein, ein gewisses Interesse daran zu haben, auch CPUs anbieten zu können.
Für x86 braucht man keine Lizenz und für AMD64 braucht man eine Lizenz von AMD, nicht von Intel (ist AFAIK sogar frei).
Von daher ist das haltlos. Das Abkommen, dass NV und Intel geschlossen haben, ist wohl mehr ein Cross-License Abkommen (beinhaltet evtl. SSE oder Ähnliche Addons).
NV würde sich sein eigenes Grab schaufeln, wenn die Intel ihr Grafikknowhow auf dem Silbertablett offerieren. Zudem ist das Abkommen einfach zu neu, um in den Entwicklungsprozess noch eingreifen zu können.

HOT
2007-06-03, 21:09:27
Wenn ich bedenke, was Intel aktuell noch an den Treiber der aktuellen Grarfikchips rumgurkt, brauchen ATI und Nvidia erstmal keine Sorgen haben.

Ich verweise mal auf http://www.forum-3dcenter.org/vbulletin/showthread.php?t=321049 wo mit jedem neuen Treiber die freischalten von HW-Funktionen beim GMA3000 versprochen wurde, und was kam bisher? nicht viel besser wie GMA950, wenn überhaupt.

Ich kann mir dahinter nur eine "2-Flanken-Strategie" vorstellen um AMD mittel/langfristig aus dem Markt zu drängen. Den Hauptsächlich will Intel an (gut zahlende) Business Kunden verkaufen, und die brauchen keine Hypermega Grafik.

Wenn in diesem Teil wirklich SGX Technik steckt, macht Intel dafür garkeine Treiber.

Anarchy-HWLUXX
2007-06-04, 12:01:48
Also nVidia hat/hatte scho was CPU mäßiges im programm :uconf2:

Und zwar haben sie mit dem ULI kauf auch ne SOC lösung dazubekommen - und da is nen 386er Core drin : http://www.nvidia.com/page/uli_m6117c.html

... na ja, besser als nix ;D

HOT
2007-06-04, 12:11:11
Wenn NV AMD64 CPUs mit SSE2 bauen wollten könnten sie es problemlos. Nur für neuere Addons werden kostenpflichtige Lizenzen fällig. Das ist aber keinen Grafikkern wert. Die werden ein paar Patente getauscht haben, mehr nicht.

Coda
2007-06-04, 12:44:32
Wenn NV AMD64 CPUs mit SSE2 bauen wollten könnten sie es problemlos.
Wenn sie nicht dran intensiv geforscht haben: Nö. Eine CPU ist nochmal deutlich was anderes als eine GPU.

HOT
2007-06-04, 13:09:34
Schon klar ;). Ging ja auch net darum.

stickedy
2007-06-04, 14:34:49
Es mag zwar relativ einfach sein, eine x86-kompatible CPU zu bauen, allerdings dürften Intel, AMD, IBM, Cyrix, Centaur und Transmeta so ziemlich alle möglichen Wege dahin in Patente gegossen haben. Und das macht die Sache dann schon wieder nicht so einfach wenn man nicht unbedingt eine Millionenklage am Hals haben will... Von einer leistungsfähigen Implementierung ist man dann auch noch recht weit entfernt.

Im übrigen ist bei AMD64 nur der Befehlssatz frei, aber noch lange nicht die passende Architektur dazu.

Ailuros
2007-06-05, 05:44:01
Wenn in diesem Teil wirklich SGX Technik steckt, macht Intel dafür garkeine Treiber.

Zum allerletzten Mal das Zeug ist Intel's Eigenentwicklung. Intel UMPCs mit SGX werden von IMG Q1 2008 erwartet.

Ailuros
2007-06-05, 05:51:43
Irgendwie sieht das Ding für mich so aus als wolle man den Grafikkern vom IGP nehmen davon ein paar in einen Chip bündel und auf 2 GHz hochprügeln.

Bei einer solchen Frequenz klingt es mir eigentlich nach einer Intel Entwicklung. Nur die 4 threads pro core klingen zufaellig nach etwas anderem, aber mein Instinkt sagt mir eher dass es Zufall ist.

Demirug
2007-06-05, 07:57:03
Bei einer solchen Frequenz klingt es mir eigentlich nach einer Intel Entwicklung. Nur die 4 threads pro core klingen zufaellig nach etwas anderem, aber mein Instinkt sagt mir eher dass es Zufall ist.

Ich bezog mich auf den aktuellen IGP der ja wohl auch eine Intel Entwicklung ist.

PCGH_Carsten
2007-06-05, 09:33:58
Bei einer solchen Frequenz klingt es mir eigentlich nach einer Intel Entwicklung. Nur die 4 threads pro core klingen zufaellig nach etwas anderem, aber mein Instinkt sagt mir eher dass es Zufall ist.

mMn sind auch die Cache-Größen eher nicht für eine GPU geeignet - ebensowenig die offenbar geplante Anbindung von User-Bestückbaren RAM-Bänken -> HPC.

Und GPU könnte hier auch für "General Purpose/Processing Unit" stehen.

AnarchX
2007-06-20, 13:35:03
http://img514.imageshack.us/img514/1700/kaigai36602lmv9.gif (http://imageshack.us)
http://translate.google.com/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2007%2F0620%2Fkaigai366 .htm&langpair=ja%7Cen&hl=de&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools