PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Larrabee (der Spekulationsthread)


Seiten : 1 [2] 3 4 5 6 7 8 9

Gast
2008-01-19, 12:03:11
Das die Leistung aber nun jährlich geradezu explodiert, kann man nn aber auch nicht behaupten. Und dieser fehlende Leistungsdruck könnte wiederum Intel, trotz langer Vorlaufzeit, wieder zu Gute kommen. Würden ATI und NVidia den gewohnten Leistungszyklus durchlaufen, sähe die Lage für Intel schon viel trüber aus.

nomadhunter
2008-01-19, 13:30:55
Das die Leistung aber nun jährlich geradezu explodiert, kann man nn aber auch nicht behaupten. Und dieser fehlende Leistungsdruck könnte wiederum Intel, trotz langer Vorlaufzeit, wieder zu Gute kommen. Würden ATI und NVidia den gewohnten Leistungszyklus durchlaufen, sähe die Lage für Intel schon viel trüber aus.
Mit GT200 wird man wieder im gewohnten Leistungszyklus sein. Der Unterschied zu früher ist höchstens, dass NVIDIA derzeit eine Art "Tick-Tock"-Philosophie zu verfolgen scheint. Alle 1,5-2 Jahre einen Monsterchip (G80, GT200, der nächste vielleicht G100?), der alles bisherige so weit übertrifft, dass er ohne zu große Veränderungen (G92) 1,5-2 Jahre lang im High-End mitspielen kann.

Gast
2008-01-19, 15:07:09
Das die Leistung aber nun jährlich geradezu explodiert, kann man nn aber auch nicht behaupten. Und dieser fehlende Leistungsdruck könnte wiederum Intel, trotz langer Vorlaufzeit, wieder zu Gute kommen. Würden ATI und NVidia den gewohnten Leistungszyklus durchlaufen, sähe die Lage für Intel schon viel trüber aus.
Könnte auch an der Physik liegen. Es ist heute einfach nicht mehr so leicht, die Leistung explodieren zu lassen, ohne dass Kosten und andere Parameter gleich mit explodieren. Die glorreichen Zeiten sind vorbei.
Bin mir ziemlich sicher, dass die GPU-Leistungsentwicklung sich in Zukunft eher noch verlangsamen wird und das hat fast nichts mit Monopolstellungen zu tun.

Gast
2008-01-19, 15:15:23
Physik ? immernoch sehr selten,zu selten

Das einzige Spiel was halbwegs Fortschritte macht ist Company of Heros,mit sehr guter Zerstörung.Nicht ganz so detailreich aber auch gut World in Conflict,mit guter Gelandeverformung

Das ach so gehypte Crysis is für mich technisch völlig uninteressant und auch sehr schlecht programmiert ( dauerruckeln,miese Physik und null streaming)

Thowe
2008-01-19, 15:22:20
Könnte auch an der Physik liegen. Es ist heute einfach nicht mehr so leicht, die Leistung explodieren zu lassen, ohne dass Kosten und andere Parameter gleich mit explodieren. Die glorreichen Zeiten sind vorbei.
Bin mir ziemlich sicher, dass die GPU-Leistungsentwicklung sich in Zukunft eher noch verlangsamen wird und das hat fast nichts mit Monopolstellungen zu tun.

Das ist definitiv an dem. Wer regelmäßig die eetimes liest, weiß wie extrem die Kosten von Prozess zu Prozess gestiegen sind und dementsprechend die Investitionen, bis verwertbares Silizium in Stückzahlen das Werk verlassen. Der Industrie bleibt schlicht weg nichts anders über, als die Entwicklungsgeschwindigkeit auf ein Niveau zu senken, damit die Kosten noch gut gedeckt sind. Was natürlich auch problematisch ist, da sie nur schätzbar, aber selten messbar sind.

INTEL als zusätzlicher Player könnte unter Umständen auch bedeuten, dass genau das Gegenteil erreicht wird, sprich, dass die Konkurrenz nicht mehr das nötige Kapital aufbringen kann und somit ihr Silizium solange nutzen müsste, wie wegen meiner es Matrox tut.

Ich würde gerne mal wieder eine innovative Karte sehen, die weniger durch ihrer Anzahl an Transistoren, denn durch ihre Pfiffigkeit auffällt.

Henry
2008-01-19, 16:06:45
Physik ? immernoch sehr selten,zu selten

Das einzige Spiel was halbwegs Fortschritte macht ist Company of Heros,mit sehr guter Zerstörung.Nicht ganz so detailreich aber auch gut World in Conflict,mit guter Gelandeverformung

Das ach so gehypte Crysis is für mich technisch völlig uninteressant und auch sehr schlecht programmiert ( dauerruckeln,miese Physik und null streaming)
nicht Physik im Game, sondern die reale/praktische Physik;D

in Bezug auf die Chipentwicklung/Herstellung;)

=Floi=
2008-01-19, 17:42:03
was dabei rauskommt wenn man auf pfiffigkeit setzt sieht man ja an der HT2900XT. Bei grafikkarten gilt noch immer die regel viel hilft viel und in der praxis zählt nunmal nur das, denn wer aufwendig programmiert programmiert auch meistens etwas sehr "ineffizientens". Ein gutes beispiel ist hier der vergleich crysis mit UT3 engine. Bei den grafikkarten spielen die alten midrange-karten wie 8600GTS/GT und HD2600XT doch garkeine rolle mehr, weil die leistung hinten und vorne nicht für normales spielen neuere titel reicht.

Ailuros
2008-01-21, 05:50:46
Das die Leistung aber nun jährlich geradezu explodiert, kann man nn aber auch nicht behaupten. Und dieser fehlende Leistungsdruck könnte wiederum Intel, trotz langer Vorlaufzeit, wieder zu Gute kommen. Würden ATI und NVidia den gewohnten Leistungszyklus durchlaufen, sähe die Lage für Intel schon viel trüber aus.

Es gibt immer noch eine grosse Liste an Fragezeichen fuer Intel's Larabee, damit ueberhaupt so weit kommen kann.

1. Falls Intel wirklich etwas auch fuer den gaming Markt anstellen will, gibt es keinen Umweg um fixed function Anteile in HW. Je mehr sie in diesem Bereich gespart haben, desto mehr muss sich das Resultat auf SW bzw. spezifische Programmierung verlassen.

2. Nach dem ersten revamp sah man dass 1 TFLOP doch nicht besonders viel sein wird und nach den neuesten Angaben sollen sie auf ueber 2 TFLOPs zielen. Natuerlich kommt es darauf an wofuer jeglicher FLOP genau steht, aber wenn das Resultat tatsaechlich nur so viel am Ende schafft, ist es schon fuer 2008 gerade noch konkurrenzfaehig.

3. Herstellungsprozess; unter Umstaenden hat hier Intel den Vorteil aber auch nur wenn das Ding mit 32nm antanzen sollte. Bei 45nm sind sie schon wieder im Nachteil.

Was waere denn Deiner Meinung nach der "uebliche" Leistungszyklus von ATI/NVIDIA genau?

NV40 wurde in Q2 2004 vorgestellt mit 222M@130nm und 77 GFLOPs; G80 wurde in Q3 2006 vorgestellt mit ~700M@90nm und 518 GFLOPs (dabei ist der Unterschied von FLOP zu FLOP so gigantisch in diesem Fall, dass es nicht mehr schoen ist).

Ailuros
2008-01-21, 05:54:37
Könnte auch an der Physik liegen. Es ist heute einfach nicht mehr so leicht, die Leistung explodieren zu lassen, ohne dass Kosten und andere Parameter gleich mit explodieren. Die glorreichen Zeiten sind vorbei.
Bin mir ziemlich sicher, dass die GPU-Leistungsentwicklung sich in Zukunft eher noch verlangsamen wird und das hat fast nichts mit Monopolstellungen zu tun.

Ich markier mir die Aussage fuer einige Monate spaeter in diesem Jahr. Wie waere es fuer jeglichen TFLOP einen Besen? ;D

Gast
2008-01-21, 15:16:28
Es wird einfach zu wenig Power geboten für derzeitige Preise

Stimmt teils, aber mit der 3850 HD von AMD/ATI schaut des dann wieder anders aus. Dort, so finde ich, ist der Preis fuer die gebotene Leistung gerechtfertigt.

Die meisten, und auch zuk. SPiele haben eh "limitierte" Texturen. D.h bringt nix @1080p und mehr zu daddeln. Die Graphik wird dann auch nicht besser. Wie "hoch,gross" sind denn aktuelle Texturen uebrhaupt ? 1024x1024 ?

1650x1080,1440x900,1280x720[32LCD] sind meiner meinungn nach gute Aufloesungen. Mehr braucht man nicht.

Gast
2008-01-21, 17:57:26
Ich markier mir die Aussage fuer einige Monate spaeter in diesem Jahr. Wie waere es fuer jeglichen TFLOP einen Besen? ;D
Es geht ja auch darum, was effektiv an fps dabei rumkommt und nicht nur um TFLOP.
Und dass ein Chip wie der G80 so lange das Maß aller Dinge ist, hat es auch noch nicht gegeben. Und darum ging es ja. Die User wollten schon im Jahr 2007 einen Chip der mindestens doppelt so schnell wie ein G80 ist. Dem war nicht so. Dass jetzt bald ein richtiger Brummer nachkommt ist längst überfällig.
Aber es wird immer trotzdem immer schwerer werden, die Leistung oder Transistorenzahlen von Generation zu Generation zu verdoppeln, das liegt einfach in der Natur der Sache. Unerreichbar ist es natürlich nicht, aber das ist ja auch der Flug zum Mond nicht, aber halt sauteuer.

Hvoralek
2008-01-21, 18:24:07
Und dass ein Chip wie der G80 so lange das Maß aller Dinge ist, hat es auch noch nicht gegeben. Und darum ging es ja.Nach dem Erscheinen von R300 gab es zwei Jahre lang nichts großartig Schnelleres.

robbitop
2008-01-21, 19:42:35
Das lag auch soziemlich am NV3x Patzer. Mit R6xx wiederholt sich die Geschichte in abgeschwächter Form. Nur dass ATI in Zukunft auf Crossfire im HighEnd setzt und damit so schnell nicht zurückkommt. IMO.

nomadhunter
2008-01-21, 22:20:52
Außer sie bekommen endlich eine ordentliche Multi-Chip-Technologie hin (irgendwas mit geteiltem Speicherinterface oder so, ohne die zahlreichen Nachteile von SLI/CF; eben das, was R700 werden sollte). Aber das erfordert natürlich eine Menge Entwicklungsarbeit und -ausgaben, die AMD momentan offensichtlich sparen will/muss. Intel fährt die Multi-Die-Strategie ja seit einer Zeit erfolgreich (Pentium D, Core 2 Quad).

robbitop
2008-01-21, 22:33:38
Und die sinnfreien Vergleiche CPU-GPU fangen wieder an.
Das ist bei GPUs nicht so einfach. Das wurde nun aber schon 1000x durchgekaut.

Ailuros
2008-01-22, 05:36:31
Es geht ja auch darum, was effektiv an fps dabei rumkommt und nicht nur um TFLOP.

Deshalb sagte ich ja dass FLOP nicht immer = FLOP ist. Arithmetische Effizienz ist ja schoen und gut, aber es geht dann auch nicht nur mehr um sterile fps, sondern X fps bei Y Bildqualitaet.

Und dass ein Chip wie der G80 so lange das Maß aller Dinge ist, hat es auch noch nicht gegeben. Und darum ging es ja. Die User wollten schon im Jahr 2007 einen Chip der mindestens doppelt so schnell wie ein G80 ist. Dem war nicht so. Dass jetzt bald ein richtiger Brummer nachkommt ist längst überfällig.

Dann hast Du vielleicht den GPU Markt nicht allzu stark in der Vergangenheit verfolgt.


Aber es wird immer trotzdem immer schwerer werden, die Leistung oder Transistorenzahlen von Generation zu Generation zu verdoppeln, das liegt einfach in der Natur der Sache. Unerreichbar ist es natürlich nicht, aber das ist ja auch der Flug zum Mond nicht, aber halt sauteuer.

Ob man jetzt "clusters" oder "cores" skaliert macht ja einen gigantischen Unterschied oder? Je nachdem wie stark Intel an fixed function-HW gespart hat, desto beschissener wird die Leistung des Resultats sein fuer Bereiche wo CPUs normalerweise schwaecheln.

Außer sie bekommen endlich eine ordentliche Multi-Chip-Technologie hin (irgendwas mit geteiltem Speicherinterface oder so, ohne die zahlreichen Nachteile von SLI/CF; eben das, was R700 werden sollte). Aber das erfordert natürlich eine Menge Entwicklungsarbeit und -ausgaben, die AMD momentan offensichtlich sparen will/muss. Intel fährt die Multi-Die-Strategie ja seit einer Zeit erfolgreich (Pentium D, Core 2 Quad).

Siehe oben; wenn Du's schon so verdammt vereinfachen willst und Dich nur auf die mathematischen Einheiten konzentrierst, dann skaliert man im einen Fall clusters und im anderen cores. Wenn Du auf einer G80 nur die ALUs abschachtelst, dann hast Du auch praktisch schon 8 "cores".

ATI's multi-chip Zeug muss sich erst als effizienter beweisen, und dabei das Speicherproblem zu loesen ist zwar langfristig ein Anteil der Loesung; letztenendlich muss es AMD schaffen dass man mit 2*die-Groesse fuer dual-chip zumindest gleich so viel Leistung packt wie auf einem einzigen die bei gleicher Groesse. Nebenbei ist Larabee ein single-die, ergo ist AMD's Masche erstmal nicht vergleichbar, nur wohl eher das zukuenftige Fusion, welches aber der Ironie zuliebe irgendwo zum gleichen Zeitpunkt antanzen soll wie Larabee.

nomadhunter
2008-01-22, 14:27:49
ATI's multi-chip Zeug muss sich erst als effizienter beweisen, und dabei das Speicherproblem zu loesen ist zwar langfristig ein Anteil der Loesung; letztenendlich muss es AMD schaffen dass man mit 2*die-Groesse fuer dual-chip zumindest gleich so viel Leistung packt wie auf einem einzigen die bei gleicher Groesse.
Eben nicht. Dann wäre Multi-Die relativ sinnlos. Der große Vorteil ist doch, dass 2 kleine Dice bei derart großen Transistorzahlen billiger als ein großes Die ist. Dann müssen die zwei kleinen Dice zusammen auch nicht (ganz) die Performance des großen Die bringen, sie sind ja (etwas) billiger. Deswegen ist der Vergleich mit CPUs auch absolut sinnvoll. Wenn ein großes Die billiger als zwei kleine Dice wäre, wieso fährt Intel dann auch mit der neuen 45nm-Architektur noch die Strategie, die Quad-Cores aus zwei Dual-Core-Dice zusammenzusetzen? (Auch bei einer CPU ist ein großes Die normalerweise schneller als zwei kleine Dice!) Und da reden wir von gerade mal 2x107mm². Mit GT200 werden wir eher bei 600mm² sein. Wenn ATI die gleiche Leistung z.B. mit 2x320mm² schaffen würde, wäre das vermutlich billiger. Auch das ist natürlich nicht einfach, aber mit einem geteilten Speicherinterface und einer gescheiten Verbindung zwischen den beiden Chips (dazu sollten die Chips aber direkt aneinander auf einem Package sitzen und nicht 5cm voneinader entfernt) wäre man bestimmt schon einen deutlichen Schritt weiter als heute mit den unausgegorenen SLI-/CF-Lösungen.

Dass eine CPU nicht das Gleiche wie eine CPU ist, ist mir schon klar. Das heißt aber noch lange nicht, dass eine Multi-Die-Lösung mit GPUs unmöglich/sinnlos ist. Ebenso weiß ich, dass jede heutige GPU quasi schon Multi-Core ist. Ich rede aber nicht von Multi-Core sondern von Multi-Die.

Ailuros
2008-01-23, 06:06:42
Eben nicht. Dann wäre Multi-Die relativ sinnlos. Der große Vorteil ist doch, dass 2 kleine Dice bei derart großen Transistorzahlen billiger als ein großes Die ist.

Sagt wer? Das Ganze ist sowieso Architektur-bedingt, aber wenn ich im einen Fall vergleichbare Leistung mit 2*<400mm^2 cores und im anderen mit <600mm^2 auf dem gleichen Herstellungsprozess erreichen kann, wurde genau was eingespart? Und da es nicht total aus der Luft gegriffen ist, erzaehl mir warum R700 genau storniert wurde.

Dann müssen die zwei kleinen Dice zusammen auch nicht (ganz) die Performance des großen Die bringen, sie sind ja (etwas) billiger. Deswegen ist der Vergleich mit CPUs auch absolut sinnvoll.

Eine CPU ist eine andere Geschichte.

Wenn ein großes Die billiger als zwei kleine Dice wäre, wieso fährt Intel dann auch mit der neuen 45nm-Architektur noch die Strategie, die Quad-Cores aus zwei Dual-Core-Dice zusammenzusetzen? (Auch bei einer CPU ist ein großes Die normalerweise schneller als zwei kleine Dice!) Und da reden wir von gerade mal 2x107mm².

Siehe oben; es ist total idiotisch CPUs mit GPUs zu vergleichen. CPUs skalieren erstmal cores bis jetzt um effektiv multi-threading zu erreichen (ganz vereinfacht). GPUs waren schon seit ihrer Geburt auf multi-threading ausgelegt.

Mit GT200 werden wir eher bei 600mm² sein. Wenn ATI die gleiche Leistung z.B. mit 2x320mm² schaffen würde, wäre das vermutlich billiger. Auch das ist natürlich nicht einfach, aber mit einem geteilten Speicherinterface und einer gescheiten Verbindung zwischen den beiden Chips (dazu sollten die Chips aber direkt aneinander auf einem Package sitzen und nicht 5cm voneinader entfernt) wäre man bestimmt schon einen deutlichen Schritt weiter als heute mit den unausgegorenen SLI-/CF-Lösungen.

Siehe oben. R7x0 war stets multi-chip.

Dass eine CPU nicht das Gleiche wie eine CPU ist, ist mir schon klar. Das heißt aber noch lange nicht, dass eine Multi-Die-Lösung mit GPUs unmöglich/sinnlos ist. Ebenso weiß ich, dass jede heutige GPU quasi schon Multi-Core ist. Ich rede aber nicht von Multi-Core sondern von Multi-Die.

Dass Du das alles einsiehst ist ja schoen und gut, aber AMD's R680 und Nachfolger sind multi-chip Loesungen und Larabee dann multi-core auf einem einzelnen die. Larabee muss bei der core-Skalierung nicht alles duplizieren/multiplizieren.

nomadhunter
2008-01-23, 13:31:02
Sagt wer? Das Ganze ist sowieso Architektur-bedingt, aber wenn ich im einen Fall vergleichbare Leistung mit 2*<400mm^2 cores und im anderen mit <600mm^2 auf dem gleichen Herstellungsprozess erreichen kann, wurde genau was eingespart? Und da es nicht total aus der Luft gegriffen ist, erzaehl mir warum R700 genau storniert wurde.
2*400mm² bräuchte man vielleicht mit SLI/CF aber mit einer "ordentlichen Multi-Die-Architektur" sollte man mit wesentlich weniger auskommen, um die Leistung eines einzelnen 600mm²-Die zu erreichen. Warum R700 storniert worden ist, kann verschiedene Gründe haben. Vielleicht hat AMD einfach kein Geld für die Entwicklung oder die Pläne waren zu ambitioniert und wurden erstmal in die Zukunft verschoben. Das heißt nicht, dass eine Multi-Die-Lösung grundsätzlich schlecht/sinnlos ist.

Dass Du das alles einsiehst ist ja schoen und gut, aber AMD's R680 und Nachfolger sind multi-chip Loesungen und Larabee dann multi-core auf einem einzelnen die. Larabee muss bei der core-Skalierung nicht alles duplizieren/multiplizieren.
Was willst du mir damit sagen?

EDIT:
Siehe oben. R7x0 war stets multi-chip.
Ich erinnere mich an zahlreiche Quellen, die von 2 oder mehr Chips auf einem Package gesprochen haben. Kann natürlich sein, dass das nur falsche Gerüchte waren.

Ailuros
2008-01-24, 05:54:54
2*400mm² bräuchte man vielleicht mit SLI/CF aber mit einer "ordentlichen Multi-Die-Architektur" sollte man mit wesentlich weniger auskommen, um die Leistung eines einzelnen 600mm²-Die zu erreichen.

Wenn Du schon "ordentlich" in einen Satz schiebst, dann solltest vielleicht auch bedenken dass diese "Ordentlichkeit" auch eine Menge zusaetzliche Logik vorraussetzt.

Warum R700 storniert worden ist, kann verschiedene Gründe haben. Vielleicht hat AMD einfach kein Geld für die Entwicklung oder die Pläne waren zu ambitioniert und wurden erstmal in die Zukunft verschoben. Das heißt nicht, dass eine Multi-Die-Lösung grundsätzlich schlecht/sinnlos ist.

Sie ist nicht sinnvoll auf dem gleichen Herstellungsprozess wie der single chip. Eine Investition X macht nur Sinn wenn sie kein groesseres Loch in die Kasse bohren wuerde. Waere NV's kommender chip nicht so stark wie es AMD schon fuehlen kann, haette es vielleicht noch Sinn gemacht den originalen Plan einzuhalten. So wie es momentan aussieht rennt keiner freiwillig ins Maul des Loewen.


Was willst du mir damit sagen?

Dass multi-chip Loesungen immer noch den Nachteil an Redundanz von teilweise doppelten Transistoren hat, die man bei einem single die einsparen kann.

Ich erinnere mich an zahlreiche Quellen, die von 2 oder mehr Chips auf einem Package gesprochen haben. Kann natürlich sein, dass das nur falsche Gerüchte waren.

Dann schau Dir mal die alten slides etwas genauer an; und ja es waren 2 chips aber nie mehr.

Gast
2008-01-24, 12:07:30
Intel-Graka anyone?

Ailuros
2008-01-24, 19:22:07
Intel-Graka anyone?

Wir haben genug Zeit darueber zu lachen.

Gmax
2008-02-27, 01:01:57
Das ganze in klein:

Real Time Ray-Tracing in your Pocket (http://blogs.intel.com/research/2008/02/real_time_raytracing_in_your_p.php)

Gosh
2008-02-27, 04:23:15
Für den Markt wäre es gut, wenn Intel ne Karte bringt,die 300 kostet und die Highend Karten der Konkurenz deutlich schlägt.
Wenn sie gleichauf ist,sollte sie durch ein Feature deutlich heraus stechen. Geniales AA/AF,Stromverbrauch o.ä

Hauptsache Druck machen

Ailuros
2008-02-27, 06:17:53
Das ganze in klein:

Real Time Ray-Tracing in your Pocket (http://blogs.intel.com/research/2008/02/real_time_raytracing_in_your_p.php)

UMPCs = SGX

Gmax
2008-03-09, 23:07:54
Dr. Kirk obviously has as different opinion on the future of ray tracing that Intel's researchers do - and that is to be expected. NVIDIA (and AMD/ATI for that matter) have a monetary requirement for reasonable research in the area of computer graphics, and thus their decisions are going to be based less on the "pie-in-the-sky" theory of graphics and more on the real-world applications of any such technology can accomplish.

http://www.pcper.com/article.php?aid=530

Gmax
2008-03-11, 22:21:20
Raytracing and 10x Performance Improvement by 2010

According to some preliminary data, the first Larrabee version will have from 16 to 24 cores, each with a 32KB L1 cache. The shared L2 cache will be about 4-6MB big. Individual IA cores will be connected via ring bus like the one used in Cell processors. The first Larrabee modifications will be manufactured with 45nm technological process, and the working frequencies of these processors are expected to be in the 1.7-2.5GHz interval.

http://www.xbitlabs.com/news/video/display/20080305171043_Intel_to_Be_More_Active_in_the_Graphics_Market.html

Anarchy-HWLUXX
2008-03-11, 23:02:57
Raytracing and 10x Performance Improvement by 2010



http://www.xbitlabs.com/news/video/display/20080305171043_Intel_to_Be_More_Active_in_the_Graphics_Market.html
Das 10* ist auf IGPs bezogen, der G45 ist mit 1.7* G35 performance immernoch grottig lahm ...

Raytracing ist auf absehbare Zeit immernoch nen "Pie in the sky"

X.Perry_Mental
2008-03-18, 09:10:35
Fudzilla-News:

Intel sees Larrabee as competition to Nvidia and ATI (http://www.fudzilla.com/index.php?option=com_content&task=view&id=6332&Itemid=1)

Intel confirms Larrabee samples in Q4 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=6330&Itemid=1)

Larrabee is multi-capable computational device (http://www.fudzilla.com/index.php?option=com_content&task=view&id=6335&Itemid=1)

Larrabee supports OpenGL and DirectX
(http://www.fudzilla.com/index.php?option=com_content&task=view&id=6329&Itemid=1)

Ailuros
2008-03-18, 12:43:55
Selbst Fudo klingt nicht besonders ueberzeugt in seinen newsblurbs LOL

Gmax
2008-04-02, 15:43:56
"heutige Grafikchip-Architekturen gehen ihrem Ende zu" (http://www.hartware.de/news_44480.html)

Sorkalm
2008-04-02, 17:10:35
Viele Details gab Intel auf dem IDF zwar noch nicht bekannt, Pat Gelsinger bestätigte aber im Interview, dass die ersten Larrabee-Produkte als Grafikkarten und nicht als integrierte Grafikkerne (in Nehalem) kommen werden. Erste Prototypen sollen noch in diesem Jahr erscheinen.

Diese will Intel allerdings nicht selbst fertigen, sondern die Produktion anderen Firmen überlassen, wie es auch AMD und Nvidia machen. Die Karten mit Larrabee-1-Chips seien zunächst für Gaming-PCs und Workstation gedacht, führte Gelsinger weiter aus.
http://www.heise.de/newsticker/IDF-Grafikkarten-mit-Intel-Chips-ruecken-naeher--/meldung/105919

Coda
2008-04-03, 03:33:55
Viel interessanter ist doch:

Diese will Intel allerdings nicht selbst fertigen


Das hätte ich nicht erwartet.

Gast
2008-04-03, 08:24:27
Jo, relativiert auch etwas, wie wenig Intel mit dem Design erreichen muß und sowieso die halbe Miete über ihre Fertigung reinholt.

HOT
2008-04-05, 11:00:07
Einfach mal ne Meinung: Intel verzettelt sich. Alle Verlautbarungen und Hinweise sprechen momentan dafür, dass Intel die 3D-Grafik mit in die CPU integrieren will (z.B. der Raytraicing Schwachsinn). Verschiedene Aussagen und angekündigte Techniken versprechen das. Naheliegender Hintergrund zur ganzen Geschichte z.Z.: Larabree ist ein riesiger Schuss in den Ofen. Es funktioniert einfach nicht wie ein heutiger komplexer IMR, deshalb auch dieses ganze dumme Gelaber, dass sich die Grafik derart stark verändern wird. Larabrees Problem: Larabree braucht eine furchtbar komplexe Software um mit den echten Grafikgerätschaften konkurrieren zu können. Larabree ist mehr wie einem massiv-parallel-CPU designt, weniger wie ein IMR. Und ich bin felsenfest davon überzeugt, dass Intel die Softwareseite als Schnittstelle zu DirectX und OpenGL nicht zufriedenstellend hinbekommen wird. Es ist für Intel natürlich einfacher, einen neuen Grafikstandard zu etablieren, aber das wird am Markt selbst scheitern...
Intel versuchts halt mit massiv-parallel Architekturen innerhalb der eigenen CPUs nach Westmare und Intel versucht neue Standards zu etablieren (VMX z.B.). Es stinkt tatsächlich förmlich danach, dass Intel NV und ATI einfach nichts entgegensetzen kann und es wiedermal über die eigene Marktdominanz versucht.
Zudem kommt auchnoch die Tendenz hinzu, dass sich die Spielphysik und viele professionelle Anwendungen, die Vektorrechnung benötigen, anschickt, auf die Grafikkarte auszuwandern. Intel wollte das mit dem Kauf der Physikschmieden verhindern. Jedoch kaufte NV PhysX, für Intel muss das der SuperGAU sein... CUDA ist eine Schnittstelle, die Intel in der Hinsicht wirklich richtig gefährlich werden kann. Intels Problem ist, dass Spiele, aber auch professionelle Anwendungen, irgendwann unabhängiger von der CPU und immer abhängiger von GPUs werden könnten. Für Intel ist das Katastrophal, weil man dem einfach nichts entgegensetzen kann.
Vielleicht steht Intel doch mehr mit dem Rücken an der Wand, eben wegen den GPUs, als man sich das so vorstellt. Was soll man mit vielen Milliarden, wenn man sie nicht einsetzen kann. Aufkäufe von passenden Unternehmen auf dem internationalen Markt sind nahezu unmöglich für Intel und das KnowHow kann man mit Geld auch nicht kaufen, wenn die, die es haben, so sehr daran interessiert sind es nicht zu verkaufen. Um was eigenes zu entwickeln reicht Geld aber leider einfach nicht, das braucht Zeit - ein Gut, das Intel angesichts der rasant wachsenden GPUs überhaupt nicht hat. Davon mal abgesehen wirds auch eng mit patentierten Techniken und Personal. Das gammelt alles bei NV und ATI rum. ATI könnte für AMD tatsächlich das nackte Überleben bedeutet haben, wenn man mal ein paar Jährchen weiterdenkt.

Bitte nicht gleich losschreien, das ist nur als Anregung gedacht, um darüber Nachzudenken.

Gast
2008-04-06, 01:49:48
..(entschuldige dass ich nicht FullQuote;) ).

Ich weiß nicht, ob eswirklich so dramatisch ist. Ich denke intel könnte auch eine rein Hardware bassierende GPU bauen. Doch das wäre nicht so sehr zukunftsträchtig. Man muss nur die momentane Entwicklung beobachten.

Erst war das einzige was zählte die Poly/s Leistung. Damit worb jeder um Kunden. Momentan weiss das kaum noch jemand. Die matchematische Leistung ist dafür auch kein Indiz mehr.
Dann war ein wenig die Shaderversion bzw. DirectX version das Kaufargument. Solange Pixelshader 1. 1.3 1.4 (man mag sich nur an die lustige Skala von ATI erinnern die 1.4 weit vor 1.3 welches ganz nah an den vorherigen version war, darstellte). Bei Shadermodel 3 gab es schon nichts was so wirklich ein Feature war. Selbst ein komplett neuer Shader (Geometry) ist ein riesen Hype und nichts, ausser ein paar Haaren, nutzen das. Also weder mit Geschwindigkeitsangaben, noch irgendwelchen Versionsnummern noch Features kann man sich im Grafikmarkt absetzen.

Jetzt hat aber sowohl ATI als auch NVidia angefangen general computing einzuführen. Denn dank des superschnellen RAMs und der effizienten Nutzung der matchematischen Einheiten, kann man ein paar Blurfilter schneller auf Filme drauflegen als es eine normale CPU macht und alle schreien "WOW". Dabei, gerade wenn man CUDA benutzt, erkennt man, dass das auch nur ein hype ist. Darauf kann man nichts geniales schnelles Machen. Nur speziell rausgepickte Aufgaben. Aufgaben die rein streaming aufwendig sind, keine Logischen.

Wenn man sich mal so ein Review liest, denkt man "wow, 128 Prozessoren, 128 Shader, krass", wenn man dann aber an Cuda denkt und sich die Architektur ansieht auf z.B.: http://www.beyond3d.com/content/reviews/1/8 , sieht man Ploetzlich, dass das 8 CPUs a SIMD16 sind. Deswegen ist feingranulariges Branchen so furchtbar schlecht.

Das hat intel sicher auch gesehen und gedacht, "Hey, die wollen jetzt Integer und Double können, damit sie wissenschaftliche Berechnungen unterstützen, das können wir auch" und stopfen dann auch beim Larrabee ein paar sehr simple CPUs, mit massig registern a SIMD?? rein.


Natürlich will jede Firma ihre Hardware als einzigartiges Wunderwerk anpreisen. Intel geht den Frontalen weg, wie sonst bei CPUs auch, und sagt wie die Hardware ist, zumindestens aus Programmierer sicht.
NVidia wird vermutlich weiter von allen abgeschirmt ihre Sachen implementieren und es den Leuten verkaufen wie die Leute es lesen wollen.
Will man 2Mrd Poly/s ? dann kann die GPU das. Will man Shadermodel 15? Kann die GPU natürlich auch. Will man 256 Prozesorren? Schwubs ist jeder SIMD strang eine Cpu.

Deswegen denk ich nicht, dass Intel an der Wand steht. Sie stürzen sich mitten in den Markt, voller überzeugung sie können das. Sie könnten genau so gut ihren X3100 10mal verbreitern und hätten die hardwired Lösung. Aber dann muss man nur mal ein Paper lesen wie z.B. http://citeseer.ist.psu.edu/olano97triangle.html in dem schon vor 10Jahren gesagt wurde, dass sogar die Onboard GPUs mit software und massig breiten SIMD Rasterisieren und dann weiss man, Larrabee ist nichts anderes und perfekt dafür.


auch nur eine Anregung :)

Exxtreme
2008-04-17, 15:31:50
Nvidia bringt neue PPT-Präsentationen, die diesmal gegen Intel schiessen. :D :D :D

http://www.theinquirer.net/gb/inquirer/news/2008/04/08/nvidia-spreads-anti-intel

"Not just games: Second Life does not recommend Intel Graphics" X-D


Ich liebe die Teile. :D

deekey777
2008-04-24, 00:39:58
Larrabee's Rasterisation Focus Confirmed (http://www.beyond3d.com/content/news/631)
:)

"I've been trying to keep quiet, but I need to get one thing very clear. Larrabee is going to render DirectX and OpenGL games through rasterisation, not through raytracing.

I'm not sure how the message got so muddled. I think in our quest to just keep our heads down and get on with it, we've possibly been a bit too quiet. So some comments about exciting new rendering tech got misinterpreted as our one and only plan. [...] That has been the goal for the Larrabee team from day one, and it continues to be the primary focus of the hardware and software teams. [...]

There's no doubt Larrabee is going to be the world's most awesome raytracer. It's going to be the world's most awesome chip at a lot of heavy computing tasks - that's the joy of total programmability combined with serious number-crunching power. But that is cool stuff for those that want to play with wacky tech. We're not assuming everybody in the world will do this, we're not forcing anyone to do so, and we certainly can't just do it behind their backs and expect things to work - that would be absurd."

Coda
2008-04-24, 14:52:44
Wer hätt's gedacht ;)

deekey777
2008-04-24, 23:21:39
Larrabee's Rasterisation Focus Confirmed (http://www.beyond3d.com/content/news/631)
:)
Hier der entsprechende Thread im B3DF: http://forum.beyond3d.com/showthread.php?t=47780
Und da ist diese Aussage von Nick (http://forum.beyond3d.com/showpost.php?p=1152221&postcount=22) (das ist der Verantwortliche für SwiftShader)
The key here is x86. Install any compiler and you're good to go to develop for Larrabee. You can even reuse a lot of existing code. By first selling Larrabee as a rasterizer they can get the hardware into many hands in little time. Unleashing all other applications is then simply a matter of time. All it takes is a few tech demos from Intel to get developers excited and inspired. With a bit of abstraction the code written for Larrabee can even run on CPUs (ranging from a 256 GFLOP Sandy Bridge to ten year old CPUs if necessary), making it a lot more attractive than developing for CUDA/CTM.

...
Intel has decades of experience making advanced CPUs. As far as I can tell Larrabee is just a bunch of in-order x86 cores with some SIMD extensions and fixed-function texture samplers. I haven't found anything about Larrabee that would imply that these cores can't run pretty much everything your CPU runs. It can probably run a rudimentary O.S. kernel.

Die Aussage finde ich ziemlich interessant und zwar abseits von 3D-Grafik in Richtung GPGPU und mehr. Man könnte zB mit relativ wenig Aufwand einen H.264-Encoder für Larrabee entwickeln, der wiederum von einem H.264-Encoder für CPUs abstammte (wie x.264)?

reunion
2008-05-12, 13:06:24
VR-Zone will eine Roadmap gesehen haben, in welcher der Larabee-Nachfolger 2010-2011 bereits in 32nm kommen soll: http://www.vr-zone.com/articles/Quad_Larrabee_%3A_Intel%27s_Answer_To_Nvidia%27s_Domination%3F/5767.html

robbitop
2008-05-12, 15:25:18
Wenig überraschend. Auch Intel wird, sofern sie in's GPU-Geschäft wollen, 12-18 Monatszyklen nutzen.

reunion
2008-05-12, 15:32:26
Wenig überraschend. Auch Intel wird, sofern sie in's GPU-Geschäft wollen, 12-18 Monatszyklen nutzen.

Natürlich. Ich wollte damit auch nicht zum Ausdruck bringen das mich ein Nachfolger überrascht, sondern das Intel hier in punkto Fertigungstechnologie wohl deutliche Vorteile haben wird. Denn ich wage zu bezweifeln, dass TSMC in 2010 32nm High-End-GPUs produzieren wird können, geschweige denn das dieser Prozess dann mit dem von Intel mithalten kann. Bis jetzt ging ich eher davon aus, dass man die High-End-Prozesse den CPUs vorenthält, da hier deutlich mehr Maren zu holen sind. Wenn Intel in den aktuellsten Prozessen allerdings auch GPUs fertigen will, dürfte das für AMD und nV nicht ganz lustig werden.

Nakai
2008-05-12, 15:34:01
Natürlich. Ich wollte damit auch nicht zum Ausdruck bringen das mich ein Nachfolger überrascht, sondern das Intel hier in punkto Fertigungstechnologie wohl deutliche Vorteile haben wird. Denn ich wage zu bezweifeln, dass TSMC in 2010 32nm High-End-GPUs produzieren wird können, geschweige denn dieser Prozess mit dem von Intel mithalten kann.

Könnte auch der Grund sein, wieso man auf sehr viele X86er-Cores setzt.
Ich denke die Intel-Ingenieure haben wenig Erfahrung bei der Herstellung von normalen GPUs.


mfg Nakai

robbitop
2008-05-12, 15:37:20
Natürlich. Ich wollte damit auch nicht zum Ausdruck bringen das mich ein Nachfolger überrascht, sondern das Intel hier in punkto Fertigungstechnologie wohl deutliche Vorteile haben wird. Denn ich wage zu bezweifeln, dass TSMC in 2010 32nm High-End-GPUs produzieren wird können, geschweige denn dieser Prozess dann mit dem von Intel mithalten kann. Bis jetzt ging ich eher davon aus, dass Intel die High-End-Prozesse den CPUs vorenthält, da hier deutlich mehr Maren zu holen sind. Wenn Intel in den aktuellsten prozessen allerdings auch GPus fertigen will, dürfte das für AMD und nV nicht ganz lustig werden.
Ich meine mal gelesen zu haben, dass Intel Larabee nicht selbst fertigen will.
Das ergibt auch Sinn, da man pro mm^2 im Durchschnitt deutlich weniger Marge bei GPUs hat als bei CPUs.

Intels Fertigungstechnologie ist in der Tat um 1-2 Jahre der Konkurrenz voraus. 2011 traue ich TSMC allerdings auch 32 nm zu. Der 45 nm Prozess für High-Risk kommt dieses Jahr. In 2-3 Jahren sollte da der nächste in Reichweite sein.

reunion
2008-05-12, 15:49:53
Könnte auch der Grund sein, wieso man auf sehr viele X86er-Cores setzt.
Ich denke die Intel-Ingenieure haben wenig Erfahrung bei der Herstellung von normalen GPUs.


mfg Nakai

Ich würde Intel nicht unterschätzen. Man konnte sehr viele Ingenieure gewinnen, speziell von ehemals ATi soll eine ganze Armada abgewandert sein. Geld ist im Überfluss vorhanden, die Fertigungstechnologie ist sämtlichen Konkurrenten überlegen. Damit kann man auch viel ausgleichen.

Ich meine mal gelesen zu haben, dass Intel Larabee nicht selbst fertigen will.

Das glaube ich erst wenn ich es sehe. Intel fertigt bis dato ALLES selbst.


Das ergibt auch Sinn, da man pro mm^2 im Durchschnitt deutlich weniger Marge bei GPUs hat als bei CPUs.

Wer derart fortschrittliche und sämtlichen Konkurrenten überlegene Prozesse zur Verfügung hat wäre schon blöd wenn er diese nicht nutzen würde IMHO.

Gast
2008-05-13, 22:09:38
1.) Ich denke das Problem von Intel ist, dass sie gesehen haben, dass sie mit den aktuellen GPUs nicht mitkommen. Intel hat gemeint, dass sie 1TFlop bieten können mit 45nm, aber Nvidia und ATI können das jetzt schon mit 55 bzw. 65nm und die kleinen 500GFlop Modelle bekommt man schon um die 100 Euro (3850 und Co.)

2.) Weiters wage ich zu bezweifeln, dass die errechneten GFlops von Intel auch wirklich stimmen. Im wesentlichen besteht Larrabee aus 24 Kernen, die jeweils 4 Threads (ähnlich wie Hyperthreading) ausführen können, dafür aber um ein Stück langsamer sein werden (weil sonst würden sie das gleich als CPU verkaufen). Wir können also vom Niveau von 4 kleinen Quad Core CPUs ausgehen, wenn überhaupt. Eine Grafikkarte hat jedoch ein Vielfaches an Leistung, wenn sich die auch wirklich nutzen lässt.
Ich kann hier nur auf den Vergleich verweisen, den Intel mit den kommenden CPUs gemacht hat: http://pics.computerbase.de/1/8/2/5/0/4.png
Ein CPU Kern wird jedoch nie im Leben 28GFlops/s durchführen können. Aus eigener Erfahrung weiß ich, dass primitive Zugriffe in der Form von Laden, verunden, Speichern ca. 1 Milliarde Operationen pro Sekunde erlauben pro Kern (bei einem Core 2 Duo 3GHz). Intel wird mit ein paar x86 Kernen nie auf das Niveau einer aktuellen CPU kommen, es sei denn sie verbauen wirklich kleine Kerne wie zu Pentium Zeiten. Da wären locker 400 Kerne möglich und wenn man die mit einem aktuellen Prozess fertigt, dann wären die auch gar nicht so langsam mit ca. 1GHz.

3.)

AnarchX
2008-06-02, 10:05:16
Larrabee: A Many-Core x86 Architecture for Visual Computing
This paper introduces the Larrabee many-core visual computing architecture (a new software rendering pipeline implementation), a many-core programming model, and performance analysis for several applications. Larrabee uses multiple in-order x86 CPU cores that are augmented by a wide vector processor unit, as well as fixed-function co-processors. This provides dramatically higher performance per watt and per unit of area than out-of-order CPUs on highly parallel workloads and greatly increases the flexibility and programmability of the architecture as compared to standard GPUs.
http://www.siggraph.org/s2008/attendees/program/item/?type=papers&id=34

Also in gut 2 Monaten gibt es einige Infos.

Coda
2008-06-02, 17:18:44
Weiters wage ich zu bezweifeln, dass die errechneten GFlops von Intel auch wirklich stimmen. Im wesentlichen besteht Larrabee aus 24 Kernen, die jeweils 4 Threads (ähnlich wie Hyperthreading) ausführen können, dafür aber um ein Stück langsamer sein werden (weil sonst würden sie das gleich als CPU verkaufen). Wir können also vom Niveau von 4 kleinen Quad Core CPUs ausgehen, wenn überhaupt. Eine Grafikkarte hat jedoch ein Vielfaches an Leistung, wenn sich die auch wirklich nutzen lässt.
Larrabee rechnet auf Vec16 SIMD. Das ist im Prinzip auch nichts anderes als das was NVIDIA mit G8x macht. Die angegeben FLOPs sind erreichbar, es kommt da vor allem auf das Scheduling an.

4 Core Quads ist für diesen speziellen Anwendungsfall also viel zu wenig als Vergleich. Vor allem kannst du das auch nicht mit einer CPU vergleichen weil dort die komplette fixed function wie Rasterizer/ROPs/TMUs fehlt.

Intel weiß schon recht genau was sie machen.

Gast
2008-06-02, 22:55:27
1.) Ich denke das Problem von Intel ist, dass sie gesehen haben, dass sie mit den aktuellen GPUs nicht mitkommen. Intel hat gemeint, dass sie 1TFlop bieten können mit 45nm, aber Nvidia und ATI können das jetzt schon mit 55 bzw. 65nm und die kleinen 500GFlop Modelle bekommt man schon um die 100 Euro (3850 und Co.)

2.) Weiters wage ich zu bezweifeln, dass die errechneten GFlops von Intel auch wirklich stimmen. Im wesentlichen besteht Larrabee aus 24 Kernen, die jeweils 4 Threads (ähnlich wie Hyperthreading) ausführen können, dafür aber um ein Stück langsamer sein werden (weil sonst würden sie das gleich als CPU verkaufen). Wir können also vom Niveau von 4 kleinen Quad Core CPUs ausgehen, wenn überhaupt. Eine Grafikkarte hat jedoch ein Vielfaches an Leistung, wenn sich die auch wirklich nutzen lässt.
Ich kann hier nur auf den Vergleich verweisen, den Intel mit den kommenden CPUs gemacht hat: http://pics.computerbase.de/1/8/2/5/0/4.png
Ein CPU Kern wird jedoch nie im Leben 28GFlops/s durchführen können. Aus eigener Erfahrung weiß ich, dass primitive Zugriffe in der Form von Laden, verunden, Speichern ca. 1 Milliarde Operationen pro Sekunde erlauben pro Kern (bei einem Core 2 Duo 3GHz). Intel wird mit ein paar x86 Kernen nie auf das Niveau einer aktuellen CPU kommen, es sei denn sie verbauen wirklich kleine Kerne wie zu Pentium Zeiten. Da wären locker 400 Kerne möglich und wenn man die mit einem aktuellen Prozess fertigt, dann wären die auch gar nicht so langsam mit ca. 1GHz.

3.)

Deine ganzen Aussagen sind hochspekulativ und liegen somit möglicherweise vollkommen daneben. Vielleicht solltest du dich eher auf konstruktive, qualitative Analysen und Aussagen zur Architektur kaprizieren(soweit das im Moment möglich ist), denn hier stellt Intel's Ansatz eine sehr interessante Alternative zu den GPUs von ATI/AMD und NVidia dar. Die Fragestellung ob und wie Larabee vorteilhaft als GPGPU eingesetzt werden kann, ist vermutlich weitaus interessanter als der direkte GFlops-Schwanzlängenvergleich mit aktuellen GPUs von NV/ATI.

Coda
2008-06-02, 23:03:17
Naja ob man das noch "GPGPU" nennen kann bei Larrabee? Im Prinzip sollte man ja vollwertiges x86-SMP ohne großes Hickhack wie bei Cell oder den GPUs haben auf dem Ding.

Darauf sollten also bisherige parallalisierte Anwendungen ohne Probleme laufen. Wie das mit dem Betriebssystem usw. aussieht auf dem Ding ist aber noch eine andere Frage. Es ist ja eine Steckkarte. Womöglich wird man ein komplettes Linux parallel darauf laufen lassen können.

Interessante Zeiten die da auf uns zukommen aus der Geek-Perspektive ;)

Gast
2008-06-02, 23:56:48
4 Core Quads ist für diesen speziellen Anwendungsfall also viel zu wenig als Vergleich. Vor allem kannst du das auch nicht mit einer CPU vergleichen weil dort die komplette fixed function wie Rasterizer/ROPs/TMUs fehlt.Weiss auch niemand welche Fixed Functions im Larrabee sind, also alles Spekulation.

Gast
2008-06-03, 10:14:24
Auch wenn es komisch klingt,

software rasterizer in hardware?

Anarchy-HWLUXX
2008-06-03, 10:27:00
http://www.fudzilla.com/index.php?option=com_content&task=view&id=7651&Itemid=1

Larrabee mit 300W TDP ?

AnarchX
2008-06-03, 10:28:18
Naja, ob die TDP einer Karte, die für 2009 geplant ist so unumstößlich ist? ;)

Gast
2008-06-05, 01:32:03
software rasterizer in hardware?Quelle?

w0mbat
2008-06-06, 21:58:11
Larrabee: A Many-Core x86 Architecture for Visual Computing
This paper introduces the Larrabee a many-core hardware architecture, a new software rendering pipeline, a many-core programming model, and performance analysis for several applications. Larrabee uses multiple in-order x86 CPU cores that are augmented by a wide vector processor unit, as well as fixed-function co-processors. This provides dramatically higher performance per watt and per unit of area than out-of-order CPUs on highly parallel workloads and greatly increases the flexibility and programmability of the architecture as compared to standard GPUs.

http://www.siggraph.org/s2008/attendees/program/item/?type=papers&id=34

Co-processors? Was könnte dass denn sein?

AnarchX
2008-06-06, 21:59:36
TMUs und ähnliches, was in Transistoren deutlich billiger ist, als es über SW auf den ALUs zu implementieren?

Ailuros
2008-06-06, 22:24:28
TMUs und ähnliches, was in Transistoren deutlich billiger ist, als es über SW auf den ALUs zu implementieren?

Geht es um die Unkosten oder um den ALUs mehr Luftraum fuer zusaetzliche Leistung zu lassen? Larabees gaming-Leistung haengt eben direkt von dem Prozentual an fixed function HW ab.

Zur Erinnerung:

http://www.imgtec.com/images/blockdiagrams/powervr/large/POWERVR_SGX_lrg.gif

http://www.imgtec.com/powervr/sgx.asp

AnarchX
2008-06-10, 19:17:15
http://softwarecommunity.intel.com/videos/home.aspx?fn=1515#

up¦²
2008-07-02, 02:29:10
Pat Gelsinger, Intel senior vice president and co-general manager of the firm's Digital Enterprise Group, briefly talked about Larrabee and GPGPU languages such as CUDA during a Q&A session at Intel's 40 birthday party. Gelsinger claims programmers don't have the time to learn how to program for these new architectures and says CUDA will be nothing more than "an interesting footnote in the history of computing annals".
The problem that we’ve seen over and over and over again in the computing industry is that there’s a cool new idea, and it promises a 10x or 20x performance improvements, but you’ve just got to go through this little orifice called a new programming model,’ Gelsinger explained to Custom PC. Those orifices, says Gelsinger, have always been ‘insurmountable as long as the general purpose computing models evolve into the future.’

Gelsinger used the Cell architecture used in the PlayStation 3’s CPU as an example to prove his point. ‘It [Cell] promised to be this radical new computing architecture,’ said Gelsinger, ‘and basically years later the application programmers have barely been able to comprehend how to write applications for it.’

This, according to Gelsinger, is one of the major reasons why Intel’s forthcoming Larrabee graphics chip will be entirely based on IA (Intel Architecture) x86 cores. ‘Our approach to this has been to not force programmers to make a radical architectural shift,’ explained Gelsinger, ‘but to take what they already know – this IA-compatible architecture – and extend the programming model to comprehend new visual computing data-parallel-throughput workloads, and that’s the strategy that we’re taking with Larrabee.’

Larrabee, according to Gelsinger, will simply expand on a standard programming model. ‘It’s an IA-compatible core,’ explained Gelsinger, ‘and we’re extending it with a graphics vector visualisation instruction set that has full support for native programming models, full support for the graphics APIs like DX and OpenGL, and then this broad set of new programming models to go with it.’
http://www.custompc.co.uk/news/602868/intel-cuda-will-be-just-a-footnote-in-computing-history.html
... :biggrin:

DrumDub
2008-07-02, 11:10:19
bahhh... was für nen miese propagandanummer von intel.

BlackBirdSR
2008-07-02, 11:14:45
bahhh... was für nen miese propagandanummer von intel.

Stimmt!
Ein wahrer Kern ist trotzdem drann. Der beste Beweis ist ja x86 selbst. Egal was eigentlich besser gewesen wäre, es konnte sich nie gegen x86 durchsetzen. Der Markt ist faul und behäbig.
Das musste selbst Intel mit eigenen Produkten feststellen, die gegen x86 gesetzt waren.

deekey777
2008-07-02, 11:49:42
Stimmt!
Ein wahrer Kern ist trotzdem drann. Der beste Beweis ist ja x86 selbst. Egal was eigentlich besser gewesen wäre, es konnte sich nie gegen x86 durchsetzen. Der Markt ist faul und behäbig.
Das musste selbst Intel mit eigenen Produkten feststellen, die gegen x86 gesetzt waren.
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6456670#post6456670
Bis auf Cell (Roadrunner) hat er so ziemlich Recht.

DrumDub
2008-07-02, 12:00:57
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6456670#post6456670
Bis auf Cell (Roadrunner) hat er so ziemlich Recht. ja. die marktmacht von intel wirds richten. aber ich finde es trotdzem mies, wie CUDA runtergemacht wird.

Exxtreme
2008-07-02, 12:06:04
ja. die marktmacht von intel wirds richten. aber ich finde es trotdzem mies, wie CUDA runtergemacht wird.
So viel Marktmacht hat Intel auch nicht. Das würde ich nicht überschätzen.

BlackBirdSR
2008-07-02, 12:11:48
Ich glaube es ist eh falsch in dieser Hinsicht von Intels Marktmacht zu sprechen. Schon eher die Marktmacht von x86, welches quasi ein Eigenleben entwickelt hat.
Ich glaube nicht, dass Intel x86 ohne größte Anstrengungen abschießen könnte, selbst wenn man wirklich wollen würde.
Nicht ohne so viel Leerraum zu lassen, dass Andere den Platz einfach zu gerne übernehmen würden und werden.
Dann lebt x86 weiter und Intel schaut doof zu.

Gast
2008-07-02, 12:26:11
ja. die marktmacht von intel wirds richten. aber ich finde es trotdzem mies, wie CUDA runtergemacht wird.Inwiefern wird hier Cuda 'runtergemacht'? Gelsinger greift etwas frech der Zeit voraus, aber es wird wohl genauso laufen. Es hat sich nicht im Detail über Cuda geäußert. Vielleicht würde er bei einer rein technischen Betrachtung Cuda loben, aber Bezogen auf seine These ist der Schluß sehr naheliegend. Der Geamtmarkt für Streaming-Computing ist ziemlich klein. Ich denke, weniger als fünf Prozent. Es lohnt sich für Entwickler kaum darin viel Zeit zu investieren. Intel Ansatz Larrabee ist einfach viel kostengünstiger für Entwickler. Das ist alles.

Ganon
2008-07-02, 12:44:04
Dann lebt x86 weiter und Intel schaut doof zu.

Aber das sich IA64 nicht weiter durchgesetzt hat, lag ja zu teilen auch an Microsoft, oder?

S940
2008-07-02, 12:47:54
Aber das sich IA64 nicht weiter durchgesetzt hat, lag ja zu teilen auch an Microsoft, oder?
Nö, es gab doch sogar ne Itanium XP Version, die wollte aber halt nur keiner haben ... deswegen wurde die dann auch ziemlich schnell eingestellt.

Abgesehen davon war Itanium 1 wirklich schlecht ... das war mehr ein Prototyp / Designstudie. Erst Itanium2 konnte vernünftige Leistungsdaten aufweisen.

ciao

Alex

Ganon
2008-07-02, 12:50:05
Nö, es gab doch sogar ne Itanium XP Version, die wollte aber halt nur keiner haben ... deswegen wurde die dann auch ziemlich schnell eingestellt.

Naja, zwischen "hat eine Version" und "supportet eine Version" ist immernoch ein Unterschied. ;) Gab es Office für Itanium, z.B.?

BlackBirdSR
2008-07-02, 12:52:44
Aber das sich IA64 nicht weiter durchgesetzt hat, lag ja zu teilen auch an Microsoft, oder?

Möglich, die Knackpunkte waren meiner Meinung allerdings der Aufwand, die miese Performance, die Verlustleistung, die Kosten und die fehlende Ausrichtung auf den Desktopmarkt.

pures IA64 wie man es in Merced, McKinley und den jetzigen Modellen findet, ist gar nicht als Ersatz für den x86 Markt geeignet. Vielleicht hatten ein paar Idealisten bei Intel diese Idee, den Ingeniueren und Teamleitern kam das IMO aber nicht in den Sinn.

Man darf IA64 also gar nicht als Versuch sehen x86 vollständig abzulösen. Im Bereich Server und Workstation mag es gut sein, dass Intel die ein oder andere Schlappe gegen die eigenen Xeons einstecken musste. Aber auch hier muss man differenzieren. Es gibt nicht ein Intel, sondern verschiedene Abteilungen und Designteams, und die konkurrieren heftigst untereinander.
Sollte sich Larrabee z.B. plötzlich eignen um IA64 aus dem Markt zu drängen, wird das zuständige Designteam alles daran legen die Führungsetage davon zu überzeugen. So lange bis irgendwann diese irrationale IA64-Liebe überwunden ist.
War doch beim PM(+Nachfolger) gegen P4 wahrscheinlich nicht anders.

S940
2008-07-02, 13:12:13
Naja, zwischen "hat eine Version" und "supportet eine Version" ist immernoch ein Unterschied. ;) Gab es Office für Itanium, z.B.?
Ich behaupte mal, dass man sich das anfangs gespart hatte, da Itanium1 ja nen tollen x86 Teil für "alte" legacy Sachen an Bord hatte. Blöderweise stellte sich das Teil als grottenlahm raus ..

ciao

Alex

Gast
2008-07-02, 13:15:21
Microsoft ist doch erstmal ein Softwarehersteller und sollte im Gegensatz zu Intel (und AMD) weniger an x86 hängen.

Wieso hat Microsoft nicht ihr Windows auch für PowerPC gebracht - selbst wenn es nur ein Testlauf gewesen wäre.
AFAIK war soetwas mal in den 90iger sogar geplant und wurde dann mit glaube ich aufgrund irgendwelcher Absprachen verworfen. Warum ist das nicht wieder aufgegriffen worden?

Mit PPC wäre MS auch flexibler, könnte sogar wenn sie wollten eigene CPU fertigen.

deekey777
2008-07-02, 13:16:40
ja. die marktmacht von intel wirds richten. aber ich finde es trotdzem mies, wie CUDA runtergemacht wird.
Vielleicht wußte Gelsinger noch nichts über die Fähigkeiten von CUDA 2:
http://www.beyond3d.com/content/articles/106/4
On the other side of the spectrum, one of the big new features in CUDA 2.0 has nothing to do with GPUs: you will now be able to compile CUDA code into highly efficient SSE-based multithreaded C code to run very efficiently on the CPU. That’s right, not just device emulation; the genuine goal is to make it run as fast as possible on Intel and AMD CPUs

Da gibt es noch weitere lustige Äußerungen, wo CUDA sonst laufen könnte: http://forum.beyond3d.com/showthread.php?t=48723

DrumDub
2008-07-02, 15:23:53
Vielleicht wußte Gelsinger noch nichts über die Fähigkeiten von CUDA 2:
http://www.beyond3d.com/content/articles/106/4

Da gibt es noch weitere lustige Äußerungen, wo CUDA sonst laufen könnte: http://forum.beyond3d.com/showthread.php?t=48723 oder er hats bewusst weggelassen, was ich für wahrscheinlicher halte. jedenfalls halte ich nvidias strategie mit cuda langfristig für richtig.

Gast
2008-07-02, 15:54:25
This, according to Gelsinger, is one of the major reasons why Intel’s forthcoming Larrabee graphics chip will be entirely based on IA (Intel Architecture) x86 cores. ‘Our approach to this has been to not force programmers to make a radical architectural shift,’ explained Gelsinger, ‘but to take what they already know – this IA-compatible architecture – and extend the programming model to comprehend new visual computing data-parallel-throughput workloads, and that’s the strategy that we’re taking with Larrabee.’



WOW. Ich wusste gar nicht das man mit X86 ohne Probleme Parallelen Code schreiben kann. Wirklich Toll. ;)

Ergo, Propaganda PUR! Ob ich jetzt mit X86 parallelen Code schreiben muss oder mit CUDA (bzw. C) bleibt sich (fast) gleich.

S940
2008-07-02, 16:25:40
Wieso hat Microsoft nicht ihr Windows auch für PowerPC gebracht - selbst wenn es nur ein Testlauf gewesen wäre.
AFAIK war soetwas mal in den 90iger sogar geplant und wurde dann mit glaube ich aufgrund irgendwelcher Absprachen verworfen.
Wissen mein Freund, ist besser als Glaube ^^
Such mal nach "Windows NT, PowerPC" im Websuchdienst Deiner Wahl ;-)
Einer von vielen Treffern:
http://www.microsoft.com/presspass/press/1997/feb97/powerpr.mspx

@deekey777:
Danke für die B3D Links, hört sich nichtmal so schlecht an, mal schauen, wie das weitergeht mit CUDA ;)

ciao

Alex

Gast
2008-07-02, 17:06:21
ja. die marktmacht von intel wirds richten. aber ich finde es trotdzem mies, wie CUDA runtergemacht wird.
Dagegen steht die Marktmacht von Ms,die eine GpGpu-Schnittstelle in Directx 11
implementieren werden.(Compute Shaders)
Durch DirectX geht die Richtung dahin,daß die Cpu immer überflüssiger wird.Inzwischen wird ja auch die Geometrie in der Version 10 von der Grafikkarte erledigt,und nicht,wie vorher,von der Cpu.Eher geht Intel der "Arsch auf Grundeis" als umgekehrt.

Gast
2008-07-03, 00:19:35
Dagegen steht die Marktmacht von Ms,die eine GpGpu-Schnittstelle in Directx 11
implementieren werden.(Compute Shaders)
Durch DirectX geht die Richtung dahin,daß die Cpu immer überflüssiger wird.Inzwischen wird ja auch die Geometrie in der Version 10 von der Grafikkarte erledigt,und nicht,wie vorher,von der Cpu.Eher geht Intel der "Arsch auf Grundeis" als umgekehrt.'daß die CPU immer überflüssiger wird' ... Ehrlich, jetzt wird's echt lustig. Der Thread verkommt zur Lachnummer. Am besten wir treten die CPU gleich in die Tonne und lassen noch das OS auf der GPU laufen. Es ist eher umgekehrt. Die GPU wird noch nicht einmal annähernd den Sinn und Zweck einer CPU erreichen. Umgekehrt, und Larrabee ist der erste Schritt, wird die X86-CPU die Aufgaben einer GPU übernehmen. Bis auf die brachiale Höchstleistung der spezialisierten GPUs in sehr wenigen Anwendungfällen werden wir auf diese in Zukunft verzichten können. Genauso wird es laufen.

Gast
2008-07-03, 03:00:42
'daß die CPU immer überflüssiger wird' ... Ehrlich, jetzt wird's echt lustig. Der Thread verkommt zur Lachnummer. Am besten wir treten die CPU gleich in die Tonne und lassen noch das OS auf der GPU laufen. Es ist eher umgekehrt. Die GPU wird noch nicht einmal annähernd den Sinn und Zweck einer CPU erreichen. Umgekehrt, und Larrabee ist der erste Schritt, wird die X86-CPU die Aufgaben einer GPU übernehmen.
Aber klar doch.Und morgen kommt der Weinachtsmann.Eine Quadcore hat nicht mal ein Zehntel der Rechenleistung einer Grafikkarte und ist nicht auf deren Aufgaben spezialisiert.Der Larrabee ist übrigens auch spezialisiert mit seinen vielen in Order-Kernen(auf Simd-Aufgaben).Ein Betriebssystem wird darauf nicht laufen.Im Grunde auch nur eine Grafikkarte,die x-86 fähig ist.

Gast
2008-07-03, 10:25:52
Aber klar doch.Und morgen kommt der Weinachtsmann.Eine Quadcore hat nicht mal ein Zehntel der Rechenleistung einer Grafikkarte und ist nicht auf deren Aufgaben spezialisiert.Der Larrabee ist übrigens auch spezialisiert mit seinen vielen in Order-Kernen(auf Simd-Aufgaben).Ein Betriebssystem wird darauf nicht laufen.Im Grunde auch nur eine Grafikkarte,die x-86 fähig ist.Laut Larrabee Entwickler ist es möglich ein einfaches Betriebssystem auf dem Larrabee X86-Befehlsatz laufen zu lassen. Hier haben X86-Kerne eine zielgerichtete Optimierung erhalten, ohne ihre X86-Fähigkeiten verloren zu haben. GPUs sind trotz der aktuellen Shader-Fähigkeiten weiterhin hochspezialisiert. Larrabee ist weit mehr eine Allzweck-GPU als es die GPUs von NVidia und ATI sind.

Gast
2008-07-03, 17:45:08
Laut Larrabee Entwickler ist es möglich ein einfaches Betriebssystem auf dem Larrabee X86-Befehlsatz laufen zu lassen.
Und was ist bitteschön ein "einfaches Betriebssystem" und was kann ein Anwender damit anfangen???
Für solche Sachen wie Videos encoden und Bildbearbeitung eignen sich die hochspezialisierten Chips von Ati und Nvidia hervorragend.Das sind auch gleichzeitig die Gebiete,wo man die leistungsfähigsten Prozessoren verwendet hat.Hier schwimmen eben eher Intel die Felle weg als umgekehrt.Wenn dann auch noch Compute Shaders als einheitliche Schnittstelle für Gpgpu-Anwendungen kommen,dann gute Nacht...
Da wird sich der Kauf von Ati von Amd noch als goldrichtig erweisen.

Gast
2008-07-03, 21:32:21
Und was ist bitteschön ein "einfaches Betriebssystem" und was kann ein Anwender damit anfangen???
Für solche Sachen wie Videos encoden und Bildbearbeitung eignen sich die hochspezialisierten Chips von Ati und Nvidia hervorragend.Das sind auch gleichzeitig die Gebiete,wo man die leistungsfähigsten Prozessoren verwendet hat.Hier schwimmen eben eher Intel die Felle weg als umgekehrt.Wenn dann auch noch Compute Shaders als einheitliche Schnittstelle für Gpgpu-Anwendungen kommen,dann gute Nacht...
Da wird sich der Kauf von Ati von Amd noch als goldrichtig erweisen.
"Und was ist bitteschön ein "einfaches Betriebssystem ..." Wenn du dir die Frage nicht selbst beantworten kannst, dann ist das Gespräch an dieser Stelle beeendet. Der Rest deiner Mail deutet ohnehin fehlendes Verständnis der Sachlage hin. Niemand zweifelt den Nutzen und die Eignung von ATI/NV GPUs für Video-/Bildbearbeitung an, aber das was es auch so ziemlich über das Spielthema hinaus. Larrabee könnte sich wirklich als wahre Vielzweckwaffe mit hoher Flexibiltät und Effizienz erweisen. Ich bin jedenfalls gespannt auf die Möglichkeiten, die Larrabee bieten wird.

Gast
2008-07-03, 23:38:54
"Und was ist bitteschön ein "einfaches Betriebssystem ..."
Tja,was nun.So was wie Xp oder Damm Small Linux?Wohl eher letzeres,vielleicht.

Gast
2008-07-04, 00:41:55
Tja,was nun.So was wie Xp oder Damm Small Linux?Wohl eher letzeres,vielleicht.
Naja Vista64 is gar nicht so übel.
Super Design, 64bit,DX10 ist halt anspruchsvoller wie XP oder Linux und stabiler wie XP64.
Ausserdem unterstützt es DX10.
Richtig eingestellt ein prima Betriebssystem.
Mit nem 386 funzt das natürlich nicht. :D

HOT
2008-07-04, 00:49:55
Vista64 ist das einzig brauchbare Windows-OS, wenn der Rechner als Spielerechner für anspruchsvolle Spiele oder als Rechner für anspruchsvolle + speicherintensive Software dienen soll.

Gast
2008-07-04, 01:07:21
Vista64 ist das einzig brauchbare Windows-OS, wenn der Rechner als Spielerechner für anspruchsvolle Spiele oder als Rechner für anspruchsvolle + speicherintensive Software dienen soll.


Und warum laufen meine Spiele dann unter Visat64 maximal gleich schnell, meist einen Tick langsamer als unter Visat32? Oder liegts am Phenom?

deekey777
2008-07-05, 12:12:44
Prozessorgeflüster: Von Intels Zukunft und dem guten alten Pentium (http://www.heise.de/ct/08/15/022/)

Für den Bereich „Visual Computing“ und in einer späteren Version auch fürs High Performance Computing ist Larrabee gedacht, ein Prozessor, der bisher mit 16 bis 24 Kernen gehandelt wurde, wahrscheinlich aber gleich mit 32 Kernen im nächsten Jahr debütieren wird – und zwar wie inzwischen durchdrang zur allgemeinen Überraschung wohl mit genau den gut bekannten Pentium-Kernen: dem Pentium P54C. Es wird sich wohl um die modernere Version mit den größeren Caches namens Pentium MMX handeln, natürlich geshrinkt auf 45 nm. Rattner gab allerdings auf die Frage, ob der Larrabee-Kern denn 32- oder 64-bittig sei, die Antwort, er unterstütze die volle Intel-Architektur – und die umfasst heutzutage ja eigentlich 64 Bit. Ob der Kern wohl „verbreitert“ wurde? Die namensgebende MMX-Einheit selber wird er aber wohl nicht brauchen, denn für die mehrfach parallelen Berechnungen (SIMD) besitzt jeder Kern die neue Vektoreinheit mit mutmaßlich 512 Bit Breite. Das ergibt mit Multiply-Add-Befehlen maximal 32 Flop/Takt in einfacher Genauigkeit (SP), die fürs Visual Computing völlig ausreicht. Bei 32 Kernen würden dann schon 2 GHz Takt reichen, um die 2-Teraflops-Marke zu erreichen, womit er etwa doppelt so schnell wäre, wie die ATI/Nvidia-Konkurrenz jetzt. Vermutlich wird die Larrabee-Karte aber auch doppelt so viel verbrauchen wie jene, also rund 300 Watt. Das lässt sich den bisherigen Veröffentlichungen entnehmen, wo man auf einer Larrabee-Karte zwei zusätzliche Spannungsanschlüsse für 150 und 75 Watt ausmachen konnte, was sich zusammen mit dem Strom via PCIe-Konnektor auf 300 Watt summiert
Klingt beeindruckend.

Gast
2008-07-05, 12:38:22
Doppelt so schnell wie die Konkurrenz jetzt und das mit 2 Teraflops? Hmmm wieviel Teraflops sollte der r700 aka rv770 x2 nochmal theoretisch erreichen können? ;) Dazu gehören selbst 2GHz erstmal erreicht. Ich mein, es ist ja kein einzelner Core, der diese Geschwindigkeit erreichen muss, sondern dann mal eben 32. Nächstes Jahr gibt es dann auch wieder neue GPUs von AMD/ATI und nV, was das ganze auch weiter relativiert (leistungsschwächer werden diese dann wohl nicht). Das klingt für mich alles zu sehr nach Marketing/Werbung...

Gast
2008-07-05, 12:45:53
Klingt beeindruckend.
Klingt seltsam.
Wenn sie schlau sind verkaufen sie es als 512 Skalar Prozessoren. X-D

Einerseits haben sie damit zwar schon Out-Of-Order, aber ich bin mir nicht sicher, ob nicht zB. der Hardwarescheduler einer GT200 die Einheiten für Anwendungszwecke wie Computergrafik besser auslasten kann.

S940
2008-07-05, 13:20:00
Einerseits haben sie damit zwar schon Out-Of-Order, (...) Wo haben sie da OOO ? Der gute alte P54C war schön brav eine in-order Architektur ...

ciao

Alex

Crazy_Chris
2008-07-05, 14:22:07
Warum nimmt man nicht gleich die neue Intel Atom Architektur dafür? :confused:

Hvoralek
2008-07-05, 15:19:40
Warum nimmt man nicht gleich die neue Intel Atom Architektur dafür? :confused:Zu groß. Ein 45- nm- Silverthorne misst 25 mm². 32 von den Dingern + dicke FPUs + festverdrahtete Schaltungen für 3D- Berechnungen abzgl. ein bisschen Cache wären viel zu groß.

Gast
2008-07-05, 15:26:16
Wer hätte bis vor kurzem noch gedacht das irgendwelche Uralt CPU's, würden in Zukunft NextGen Foto-3D-Grafik berechen. Zwickt mich bitte mal einer ?

S940
2008-07-05, 15:59:22
Zu groß. Ein 45- nm- Silverthorne misst 25 mm². 32 von den Dingern + dicke FPUs + festverdrahtete Schaltungen für 3D- Berechnungen abzgl. ein bisschen Cache wären viel zu groß.
Naja beim Atom würde die jetzige FPU wegfallen, beim Pentium1 auch, aber da müßte man noch 64bit nachrüsten. Wieviel Fläche brächte das ?

ciao

Alex

Hvoralek
2008-07-05, 16:06:41
Naja beim Atom würde die jetzige FPU wegfallen, beim Pentium1 auch, aber da müßte man noch 64bit nachrüsten. Wieviel Fläche brächte das ?Die Ausführungseinheiten werden dadurch doppelt so groß. Bei insgesamt 3,2 Mio. Transistoren für einen kompletten P54C- Kern macht das den Brei aber wohl auch nicht fett.

Avalox
2008-07-05, 16:18:40
Nächstes Jahr gibt es dann auch wieder neue GPUs von AMD/ATI und nV, was das ganze auch weiter relativiert (leistungsschwächer werden diese dann wohl nicht). Das klingt für mich alles zu sehr nach Marketing/Werbung...

Der Knacktus ist doch, dass diese Cores alle x86 komp. zu programmieren sind. Was nV und ATI nun nicht bieten kann. Ganz im Gegenteil. Dort ist ein ständiger Wechsel angesagt.
Es ist ja schon länger bekannt, dass Intel keinen zweiten Dialekt im PC haben möchte und Larrabee als grossen Pluspunkt einen x86 komp. Befehlssatz bekommen soll.
Der Weg ist nun allerdings sehr direkt.

S940
2008-07-05, 17:57:43
Der Knacktus ist doch, dass diese Cores alle x86 komp. zu programmieren sind. Was nV und ATI nun nicht bieten kann. Ganz im Gegenteil. Dort ist ein ständiger Wechsel angesagt.
Es ist ja schon länger bekannt, dass Intel keinen zweiten Dialekt im PC haben möchte und Larrabee als grossen Pluspunkt einen x86 komp. Befehlssatz bekommen soll.
Der Weg ist nun allerdings sehr direkt.
Naja was ist Larrabee bitte .. das ist quasi "dummer x86" plus "SuperDuperSSE" * "ne Menge Kerne".
Wenn ich das jetzt sinnvoll nutzen will, dann muss man den Code

a) multithread programmieren
b) durch nen Compiler mit "SuperDuperSSE" jagen.

Nachdem also eh ein Recompile nötig ist, seh ich da keinen Nachteil für nvidia / ATi, da kann dann auch was in Verwendbares für deren Kerne compiliert werden. Die aktuelle Situation ist sch...lecht, geb ich zu, aber CUDA 2 und OpenCL sind ja in Arbeit.

Ich finde das Cell / AMD Fusion Konzept eh besser, für alten Code nen dicken K10/PPC Kern für den Rest SPUs. Auch das VLIW Konzept (wie in den ATI GPUs, also auch Fusion) passt für viele, viele Kerne meiner Meinung nach besser, da man ne Menge DIE Fläche einspart und die Leistung mit nem guten Compiler sicherlich besser ist als die eines x86 Schmalspurkerns mit Nachbrenner.

ciao

Alex

Hvoralek
2008-07-05, 18:05:50
Ich finde das Cell / AMD Fusion Konzept eh besser, für alten Code nen dicken K10/PPC Kern für den Rest SPUs. Auch das VLIW Konzept (wie in den ATI GPUs, also auch Fusion) passt für viele, viele Kerne meiner Meinung nach besser, da man ne Menge DIE Fläche einspart und die Leistung mit nem guten Compiler sicherlich besser ist als die eines x86 Schmalspurkerns mit Nachbrenner.Larrabee soll wohl kaum CPUs in allen Anwendungen ersetzen. Und Fusion scheint eher eine normale CPU + Spargrafikeinheit zu sein, die leistungsmäßig deutlich unter so einer Erweiterungskarte liegen dürfte.

Avalox
2008-07-05, 18:14:59
Naja was ist Larrabee bitte .. das ist quasi "dummer x86" plus "SuperDuperSSE" * "ne Menge Kerne".
Wenn ich das jetzt sinnvoll nutzen will, dann muss man den Code

a) multithread programmieren
b) durch nen Compiler mit "SuperDuperSSE" jagen.

Nachdem also eh ein Recompile nötig ist, seh ich da keinen Nachteil für nvidia / ATi, da kann dann auch was in Verwendbares für deren Kerne compiliert werden.


Natürlich ist es ein Nachteil. Da die GPGPU Compiler von nVidia und ATI eben nun mal nur von nVidia und ATI kommen können (Wenn nicht AMD in Zukunft anfängt ihre GPU Beschreibungen viel früher zu veröffentlichen). Dabei verstehen die GPGPUs nicht mal den erzeugten Binärcode ihrer Vorgänger. Das alles macht Intel nun anders.
Wenn im Visual C++ Compiler von MS nun in Zukunft auch schön Larrabee Code erzeugt werden kann, wird dieses sicherlich eine Menge Leute hoch erfreuen.
Und wenn es dann mal besonders schnell sein soll, wird man eben den Intel C++ Compiler nutzen, dass Intel ausgezeichnete Compiler baut wird ja niemand bestreiten wollen.

Ich sehe den Ansatz x86 (dazu wird ja auch SSE 1001 oder wie auch immer der SIMD Ansatz der Larrabee CPU heissen wird) ehrlich als sehr vielversprechend. Steht dieser doch gegen ein CUDA, welches krampfhaft nach wirklich praktischen Anwendungsfällen sucht und einem AMD Gegenstück dessen Namen ich mir nicht mal merken kann.

Der grosse Vorteil von Larrabee und der gigantische Unterscheidungsfaktor zu seinen Gegenstücken ist nicht die Rechenleistung, es ist dessen Zugänglichkeit und ich denke damit wird Intel auch Erfolg haben.

Demirug
2008-07-05, 18:26:33
In Märkten wo die Software die Hardware diktieren darf haben sie natürlich einen Vorteil weil sich Bestandssoftware leichter portieren lässt. In Massenmärkten werden sie damit aber genau so viel Erfolg haben wie CUDA und Co.

Dieser Markt braucht dringen etwas Herstellerunabhängiges wie OpenCL oder D3D 11 compute shaders.

S940
2008-07-05, 18:27:46
Larrabee soll wohl kaum CPUs in allen Anwendungen ersetzen. Und Fusion scheint eher eine normale CPU + Spargrafikeinheit zu sein, die leistungsmäßig deutlich unter so einer Erweiterungskarte liegen dürfte.

Stimmt, Larrabee soll ja ne Art x86 GPU werden ... ob das was wird .. bin mal gespannt. Der i740 war damals auch nicht schlecht, aber bis er kam hatten die alten Grafikkarten Platzhirsche schon wieder besseres im Angebot.

Zu Fusion: Irgendein AMDler hat mal gemeint, dass da ne GPU in R600 Leistungsgröße eingebaut wird, man kann also von 64 SPUs ausgehen, solange man nichts andres hört. Das, plus 1-2 K10 Kerne .. das sollte für Larrabee reichen.
Der grosse Vorteil von Larrabee und der gigantische Unterscheidungsfaktor zu seinen Gegenstücken ist nicht die Rechenleistung, es ist dessen Zugänglichkeit und ich denke damit wird Intel auch Erfolg haben.Hmm Zugänglichkeit .. ok, klar, wenns keine brauchbaren Compiler für Ati/nV gibt/geben wird, dann gewinnen die natürlich keinen Blumentopf ... aber AMD hat nen sehr guten Draht zu M$, dadurch konnten sie ja auch AMD64 pushen, und SSE5 taucht erstmals auch in nem M$ Compiler pdf von 2004 auf ... also M$ würde ich mal nicht starr auf die Intel Seite stellen.
Steht dieser doch gegen ein CUDA, welches krampfhaft nach wirklich praktischen Anwendungsfällen sucht und einem AMD Gegenstück dessen Namen ich mir nicht mal merken kann.Naja ... das Problem der praktischen Anwedungsfälle hat Larrabee auch, dass ist nicht herstellerspezifisch, dass ist einfach nur problemspezifisch.
Solang Dein Programm nicht parallelisierbar ist, kannst Du vielen Kernen nichts anfangen, egal ob, VLIW, x86, SSE oder sonstwas ;-)

Dieser Markt braucht dringen etwas Herstellerunabhängiges wie OpenCL oder D3D 11 compute shaders.Jupp, und bei OpenCL sind ja auch alle mit im Boot (Ati, nvidia, Intel), nur M$ fehlt .. :(


ciao

Alex

Hvoralek
2008-07-05, 18:35:59
Zu Fusion: Irgendein AMDler hat mal gemeint, dass da ne GPU in R600 Leistungsgröße eingebaut wird, man kann also von 64 SPUs ausgehen, solange man nichts andres hört. Das, plus 1-2 K10 Kerne .. das sollte für Larrabee reichen.R600- Niveau würde ~ 500 GFLOPs bedeuten. Das wäre wohl doch ein Stück davon entfernt, Larrabee + eine konventionelle CPU (die Larrabee ergänzen, aber nicht ersetzen kann oder soll) zu erreichen.

S940
2008-07-05, 18:52:10
R600- Niveau würde ~ 500 GFLOPs bedeuten. Das wäre wohl doch ein Stück davon entfernt, Larrabee + eine konventionelle CPU (die Larrabee ergänzen, aber nicht ersetzen kann oder soll) zu erreichen.
Hmm ok, die FLOPs Zahlen jetzt wieder ... ok, nimmt man die, dann ist Fusion schlecht, stimmt.

Ein bisschen wird man wohl durch höheren Takt wettmachen können, Fusion kommt ja in 45nm, aber um von 500 auf 2 TFLOPs zu kommen, wird es wohl kaum reichen :biggrin:

Aber solange Fusion auf, sagen wir mal 1 TFLOP kommt, und dabei nur die Hälfte(Viertel?) Strom von Larrabee verbraten würde, wäre es noch ok.

ciao

Alex

Avalox
2008-07-05, 18:53:56
Dieser Markt braucht dringen etwas Herstellerunabhängiges wie OpenCL oder D3D 11 compute shaders.

Ich kenne D3D 11 compute shaders nicht. Weiss aber nicht ob dieses so in die richtige Richtung geht, was sich Intel so mit dem Larrabee vorstellen wird.

Es hört sich zumindest für mich von Namen eher an, als ob dieses doch sehr viel spezieller ist, als nV/ATI ihre GPGPUs so momentan gerne sehen.

Ich sehe dort auch einen gewissen Interessen Konflikt. MS entwickelt ja nicht nur D3D, es entwickelt ja vor allen Software Entwicklungsumgebungen und dort passt der Larrabee ja schon rein Konzeptionell als universelle CPU Erweiterung toll hinein.

Ich denke nicht, dass sich Anwendungsentwickler in irgendwelche universellen D3D 11 Baukästen im kleinsten Gemeinsamen Nenner treffen wollen.
Ich stelle es mir aus Entwickler Sicht fantastisch vor, sich so langsam mit bestehenden x86 Code (in diesem sind nunmal alle Anwendungen verfasst, welche nV gerne auf ihr CUDA portiert sehen würden) von der CPU, dann sukzessiv und mit viel Compiler Unterstützug auf den Larrabee zu bewegen.

Ist halt immer einfacher, wenn alle die selbe Sprache sprechen.

Ich denke um den GPGPU zu begegnen hat sich Intel auf drei ihrer Tugenden bezogen. Dem Übermächten x86 Dialekt, ihrem Fertigungs Know How und dem grossen Talent Compiler zu bauen. All dieses wird man im Larrabee finden. Da verzeiht man auch schon mal wenn die CPUs/GPUs selbst nicht die prickelnsten sind.

Hvoralek
2008-07-05, 18:56:48
Hmm ok, die FLOPs Zahlen jetzt wieder ... ok, nimmt man die, dann ist Fusion schlecht, stimmt.Erwartest Du von Larrabee eine schlechtere Ausnutzung der rechnerischen Leistung als von R600? Ich würde mit dessen GPCPU- Wurzeln noch eher vom Gegenteil ausgehen, wenn es da überhaupt nennenswerte Unterschiede gibt.

Zumal ich bei "ungefähr R600- Leistung" auch von R600- Leistung ausgehe, nicht von ähnlichen Eckdaten, aber mit höherer Leistung.

Im Endeffekt wird man Larrabee erst wirklich einschätzen können, wenn man das Teil im Praxisvergleich sieht. Ich gehe aber davon aus, dass AMD/ Nvidia zumindest "richtige" Erweiterungskarten brauchen, um sich damit anzulegen, und das nicht mit besseren IGPs schaffen. Ansonsten wäre das zumindest arg peinlich für Intel.

Aquaschaf
2008-07-05, 18:57:48
Ich denke es macht in den allermeisten Fällen nicht viel Sinn bestehenden Code für dieses Rechnermodell weiterbenutzen zu wollen, oder sukzessiv umzubauen. Auch wenn er dank gleichem Instruktionssatz laufen würde.

Gast
2008-07-05, 19:13:07
Ich denke es macht in den allermeisten Fällen nicht viel Sinn bestehenden Code für dieses Rechnermodell weiterbenutzen zu wollen, oder sukzessiv umzubauen. Auch wenn er dank gleichem Instruktionssatz laufen würde.
Das würde arschlangsam auf einem oder 2 seiner Pentiums laufen.

Avalox
2008-07-05, 19:13:09
Ich denke es macht in den allermeisten Fällen nicht viel Sinn bestehenden Code für dieses Rechnermodell weiterbenutzen zu wollen, oder sukzessiv umzubauen. Auch wenn er dank gleichem Instruktionssatz laufen würde.

Es ist doch nicht der Code. Es ist die Logik, es ist die Denke die beibehalten werden kann. Man ändert seine vertraute Umgebung nicht.

Dass ist ein sehr mächtiger Grund, ist dieser doch dafür verantwortlich, dass Intel die No. 1 ist. Immer schön soft und schrittweise weiter gehen. Bekanntes behalten, neues bieten.

Nun stelle man sich mal einen netten Intel Compiler vor, welcher schön progressive Methoden zur Parallelisierungsunterstützung von x86 Code beinhaltet. Ein Thema an dem Intel mit aller Macht seit vielen Jahren forscht. Intel hat sicherlich schon längst Probleme gelösst, welche nV zum heutigen Tag noch nicht mal realisiert hat. Weil sie es schlicht nicht brauchten bisher.
Eine GPGPU ist halt immer noch ein Ding, indem "Grafik" in Namen auftaucht.
Intel nennt dagegen die Larrabee Linie sicherlich nicht ohne Grund schon heute "high performance computing". Was natürlich erst so richtig Sinn macht, wenn der Larrabee mal in Zukunft in die CPU gewandert ist.

S940
2008-07-05, 19:14:50
Erwartest Du von Larrabee eine schlechtere Ausnutzung der rechnerischen Leistung als von R600? Ich würde mit dessen GPCPU- Wurzeln noch eher vom Gegenteil ausgehen, wenn es da überhaupt nennenswerte Unterschiede gibt.Naja, 64 simple SPUs und 1-2 K10 Kerne gegen 32 simple, aber stark verbreiterte x86 Kerne. Das ganze bei nem Kerntakt, den keiner kennt. Meister Stiller holt Larrabees 2 GHz irgendwo her, dass die wirklich erreicht werden, ist nicht sicher.

Ausserdem, kann man die 512bit Register auch für Grafik gebrauchen ? Meines wissnes ist da doch mit 32bit Farbwerten das Nonplusultra erreicht, oder überseh ich was ?

Falls nicht, dann sind die 512bit Register (auf die ein Großteil der FLOPs basiert), für normale GPU Aufgaben so sinnvoll, wie AMD64 für DOS.

Es ist doch nicht der Code. Es ist die Logik, es ist die Denke die beibehalten werden kann. Was für "Denke" ? Programmierst Du in x86 Assembler ? Oder in ner Hochsprache wie C bzw. mit DirectX ?

ciao

Alex

Avalox
2008-07-05, 19:49:23
Was für "Denke" ? Programmierst Du in x86 Assembler ? Oder in ner Hochsprache wie C bzw. mit DirectX ?


Der Entwickler entwickelt ja nicht eine Anwendung in einer Hochsprache, er entwickelt diese in einer Umgebung. Der Syntax ist dabei ja nur ein kleiner Teil. Er denkt in seiner gewohnten Umgebung, weil er damit sein Geld verdient. Sich mit anderen Dingen, welche nicht konkret in Code umgesetzt werden kosten dem Entwickler nur Geld, oder Zeit. Was so ziemlich aufs selbe hinaus kommt.

Aber selbst Hochsprachen vom Schlage eines C++ sind kein Abstraktum. Der Entwickler muss trotzdem immer die Plattform und die Eigenheiten kennen und berücksichtigen.

Bei CUDA werden die Mundwinkel der Entwickler nach unten gehen, was man ja schon heute schön erkennen kann. Ich denke bei einer Karte mit 32 x86 CPUs wird dieses nicht unbedingt so sein. Da muss man sich sicherlich auch erst dran gewöhnen, aber es ist halt immer(!) etwas weniger gewöhnungsbedürftig.

Hvoralek
2008-07-05, 19:55:34
Naja, 64 simple SPUs und 1-2 K10 Kerne gegen 32 simple, aber stark verbreiterte x86 Kerne. Das ganze bei nem Kerntakt, den keiner kennt. Meister Stiller holt Larrabees 2 GHz irgendwo her, dass die wirklich erreicht werden, ist nicht sicher.Du vergleichst wieder Rohleistung, nicht Effizienz. Wie gesagt wird "ungefähr R600- Leistung" wohl auch R600- Leistung bedeuten und nicht -eckdaten mit höherem Takt. Wie stark Larrabee wird, wird man, wie gesagt, nur abwarten können. Ich gehe aber mal von deutlich mehr als ~500 GFLOPS aus (selbst das Urmodell für Ende 2008 war mit 1 TFLOPS geplant, die "neue" Version wird hoffentlich schneller werden, wenn sie nicht gegen in 1 1/2 Jahren aktuelle GPUs völlig untergehen soll) bei mindestens vergleichbarer Effizienz wie R6xx.

Ausserdem, kann man die 512bit Register auch für Grafik gebrauchen ? Meines wissnes ist da doch mit 32bit Farbwerten das Nonplusultra erreicht, oder überseh ich was ?Kann man in einem Register nicht mehrere Werte speichern?

Und bitte nicht plenken.

Gast
2008-07-05, 20:03:53
Der Entwickler entwickelt ja nicht eine Anwendung in einer Hochsprache, er entwickelt diese in einer Umgebung. Der Syntax ist dabei ja nur ein kleiner Teil. Er denkt in seiner gewohnten Umgebung, weil er damit sein Geld verdient. Sich mit anderen Dingen, welche nicht konkret in Code umgesetzt werden kosten dem Entwickler nur Geld, oder Zeit. Was so ziemlich aufs selbe hinaus kommt.

Aber selbst Hochsprachen vom Schlage eines C++ sind kein Abstraktum. Der Entwickler muss trotzdem immer die Plattform und die Eigenheiten kennen und berücksichtigen.

Bei CUDA werden die Mundwinkel der Entwickler nach unten gehen, was man ja schon heute schön erkennen kann. Ich denke bei einer Karte mit 32 x86 CPUs wird dieses nicht unbedingt so sein. Da muss man sich sicherlich auch erst dran gewöhnen, aber es ist halt immer(!) etwas weniger gewöhnungsbedürftig.

Was kann man denn von 32 x86 CPUs denn erwarten? Heute gibts schon 4 Stück , und?

Bei einer Grafiklösung mit 32 Pentiums muss der Treiber bestehende Software in DX8,9,10 für x86 umwandeln/emulieren und entsprechend parallel und effizient verteilen. Quadratur des Kreises kann man das nennen...

Avalox
2008-07-05, 20:16:55
Was kann man denn von 32 x86 CPUs denn erwarten? Heute gibts schon 4 Stück , und?

Bei einer Grafiklösung mit 32 Pentiums muss der Treiber bestehende Software in DX8,9,10 für x86 umwandeln/emulieren und entsprechend parallel und effizient verteilen. Quadratur des Kreises kann man das nennen...


Es sind 32 x86 CPUs mit sehr schnellen SIMD Erweiterungen.
Die Notwendigkeit der Parallelisierung besteht bei allen Lösungen. Auch bei nV und ATI.

Der Unterschied besteht allerdings in der Herangehensweise. Du denkst an Grafik. Aber das Stadium Grafik ist schon längst vorbei. Es geht ums allgemeine Processing im Rechner. Dort sieht nV die Zukunft um weiter zu wachsen und ihre immer teureren Entwicklungen noch bezahlen zu können.
AMD hat hat beide Seiten offen und kann diese verknüpfen. Intel setzt auf die Mittel die sie haben und es sind gute Argumente. Wenn der Larrabee kommt, kann man von ausgehen, dass dieser die beste Fertigungstechnik der Welt nutzen kann. Dass dieser mit den weltweit dominierenden Dialekt arbeiten wird und dieser wahrscheinlich den leistungsfähigsten Compiler an die Seite gestellt bekommen wird.

Allerdings wird man wohl auch davon ausgehen können, dass die Rohrechenleistung mehr oder weniger hinterher hinken wird. Ich denke aber, dieses wird am Umbruch des gesamten Marktes nichts ändern.
nVidia muss sich sehr warm anziehen.

Coda
2008-07-05, 20:41:51
Bei einer Grafiklösung mit 32 Pentiums muss der Treiber bestehende Software in DX8,9,10 für x86 umwandeln/emulieren und entsprechend parallel und effizient verteilen. Quadratur des Kreises kann man das nennen...
Jegliche Grafikarchitektur muss das tun, da alle nicht direkt Direct3D verstehen. Das ist überhaupt kein Problem. Das ein normaler Prozessor so langsam ist bei Grafik liegt vor allem daran dass TMUs und ROPs fehlen. Vor allem die TMUs sind absolut notwendig.

Larrabee wird sowieso mit einem x86-Programm mehrere Pixel auf einmal verarbeiten. Vermutlich 4 Quads also 16 Pixel. Es kann aber auch sein dass der Chip im GPU-Modus direkt mit nativem Code angesprochen wird vom Treiber und die x86-Decoder übergangen werden.

Es müssen aber wirklich wahnsinnig viele Transistoren allein für die ganzen x86-Eigenheiten drauf gehen. Intel kann sich das auch nur leisten weil sie vermutlich den weitaus besseren Fertigungsprozess haben werden.

S940
2008-07-05, 20:42:33
Der Unterschied besteht allerdings in der Herangehensweise. Du denkst an Grafik. Aber das Stadium Grafik ist schon längst vorbei.


Aja ... ich sitzt also demnächst bei Quake5 und Crysis3 vorm schwarzen Bildschirm und steuere meinen "Helden" je nach Geräusch aus den Lautsprechern ...

Das Ganze ist doch so, dass Intel als CPU Hersteller GPU Arbeiten verrichten lassen will; die GPU Hersteller wollen dagegen der CPU ans Fell.

Grafik per x86 find ich ziemlich ... naja ich sag mal gewöhnungsbedürftig. Siehe oben auch das Thema mit den 512bit Registern. Für GPGPU sicherlich ne tolle Sache, aber für Grafik .. ich weiß nicht. Klar kann man da sicherlich auch mehrere 32bit Werte zwischenspeichern, aber kann ich parallel drauf zugreifen ? Also den Nutzen von 512bit zweifle ich mal nachwievor an.

Andersrum (GPU->CPU) ist es jetzt die selbe Geschichte. Programmieren auf der GPU... CUDA ist schon was "Besonderes" ...

Worauf ich raus will, ist Deine "Denke". Ich geb Dir mal prinzipiell recht, es mag Fälle geben, aber die Mehrzahl der Programmierer coded doch objektorientiert, oder nimm Java ... da ist der Unterbau absolut abstrakt und uninteressant.

Wie auch immer, wichtigstes Glied der ganzen Spielchen sind jetzt die Wrapper um die jeweilige xPU.

Also DirectX -> x86 bzw. C/Java/sonstwas Code -> GPU.

Da ist Intel wohl im Vorteil, da sie ne gute Compiler-/Softwareabteilung mit vielen schlauen Köpfen haben ...

Aber warten wirs ab :) 2009 wird auf alle Fälle spannend :)

ciao

Alex

Coda
2008-07-05, 20:48:38
Grafik per x86 find ich ziemlich ... naja ich sag mal gewöhnungsbedürftig. Siehe oben auch das Thema mit den 512bit Registern. Für GPGPU sicherlich ne tolle Sache, aber für Grafik .. ich weiß nicht. Klar kann man da sicherlich auch mehrere 32bit Werte zwischenspeichern, aber kann ich parallel drauf zugreifen ? Also den Nutzen von 512bit zweifle ich mal nachwievor an.
Die 512-Bit-Register braucht man praktisch ausschließlich für Grafik. Siehe oben.

S940
2008-07-05, 21:02:27
Die 512-Bit-Register braucht man praktisch ausschließlich für Grafik. Siehe oben.
Ja Danke, habs gesehen, wenn das natürlich so läuft ... dann is das was andres :)

ciao

Alex

Aquaschaf
2008-07-05, 21:40:14
Es ist doch nicht der Code. Es ist die Logik, es ist die Denke die beibehalten werden kann. Man ändert seine vertraute Umgebung nicht.

Die "Denke" muss sich zwangsläufig ziemlich ändern wenn man für so eine Art Rechner programmieren will. x86 ändert daran nichts. Dazu kommt dass den meisten gewöhnlichen Programmierern, diejenigen die Hemmungen hätten ihre "Denke" zu ändern, die Sache sowieso relativ egal sein kann da ihre Anwendungen nicht mit vertretbarem Aufwand davon profitieren könnten.

Exxtreme
2008-07-05, 22:16:09
Also ich persönlich verspreche mir ehrlich gesagt nicht viel von Larrabee. Ich denke nicht, daß das Teil mit den High-End-Lösungen von AMD/NV mithalten kann. Und den Rest erledigen die extrem miesen Treiber von Intel.

Adam D.
2008-07-05, 22:20:34
Also ich persönlich verspreche mir ehrlich gesagt nicht viel von Larrabee. Ich denke nicht, daß das Teil mit den High-End-Lösungen von AMD/NV mithalten kann.
Früher oder später wird Intel auch das High-End-Segment in Angriff nehmen.

Und den Rest erledigen die extrem miesen Treiber von Intel.
Ich bin mir doch sicher, dass Intel mehr Ressourcen dafür abstellen wird, wenn man Larrabee veröffentlicht.

ESAD
2008-07-05, 22:21:55
um zu wissen wie gut die treiber werden wäre es mal interessant zu wissen wie viel mannstunden intel in die onboard gpu treiber gesteckt hat... scheint ja nicht so viel zu sein oder ist das einfach so schwer? am geld kanns ja nicht liegen wie bei S3

S940
2008-07-06, 00:10:00
Kennt eigentlich jemand RapidMind ?
The RapidMind API works with existing C++ compilers. You just link to it as if it were a library. Therefore, you can use RapidMind with existing build systems and IDEs. Porting an application to a multicore processor with RapidMind is an incremental process. You first identify, using profiling tools, a section of the application which is consuming a large amount of execution time. The kernel of this "hotspot" can then be RapidMind-enabled by converting existing numerical and array types to their RapidMind equivalents, and using the RapidMind API to "capture" the computation. The RapidMind platform then maps the computation to a hardware target with any number of cores, offloading the main program. This process can be repeated as many times as necessary. Defining a multicore RapidMind computation is essentially as easy as defining a C++ function. Using RapidMind does not prevent using other programming techniques, tools, or libraries. To achieve results quickly, developers RapidMind-enable the more performance critical parts of their application. The remainder of their code is unaffected.
http://www.ddj.com/architect/199501192
Unterstützte Plattformen / Hardware:
CPU

AMD, Intel Multi-core x86 CPUs

GPU
NVIDIA GeForce® 6000, 7000 or 8000 series cards
NVIDIA Quadro® card with Shader Model 3.0 support (e.g. Quadro FX5500)
AMD® FireStream™ 9170
ATI™ x1X00, 2x00 and HD Radeon™ 3870 families of cards

Cell

IBM® QS20 Blade server with Cell BE processor with Cell SDK 2.0/2.1
Cell BE on Sony PlayStation®3 using Yellow Dog™ Linux with Cell SDK 2.0
Cell BE simulator found in Cell SDK 2.0/2.1

Operating Systems

Mac OS X 10.5
Windows XP Pro
Windows Vista
Windows Server 2003
Red Hat™ Enterprise Linux 5
Fedora™ Core 6 Linux
Fedora Core 7 Linux
Fedora Core 8 Linux
Ubuntu 7.04
Ubuntu 7.10
Yellow Dog Linux 5 on Sony PlayStation®

Compilers

Microsoft® Visual C++® 7 or 8 under Windows
GCC 4 under Linux
Xcode under Mac OS X
http://www.rapidmind.com/product.php
Klingt doch erstmal supertoll ... fragt sich nur, ob irgendwelche Pferdefüße versteckt sind ... sieht jemand gleich was auf den ersten Blick ?

ciao

Alex

Coda
2008-07-06, 01:34:31
Rapidmind ist eine Stream-Processing-API. Das ist nicht für generelle Probleme anwendbar. Außer ich hab jetzt was übersehen.

Die haben eh meine Idee geklaut mit dem C++-Metacode. Wahrscheinlich haben die Assis nen Patent drauf pff.

S940
2008-07-06, 01:46:51
Rapidmind ist eine Stream-Processing-API. Das ist nicht für generelle Probleme anwendbar. Außer ich hab jetzt was übersehen.Naja, man muss halt selbst nach parallelisierbaren Codeschnipseln suchen. Wenns keine gibt, dann hat man einfach Pech, unabhängig ob x86 Multicore, Cell, Fusion oder Larrabee, da hilft dann nichts.

Gibt halt Berechnungen die man aufteilen (vektorisieren) kann und welche die man nicht aufteilen kann .. oder seh ich was falsch ?

ciao

Alex

Coda
2008-07-06, 03:16:35
Naja, man muss halt selbst nach parallelisierbaren Codeschnipseln suchen. Wenns keine gibt, dann hat man einfach Pech, unabhängig ob x86 Multicore, Cell, Fusion oder Larrabee, da hilft dann nichts.

Gibt halt Berechnungen die man aufteilen (vektorisieren) kann und welche die man nicht aufteilen kann .. oder seh ich was falsch ?
Streamprocessing ist noch eingeschränkter als normale Parallelisierung. Das heißt im Prinzip dass man immer die gleiche Operation auf unterschiedliche Daten ausführt.

Und plenken ist böse :(

Ailuros
2008-07-06, 09:54:27
Ich bin mir doch sicher, dass Intel mehr Ressourcen dafür abstellen wird, wenn man Larrabee veröffentlicht.

Die Frage bleibt aber dann wieviel mehr Resourcen. Bei den Summen die sie ueber die Jahre von ihren IGPs kassieren haette es schon seit etlichen Jahren etwas in diesem Bereich bewegen koennen.

Schoen ich akzeptiere dass ein IGP eigentlich hauptsaechlich ein Office-Dingsbums ist und keine Einheit die man normalerweise fuer gaming benutzen wuerde, aber das heisst nun auch wieder nicht dass IGPs von AMD/NVIDIA nicht um einiges bessere Treiber haben.

Und da auch high end unter anderem erwaehnt wird, falls dieses auch ausserhalb von GPGPU gemeint ist, dann hoffentlich mit konkurrenzfaehiger Bildqualitaet. Intel haelt seit Jahren nichts besonderes von Geometrie, IQ und Treiberentwicklung. Die Unmenge an angesammelten SW-rendering Experten und u.a. ex-3DLabs engineers sagen mir persoenlich auch nicht viel. Das AF des seligen 3DLabs auf ihren GPUs war das schlechteste dass es im gesamten Markt gab.

Exxtreme
2008-07-06, 10:11:01
Ich bin mir doch sicher, dass Intel mehr Ressourcen dafür abstellen wird, wenn man Larrabee veröffentlicht.
Die bekommen nichtmal richtig stabile Treiber für ihre IGPs zustande oder erst recht spät.

S940
2008-07-06, 12:31:25
Streamprocessing ist noch eingeschränkter als normale Parallelisierung. Das heißt im Prinzip dass man immer die gleiche Operation auf unterschiedliche Daten ausführt.Meist Du das hier damit ?
http://media.arstechnica.com/staff.media/stream.gif
http://arstechnica.com/news.ars/post/20060918-7763.html
Im technical paper zum Rapidmind steht noch:
How to parallelize the application
The problem needs to be expressed in the form of a sequence of operations to be performed on a collection of data.
Das wäre dann der erste Nachteil der ganzen Geschichte.

ciao

Alex

Coda
2008-07-06, 14:10:11
Was heißt "der erste Nachteil". Das ist ganz einfach der entscheindene Nachteil an der Geschichte. Es gibt kein einfaches Parallelisierungsframework, weil es schlicht und einfach nicht möglich ist.

Streamprocessing ist auch das einzige was man auch mit sehr vielen Cores wirklich noch gut skalieren kann. Genau aus dem Grund skalieren GPUs ja auch fast linear über die Einheitenzahl von Low- zu High-End.

Adam D.
2008-07-06, 14:57:31
Die Frage bleibt aber dann wieviel mehr Resourcen. Bei den Summen die sie ueber die Jahre von ihren IGPs kassieren haette es schon seit etlichen Jahren etwas in diesem Bereich bewegen koennen.

Schoen ich akzeptiere dass ein IGP eigentlich hauptsaechlich ein Office-Dingsbums ist und keine Einheit die man normalerweise fuer gaming benutzen wuerde, aber das heisst nun auch wieder nicht dass IGPs von AMD/NVIDIA nicht um einiges bessere Treiber haben.
Kommt drauf an, wie ambitioniert sie das ganze angehen. Die sind ja nicht doof, die wissen ganz genau, dass die Treiber von AMD und Nvidia ein sehr gutes Bild abliefern, wenn man in diese Märkte eingreifen will, muss man ganz besonders viel Aufmerksamkeit den Treibern schenken.

Die bekommen nichtmal richtig stabile Treiber für ihre IGPs zustande oder erst recht spät.
Sie müssen es einfach nicht anders machen, das ist das Problem.

Exxtreme
2008-07-06, 15:05:20
Kommt drauf an, wie ambitioniert sie das ganze angehen. Die sind ja nicht doof, die wissen ganz genau, dass die Treiber von AMD und Nvidia ein sehr gutes Bild abliefern, wenn man in diese Märkte eingreifen will, muss man ganz besonders viel Aufmerksamkeit den Treibern schenken.


Sie müssen es einfach nicht anders machen, das ist das Problem.
Gute Treiberentwickler wachsen nicht auf Bäumen und ich wette, AMD und Nvidia haben jetzt schon so ziemlich die besten Leute in dem Bereich. Die müsste man abwerben und das wird dann teuer hoch drei. Alle anderen Grafikchip-Hersteller haben mittelmässige bis miese Treiber abgeliefert. Denen fehlt schlicht das Knowhow und Intel fehlt dies auch und zwar massiv.

Also ich sehe kurz- bis mittelfristig keine Chance für Intel brauchbares Personal zu finden damit diese gescheite Treiber auf den Weg bringen. Und selbst wenn sie das Treiberteam von NV oder so aberwerben, werden die Leute trotzdem Monate brauchen um die Treiber fertigzustellen. Alter Code gehört dem alten Arbeitgeber und so. ;)

Adam D.
2008-07-06, 15:17:19
Gute Treiberentwickler wachsen nicht auf Bäumen und ich wette, AMD und Nvidia haben jetzt schon so ziemlich die besten Leute in dem Bereich. Die müsste man abwerben und das wird dann teuer hoch drei. Alle anderen Grafikchip-Hersteller haben mittelmässige bis miese Treiber abgeliefert. Denen fehlt schlicht das Knowhow und Intel fehlt dies auch und zwar massiv.
Das ist so natürlich richtig, da widerspreche ich dir auch nicht. Aber ich kann mir einfach nicht vorstellen (so wie ich diese Firma einschätze), dass man mit Larrabee in Marktsegmente von Nvidia und ATi eindringen will, gute Technik dafür mitbringt, das ganze Projekt dann aber auf Software-Seite scheitert.

Also ich sehe kurz- bis mittelfristig keine Chance für Intel brauchbares Personal zu finden damit diese gescheite Treiber auf den Weg bringen. Und selbst wenn sie das Treiberteam von NV oder so aberwerben, werden die Leute trotzdem Monate brauchen um die Treiber fertigzustellen. Alter Code gehört dem alten Arbeitgeber und so. ;)
Wer weiß, was hinter den Kulissen läuft. Ich wage es nicht, da irgendwas zu "prophezeien".

Coda
2008-07-06, 15:39:11
Gute Treiberentwickler wachsen nicht auf Bäumen und ich wette, AMD und Nvidia haben jetzt schon so ziemlich die besten Leute in dem Bereich. Die müsste man abwerben und das wird dann teuer hoch drei. Alle anderen Grafikchip-Hersteller haben mittelmässige bis miese Treiber abgeliefert. Denen fehlt schlicht das Knowhow und Intel fehlt dies auch und zwar massiv.
Intel hat so massiv viel Kohle dass das schlicht und einfach scheiß egal sein dürfte wenn sie für einige Zeit Leuten das fünffache von ATI oder NVIDIA bezahlen. Unterschätze den Laden nicht. Intel weiß sehr genau dass es Larrabee strategisch unglaublich wichtig ist. Da werden keine halben Sachen gemacht.

Zudem sind die Intel-Treiber gar nicht mehr so übel, es läuft sogar schon Crysis unter D3D10 auf den IGPs. Andererseits habe ich aber auch schon von Gerüchten gehört dass die Larrabee-Treiber-Codebase sowieso nichts damit zu tun hat.

BlackBirdSR
2008-07-06, 23:28:04
Larrabee mit P54C?
http://www.heise.de/ct/08/15/022/


denkt noch jemand ausser mir, dass dies einfach nur bullshit ist?
Mag ja sein, dass man einfache Kerne nimmt, die vom Aufbau ähnlich dem ersten Pentium sind.

Aber CISC-Chips ohne x86-Decoder, keine Verlängerung der Pipelinestuktur um 3GHz zu erreichen?. Keine zusätzlichen Pipelinestufen, die alten FPUs und inflexible Integereinheiten? Dazu altmodische und völlig veraltete Caches?

Kann sich auch keiner vorstellen? - Dann ist es auch kein Pentium P54C mehr. Also was reden die für einen Stuss?

Coda
2008-07-06, 23:29:49
denkt noch jemand ausser mir, dass dies einfach nur bullshit ist?
*meld* :rolleyes:

transstilben
2008-07-07, 00:13:20
Larrabee mit P54C?
http://www.heise.de/ct/08/15/022/


denkt noch jemand ausser mir, dass dies einfach nur bullshit ist?


Die Frage, die augenscheinlich dahintersteckt, ist doch die, welche Komplexität man einem einzelnen Kern im Larabee
zutrauen darf. Insofern leuchtet mir ein Vergleich mit einem "frühen" Pentium ein (Mit größenordnungsmäßig einer Million
Transistoren pro Core liegt man sicher nicht so falsch.)
Ich denke, Stiller hat darauf selbst keine befriedigende Antwort und da er das Prozessorgeflüster irgendwie gefüllt
bekommen muß, phantasiert er ein bißchen was zusammen.
Wenn man sich andererseits mal z.B. Cell und Polaris anschaut,
bekommt man meiner Meinung nach die ein oder andere mögliche Antwort.

S940
2008-07-07, 00:59:19
Larrabee mit P54C?
http://www.heise.de/ct/08/15/022/
Schau mal 3 Seiten früher ;-)

Aber CISC-Chips ohne x86-Decoder, keine Verlängerung der Pipelinestuktur um 3GHz zu erreichen?. Keine zusätzlichen Pipelinestufen, die alten FPUs und inflexible Integereinheiten? Dazu altmodische und völlig veraltete Caches?
Im Artikel gehts nur um 2 GHz, und selbst die zweifle ich an. AMD hat gerade nen 750 MHz Chip draußen, nvidia schafft bei den Shadern immerhin 1,5 GHz. Irgendwas dazwischen sollte für einen 45nm P1 schon drin sein, soweit ich mich noch erinnern kann, gabs noch 250nm P1 für notebooks(Tillamook ), die liefen schon mit bis zu 266 Mhz und per oc war Einiges mehr drin, falls man das Glück hatte, dass ein desktop board die CHIPs erkannte.

MMX samt FPU interessiert keinen, hast Du überlesen, dass da ne 512bit AVX 2.0 Einheit drangeflanscht wird ?

Integereinheit interessiert auch keinen ... siehe AVX 2.0 :)
Caches .. AMD hat gerade selbst erst 16kB Caches für die SPU Gruppen nachgerüstet .. scheint also zu reichen, oder meinst Du was andres unter "veraltet", außer der Größe ?
Kann sich auch keiner vorstellen? - Dann ist es auch kein Pentium P54C mehr. Also was reden die für einen Stuss?
Jo, P54C triffts irgendwie falsch. 64bit wird man wohl auch noch nachrüsten, das scheint dann eher ne Art Atom zu werden.

Wie auch immer, ich denke das P54C sollte man als x86 in-order Core lesen, mehr ist eh noch nicht bekannt.

ciao

Alex

BlackBirdSR
2008-07-07, 06:13:30
Schau mal 3 Seiten früher ;-)


Alex

Mir gehts hauptsächlich darum, dass jemand wie Heise so schreibt als wären das wirklich P54C. Überall findet man jetzt nämlich Meldungen, wonach der P54C ein ähnliches Revival wie der PentiumM feiert.

Eine schreibt halt so einen Mist, und die anderen schreiben blind ab und glauben es. Das regt mich auf.

Beim Rest hast du schon recht. Ist dann halt alles! andere als ein P54C

Bokill
2008-07-07, 07:26:50
Larrabee mit P54C?
http://www.heise.de/ct/08/15/022/


denkt noch jemand ausser mir, dass dies einfach nur bullshit ist?
Mag ja sein, dass man einfache Kerne nimmt, die vom Aufbau ähnlich dem ersten Pentium sind. ... "Stuss" ist ein zu hartes Wort, zumal der Stiller das auch sehr schwammig im eigentlichen Text formuliert (entgegen der Überschrift im Artikel).

Was ich mir vorstellen kann, das ist so etwas wie der "Atom" (In Order Design + SMT-Technik), allerdings dann mit Intra-Connects im Stil des Polaris.

Die Larrebee-Diskussion derzeit kommt mir so vor, wie die Diskussion welche Kerne denn im Niagara von Sun drin sind. Heise schrieb zu diesem Punkt es wären SPARC II drin ... Sun hingegen verneint dies und verweist auf das aufgekaufte Start-Up Afara, die eben jene Kerne für den "Niagara" entworfen hätten.

MFG Bobo(2008 )

CrazyIvan
2008-07-07, 09:01:56
Was mich ein wenig stutzig macht ist der Transistorcount. Wenn es wirklich 32 P54C sein werden, dann sind das gerade mal 100 Mio Transistoren. Wäre der angeflanschte Rest wirklich so mächtig, dass daraus dann in nem fortschrittlichen Herstellungsprozess ein 300W Monster wird? Ich meine, pi * Daumen kann intel doch bis dahin mindestens nen 2,5 Mrd. Transistorchip bauen, nimmt man die Verlustleistung als Zielgröße. Passt imho hinten und vorne nicht.

seahawk
2008-07-07, 09:19:53
Der Takt spielt aber auch ne erhebliche Rolle.

BlackBirdSR
2008-07-07, 09:37:20
Und wie gesagt: Es sind keine P54C. Das ist Quatsch.
Schon alleine wegen den Unterschieden, den Änderungen an der Pipeline, den Caches und dem Microcode.

Coda
2008-07-07, 15:48:30
Es sind auch keine 300W. Das ist nur die maximale PCIe TDP.

Hvoralek
2008-07-07, 17:11:18
Was mich ein wenig stutzig macht ist der Transistorcount. Wenn es wirklich 32 P54C sein werden, dann sind das gerade mal 100 Mio Transistoren. Wäre der angeflanschte Rest wirklich so mächtig, dass daraus dann in nem fortschrittlichen Herstellungsprozess ein 300W Monster wird? Ich meine, pi * Daumen kann intel doch bis dahin mindestens nen 2,5 Mrd. Transistorchip bauen, nimmt man die Verlustleistung als Zielgröße. Passt imho hinten und vorne nicht.Diese "eigentlichen" CPU- Kerne wären sowieso nur Kleinkram. Das Wesentliche bei dem Chip dürften FPU- Einheiten und TMUs werden.

Gast
2008-07-08, 12:55:03
Und wie gesagt: Es sind keine P54C. Das ist Quatsch.
Schon alleine wegen den Unterschieden, den Änderungen an der Pipeline, den Caches und dem Microcode.


Wirklich?

Slashdot: Larrabee Based On a Bundle of Old Pentium Chips

"Intel's Pat Gelsinger recently revealed that Larrabee's 32 IA cores will in fact be based on Intel's ancient P54C architecture, which was last seen in the original Pentium chips, such as the Pentium 75, in the early 1990s. The chip will feature 32 of these cores, which will each feature a 512-bit wide SIMD (single input, multiple data) vector processing unit."



Link: http://future-design.freehostia.com/future-design/meet-the-laptop-youll-use-in-2015/

S940
2008-07-08, 14:49:46
Wirklich?
Jo, les genau:
"Intel's Pat Gelsinger recently revealed that Larrabee's 32 IA cores will in fact be based on Intel's ancient P54C architecture ...

Die Cores basieren auf nem P1, werden aber um einiges modernisiert sein. Im Endeffekt kommt am Ende halt was Neues raus.

Genauso falsch wäre zu sagen, heutige Core2 CPUs *sind* nur PentiumPros. Sind sie eben nicht, sie basieren nur darauf und seit dem Urdesign wurden einige bells and whistles dazugebastelt :)

Edit:
Dein Link geht nicht, hier das Orginal:
http://hardware.slashdot.org/hardware/08/07/07/1945203.shtml

ciao

Alex

Coda
2008-07-08, 14:56:40
Ich glaube da wurde der Her Gelsinger vor allem mal wieder missverstanden. Er hat wahrscheinlich gesagt die Architektur basiert auf einer In-Order-Struktur wie beim Pentium MMX.

Gast
2008-07-08, 15:09:30
Ich glaube da wurde der Her Gelsinger vor allem mal wieder missverstanden. Er hat wahrscheinlich gesagt die Architektur basiert auf einer In-Order-Struktur wie beim Pentium MMX.
ich glaube da glaubst du falsch, er wird schon genau wissen was er gesagt hat und es macht sehr sinn das rad nicht neu zu erfinden sondern bewerte chips zu nutzen.

Gast
2008-07-08, 15:19:18
Und wie gesagt: Es sind keine P54C. sagt ja auch niemand, der Intel chef sagt lediglich, dass die Larrabee cores darauf bassieren. kleiner aber feiner unterschied.

BlackBirdSR
2008-07-08, 15:19:19
ich glaube da glaubst du falsch, er wird schon genau wissen was er gesagt hat und es macht sehr sinn das rad nicht neu zu erfinden sondern bewerte chips zu nutzen.

Warum neu erfinden? Man hat doch Atom.
Mein Argument (das es zu zerschlagen gilt):

Ein P54C hat hat weder vom Design noch der µArchtektur die Möglichkeit auf 2GHz zu kommen. Sein Befehlssatz umfasst keinerlei 512Bit Vektor-Datensätze.
Keine Entsprechenden Datenpfade übrigens.
Die Integereinheiten sind extrem beschränkt was die Ausführung eines 2. Befehls angeht. Es gibt keinerlei Vorbereitung auf SMT und die Caches sind verglichen mit heute einfach ein Witz. Niemals bekäme man so die nötigen Durchsätze für die angesprochene Leistung.

Nun kann man das alles beheben. Hat dann aber ne ganz andere CPU, die ein ähnliches Konzept aber völlig unterschiedliche Interna aufweist. Atom ist ja nichts anderes... nur dass nicht sicher ist ob es sich um einen vollständigen CISC-Prozessor handelt oder wieder mit µops gearbeitet wird.

@Gast:
Schau mal die vielen Newsmeldungen. Die meisten reden von genau dem P54C. Sogar C't

S940
2008-07-08, 15:26:40
Jungs ist doch jetzt egal ob es ein primitiver in-order Core mit 512bit Vektor Einheit wird, oder ein primitiver in-order core mit 512bit Vektor Einheit der irgendwo/irgendwie vom P1 Design abgeleitet ist.

Ich seh da nicht viel Unterschied.

Genaues weiß man eh nicht und vom P1 bliebe so oder so nicht mehr viel übrig ...

ciao

Alex

Gast
2008-07-08, 15:32:31
Larrabee mit P54C?
http://www.heise.de/ct/08/15/022/


denkt noch jemand ausser mir, dass dies einfach nur bullshit ist?
Mag ja sein, dass man einfache Kerne nimmt, die vom Aufbau ähnlich dem ersten Pentium sind.

Aber CISC-Chips ohne x86-Decoder, keine Verlängerung der Pipelinestuktur um 3GHz zu erreichen?. Keine zusätzlichen Pipelinestufen, die alten FPUs und inflexible Integereinheiten? Dazu altmodische und völlig veraltete Caches?

Kann sich auch keiner vorstellen? - Dann ist es auch kein Pentium P54C mehr. Also was reden die für einen Stuss?
*melden*

idiotisch... meiner "unwissenden" kenntnis (widerspruch ahoi) zufolge wäre der aufwand für neue caches, verbesserte FPUs, neue integereinheiten, einen hub usw. grösser als eine neuentwicklung, vielleicht mit basis des pentium m, dem ja schon nachgesagt wird, ein verbesserter p3 zu sein... das wäre ja das perfekte pentium design...

Gast
2008-07-08, 15:42:36
Warum neu erfinden? Man hat doch Atom.war sicher noch nicht reif als Larrabee entwicklung anfing.


Mein Argument (das es zu zerschlagen gilt):

Ein P54C hat hat weder vom Design noch der µArchtektur die Möglichkeit auf 2GHz zu kommen. Sein Befehlssatz umfasst keinerlei 512Bit Vektor-Datensätze. deswegen 'basiert' Larrabee darauf, es ist keine sammlung von _irgendwelchen_ schon existierenden intel cores.

Keine Entsprechenden Datenpfade übrigens.
Die Integereinheiten sind extrem beschränkt was die Ausführung eines 2. Befehls angeht. Es gibt keinerlei Vorbereitung auf SMT und die Caches sind verglichen mit heute einfach ein Witz. Niemals bekäme man so die nötigen Durchsätze für die angesprochene Leistung.was hindert intel daran den pentium trotzdem als basis zu nehmen? kennst du ein intel design dass erprobter und besser geeignet waere?


Nun kann man das alles beheben. Hat dann aber ne ganz andere CPU, die ein ähnliches Konzept aber völlig unterschiedliche Interna aufweist. Atom ist ja nichts anderes... nur dass nicht sicher ist ob es sich um einen vollständigen CISC-Prozessor handelt oder wieder mit µops gearbeitet wird.

intel hat sicher alles umgestript was noetig war, aber ich denke schon dass der pentium dafuer die beste basis bot, da er der letzte/beste in-order 'core' war. ich sehe auch nicht was dagegen spricht oder wieso der intel cheffe da was vorspielen muesste. ich denke das was er am meisten sagen will ist dass es ein x86 ist. einfach um zu sagen, dass es etwas bewehrtes ist was alles kennen und worauf jeder schon geschriebene software laufen sollte. was deren compiler dann daraus macht mag kein cisc sein, aber es ist wenigstens keine komplett andere arhitecture. kurz: der assembler den man mal fuer den pentium schrieb sollte darauf laufen.

@Gast:
Schau mal die vielen Newsmeldungen. Die meisten reden von genau dem P54C. Sogar C't
ja, c't halt. ich beziehe mich eher auf die intel jungs.

BlackBirdSR
2008-07-08, 15:49:15
deswegen 'basiert' Larrabee darauf, es ist keine sammlung von _irgendwelchen_ schon existierenden intel cores.


Dann sind wir uns ja eigentlich einig ;) Modifiziert und basierend vielleicht, aber genau dieser Core eben nicht.
Mir geht es darum, dass viele News-Schreiber blind den P54C übernehmen und glauben. Und die Leser glauben es...

S940
2008-07-09, 12:03:16
Auch nicht schlecht, das Pentagon "ist Schuld":
Quite some time ago, after the Pentium was obsolete and Intel had moved on, the company gave the RTL code for the processor to the Pentagon so that the military could continue to fabricate a radiation hardened version of it for use in military applications.(...)
A few years later, when the Pentagon had moved on from the P54C, they offered the RTL back to Intel. So Intel took the core, which has a very small footprint and by this time had been pretty thoroughly debugged, and modified it for use in the many-core chip that later became Larrabee.
While I'm just spilling all kinds of Larrabee beans, I might as well drop another, performance-related tidbit that came my way. In an upcoming SIGGRAPH paper, Intel will claim that Larrabee has 20x the performance per watt of a Core 2 Duo and half the single-threaded performance. It also has a 4MB coherent L2, and three-operand vector instructions.
http://arstechnica.com/news.ars/post/20080708-intels-larrabee-gpu-based-on-secret-pentagon-tech-sorta.html

ciao

Alex

BlackBirdSR
2008-07-09, 12:10:58
Naja... also nicht genau P54C aber anscheinend sehr nahe dran. Bin ja gespannt wie nahe.
2GHz mit der alten Pipeline klingt verdammt viel. Das Backend müsste man auch ordentlich umbauen, Registerfiles ändern und hinzufügen, Datenpfade und Frontend modifizieren.

Gast
2008-07-10, 00:15:26
häh wieso muss das militär die pläne für den chip an intel zurückgeben haben die die selber nicht mehr ??? oder sind das so heftige änderungen die die gemacht haben?

Gast
2008-07-10, 08:43:15
DreamWorks setzt nun (u.a.) auf Larrabee Chips. Hat Intel hier maßgeblich geschmiert, oder warum setzen sie ihre proprietäre Software nicht einfach auf GPGPUs (z.B. Cuda) um. Hier scheint es doch nur um viel Teraflops, also Rechenleistung zu gehen und um nichts anderes. Ist hier etwa die IA-Kompatibilität der Larrabee-Kerne das entscheidende Argument. Bestehende Render-Software auf Larrabee umzusetzen ist wohl doch das entscheidende Stückchen einfacher als auf (z.B.) CUDA zu übersetzen?!

"... Die DreamWorks-Animatoren hatten seit 2005 AMDs Opteron-Prozessoren mit zwei Kernen verwendet, nun sollen Prozessoren der kommenden Nehalem-Generation (mit bis zu acht Cores/16 Threads) sowie Larrabee-Chips (zwischen 10 und 100 Cores) eingesetzt werden. "Wir waren mit AMD bislang zufrieden, aber in Bezug auf die Core-Zahl deckt sich die Intel-Roadmap eher mit unseren Bedürfnissen", wird der Vizechef der Dreamworks-Produktionsabteilung, John Batter, von AP zitiert. ..."

http://www.heise.de/newsticker/DreamWorks-Animation-wechselt-von-AMD-zu-Intel--/meldung/110652

MEDIC-on-DUTY
2008-07-10, 15:40:23
Fall es nicht bereits erwähnt wurde: In der aktuellen Ausgabe der CT ist ein schöner Artikel zum Thema Vor- und Nachteile von Raytracing bzw. der Vergleich mit der aktuellen GPU-Methodik erschienen. Hier wird auch auf Larrabee eingegangen.

Aber wie ich Euch kenne, habt ihr den schon ganz brav gelesen... :wink:

Gast
2008-07-10, 16:41:32
Fall es nicht bereits erwähnt wurde: In der aktuellen Ausgabe der CT ist ein schöner Artikel zum Thema Vor- und Nachteile von Raytracing bzw. der Vergleich mit der aktuellen GPU-Methodik erschienen.
Der bis auf das Fazit eigentlich fachlich relativ schlecht ist.

MEDIC-on-DUTY
2008-07-10, 21:55:30
Der bis auf das Fazit eigentlich fachlich relativ schlecht ist.

Aber Du musst zugestehen, dass er für "Normalsterbliche" gut verständlich geschrieben wurde. Es ist sicherlich nicht immer leicht den Spagat zwischen fachlich und leicht verständlich zu schaffen.

Avalox
2008-07-10, 23:46:34
Was sind den dieses für Larrabee-Chips mit 100 Cores, von den dort die Rede ist?

Gast
2008-07-11, 02:50:16
Aber irgendwie wird der Larrabee Intel nun auch nicht helfen.(Siehe Nvidia/Intel Bash,was besser aufrüsten,Gpu oder Cpu)
Wozu auf einen teuren Prozessor updaten,wenn man mit dem Larrabee (der wohl kaum dieses Preisniveau erreichen wird) etwa Hd-Filme/Bilder weit schneller encoden und bearbeiten kann?

Gast
2008-07-11, 08:45:21
Aber irgendwie wird der Larrabee Intel nun auch nicht helfen.(Siehe Nvidia/Intel Bash,was besser aufrüsten,Gpu oder Cpu)
Wozu auf einen teuren Prozessor updaten,wenn man mit dem Larrabee (der wohl kaum dieses Preisniveau erreichen wird) etwa Hd-Filme/Bilder weit schneller encoden und bearbeiten kann?Hohe Single-Thread Leistung ist noch immer wichtig und wird weiterhin wichtig sein. Larrabee, als X86-Vertreter, wird und soll in Konkurrenz zu jener Hardware stehen, die zu einem hohen Maße parallelisierbar ist und/oder von hoher SIMD-Rechenleistung profitieren kann. Core2->Core3(?) geschieht somit aus anderen Gründen.

S940
2008-07-11, 09:01:05
Was sind den dieses für Larrabee-Chips mit 100 Cores, von den dort die Rede ist?
Die verwechseln da sicherlich was mit Polaris, von Larrabee sind bisher 48 Kerne das höchste der Gefühle:
http://pc.watch.impress.co.jp/docs/2007/0611/kaigai364_03l.gif
http://translate.google.com/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2007%2F0611%2Fkaigai364 .htm&langpair=ja%7Cen&hl=en&safe=off&ie=UTF-8&oe=UTF-8&prev=%2Flanguage_tools
Aber vielleicht meinen die das auch langfristig, da hat Intel ja 100 Cores angekündigt:
http://pc.watch.impress.co.jp/docs/2007/0611/kaigai364_05l.gif
(da steht IA, also ist das kein Polaris)

ciao

Alex

deekey777
2008-07-13, 18:34:15
In der aktuellen c't (15/2008) ist ein Artikel über Raytracing (ab Seite 156). Auf der Seite 160 steht etwas zu Larrabee, was irgendwie dem widerspricht, was im Prozessorgeflüster dieser Ausgabe steht. Oder ich überlese etwas:
"Es könnte aber auch deutlich schneller gehen, denn Intel will bereits 2009 den Many-Core-Grafikprozessor Larrabee mit neuartigen SIMD-Einheiten einführen. Diese Vektor-Rechenwerke sollen nicht nur - wie Sandy Bridge - sieben, sondern gleich sechzehn Gleitkomma-Berechnungen parallel ausführen. Ein Larrabee-Chip mit 16 Kernen und 2 GHz würde mit 512 GFLOPS* immerhin hast die Hälfte der benötigten Leistung liefern."

Hä? Da fehlen 512 GFLOPS (bei einem 16-Core-Chip). :|


*1200 GFLOPS sollen für 720p, 45 Bildern/s und 24 Strahlen pro Pixel nötig sein.

Gast
2008-07-14, 16:00:53
In der aktuellen c't (15/2008) ist ein Artikel über Raytracing (ab Seite 156). Auf der Seite 160 steht etwas zu Larrabee, was irgendwie dem widerspricht, was im Prozessorgeflüster dieser Ausgabe steht. Oder ich überlese etwas:
"Es könnte aber auch deutlich schneller gehen, denn Intel will bereits 2009 den Many-Core-Grafikprozessor Larrabee mit neuartigen SIMD-Einheiten einführen. Diese Vektor-Rechenwerke sollen nicht nur - wie Sandy Bridge - sieben, sondern gleich sechzehn Gleitkomma-Berechnungen parallel ausführen. Ein Larrabee-Chip mit 16 Kernen und 2 GHz würde mit 512 GFLOPS* immerhin hast die Hälfte der benötigten Leistung liefern."

Hä? Da fehlen 512 GFLOPS (bei einem 16-Core-Chip). :|


*1200 GFLOPS sollen für 720p, 45 Bildern/s und 24 Strahlen pro Pixel nötig sein.
http://www.heise.de/ct/08/15/022/
"Das ergibt mit Multiply-Add-Befehlen maximal 32 Flop/Takt in einfacher Genauigkeit (SP), die fürs Visual Computing völlig ausreicht. Bei 32 Kernen würden dann schon 2 GHz Takt reichen, um die 2-Teraflops-Marke zu erreichen"
bei 16 kernen wohl also 1024GFlops

Gast
2008-07-14, 19:17:43
Hohe Single-Thread Leistung ist noch immer wichtig und wird weiterhin wichtig sein.
Wofür?Der Larrabee deckt genau die Bereiche ab,für die früher die leistungsfähigsten "üblichen" Gpus benötigt wurden.Warum sollte der Heimanwender seine Cpu updaten?(so oft wie früher)

Gast
2008-07-14, 19:18:01
Ich meinte Cpus.

Gast
2008-07-15, 00:59:47
Wofür? ...Für alle Aufgaben, die sich schlecht oder gar nicht parallelisieren lassen bzw. keine hohe Gleitkommaleistung benötigen. Welche das genau sind, und ob die Leistung wirklich benötigt wird, muß jeder für sich selbst entscheiden.

Eine neue, noch mehr aufgeblasene Version welcher Software auch immer, wird möglicherweise eine betagte CPU gehörig ins Schwitzen bringen und den Nutzer an die Grenzen seiner Geduld.

Sicher wird Larrabee die komplexen Aufgaben der Bild- und Videobarbeitung mehr noch als die Konkurrenz von ATI und NV in Echtzeit beherrschen und in Punkto Spiele wird die Grafik bzw. Physik einen Schub bekommen können, aber eine komplexe Logik mit aufwändiger KI fordert auch zukünftig eine sehr schnelle Verarbeitung mit einer Anzahl Threads, die an einer Hand abzählbar sind.

Gast
2008-07-15, 09:12:53
es ist schwer etwas zu finden was sich nicht parallelisieren laesst. vielleicht mal ein crc32. aber bei einer groesseren software kann man das eigentlich immer.

Exxtreme
2008-07-15, 09:22:39
es ist schwer etwas zu finden was sich nicht parallelisieren laesst. vielleicht mal ein crc32. aber bei einer groesseren software kann man das eigentlich immer.
Die Frage ist eher ob man das auf Zig Kerne aufteilen kann.

Gast
2008-07-15, 10:09:43
es ist schwer etwas zu finden was sich nicht parallelisieren laesst. vielleicht mal ein crc32. aber bei einer groesseren software kann man das eigentlich immer.Wenn das so leicht wäre, wie du jetzt behauptest, dann hätten wir schon massenweise Spiele, die über alle angebotenen Kerne skalieren und dazu voll auslasten. Die Tatsachen sprechen eindeutig gegen deine Aussage.

Gast
2008-07-15, 16:46:55
Die Frage ist eher ob man das auf Zig Kerne aufteilen kann.
die frage stellt sich eher weniger, die frage ist eher ob ein entwickler dazu faehig ist. das ist nicht jedermans sache.

Gast
2008-07-15, 16:49:30
Wenn das so leicht wäre, wie du jetzt behauptest, dann hätten wir schon massenweise Spiele, die über alle angebotenen Kerne skalieren und dazu voll auslasten. Die Tatsachen sprechen eindeutig gegen deine Aussage.
zwischen moeglichkeit und leichtigkeit besteht garkeine relation und schon garnicht, ob es gemacht wird. es ist auch leicht moeglich eine geschlechtsumwandlung zu machen und dass hier nicht alle wechseln ist garkein beweis des gegenteils.

CrazyIvan
2008-07-15, 18:42:42
zwischen moeglichkeit und leichtigkeit besteht garkeine relation und schon garnicht, ob es gemacht wird. es ist auch leicht moeglich eine geschlechtsumwandlung zu machen und dass hier nicht alle wechseln ist garkein beweis des gegenteils.
Nicht alles was hinkt ist ein Vergleich!
Tatsache ist, dass sich Multicore CPUs immer weiter am Markt durchsetzen. Und ebenso ist es eine Tatsache, dass Software-Entwickler im Rahmen gewisser Grenzen versuchen, sich an verbreitete Hardware anzupassen und deren Vorteile zu nutzen. Und bei dem Sachverhalt, um den es hier geht, ist die allgemeine Marktlage tatsächlich ein Beweis dafür, dass sich nicht mal eben fast alles parallelisieren lässt - und das auch noch einfach so im Vorbeigehen.

Coda
2008-07-15, 19:08:01
die frage stellt sich eher weniger, die frage ist eher ob ein entwickler dazu faehig ist. das ist nicht jedermans sache.
Die Frage stellt sich sehr wohl. Soweit ich weiß ist CRC32 ein iteratives Verfahren - soll heißen ein Schleifendurchgang ist immer vom letzten abhängig - wie willst du das parallelisieren?

Das dürfte schlicht und einfach unmöglich sein.

Gast
2008-07-18, 09:44:23
Die Frage stellt sich sehr wohl. Soweit ich weiß ist CRC32 ein iteratives Verfahren - soll heißen ein Schleifendurchgang ist immer vom letzten abhängig - wie willst du das parallelisieren?

Das dürfte schlicht und einfach unmöglich sein.
1. sagte ich das schon. "es ist schwer etwas zu finden was sich nicht parallelisieren laesst. vielleicht mal ein crc32. "
2. sagte ich dass man dann eher auf applikationsebene optimiert, du wirst wohl kaum eine app haben die nur CRC32 berechnet.
3. CRC32 ist in 99.9% der faelle nur die loesung fuer eine anforderung/ein problem. das kann man man auch anders loesen z.b. mehrere crc32 komibinieren. je nach anforderung, solange das resultat deterministisch ist fuer einen datensatz, hat man den hash.
4. ja, wenn man nun wirklich irgendwo auf der welt eine app hat die nur ein crc32 zeitkritisch rechnet, und das auch nur jeweils fuer einen datensatz machen darf, dann waere es sicherlich von vorteil statt 4cores einen einzigen mit 5 statt den momentanen 3.2ghz zu haben.


aber rational gesehen waere es laecherlich wegen dieser einen app das potential von fast allen anderen zu beschneiden viel schneller zu laufen dank x-cores.
zudem sollte man sich anschauen was multicore/simd/etc. fuer einen zweck haben, eigentlich nur dependencies zu umgehen. ich verstehe nicht wie man nach einem einzigen core schreien kann. je groesser der takt, desto laenger ist meistens die pipeline, desto groesser die latenz (in cycle). man hat dann also theoretisch vielleicht doppelte taktung, aber praktisch bedeutet das, dass man doppelt soviele cycles jeweils auf die vorherige operation wartet.

es ist meist nicht so als ob die cpus wenig rechenleistung haetten, sie warten die meiste zeit ueber.

turboschlumpf
2008-07-19, 09:56:52
Hm...


Kommt Larrabee auch ohne DirectX/OpenGL aus?

[...]

So sei ebenfalls ein „Direct Mode“ möglich, mit dem man die beiden Schnittstellen umgehen könnte. Was genau der Direct Mode ist und wie die Implementierung von statten geht, bleibt jedoch noch unbekannt. Ebenso sind die Unterschiede zu Direct3D und OpenGL unklar. Der Name „Direct Mode“ könnte aber zumindest die Vermutung aufkommen lassen, das man damit die Larrabee-GPU näher an der Hardware programmieren könnte, also eine Art Assembler-Code.

[...]

Quelle: http://www.computerbase.de/news/hardware/grafikkarten/2008/juli/kommt_larrabee_directx_opengl/




Larrabee doesn't need DirectX

[...]

At launch we should expect to see at least six games that have been specifically designed to take advantage of the features on offer from Larrabee, but Intel doesn't seem to have revealed details about which six titles this will be.

[...]

Quelle: http://www.fudzilla.com/index.php?option=com_content&task=view&id=8485&Itemid=1

crux2005
2008-07-19, 11:10:27
bin mal gespannt was für games es werden, tetris, ray-trace your desktop, ray-trace your photos und co? :rolleyes:

Gast
2008-07-19, 11:19:14
bin mal gespannt was für games es werden, tetris, ray-trace your desktop, ray-trace your photos und co? :rolleyes:

Vielleicht kommt ja das vecktorbasierende Desktop für die Massen wieder. Das wäre echt krass und von der Performance mit Larrabee und aktueller CPUs bestimmt locker machbar.

Aber die Idee von Fotos finde ich am besten. ;)

Demirug
2008-07-19, 11:25:05
Sowas hatte 3dfx auch. Nannte sich Glide. ;)

Im Prinzip könnte jeder GPU Hersteller seine eigene 3D API mit ausliefern. Sie tun es aber nicht weil sie schon lange kapiert haben was für ein Blödsinn das ist.

CrazyIvan
2008-07-19, 11:47:34
Vielleicht kommt ja das vecktorbasierende Desktop für die Massen wieder. Das wäre echt krass und von der Performance mit Larrabee und aktueller CPUs bestimmt locker machbar.

Aber die Idee von Fotos finde ich am besten. ;)
Hat das nicht Vista schon lang erledigt, oder meinst Du was anderes?

S940
2008-07-19, 11:53:06
Im Prinzip könnte jeder GPU Hersteller seine eigene 3D API mit ausliefern. Sie tun es aber nicht weil sie schon lange kapiert haben was für ein Blödsinn das ist.Jo, aber für Raytracing gibts ja noch nix, da muss man zwangsläufig seine eigene Schnittstelle schaffen.

ciao

Alex

Demirug
2008-07-19, 12:02:14
Jo, aber für Raytracing gibts ja noch nix, da muss man zwangsläufig seine eigene Schnittstelle schaffen.

ciao

Alex

Für Raytracing gibt es OpenRT.

IMHO hat dieser „Direct Mode“ aber gar nichts mit 3D zu tun sondern es geht darum den erweiterte x86 Code direkt ausführen zu lassen.

Kriton
2008-07-19, 12:17:14
Was würde das in der Realität bedeuten?

Gast
2008-07-19, 12:18:34
Für Raytracing gibt es OpenRT.
Das ist eingestampft.
Die Leute sind alle bei Intel/Nvidia, Intrace ist bankrott und der Lehrstuhl baut gerade was neues.

S940
2008-07-19, 13:15:16
IMHO hat dieser „Direct Mode“ aber gar nichts mit 3D zu tun sondern es geht darum den erweiterte x86 Code direkt ausführen zu lassen.
Wo ist dann der Unterschied zu normalen x86 Code mit eingestreuten AVX Befehlen ?
Das ist eingestampft. Die Leute sind alle bei Intel/Nvidia
Naja, wenn die gleichen Leute jetzt bei Intel/nVidia sind, werden sie ja kaum das Rad neu erfinden ...

ciao

Alex

deekey777
2008-07-19, 14:23:17
Prozessorgeflüster: Von Intels Zukunft und dem guten alten Pentium (http://www.heise.de/ct/08/15/022/)


Klingt beeindruckend.
http://www.heise.de/ct/08/16/018/
:ulol:

Die Welt ist eine Scheibe...


Eins muss ich aber zugeben: Das Prozessorgeflüster ist extrem aktuell.

Gast
2008-07-20, 22:12:13
Hat das nicht Vista schon lang erledigt, oder meinst Du was anderes?

Ich meine eine Oberfläche, die komplette aus Vektoren besteht (also auch die verwendeten Systemgrafiken). Bei Vista habe ich bis jetzt gedacht, dass diese nicht vektorbasierend sind.

CrazyIvan
2008-07-21, 10:05:03
AFAIK ist aber genau das bei Vista der Fall. Sowohl Schriften, Symbole als auch Fenster sind vektorbasiert und können damit erstmals auflösungsunabhängig korrekt skaliert werden. Endlich können (zumindest theoretisch) Rentner Riesenschriften benutzen, ohne gleich Darstellungsfehler zu produzieren.

Wurde damals auch als DER Vorteil von Aero dargestellt. Kann allerdings sein, dass sich seit den frühen Betas, als ich davon hörte, bis zur jetzigen Verkaufsversion nochmal was geändert. Werde mich da mal bei Gelegenheit kundig machen.

CrazyIvan
2008-07-21, 10:08:26
@Gast
Auf die Schnelle nur das hier gefunden:
http://www.3sat.de/3sat.php?http://www.3sat.de/neues/sendungen/magazin/89321/index.html

sry 4 OT

Gast
2008-07-21, 11:14:23
@Gast
Auf die Schnelle nur das hier gefunden:
http://www.3sat.de/3sat.php?http://www.3sat.de/neues/sendungen/magazin/89321/index.html

sry 4 OT

Danke, danke.
Dann kann man ja doch locker Larrabee für die Oberfläche einsetzen. :D

JaDz
2008-07-21, 11:43:55
AFAIK ist aber genau das bei Vista der Fall. Sowohl Schriften, Symbole als auch Fenster sind vektorbasiert und können damit erstmals auflösungsunabhängig korrekt skaliert werden. Endlich können (zumindest theoretisch) Rentner Riesenschriften benutzen, ohne gleich Darstellungsfehler zu produzieren.
Das ist nicht der Fall. Das GUI ist nach wie vor bitmapbasiert. Neu ist nur, dass die Bitmaps in wesentlich höherer Auflösung meist PNG-komprimiert vorliegen und dadurch auch auf hochauflösenden Ausgabegeräten noch recht gut aussehen.

http://blogs.msdn.com/greg_schechter/archive/2006/08/07/690704.aspx

CrazyIvan
2008-07-21, 16:10:24
Das ist nicht der Fall. Das GUI ist nach wie vor bitmapbasiert. Neu ist nur, dass die Bitmaps in wesentlich höherer Auflösung meist PNG-komprimiert vorliegen und dadurch auch auf hochauflösenden Ausgabegeräten noch recht gut aussehen.

http://blogs.msdn.com/greg_schechter/archive/2006/08/07/690704.aspx
Entweder ich mache mich jetzt total zum Ei, oder in Deiner Quelle steht überhaupt nichts zu diesem Sachverhalt. Da geht es um die Komposition der Oberflächen zu rendernder Anwendungen aus Off-Screen Bitmaps. Sprich, jede Anwendung rendert sich in eine Art Buffer und wird anschließend als Textur weitergereicht. Daran allein lässt sich aber noch nicht festmachen, ob dieses Bitmap vorher vektorbasiert war oder nicht. Bei 3D-Grafik wird ja auch nix anderes gemacht, als ein Vektorbild durch Rasterisieren wieder in ein Bitmap umzuwandeln und an die Ausgabe zu schicken.

Na jedenfalls: Wenn ich Deine Quelle richtig verstanden habe, dann werden GDI Anwendungen wie unter XP behandelt, da sie ja eben nicht vektorbasiert sind. Das ist aber ein Problem der Anwendungen und nicht von Vista. Avalon-Anwendungen wiederum können (oder müssen?) vektorbasiert erstellt werden. Auch die Desktop Sidebar ist angeblich vektorbasiert.

Allerdings gibt diese (http://www.vista-blog.de/doch-keine-vektor-icons-in-vista/) Quelle Dir insofern recht, als dass Icons tatsächlich nicht vektorbasiert sind, da sich deren Details wohl sonst nicht so gut darstellen ließen. AFAIK war das ursprünglich mal geplant und erscheint auf den ersten Blick auch logisch, wurde dann aber wohl aus o.g. Grund verworfen.

Was ich jetzt eigentlich damit sagen will: Keine Ahnung ;)
Anscheinend ist die GUI von Vista ein buntes Sammelsurium aus vektorbasierten und bitmapbasierten Objekten. Rein vektorisiert ist sie also nicht - rein bitmapbasiert allerdings auch nicht.

Gast
2008-07-21, 16:16:23
Soweit ich weiss funktioniert auflösungsunabhängige GUI nur mit WPF-Anwendungen. Und davon gibt es bisher (fast) nichts.
Natürlich kann man auch andere Anwendungen skalieren, allerdings mit entsprechend bescheidenem Ergebnis.

Gast
2008-07-21, 16:25:55
Früher gabe es mal eine Betriebsystem mit vektorbasierender Oberfläche. Dies war aber einfach zu langsam. Denn die Hardware konnte nicht viel.
Wenn wir nun Larrabee hätten, könnten wir dies ohne Problem bewerkstelligen. Einfach Rat-Traycing über den gesamten Desktop und das wars. :D Spiegelungen wären auch kein Problem mehr und wir bräuchten kein umständlichen Framework in OpenGL oder DirectX geschrieben.

JaDz
2008-07-22, 23:03:26
Auch die Desktop Sidebar ist angeblich vektorbasiert.
Sie ist es nicht.

Soweit ich weiss funktioniert auflösungsunabhängige GUI nur mit WPF-Anwendungen. Und davon gibt es bisher (fast) nichts.
Natürlich kann man auch andere Anwendungen skalieren, allerdings mit entsprechend bescheidenem Ergebnis.
So ist es.

Zauberer
2008-07-29, 12:46:26
So ich oute mich mal.
Der Intel Larrabee enthält 100%tig PowerVR Technologie!

Edit:
Natürlich reine Spekulation!
Da aber die Intel Atom IGPs auch auf PowerVR basieren werden wäre es nah liegend, die Kompetenzen auch für Stand-Alone-Grafikkarten zu verwenden.
Quelle:
Intel® Centrino® Atom uses POWERVR Graphics and Video (http://www.imgtec.com/News/Release/index.asp?NewsID=370)

Vor allem sind die Lizenzkosten, für die IGPs wohl höher, da Intel mehr Grafikchips (IGP), als AMD und Nvidia zusammen vertickt!
Da würden die paar Larrabee Karten gar nicht ins Gewicht fallen.
Wie gesagt alles Spekulation, aber PowerVR hat die Kompetenz einen DX10.1 Chip samt Treiber zu entwickeln.
Gerade das ist bei Intel immer so ne Sache.

Ehrlich glaube ich nicht daran, das Intel einen Marktanteil über 25% bei Stand-Alone-Grafikkarten in den nächsten 2 Jahren erreichen kann.
Matrox hatte es ja mit Ihren Wunderchip, der Parhelia versucht, ist aber gescheitert.

ATI und NVidia butten nicht nur jedes Jahr Millionen in die Entwicklung, sondern auch eine Menge Know-How, das man nicht einfach mit Geld kompensieren kann, es sei den man bezahlt Lizenzen.

Das NVidia und ATi, im Moment unschlagbar auf der ganzen Welt bei Höchstleistung-Grafikchips sind, zeigen die PS3 und XBOX360, beide basieren auf ATi und NVidia.
Für ne Wii, wo Grafik nicht so wichtig ist, tut es aber auch ne ATi, oder?
Also nicht nur bei High End, sondern auch im mittlerem Bereich sind die beiden unschlagbar.

Intel müsste es schon knallen lassen, was ich nicht glaube, es sei den über den Preis, einen Larrabee, der so schnell wie ne GTX 260 oder ATi 4870 ist, für um die 100€ wäre wohl auch in einem Jahr Konkurrenzfähig.

Gerade wegen den Multiplattformtiteln der PS3 und der XBOX360, werden die Hardwareanforderungen nicht steigen, und Spiele wie Crysis, werden wohl wegen dem lieben Geld auch nur noch auf Multiplattform erscheinen.
Darum ist der Bedarf an High-End-Karten nicht mehr so groß wie noch vor 3 Jahren.
Eigenlich ein cleverer Schachzug in so einem Moment in den Grafikmarkt einzusteigen, denn nicht nur der Einstieg ist teuer, sondern man muss auch über Jahre regelmäßig Millionen in die Entwicklung buttern, nur so kann man mithalten, es sei denn man lizenziert, was ich im Fall von Intel für wahrscheinlicher halte.

robbitop@work
2008-07-29, 13:32:53
Quelle?
Soweit ich weiß entstand er aus dem Team: ex-Real3D, ex-3DLabs, ex-ATI und sicher noch ein paar eigenen Intel-CPU-Jungs.

PVR entwickelt derzeit für Intel IGP-Lösungen (AFAIK ab GMA X5500??) und embeded-Lösungen.

Avalox/Gast
2008-07-29, 14:16:20
In ein paar Tagen wird es ja detailierte Infos auf der SIGGRAPH geben.

Mal sehen ob die nVidia Aktie danach noch einen Schlag bekommt, oder ob es bei der ersten Verlautbarung zu CUDA schon gerreicht hat.

Gast
2008-08-01, 20:52:09
Matrox hatte es ja mit Ihren Wunderchip, der Parhelia versucht, ist aber gescheitert.

Ja, leider, und irgendwo unverdient...

gisbern
2008-08-02, 00:59:12
http://en.wikipedia.org/wiki/Matrox_Parhelia .......wenn das stimmt, war es sooooo unverdient nicht.....

Ailuros
2008-08-02, 08:19:17
So ich oute mich mal.
Der Intel Larrabee enthält 100%tig PowerVR Technologie!

Edit:
Natürlich reine Spekulation!
Da aber die Intel Atom IGPs auch auf PowerVR basieren werden wäre es nah liegend, die Kompetenzen auch für Stand-Alone-Grafikkarten zu verwenden.
Quelle:
Intel® Centrino® Atom uses POWERVR Graphics and Video (http://www.imgtec.com/News/Release/index.asp?NewsID=370)

Uhmmm BS ;) Larabee hat eine sehr wichtige Einzigartigkeit des PowerVR, aber nicht auf HW-Level. Es ist eine komplette Eigenentwicklung von Intel's Larabee Team.

Vor allem sind die Lizenzkosten, für die IGPs wohl höher, da Intel mehr Grafikchips (IGP), als AMD und Nvidia zusammen vertickt!
Da würden die paar Larrabee Karten gar nicht ins Gewicht fallen.
Wie gesagt alles Spekulation, aber PowerVR hat die Kompetenz einen DX10.1 Chip samt Treiber zu entwickeln.
Gerade das ist bei Intel immer so ne Sache.

SGX545 = 10.1
>SGX545 = >10.1

Larabee = D3D11 und siehe oben.

***edit: verdammt OT aber ich bin zu faul einen neuen Thread aufzumachen...AMD ist weg vom Fenster was den handheld/PDA Markt betrifft. Damit stossen sie Qualcolmm und STMicro einen netten Balken in den Hintern; der core war sowieso nichts allzu besonderes womoeglich eher streng auf OGL-ES2.0 Niveau und nicht hoeher als SM2.0. NV hat vor 2 Jahren einen fetten Deal fuer einen handheld gelandet, der APX 2500 ist aber gigantisch und einige wichtige Features gehen einfach nicht. IMG duerfte aber einen noch wichtigeren Deal gelandet haben den man eigentlich in der Vergangenheit stets NV zusprach. Ich vermute dass man dafuer den core der 555 ersetzen wird benutzen wird.

Intel wird hoechstwahrscheinlich weiterhin fuer Kleinkram IMG IP benutzen und die Verwandtschaft zumindest auf SW-Niveau duerfte auch so einiges ueberbruecken. SGX ist sowieso ein sehr programmierbares Teilchen, dass sehr gut (fuer seine mickrige Groesse) fuer GPGPU als auch fuer ray tracing benutzt werden kann (nichts besonderes eben analog zu den jeweiligen Ziel-Maerkten).

Gast
2008-08-03, 23:06:17
Morgen wird es interessant!
http://www.theinquirer.de/2008/08/03/intels-larrabee-plane-kurz-vor-der-enthullung.html

AnarchX
2008-08-04, 07:01:27
Intel details future 'Larrabee' graphics chip (http://news.cnet.com/8301-13924_3-10005391-64.html)

Intel's Larrabee Architecture Disclosure: A Calculated First Move @ Anand (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3367)

Aquaschaf
2008-08-04, 09:11:38
Heißt das nun Larrabee hat tatsächlich keine dedizierten TMUs?

mekakic
2008-08-04, 09:19:15
heise: Intel: Mit Pentium-Kernen gegen Nvidia und ATI (http://www.heise.de/newsticker/Intel-Mit-Pentium-Kernen-gegen-Nvidia-und-ATI--/meldung/113739/from/atom10)

reunion
2008-08-04, 09:21:13
Wie will man denn bitte eine ALU auslasten die an 16(!) OPs/Takt arbeitet? Da darf Intel einen schönen Kompiler schreiben.

Gast
2008-08-04, 09:30:05
Heißt das nun Larrabee hat tatsächlich keine dedizierten TMUs?Vermutlich nicht:

Anandtech:
"... While current GPUs have hardware for geometry setup, rasterization, texturing, filtering, compressing, decompressing, blending and much more, Larrabee maintains a minimum of fixed function features (related to texturing). ..."

Gast
2008-08-04, 09:31:14
Wie will man denn bitte eine ALU auslasten die an 16(!) OPs/Takt arbeitet? Da darf Intel einen schönen Kompiler schreiben.Du solltest vielleicht den Compiler-Architekten von Intel den vortritt lassen, bevor du spöttische Bemerkungen anbringst!

Gast
2008-08-04, 09:45:47
Ach, software Rasterizer. Ich glaube Coda wollte einen Besen vertilgen falls dem so ist;)

Beim Texturezugriff ist das meiste eigentlich nur das Warten auf den Speicher. Textureunits bringen da nicht viel wenn keine formatumwandlung vorgenommen werden muss.

Angenommen da sind 32 CPUs, 4 Threads die 512 Bit Vektoren verarbeiten, dann werden 512 Pixel gleichzeitig berechnet. Angenommen es gibt 16 Texture-Units, dann kann man stark davon ausgehen dass die CPUs die meiste Zeit über auf Texturen warten.
Es ist von daher viel schneller einfach die sonst wartenden CPUs filtern zu lassen, klar sind die dabei langsammer als dedizierte Hardware das pro Sample ist, aber in der Masse sind sie vermutlich doch schneller.
Aber sie sind auch flexibler, denn alternativ können sie 2048 Z-Pixel simultan berechnen, während auf anderer Hardware die TMUs Idletime haben.

Für DXT ist eine TMU natürlich sehr Sinnvoll, eine Vectoreinheit würde extrem viel Zeit verschwenden mit Dekomprimieren, was speziel für Hardware Designed wurde.

Gast
2008-08-04, 09:48:27
Ob Larrabee jemals eine Grafikkarte abgibt, steht nach den ersten Infos noch mehr in den Sternen als zuvor. Diese 'CPU' wird wohl nur als Nebenjob in ihrer ersten Version als GPU arbeiten ;) sich danach dem Supercomputing zuwenden. Den GPGPU-Versuchen seitens AMD und NV schiebt Intel damit allerdings einen stabilen Riegel vor.

Avalox/Gast
2008-08-04, 09:50:26
Heißt das nun Larrabee hat tatsächlich keine dedizierten TMUs?


Doch scheint es zu geben. Nur scheinbar etwas lütt ausgelegt.

Gast
2008-08-04, 10:51:30
Wie will man denn bitte eine ALU auslasten die an 16(!) OPs/Takt arbeitet? Da darf Intel einen schönen Kompiler schreiben.

Wo ist der große Unterschied zu den 3xVec8 ALUs eines Shader-Clusters? Da hast du eben 3 ALUs die 8 OPs/Takt arbeiten, aber die selbe Instruktion durchführen müssen und sich gemeinsam einen Speicher teilen. Ob das so viel flexibler ist, wage ich zu bezweifeln.

Exxtreme
2008-08-04, 10:53:06
heise: Intel: Mit Pentium-Kernen gegen Nvidia und ATI (http://www.heise.de/newsticker/Intel-Mit-Pentium-Kernen-gegen-Nvidia-und-ATI--/meldung/113739/from/atom10)
Hihihi, In-Order und effizient. X-D Ohhh mann, Heise hat schon bessere Tage gesehen.

Gast
2008-08-04, 10:56:13
Wie will man denn bitte eine ALU auslasten die an 16(!) OPs/Takt arbeitet? Da darf Intel einen schönen Kompiler schreiben.
Genauso wie Nvidia und AMD.
Intel kann zudem die Datenausrichtung nach Gebrauch wählen, was die anderen beiden nicht können.
Ach, software Rasterizer. Ich glaube Coda wollte einen Besen vertilgen falls dem so ist;)
Noch ist garnicht gesagt worden, was als fixed function existiert. Vielleicht ist ja ein Teil des Rasterizers auch noch in Hardware gegossen.
Ein reiner Software Rasterizer fände ich schon recht strange. Da würde ein nicht zu verachtender Anteil der Rechenleistung gebunden werden...

reunion
2008-08-04, 11:10:10
Hihihi, In-Order und effizient. X-D Ohhh mann, Heise hat schon bessere Tage gesehen.

Ein IO-Kern ist bei entsprechender Software wesentlich effizienter als ein OOO-Kern.

Exxtreme
2008-08-04, 11:15:13
Ein IO-Kern ist bei entsprechender Software wesentlich effizienter als ein OOO-Kern.
Eigentlich nicht. Ausser man rechnet den Transistor-Count dazu, dann ja.

reunion
2008-08-04, 11:16:49
Eigentlich nicht. Ausser man rechnet den Transistor-Count dazu, dann ja.

Auf was spielst du denn sonst an wenn du von Effizienz sprichst? Leistung/mm² oder Leistung/Watt ist Effizienz, und da erzielt man mit IO-Kernen um längen bessere Ergebnisse.

Exxtreme
2008-08-04, 11:32:14
Auf was spielst du denn sonst an wenn du von Effizienz sprichst? Leistung/mm² oder Leistung/Watt ist Effizienz, und da erzielt man mit IO-Kernen um längen bessere Ergebnisse.
Dann wären IO-Kerne in allen CPUs drinne. Sind sie aber nicht. Weil man eben nicht in perfekten Softwarewelten lebt wo sich alles und jeder dem beugt, was der CPU schmeckt.

Und wie sich Larrabee schlagen wird das wird sich noch herausstellen. Auf jeden Fall muss das Teil besser sein als das was NV und AMD bieten. Und das wird sicherlich nicht so einfach.

AnarchX
2008-08-04, 11:35:51
Das effizienter ist durchaus etwas aus dem Kontext gerissen von heise, im Bezug auf die Probleme vor die Larrabee gestellt werden soll, trifft es aber natürlich zu.

Interessant sind aber die 8-Bit-TMUs die heise nennt, wohl eine notwendige Beschränkung damit diese auch den Takt von >2GHz mitmachen, wenn man da entsprechend viel verbaut, sollte da doch trotzdem eine vernünftig Tex-Leistung herauskommen.

reunion
2008-08-04, 11:43:20
Dann wären IO-Kerne in allen CPUs drinne. Sind sie aber nicht. Weil man eben nicht in perfekten Softwarewelten lebt wo sich alles und jeder dem beugt, was der CPU schmeckt.

Das Problem ist das man nicht jeden Code in beliebig viele Threads aufteilen kann, deshalb braucht es schlagkräftige Cores. Bei Grafik ist das allerdings kein Problem, weshalb man mit IO-Kernen wesentlich besser fährt.


Und wie sich Larrabee schlagen wird das wird sich noch herausstellen. Auf jeden Fall muss das Teil besser sein als das was NV und AMD bieten. Und das wird sicherlich nicht so einfach.

Ich behaupte der Spielermarkt interessiert Intel nur sekundär.

Interessant sind aber die 8-Bit-TMUs die heise nennt, wohl eine notwendige Beschränkung damit diese auch den Takt von >2GHz mitmachen, wenn man da entsprechend viel verbaut, sollte da doch trotzdem eine vernünftig Tex-Leistung herauskommen.

Haben nicht AMD und nV ebenfalls nur 8-bit TMUs? Für alles andere muss geloopt werden.

Exxtreme
2008-08-04, 11:49:06
Das Problem ist das man nicht jeden Code in beliebig viele Threads aufteilen kann, deshalb braucht es schlagkräftige Cores. Bei Grafik ist das allerdings kein Problem, weshalb man mit IO-Kernen wesentlich besser fährt.



Ich behaupte der Spielermarkt interessiert Intel nur sekundär.

Trotzdem muss das Ding gegen die Konkurrenz bestehen. Und ich sehe nicht, wo Intel hier große Chancen hat. Und für Nischenmärkte so einen Aufwand treiben?

Und interessant ist, daß Intel Spiele angegeben hat. Scheint doch nicht soooo unwichtig zu sein.

igg
2008-08-04, 11:56:18
John Carmack äußerte in einem Interview mal (bleibe die Quelle schuldig, bitte googeln), dass für idtech6 Raytracing in Betracht gezogen wird. Dieses Jahr auf der QuakeCon sagt er, dass es die Hardware für idtech6 noch nicht gibt.

Ich könnte mir gut vorstellen, dass er da auf Larrabee bzw. seinen Nachfolger schielt.

Gast
2008-08-04, 11:56:24
Noch ist garnicht gesagt worden, was als fixed function existiert. Vielleicht ist ja ein Teil des Rasterizers auch noch in Hardware gegossen.
Ein reiner Software Rasterizer fände ich schon recht strange. Da würde ein nicht zu verachtender Anteil der Rechenleistung gebunden werden...
Bei heise steht das schon so.
Sieh es aber lieber von der anderen seite, es werden transistoren gebunden. Jedoch sind die dynamisch gebunden, wenn du ein fullscreen pass machst, bei dem du auf einen rasterizer verzichtest, hast du die volle rechenpower, bei klassischer hardware liegen diese transistoren einfach nur brach.

reunion
2008-08-04, 11:58:46
Trotzdem muss das Ding gegen die Konkurrenz bestehen. Und ich sehe nicht, wo Intel hier große Chancen hat. Und für Nischenmärkte so einen Aufwand treiben?

Intel hat x86-Kompatibilität, damit hat man für alles außer Spiele schon mal ein gewichtiges Argument. Und Nischenmärkte sind das vielleicht momentan noch, doch das Potential ist enorm.


Und interessant ist, daß Intel Spiele angegeben hat. Scheint doch nicht soooo unwichtig zu sein.

Intel sagte sinngemäß: "Wenn man eine Grafikkarte baut, dann bietet man auch DX/OpenGL-Treiber an" - Euphorie hört sich anders an. Bei dem was die Treiberentwickler von Intel bisher abgeliefert haben erwarte ich mir da nicht viel.

Gast
2008-08-04, 12:01:20
Das Teil ist doch jetzt ein TBDR, wenn ich richtig lesen, sehe ich das richtig? Zumindest schreibt heise etwas von PowerVR-Technik und Aufteilung auf Kacheln.

dildo4u
2008-08-04, 12:05:57
Kann Larrabee z.B zukünftige Funktionen von DX11(Tesslation etc) durch Software Emulieren?

reunion
2008-08-04, 12:06:54
Kann Larrabee z.B zukünftige Funktionen von DX11(Tesslation etc) durch Software Emulieren?

Was ist das für eine Frage? Man kann alles durch Software emulieren.

Exxtreme
2008-08-04, 12:14:30
Kann Larrabee z.B zukünftige Funktionen von DX11(Tesslation etc) durch Software Emulieren?
Gehen tut das. Die Frage ist jetzt wie schnell das Ganze läuft.

Ganon
2008-08-04, 12:21:16
Spieleherstellern will Intel mit Larrabee neue Möglichkeiten bieten, ist bei Larrabee doch die gesamte Rendering-Pipeline in Software realisiert und kann somit an allen Stellen beeinflusst werden. Dennoch wird Larrabee DirectX und OpenGL unterstützen, um kompatibel mit aktuellen Spielen zu sein.

Klingt eher so als hätte Intel es gerne, wenn Spiele-Entwickler neben einem DirectX 9 und 10 Pfad gleich noch einen Intel-Pfad haben ;)

Gast
2008-08-04, 12:23:33
Das Teil ist doch jetzt ein TBDR, wenn ich richtig lesen, sehe ich das richtig? Zumindest schreibt heise etwas von PowerVR-Technik und Aufteilung auf Kacheln.
es ist lediglich ein tiled renderer, kein deferred.

@dildo4u
klar geht das, nichts anderes werden NV und ATI machen, einfach nur neue kernels fuer die bestehenden shaderunits schreiben. wie es schon bem VS,GS,PS ist.

Gast
2008-08-04, 12:25:26
Das Teil ist doch jetzt ein TBDR, wenn ich richtig lesen, sehe ich das richtig? Zumindest schreibt heise etwas von PowerVR-Technik und Aufteilung auf Kacheln.
Eine Aufteilung in Kacheln macht noch kein TBDR, auch wenn einige Presseleute das so interpretieren.
Da es ausserdem ein Softwarerenderer ist, werden sie wohl verschiedene Implementierungen haben und u.U. sogar je nach Spiel austauschen.

Gast
2008-08-04, 12:25:52
Hihihi, In-Order und effizient. X-D Ohhh mann, Heise hat schon bessere Tage gesehen.

Lach nicht zu früh... Du weißt doch, warum bei klassischen CPUs OOO was tolles ist? Ganz im Gegensatz zu massiv parallelen Berechnungen. :)

Exxtreme
2008-08-04, 12:30:52
Lach nicht zu früh... Du weißt doch, warum bei klassischen CPUs OOO was tolles ist? Ganz im Gegensatz zu massiv parallelen Berechnungen. :)
Problem ist halt, das Futter für diese CPUs muss trotz allem in höchst optimierter Form reinkommen, ansonsten Pipeline-Stalls inc. Und das wird der Treiber erledigen müssen. Die Frage ist jetzt, wie toll die Daten von bestehenden Anwendungen sich zerlegen und optimieren lassen. Und wieviel Rechenleistung frisst das?

Gast
2008-08-04, 12:34:26
Eine Aufteilung in Kacheln macht noch kein TBDR, auch wenn einige Presseleute das so interpretieren.
Da es ausserdem ein Softwarerenderer ist, werden sie wohl verschiedene Implementierungen haben und u.U. sogar je nach Spiel austauschen.

Ah ok, danke!

Irgendwie versteh ich aber trotzdem noch nicht, wie mit der Kachel-Aufteilung Speicherbandbreite gespart wird.

Gast
2008-08-04, 13:14:38
Eine Aufteilung in Kacheln macht noch kein TBDR, auch wenn einige Presseleute das so interpretieren.
Da es ausserdem ein Softwarerenderer ist, werden sie wohl verschiedene Implementierungen haben und u.U. sogar je nach Spiel austauschen.
Ein TBR kann, muß aber nicht, ein TBDR sein. Eventuell implementiert Intel softwareseitig dann doch einen TBDR. Sinn sollte es jedenfalls machen. Der Poly-Count heutiger Spiele und die recht großen Tiles (bestimmt durch den 2nd-L Cache) legen es Nahe, um Bandbreite zu sparen.

Gast
2008-08-04, 13:19:12
Ah ok, danke!

Irgendwie versteh ich aber trotzdem noch nicht, wie mit der Kachel-Aufteilung Speicherbandbreite gespart wird.Erst mit einem TBDR sparst du Bandbreite, in dem nur die Pixel bearbeitet werden, die tatsächlich sichtbar sind.

Gast
2008-08-04, 13:31:29
Problem ist halt, das Futter für diese CPUs muss trotz allem in höchst optimierter Form reinkommen, ansonsten Pipeline-Stalls inc. Und das wird der Treiber erledigen müssen. Die Frage ist jetzt, wie toll die Daten von bestehenden Anwendungen sich zerlegen und optimieren lassen. Und wieviel Rechenleistung frisst das?
Um ein Betriebssystem drauf laufen zu lassen wird's reichen. Für einen guten Sysmark-Lauf wohl nur, wenn Intel auch die 2008er-Edition reichlich sponert. Bei Graphic sehe ich dagegen absolut keine Probleme.

Nakai
2008-08-04, 14:08:28
Problem ist halt, das Futter für diese CPUs muss trotz allem in höchst optimierter Form reinkommen, ansonsten Pipeline-Stalls inc. Und das wird der Treiber erledigen müssen. Die Frage ist jetzt, wie toll die Daten von bestehenden Anwendungen sich zerlegen und optimieren lassen. Und wieviel Rechenleistung frisst das?

Grafikberechnungen sind ja so problematisch.
Ich wüsste nicht, wieso man mehr als ne IO-CPU für sowas benötigen sollte.


mfg Nakai

Ailuros
2008-08-04, 14:26:09
es ist lediglich ein tiled renderer, kein deferred.

Das Ding ist trotzdem in relativem Sin ein "SW-TBDR". Anders: naive hardware mit intelligenter software (ob deren Treiber jetzt dann doch was wert sein werden ist die wichtigste Frage).

So wie es aussieht ist (stets im relativem Sinn) SGX mit Larabee mehr verwandt als man sich auf ersten Blick erdenken koennte. Legt man das HW-basierende TBDR des SGX zur Seite, wurde auf beiden fixed function HW so viel wie moeglich minimalisiert und GPGPU ist auf beiden (stets auf total unterschiedlichen Groessen natuerlich) mehr als gut angelegt. Mein Verdacht: Intel hat sehr bestimmte Sachen vorbestellt fuer SGX vor Jahren bevor IMG mit dem Desing des Dings angefangen hat.

Gast
2008-08-04, 15:18:00
hört sich alles nach sehr wenig Leistung an, glaube kaum das dass teil in die nähe der GPUs von NV/ATI kommen wird, erst recht nicht 2010!

Da werden wir wohl schon die ersten GPUs mit bis zu 4TFlop sehen...

Coda
2008-08-04, 15:20:43
Ach, software Rasterizer. Ich glaube Coda wollte einen Besen vertilgen falls dem so ist;)
Ja gerne. Aber bisher sind mir das zu wenig Details. Ich kann immer noch nicht glauben dass sie das machen :)

Aber ich hätte auch nicht gedacht, dass es ein TBR/TBDR ist.

Wie will man denn bitte eine ALU auslasten die an 16(!) OPs/Takt arbeitet? Da darf Intel einen schönen Kompiler schreiben.
Die Dinger werden wohl auf mehrere Pixel gleichzeitig arbeiten.

hört sich alles nach sehr wenig Leistung an, glaube kaum das dass teil in die nähe der GPUs von NV/ATI kommen wird, erst recht nicht 2010!

Da werden wir wohl schon die ersten GPUs mit bis zu 4TFlop sehen...
FLOPS sagen überhaupt nichts aus.

turboschlumpf
2008-08-04, 15:54:12
hört sich alles nach sehr wenig Leistung an, glaube kaum das dass teil in die nähe der GPUs von NV/ATI kommen wird, erst recht nicht 2010!

Da werden wir wohl schon die ersten GPUs mit bis zu 4TFlop sehen...
4 TFLOPS könnte Larrabee mit 64 Cores und 2 GHz auch erreichen.

Und 64 Cores sind durchaus im Bereich des Möglichen:
http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3367&p=6

Mein Verdacht: Intel hat sehr bestimmte Sachen vorbestellt fuer SGX vor Jahren bevor IMG mit dem Desing des Dings angefangen hat.
"Vorbestellt für SGX vor Jahren"
Wie meinst du das? Versteh ich nicht, sry.

Gast
2008-08-04, 15:58:01
4 TFLOPS könnte Larrabee mit 64 Cores und 2 GHz auch erreichen.


Ja und? wenn man fast alles per Software Emulieren muss bringt das einem auch nicht wirklich viel ;)

turboschlumpf
2008-08-04, 16:03:52
Wie Coda schon sagte: FLOPS sagen überhaupt nichts aus.

Gast
2008-08-04, 16:08:16
ihr glaubt doch nicht wirklich das eine solche Architektur Effizienter sein soll als eine aktuelle GPU von NV/ATI die Speziell für sowas Entwickelt worden ist?

Im Link oben wird ja gemeint das 40 Cores in 45nm etwa eine Fläche von einem GT200 in 65nm erreichen werden, sorry aber das wird nie und nimmer reichen um da mit zuhalten.