PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Larrabee (der Spekulationsthread)


Seiten : 1 2 3 4 5 6 7 [8] 9

AnarchX
2009-12-05, 16:24:58
Wenn man sich Chrome 400/500 von S3 anschaut, dann gibt es von der Architektur aus gesehen, durchaus eine dritte Kraft am Markt. Nur fehlt hier wohl eben das Kapital um sich aus dem Low-End heraus zu trauen, was Intel hätte.

Aber für diesen Schritt es nun aber wohl zu spät und Intel sollte sich auf die Weiterentwicklung von LRB konzertieren, sodass man >2013 dann ein brauchbares Produkt hat. AMDs und Nvidias Architektur werden dann wohl nicht so unähnlich sein.

CrazyIvan
2009-12-05, 16:28:31
Der Erfolg beruht eben auf Core bzw. Evolutionäre Entwicklung des Pentium III, der eben damals dem Athlon in Sachen Effizienz sehr voraus war.

Die Pentium III vs. Athlon Sache solltest Du vielleicht nochmal im CPU-Geschichtsbuch nachschlagen.

Dural
2009-12-05, 16:59:21
Irgend welche Verschwörungstheorien das man damit NV vernichten wollte sind schon etwas weit hergeholt.

Intel SELBER hat gesagt das bald kein mensch mehr "normale" Grafikkarten kaufen wird, oder hast du das schon vergessen???

reunion
2009-12-05, 17:08:39
Intel SELBER hat gesagt das bald kein mensch mehr "normale" Grafikkarten kaufen wird, oder hast du das schon vergessen???

Das wusste ich nicht, nein. :)
Aber das kann man wohl getrost in der Lade Marketing verstauen.

Avalox
2009-12-05, 17:58:28
Gilt auch fuer LRB oder jegliche andere GPU.


Nein, dort liegst du völlig falsch.

Sowohl Intel wie auch AMD können eine GPGPU beliebig nah an die CPU und dem Hauptspeicher bauen und dieses dann auch kostengünstig bundeln.
Das kann nVidia nicht. nVidia kann kostenvergleichbar nur PCIe Grafikkartenhersteller beliefern. Selbst bei den Onboard Grafikeinheiten hat nVidia nun einen großen Nachteil.



Da Tegra und/oder ION noch weit vom Punkt ihres Todes entfernt sind, waere es weisser dass wir uns eher auf das R.I.P. Larabee konzentrieren.
Weder ist der Larabee gestorben, noch sind die von Dir angesprochenen neuen nVidia Geschäftsfelder in einem Wettbewerb zu sehen.
Das einzige was es nicht gibt ist eine Larrabee Grafikkarte. Es wird den Larrabee aber in der CPU geben und dieses ist die viel marktverändernde nachhaltigere Variante.


Ich kann heute zahllose von GeForces kaufen aber leider keine einzige Intel standalone GPU und es sieht auch nicht danach aus dass etwas bald davon kommen wird.


Und trotzdem ist Intel Marktführer bei den Grafiklösungen schon seit vielen Jahren. Der PC Grafikmarkt wird von Intel dominiert, weil integrierte Lösungen den Markt dominieren.
Du kannst keinen stand alone GPU von Intel kaufen, allerdings wollen die allermeisten Käufer dieses auch gar nicht. Das ist genau das Problem von nVidias momentaner Ausrichtung.

Wenn Intel nun keine Larrabee Grafikkarte auf den Markt bringt, dann nicht weil der Larrabee so schlecht wäre, dass sie es sich nicht leisten könnten. Intel bringt keine Larrabee Grafikkarte auf den Markt, weil
Sie sich es leisten können keine Larrabee Grafikkarte auf den Markt zu bringen, Intel braucht diese schlicht nicht mehr um ihre Ziele zu verfolgen.

LovesuckZ
2009-12-05, 18:07:15
Wenn Intel nun keine Larrabee Grafikkarte auf den Markt bringt, dann nicht weil der Larrabee so schlecht wäre, dass sie es sich nicht leisten könnten. Intel bringt keine Larrabee Grafikkarte auf den Markt, weil
Sie sich es leisten können und keine Larrabee Grafikkarte mehr brauchen um ihre Ziele zu verfolgen.

Komisch, warum haben sie dann Larrabee entwickelt und vor kurzem noch der Öffentlicht "präsentiert"? :rolleyes:
Intel benötigt eine Konkurrenz zu nVidia, sonst wird ihnen nVidia einen großen Batzen des HPC Marktes wegnehmen. Wozu hunderte oder tausende von CPUs nehmen, wenn ein paar Grafikkarten ausreichen?

Avalox
2009-12-05, 18:13:34
Komisch, warum haben sie dann Larrabee entwickelt und vor kurzem noch der Öffentlicht "präsentiert"? :rolleyes:


Na, weil Intel noch vor kurzen nVidia als großen Wettbewerber gesehen hat im klassischen x86 Feld.
Es ging um einen empfindlichen Angriff auf die Processingeinheit im PC. Es stand auf dem Spiel, dass x86 mittelfristig an Bedeutung verlieren könnte.

Nun hat sich Intel mit AMD geeinigt. Zufällig verkündet AMD augenblicklich nach dieser Einigung einen Strategiewechsel und verbannt nVidia auch aus allen AMD Systemen. Eben zufälligerweise die selbe Strategie, welche Intel fährt.
Und auch zufällig verkündet Intel ein paar Tage später, dass sie nicht daran denken in einem Topsegment dedizierte Grafikkarten auf den Markt zu bringen.

Der Markt hat sich gedreht. Intel ist sich sicher, hat sich schön mit AMD geeinigt. Die Processingeinheit im PC ist fixiert und bleibt auch dort. Wenn Innovationen kommen, dann von AMD bzw. von Intel eben den beiden CPU Herstellern direkt und nicht von Dritten und diese Innovationen beider Hersteller werden munter natürlich nach neuer Vereinbarung hin und her getauscht.



Intel benötigt eine Konkurrenz zu nVidia, sonst wird ihnen nVidia einen großen Batzen des HPC Marktes wegnehmen.

Aber diese Konkurrenz ist doch nicht eine Larrabee PCIe Grafikkarte.
Die Intel CPU mit Larrabee Kernen wird es ja weiterhin geben.

LovesuckZ
2009-12-05, 18:32:11
Na, weil Intel noch vor kurzen nVidia als großen Wettbewerber gesehen hat im klassischen x86 Feld.
Es ging im einen empfindlichen Angriff auf die Processingeinheit im PC. Es stand auf dem Spiel, dass x86 mittelfristig an Bedeutung verlieren könnte.

So und das hat sich genau wie geändert? nVidia geht nicht auf Angriffskurz zu x86, sondern auf Bereiche, wo die CPUs generell genutzt werden.


Nun hat sich Intel mit AMD geeinigt. Zufällig verkündet AMD augenblicklich nach dieser Einigung einen Strategiewechsel und verbannt nVidia auch aus allen AMD Systemen. Eben zufälligerweise die selbe Strategie, welche Intel fährt.


Huch, dir ist schon bewusst, dass das HT Protokoll offen ist? Wenn AMD also nVidia aus dem Markt "verbannen" wollte, müssten sie ein neues Protokoll einführen.


Der Markt hat sich gedreht. Intel ist sich sicher, hat sich schön mit AMD geeinigt. Die Processingeinheit im PC ist fixiert und bleibt auch dort. Wenn Innovationen kommen, dann von AMD bzw. von Intel eben den beiden CPU Herstellern direkt und nicht von Dritten und diese Innovationen beider Hersteller werden munter natürlich nach neuer Vereinbarung hin und her getauscht.

Schöner unsinn. AMD und Intel bedienen mit ihrer "Processingeinheit" den selben Markt und stünden daher mit sich selbst in Konkurrenz und nicht mit nVidia, die auf beiden Plattform als Grafikkartenanbieter funktionieren.


Aber diese Konkurrenz ist doch nicht eine Larrabee PCIe Grafikkarte.
Die Intel CPU mit Larrabee Kernen wird es ja weiterhin geben.

Ach und du meinst, dass irgendwer sich solche CPUs in seinem Anwendungsgebiet stellt, wenn er eine Tesla-Karte für deutlich weniger Geld die selbe Leistung bringt? Larrabee als diskrete Karte war genau für diesen Fall als Alternative von Intel gedacht. Wozu man Larrabee als "CPU-GPU" Produkt benötigt, bleibt mir schleierhaft. Denn dann hätte man dies auch sofort getan.

StefanV
2009-12-05, 18:38:40
@Avalox
Deine Sichtweise ist nicht ganz korrekt.
Du vergisst die Wichtigkeit der GPU(s), gerade in naher Zukunft (GPU Beschleunigung bei Video Encoding, Flash and so on!) wird die Grafikkarte noch wichtiger werden als es derzeit der Fall ist.
Das wird für Intel noch zu einem größeren Problem, wenn sie nicht selbst was bringen, müssen sie auf 3. Hersteller vertrauen, was Intel ja bekanntlich niemals nie nicht tun würde (mit der aktuellen Belegschaft).
Das die Amerikanische FTC wg. der Lizenzvergabe bei nVidia ein Auge auf Intel geworfen hat, kommt noch dazu...
Gerichtsverfahren gibts wohl auch noch...

PS: die Aussage vom AMD Mann find ich ist ein Witz in Tüten, da nV sich gerade ausm CHipsatzsegment zurückzieht und auch schon jetzt ziemlich hinten dran ist...
Also dass AMD in 2 Jahren 100% am AMD Chipsatzmarkt hat, sehe ich eigentlich als gegeben an, was aber mehr an mangelnder Konkurenz liegen wird...

Avalox
2009-12-05, 18:46:48
So und das hat sich genau wie geändert? nVidia geht nicht auf Angriffskurz zu x86, sondern auf Bereiche, wo die CPUs generell genutzt werden.


Ja. Das bedeutet allerdings letztendlich nur, dass nVidia dort nicht das erreicht hat, was sie wollten. nVidia ist angetreten dem PC Prozessor zu konkurrieren.


Huch, dir ist schon bewusst, dass das HT Protokoll offen ist? Wenn AMD also nVidia aus dem Markt "verbannen" wollte, müssten sie ein neues Protokoll einführen.


Nein, das ist eben genau Quatsch.

Zum einen würde solch eine Lösung nur für AMD Systeme gelten und damit nur den kleineren Markt bedienen und wie wäre denn die Marktchance von solch einen Ding?

Die Marktchance wäre nicht gegeben. Weil AMD eben Prozessor + Chipsatz + IGP liefern kann und alles von nVidia nur extra Kosten bedeuten würde. Deshalb müsste solch ein nVidia Ding so gut sein und soviel Mehrwert bieten, dass die Leute gerne mehr Geld ausgeben würden. Das kann aber nVidia allerdings nicht bieten, deshalb erübrigt sich auch eine HT Lösung von nVidia.

nVidia hat keine realistische Option eine HT Lösung zu bringen.


Schöner unsinn. AMD und Intel bedienen mit ihrer "Processingeinheit" den selben Markt und stünden daher mit sich selbst in Konkurrenz und nicht mit nVidia, die auf beiden Plattform als Grafikkartenanbieter funktionieren.


Eben nicht. Nvidia steht mit ihrem Cuda GPGPU im Wettbwerb zum x86 Prozessor. Es ging schlicht um die Vorherrschaft der PC Prozessingeinheit.

Wenn der meiste Code eines PC Programms eh nicht x86 ist, dann spielt es auch keine große Rolle mehr, wenn der geringe Codeanteil portiert wird.

nVidia hat jetzt nur noch die Rolle des "Zusatz Grafikkarten" Anbieter. Die Einigung beider CPU Hersteller nVidia aus dem IGP und Chipsatz Segment fern zu halten lässt nur noch Platz als Anbieter von Extra-Grafikkarten.
Es wird bald keinen Chipsatz ohne IGP mehr geben. Damit ist von Hause aus jeder PC mit einer Grafikeinheit ausgestattet, welche dann nicht von nVidia kommt. Wenn nVidia dann noch eine Grafikkarte verkaufen möchte, dann bedeutet dieses für den Kunden nicht, ob er die eine oder die andere Grafikkarte kauft, sondern ob er extra Geld für eine zusätzliche Grafikkarte ausgibt. Das werden viele nicht machen. Je geringer der Unterschied der Leistung zwischen IGP und dedizierter Grafikkarte ist, oder je teurer der Preis für eine Extragrafikkarte je weniger werden diese kaufen.


Wozu man Larrabee als "CPU-GPU" Produkt benötigt, bleibt mir schleierhaft. Denn dann hätte man dies auch sofort getan.


Hat man doch. Larrabee war schon immer als Kernerweiterung der Intel CPUs angedacht. Damals war es halt nur noch nötig nVidia auf dem Feld der GPGPUs direkt anzugreifen, dieses ist heute schlicht nicht mehr nötig, weil nVidia von einer Weiterentwicklung einer PC GPGPU ausgesperrt wurde. Eben durch die zwangsweise Verwendung von PCIe.


@Avalox
Deine Sichtweise ist nicht ganz korrekt.
Du vergisst die Wichtigkeit der GPU(s), gerade in naher Zukunft (GPU Beschleunigung bei Video Encoding, Flash and so on!) wird die Grafikkarte noch wichtiger werden als es derzeit der Fall ist.


Nein, dieses ist nicht richtig.

Die Bedeutung sinkt. Weil die PC Grafikauflösung gedeckelt ist, werden die CPUs der nächsten Generationen eine Videobeschleunigung der Grafikkarte überflüssig machen. Der Rechenaufwand ist konstant und die CPUs werden auch schneller.

Ausserdem hat Intel ja grade mit dem Larrabee eine entsprechende Erweiterung der nächsten CPU Generation ehe im Gepäck.

Botcruscher
2009-12-05, 18:48:58
Insgesamt gefällt mir die Entwicklung gar nicht. Alles was an Konkurrenz noch vorhanden war verschwindet und die Auswahl beschränkt sich auf einen Plattformhersteller.

tombman
2009-12-05, 18:52:44
Wozu man Larrabee als "CPU-GPU" Produkt benötigt, bleibt mir schleierhaft.
Mir auch. Wenn Intel Nvidia nicht im dedicated GPU-Segment angreift- was hat sich dann bitte geändert?
Intel wird weiterhin fancy-office-chips (mein neuer Lieblingsausdruck) bauen und Nvidia weiterhin dedizierte monster number crunsher auf pci-e Basis.

Ein eigener Chip wird immer schneller sein, als ein bissi Rechenpower in der Cpu. Die Videotranskodierbenchmarks wird Nvidia weiterhin gewinnen, denn der Abstand ändert sich ja kaum.

Vorher: Cpu vs Gpu (NV wins)
Nachher: Noob-Gpu vs Mörder-Gpu (NV wins)

Und wer spielen will, wird weiterhin Grafikkarten brauchen- AUSSER Intel/AMD wissen jetzt schon, daß Systeme wie ONLIVE 100% kommen und dominieren werden. DANN is es nämlich wirklich egal, ob man 1000 Hybride oder 200 Cpus + 100 Gpus braucht.
Wahrscheinlich wäre die Hybridlösung dann sogar leichter zu verwirklichen.

Andererseits: die Masse braucht nicht mal GPU-Fähigkeiten in der Cpu, die braucht nur etwas, was ein Bild anzeigen kann. i945 FTW :ugly:
Weiters: wenn die neuen Konsolen kommen, brauchen Spiele wieder mehr Rechenleistung. Da wird ein Hybrid genausowenig taugen wie jetzt i945 ;D

S940
2009-12-05, 19:09:06
Hmm, klingt ja fast wie ein Plan B:
Intel Corp., the world’s largest maker of semiconductors, late on Friday said that its next-generation integrated graphics platform will support video trans-coding. While the move seems to be insignificant in general, it may mean a lot for the industry in general.
According to an Intel's spokesman, its next-generation code-named Clarkdale central processing unit with integrated graphics core will support video encoding using ten graphics procesising engines via a driver update.

http://www.xbitlabs.com/news/video/display/20091204232215_Intel_s_Next_Generation_Platform_to_Support_GPGPU.html
Die reden da über die i3 Teile.

Na da bin ich mal gespannt, was die leisten werden.

ciao

Alex

tombman
2009-12-05, 19:12:13
LOL, ich weiß wie Intel denkt ;D
Ohne diese video. accel. Ankündigung zu kennen sprach ich über Transkodierspeed im post drüber :devil:

deekey777
2009-12-05, 20:04:37
@Avalox
Deine Sichtweise ist nicht ganz korrekt.
Du vergisst die Wichtigkeit der GPU(s), gerade in naher Zukunft (GPU Beschleunigung bei Video Encoding, Flash and so on!) wird die Grafikkarte noch wichtiger werden als es derzeit der Fall ist.
Das wird für Intel noch zu einem größeren Problem, wenn sie nicht selbst was bringen, müssen sie auf 3. Hersteller vertrauen, was Intel ja bekanntlich niemals nie nicht tun würde (mit der aktuellen Belegschaft).
Das die Amerikanische FTC wg. der Lizenzvergabe bei nVidia ein Auge auf Intel geworfen hat, kommt noch dazu...
Gerichtsverfahren gibts wohl auch noch...

Gerade dort sind die GPUs unwichtig: Es gibt keine ernstzunehmende Konkurrenz von ATi oder Nvidia, dass sich die CPU-Hersteller Sorgen machen müssen.
Die aktuellen Vierkern-CPUs schaffen 1080i30 in Echtzeit (Broadcasting zB). Diese ganzen Möchtegerntests PCGH&Co sind so lachhaft, aber das interessiert die Tester wohl nicht, ihnen ist wichtig zu zeigen, dass eine GT240 schneller als eine CPU ist. Dass dieser Test schon deswegen ein großer Witz ist, weil dort drei verschiedene Encoder miteinander zum EInsatz kommen (CUDA-Encoder, AVIVO-Encoder und eigener Encoder für CPUs), stört keinen.

looking glass
2009-12-05, 20:17:45
Ja, sag das mal Atomnutzer, oder Nutzern mit Dualcorenutzern mit niedrigeren Taktungen.

Die Killerapplikation eines Netbooks/tops ist und bleibt der Flashstream und wen ein Ion ein HD Stream wegen der Hardwarebeschleunigung schafft, dann ist das ein gewichtiges Pro Argument.

Windi
2009-12-05, 20:30:40
Larrabee ist ja eher ein Projekt für die Zukunft.

Die Rechenleistung steigt immer weiter auch bei den ATOMs. Wenn dann in ein paar Jahren in jeder Intel-CPU ein Larrabee Co-prozessor steckt, der bei 3D-/Video-/Flash-Berechnungen helfen kann, dann sieht es auch für den besten ION Chipsatz schlecht aus.

deekey777
2009-12-05, 20:36:59
Ja, sag das mal Atomnutzer, oder Nutzern mit Dualcorenutzern mit niedrigeren Taktungen.
.
Was soll ich einem Besitzer eines X2 denn genau sagen? Dass sein X2 eine DVD fürs iPhone schneller als in Echtzeit konvertieren kann?

dust
2009-12-05, 20:40:16
der lrb war/ist auf das profi segment ausgerichtet und nicht auf die spieler, die wären erst mit der 2ten linie beglückt worden.

der lrb macht durchaus sinn als coprozessor. wenn sie den so hinbekommen damit existierende programme davon profitieren reissen ihnen die kunden den aus der hand. auf die art könnte man sich den umweg über opencl ersparen.

für den typischen soho rechner reicht einer der fusions chips und für höhere anforderungen nimmt man mehrere spezialisierte chips. cpu, fpu, gpu, sound, i/o usw. irgendwelche mischkonfigurationen, bei denen für manche sachen kein extra chip vorhanden ist oder mehrere parallel mit skalierender leistung, bis hin zum supercomputer.

Botcruscher
2009-12-05, 20:48:35
Ja, sag das mal Atomnutzer, oder Nutzern mit Dualcorenutzern mit niedrigeren Taktungen.
Die Killerapplikation eines Netbooks/tops ist und bleibt der Flashstream und wen ein Ion ein HD Stream wegen der Hardwarebeschleunigung schafft, dann ist das ein gewichtiges Pro Argument.

Dafür war/ist Atom aber nicht vorgesehen. Nicht weil er es nicht könnte sondern weil Intel es so wollte. Das schlimmste was Intel geschehen kann ist ein Käufer mit genug Leistung, dann wenn das Konsumvolk nicht mehr regelmäßig updatet. Bis jetzt konnte der Preis noch über die Menge ausgeglichen werden aber insgesamt geht es abwärts.

=Floi=
2009-12-05, 20:51:48
schade um den chip. ich hoffe sein nachfolger erblickt das tageslicht. :)
durch die gewonnene zeit können sie sich wenigstens um die treiber kümmern. ob da fermi den todesstoß gab?

edit
käse
ich habe jetzt auch genug leistung, trotzdem denke ich über das aufrüsten nach, weil ich noch mehr möchte. es wird bereiche geben, die auch in 10 jahren noch nicht wirklich brauchbar laufen werden und bis dahin ist noch genug potential da. nebenbei wird intel eher an der fertigungstechnologie anstehen, wie am gesättigten markt.

FelixPaul
2009-12-05, 21:58:15
Ist doch schön, dass Intel so viel experimentiert. Damit gibt man vielen, guten Leuten einen kreativen und sicheren Arbeitsplatz.

Also, ab ans nächste Projekt mit ähnlich ehrgeizigen Zielen!

Gast
2009-12-06, 01:04:44
Ich weiß jetzt gar nicht, was daran so schlimm sein soll... für mich klingt das alles lediglich nach "Wir brauchen mehr Zeit" und nicht nach "jetzt ist Schluß!".

Laut Knupffer seien weder der Chip selbst noch die zugehörige Entwicklungsumgebung auf einem Stand, die nötig wären, um Larrabee als Massenprodukt zu vertreiben. Auf der SC09 war noch hinter vorgehaltener Hand zu hören, dass der Baustein in der ersten Jahreshälfte 2010 erscheinen solle. Er hinkt seit geraumer Zeit seinem Entwicklungsplan hinterher; ursprünglich sollte er bereits 2008 erscheinen.

Bei der Entscheidung, Larrabee nun doch nicht öffentlich anzubieten, dürfte auch der durch die Verspätungen verursachte Performance-Rückstand auf die Grafikchips von AMD und Nvidia eine Rolle gespielt haben.

Da Intel sich in Neuland wagte, ist es kein Wunder, das sie rechtzeitig gesehen haben, das es zur Zeit keinen Sinn macht. Jetzt nehmen sie sich halt mehr Entwicklungszeit und gucken, was am Ende herauszuholen ist.
Man muss dazu sagen, das die Performance sicherlich gesteigert werden kann, zumal Intel als einer der ersten immer die neuesten Technologien verwendet. Kann also gut sein, das wir das Endproukt nochmal in deutlich aufgebohrter Form sehen werden. Lieber zu spät, als fehlerhaft und schlecht. Die ganzen Spekulationen um die Performance waren doch eh für die Tonne.

Coda
2009-12-06, 01:26:37
I[;7699537']:lol:
abseits vom x86-"argument" war das ding ja auch in keiner weise konkurrenzfähig.
Und das schlimme ist: x86 wäre in so einem Chip noch nichtmal relevant gewesen. Außer um Intels Arroganz zu befriedigen.

Bis LRB jetzt auf den Markt kommt haben AMD und NVIDIA schon längst aufgeschlossen was das letzte bisschen fehlender Programmierbarkeit angeht (vor allem was virtuellen Speicher angeht) und was hat Intel dann noch?

Wenn sie schlau sind hauen sie das ganze Ding auf den Müll und entwickeln einen richtigen Streamprozessor.

LovesuckZ
2009-12-06, 02:18:13
Ja. Das bedeutet allerdings letztendlich nur, dass nVidia dort nicht das erreicht hat, was sie wollten. nVidia ist angetreten dem PC Prozessor zu konkurrieren.

Nö. Wie soll das gehen, wenn man selbst eine bräuchte? :rolleyes:
Und nVidia hat es nicht erreicht? Erstaunlich, wenn man überlegt, dass Intel dafür extra eine GPU entwickelt hat, die in diesem Bereich einzug gehalten hätte...


Die Marktchance wäre nicht gegeben. Weil AMD eben Prozessor + Chipsatz + IGP liefern kann und alles von nVidia nur extra Kosten bedeuten würde. Deshalb müsste solch ein nVidia Ding so gut sein und soviel Mehrwert bieten, dass die Leute gerne mehr Geld ausgeben würden. Das kann aber nVidia allerdings nicht bieten, deshalb erübrigt sich auch eine HT Lösung von nVidia.

Du hast keinen Plan vom Angebot, oder? nVidia's bieten im Gegensatz zu AMD einen Single-Chip an und sie halten 43% der Anteile im AMD Markt.


Eben nicht. Nvidia steht mit ihrem Cuda GPGPU im Wettbwerb zum x86 Prozessor. Es ging schlicht um die Vorherrschaft der PC Prozessingeinheit.

Sie stehen mit jeder CPU im Wettbewerb, die die selben Augaben übernehmen können. Sie stünden mit x86 im Wettbewerb, wenn Windows und andere x86 Programme über sie laufen würden. Solange wie nicht mal ein Betriebsystem lauffähig ist, stehen sie in keinem Existenzwettbewerb.


nVidia hat jetzt nur noch die Rolle des "Zusatz Grafikkarten" Anbieter. Die Einigung beider CPU Hersteller nVidia aus dem IGP und Chipsatz Segment fern zu halten lässt nur noch Platz als Anbieter von Extra-Grafikkarten.
Es wird bald keinen Chipsatz ohne IGP mehr geben. Damit ist von Hause aus jeder PC mit einer Grafikeinheit ausgestattet, welche dann nicht von nVidia kommt. Wenn nVidia dann noch eine Grafikkarte verkaufen möchte, dann bedeutet dieses für den Kunden nicht, ob er die eine oder die andere Grafikkarte kauft, sondern ob er extra Geld für eine zusätzliche Grafikkarte ausgibt. Das werden viele nicht machen. Je geringer der Unterschied der Leistung zwischen IGP und dedizierter Grafikkarte ist, oder je teurer der Preis für eine Extragrafikkarte je weniger werden diese kaufen.

Dedizierte Karten werden immer gekauft. Und es ändert sich auch nichts zu heute. Oder wieso sollte jemand mit AMD/Intel IGP sich heute einfach so eine nVidia dGPU kaufen und morgen darüber überlegen? Die Argumentation ist unsinn.


Hat man doch. Larrabee war schon immer als Kernerweiterung der Intel CPUs angedacht. Damals war es halt nur noch nötig nVidia auf dem Feld der GPGPUs direkt anzugreifen, dieses ist heute schlicht nicht mehr nötig, weil nVidia von einer Weiterentwicklung einer PC GPGPU ausgesperrt wurde. Eben durch die zwangsweise Verwendung von PCIe.

Hä? Du weißt schon, dass heutige dedizierte Grafikkarten über eigenen Speicher (Tesla-Fermi wird 6GB! haben können) verfügen, den sie bald mit mehr als 200GB/s ansprechen können? Außerdem haben sie ebenfalls L1/L2 Caches. Mit Fermi kann nVidia auch bidirektional über PCIe Daten austauschen (glaube mit 12GB/s). Und GPGPU steht für die generelle Verwendung der GPU, was sich nicht nur auf diese bezieht, die lokal an der CPU sitzen werden.

=Floi=
2009-12-06, 03:13:08
coda erklär uns mal, wie ein richtiger stream processor aussehen soll?!

Coda
2009-12-06, 03:15:18
So wie die Designs von ATI oder NVIDIA. Also globales Threadsscheduling und nicht lokales. Und mehr als 4 Threads In-Flight pro Core.

Gestrandet
2009-12-06, 03:24:56
Ich glaube, Coda meint das hier (aus David Kanters Artikel zur aktuellen Entwicklung um LRB, http://realworldtech.com/page.cfm?ArticleID=RWT120409180449&p=1:
Several years ago, Intel saw the coming convergence of latency optimized processors (i.e. CPUs) and throughput optimized processors (i.e. GPUs)
Intels Ansinnen, eine GPU aus lauter kleinen CPUs, dazu noch solche mit der nicht unbedingt "schönsten" ISA überhaupt, zu bauen, mutet ein wenig paradox an. Sowas tut man nur, weil man es kann bzw. denkt, man könnte.
Es ist ein bisschen, wie ein Blockhaus aus Backsteinen zu bauen.

edit: ok, Coda hat was anderes gemeint, nichts für ungut ^^

Coda
2009-12-06, 03:45:45
Nein, im Prinzip ist das ungefähr das gleiche was ich meine.

S940
2009-12-06, 11:50:19
Wenn sie schlau sind hauen sie das ganze Ding auf den Müll und entwickeln einen richtigen Streamprozessor.

Vielleicht basteln sie ja jetzt an einem ATi Vliw Core ^^
Die Itanium Entwickler sollten sich damit auskennen, und Intel darf ja jetzt auch die ATi Patente verwenden :freak:

Quasi Yamhill 2.0 ^^

Wenn man den Itanium Leuten die Hälfte des Larrabee Projektgeldes gibt kommt sicherlich was dabei raus ;-)
Wobei .. erstmal schauen ob Tukwila nun wirklich kommt :)



ciao

Alex

=Floi=
2009-12-06, 12:53:49
ich dachte mit richtigem stremprozessor ist ein ganz anderer chip gemeint ohne GPU und mit anderem design wie es aktuell ati und nv einsetzen.

StefanV
2009-12-06, 13:10:59
Wenn sie schlau sind hauen sie das ganze Ding auf den Müll und entwickeln einen richtigen Streamprozessor.Intel ist nur leider nicht schlau sondern einfach arrogant und verblendet.
Gibt ja in diesem Jahrhundert einige Beispiele -> Netburst, Itanic und jetzt LRB...

Gast
2009-12-06, 14:18:05
Intel ist nur leider nicht schlau sondern einfach arrogant und verblendet.
Gibt ja in diesem Jahrhundert einige Beispiele -> Netburst, Itanic und jetzt LRB...
Netburst *lach*, K5 und K6 sehe ich als ein größeres Versagen an.

StefanV
2009-12-06, 14:26:28
Warum??
K5 war 'nur' etwas arg spät und die Taktbarkeit war etwas gering...

Aquaschaf
2009-12-06, 14:59:58
Netburst *lach*, K5 und K6 sehe ich als ein größeres Versagen an.

Abgesehen von der FP-Leistung waren die eigentlich nicht verkehrt.

Gestrandet
2009-12-06, 15:05:31
Netburst *lach*, K5 und K6 sehe ich als ein größeres Versagen an.
Aber sicher doch :rolleyes:
Du kannst das bestimmt sehr schlüssig begründen - ?

tam tam
2009-12-06, 15:22:07
Wie groß ist denn die Wahrscheinlichkeit, daß Intel Nvidea kauft?

Nakai
2009-12-06, 15:24:26
Wie groß ist denn die Wahrscheinlichkeit, daß Intel Nvidea kauft?

Wieso muss Intel das tun? Derzeit nicht.
Aber es wäre eine Alternative, wenn es soweit kommt. Derzeit ist Nv noch zu teuer und AMD keine nennenswerte Konkurrenz.


mfg

mrt
2009-12-06, 15:28:38
Netburst *lach*, K5 und K6 sehe ich als ein größeres Versagen an.
Bei K5 hat man sich ein wenig übernommen, der kam dann einfach zu spät. Das Design war aber zukunftsweisend, überleg dir mal wieso.
Wo soll K6 versagt haben? Die konnten gut mithalten mit dem Design. Der K6 hatte sogar nur einen echten Kritikpunkt, die FPU. Blöd für synthetische Tests, für die Praxis war das damals aber nicht so wichtig.

=Floi=
2009-12-06, 15:28:59
was baut denn nvidea?

YfOrU
2009-12-06, 16:44:41
Wie groß ist denn die Wahrscheinlichkeit, daß Intel Nvidea kauft?

Kartellrechtlich wäre das schwierig da Intel selbst GPUs anbietet. Das sind zwar IGPs aber diese haben einen sehr großen Marktanteil. Effektiv würde sich der Markt bis auf einzelne Prozentpunkte auf nur noch 2 Anbieter reduzieren.

Das abgesehen davon das etwas in dieser Art unter dem jetzigen CEO (Nvidia) eher unmöglich ist.

AMD - ATI war in der Richtung unkompliziert denn die Zahl der Mitbewerber hat sich nicht weiter reduziert.

StefanV
2009-12-06, 17:02:57
Wie groß ist denn die Wahrscheinlichkeit, daß Intel Nvidea kauft?
Solange Jensen an der Macht ist, müssten sie feindlich übernehmen, was sehr sehr teuer ist.
Daran könnt sich sogar Intel verheben...

Gestrandet
2009-12-06, 17:26:52
Naja verheben würden sie sich nicht, da müssten sie schon ne feindliche Übernahme von google durchziehen ^^
Aber die Aktionäre würden die Unternehmensleitung vermutlich fragen, ob sie sie noch alle haben.

SavageX
2009-12-06, 18:16:28
Netburst *lach*, K5 und K6 sehe ich als ein größeres Versagen an.

Manche Leute haben schon drollige Ansichten.

Der K5 war immerhin die erste out-of-order x86-CPU mit RISC-Kern für den Consumer-Markt, sehr mächtiges Design. Damit hat sich AMD zwar etwas verhoben, aber immerhin hat man dieses mächtige Design zur Marktreife entwickelt, mit (in zweiter Iteration) deutlich besserer (Integer-)Leistung pro Takt als der Pentium. Ganz und gar nicht übel für ein erstes eigenes x86-Design, aber wirtschaftlich nicht lukrativ (auf 0,5 µm 251 mm^2, auf 0,35 µm 161 bzw. 181 mm^2 - und das auf 200 mm Wafern).

Der K6 war eine sehr runde Sache im Integer-Bereich mit einer robusten low-latency FPU, nur leider halt nicht gepipelined in diesem Bereich. Übrigens für AMD auch wirtschaftlich ein Erfolg - der K6-2+ war lediglich 81 mm^2 groß, der 0,25 µm K6 nur 68 mm^2 - eine erstaunliche Effizienz. AMD stand nach dem K5 vor dem wirtschaftlichen Ruin, der K6 hat AMD hinreichend stabilisiert, um den K7 entwickeln zu können. Auch war man nach dem K6 gefestigt genug, um für den K7 eine eigene Plattform in Angriff nehmen zu können, da die Mainboard-Hersteller ja schon beim Super-Sockel-7 halbwegs mitgezogen haben. Vor der Markteinführung des K6 war man auf Sockel-Kompatibilität mit Intel angewiesen, danach nicht mehr.

MR2
2009-12-06, 18:28:12
Sehe ich genauso. Intel kann gerne noch länger von Grafikmarkt wegbleiben. Stellt euch mal vor, die gamedevs müßten auch noch für Intel optimieren -> pure Hölle.


Vor Allem die Gelder die da gefloßen wären, "its meant to be played" muß für ATI schon der Horror sein, man kann´sichs eben finanziell nicht leisten..wenn da noch Intel mitmischen würde..das wäre die Hölle, die Trickereien, Schiebereien, wenn schon bei den eigenen IGPs beim Vantage gecheatet wird :freak:

anddill
2009-12-06, 18:53:20
Die LGA <-> PGA Diskussion ist im dafür zuständigen Thread gelandet. Und hier jetzt bitte zurück zum Thema.
http://www.forum-3dcenter.org/vbulletin/showthread.php?t=467630

Dural
2009-12-06, 19:02:22
Wie groß ist denn die Wahrscheinlichkeit, daß Intel Nvidea kauft?

die gibt es nicht... glaube kaum das irgend eine behörde ein OK dafür geben würde :rolleyes: und der NV mann ist kein typ der sich aufkaufen lässt, damals bei AMD wollte er der Boss über alles sein und deswegen kam der deal ja angeblich nie zustande...

Gast
2009-12-06, 19:35:26
Manche Leute haben schon drollige Ansichten.

schaun wir mal


Der K5 war immerhin die erste out-of-order x86-CPU mit RISC-Kern für den Consumer-Markt, sehr mächtiges Design. Damit hat sich AMD zwar etwas verhoben, aber immerhin hat man dieses mächtige Design zur Marktreife entwickelt, mit (in zweiter Iteration) deutlich besserer (Integer-)Leistung pro Takt als der Pentium. Ganz und gar nicht übel für ein erstes eigenes x86-Design, aber wirtschaftlich nicht lukrativ (auf 0,5 µm 251 mm^2, auf 0,35 µm 161 bzw. 181 mm^2 - und das auf 200 mm Wafern).
wirtschaftlich nicht lukrativ = keine Kohle eingebracht | Ergo => Schrott / Fehlschlag
Kann man das von Netburst behaupten?


Der K6 war eine sehr runde Sache im Integer-Bereich mit einer robusten low-latency FPU, nur leider halt nicht gepipelined in diesem Bereich. Übrigens für AMD auch wirtschaftlich ein Erfolg - der K6-2+ war lediglich 81 mm^2 groß, der 0,25 µm K6 nur 68 mm^2 - eine erstaunliche Effizienz. AMD stand nach dem K5 vor dem wirtschaftlichen Ruin, der K6 hat AMD hinreichend stabilisiert, um den K7 entwickeln zu können. Auch war man nach dem K6 gefestigt genug, um für den K7 eine eigene Plattform in Angriff nehmen zu können, da die Mainboard-Hersteller ja schon beim Super-Sockel-7 halbwegs mitgezogen haben. Vor der Markteinführung des K6 war man auf Sockel-Kompatibilität mit Intel angewiesen, danach nicht mehr. lol, Den K7 entwickelt, alles klar! Ohne den EV6 Einkauf wäre der K7 der nächste Rohrkrepierer geworden!

Manche Leute haben schon drollige Ansichten.

StefanV
2009-12-06, 20:04:28
wirtschaftlich nicht lukrativ = keine Kohle eingebracht | Ergo => Schrott / Fehlschlag
Kann man das von Netburst behaupten?
Ja, kann man, denn wenn Intel die PC Hersteller nicht erpresst/genötigt/geschmiert hätte, wäre das Teil wie Blei in den Regalen geblieben...

_DrillSarge]I[
2009-12-06, 21:07:05
Intel ist nur leider nicht schlau sondern einfach arrogant und verblendet.
glaub ich nicht. zur zeit (!) baucht man es einfach nicht. die ollen gma krücken verkaufen sich auch so. und zur not kauft man bei bedarf einfach ein design woanders ein ;).

ShadowXX
2009-12-06, 21:10:15
lol, Den K7 entwickelt, alles klar! Ohne den EV6 Einkauf wäre der K7 der nächste Rohrkrepierer geworden!

Manche Leute haben schon drollige Ansichten.
Das einzige was AMD gemacht hat war das sie das Busprotokoll des EV6 lizensiert haben....der K7 an sich hat mit dem DEC Alpha nichts zu tun und ist eine völlige AMD Eigenentwicklung.

Ganz im Gegensatz zum K5...da wurde große Teile der aufgekauften NextGen-CPU verwendet.

StefanV
2009-12-06, 21:16:28
Ganz im Gegensatz zum K5...da wurde große Teile der aufgekauften NextGen-CPU verwendet.Nee, K6.
Der K5 war eine AMD Eigenentwicklung -> wohl 29k mit x86 Frontend.

Den NX686 hat man dann auf Sockel7 Busprotokoll umgefriemelt...

SavageX
2009-12-06, 21:35:02
wirtschaftlich nicht lukrativ = keine Kohle eingebracht | Ergo => Schrott / Fehlschlag
Kann man das von Netburst behaupten?


Wenn man Sachen so schwarz/weiss sehen will wie Du: Ja, Netburst war ein (technischer) Fehlschlag. Intel ist damit keineswegs auch nur in die Nähe dessen gekommen, wo man eigentlich hinwollte: Absolute Performancedominanz mit Potential für 10+ GHz.



lol, Den K7 entwickelt, alles klar! Ohne den EV6 Einkauf wäre der K7 der nächste Rohrkrepierer geworden!


Mit dem EV6 verbindet die Teile das Busprotokoll und als Personalie Fred Weber, nicht der Prozessorkern. So what?

Alles übrigens nicht möglich, wenn der K6 AMD nicht über Wasser gehalten hätte.

Der Alpha ging übrigens 2001 an Intel, nicht an AMD.


Manche Leute haben schon drollige Ansichten.


Sag ich doch.

The Jackal
2009-12-06, 23:16:55
Intel und AMD haben sich auf ein Patentaustuasch geeinigt.

Wenn NV mit dem Fermi nicht bald rausrückt, sind die die nächsten für die es R.I.P heißen wird.

Zum Thema High Performance Computing. Intel hat gezeigt das Larrabee als Cluster funktioniert. Das reicht vollkomen aus. Es wird eine neue Ausrichtung seitens Larrabee geben, nicht mehr als Grafikkarte sondern als CPU.

Die meisten neuen PC Spiele die auf den Markt kommen sind ehe Konsolenportierungen. Und seien wir mal ehrlich, Konsole ist viel unproblematischer zum Spielen, keine Treiber oder Kompatibilitätsprobleme.

AMD hat jetzt Geld um die Schulden zu begleichen und das komische ist die haben exakt soviel Geld von Intel gekriegt wie der Schuldenberg groß ist.

NVidia dageng schreib schon seit längerem rote Zahlen. Die Produktion der Trümmer-GPU's ist doch nicht so Kostengünstig.

Coda
2009-12-06, 23:23:01
NVidia dageng schreib schon seit längerem rote Zahlen. Die Produktion der Trümmer-GPU's ist doch nicht so Kostengünstig.
Bitte? (http://www.pcgameshardware.de/aid,698921/Nvidia-Q3/2010-Nvidia-wieder-in-der-Gewinnzone-Update-Aussagen-zu-Fermi-G300/Grafikkarte/News/bildergalerie/?iid=1217078)

Sie hatten jetzt ein schlechtes Jahr im Rahmen der Wirtschaftskrise.

ShadowXX
2009-12-06, 23:28:40
Nee, K6.
Der K5 war eine AMD Eigenentwicklung -> wohl 29k mit x86 Frontend.

Den NX686 hat man dann auf Sockel7 Busprotokoll umgefriemelt...
Du hast natürlich recht....das hatte ich falsch in Erinnerung gehabt.


Zum Thema High Performance Computing. Intel hat gezeigt das Larrabee als Cluster funktioniert. Das reicht vollkomen aus. Es wird eine neue Ausrichtung seitens Larrabee geben, nicht mehr als Grafikkarte sondern als CPU.

Sicher nicht als reine CPU.

Nebenbei: Auch die jetzigen nVs und auch die ATIs funktionieren als Cluster......

Die meisten neuen PC Spiele die auf den Markt kommen sind ehe Konsolenportierungen. Und seien wir mal ehrlich, Konsole ist viel unproblematischer zum Spielen, keine Treiber oder Kompatibilitätsprobleme.

Die Patchen inzwischen auch ganz gerne bei Konsolengames....noch nicht so stark wie bei PC-Games (wobei man sagen muss, das es auch genug PC Games gibt die nicht extra großartig gepatched werden müssen bzw. wo die Patches keine Kosmetika sind), aber das wird sich noch ändern, wenn bei der nächsten Konsolen-Gen ein I-Net-Anschluss Pflicht werden wird.

The Jackal
2009-12-06, 23:43:46
@Coda

Wirtschaftskriese bei einem GraKa hersteller. Ne ist klar.

Coda
2009-12-06, 23:50:39
Wirtschaftskriese bei einem GraKa hersteller. Ne ist klar.
Ja?
http://www.heise.de/resale/meldung/Halbleiterbranche-auf-Talfahrt-206372.html
http://www.spiegel.de/wirtschaft/0,1518,173692,00.html

Die Kaufkraft der Leute hat deutlich nachgelassen. Das betrifft natürlich auch Grafikkarten-Hersteller.

Und nein AMD hat seine Schulden durch die 1,25 Mrd. von Intel nicht gedeckt. Das waren über 3 Mrd. Btw. hat der Laden seit dem Jahr 2000 ungefähr 7 Mrd. $ Verlust gemacht.

HarryHirsch
2009-12-07, 00:05:59
Solang es Intel gibt wird es AMD nicht schlechter gehen als heute.

Coda
2009-12-07, 00:09:18
Hab ich ja auch nicht behauptet. Es geht nur um den Irrglauben NVIDIA würde irgendwie in letzter Zeit irgendwelche großen Probleme haben.

Klar war GT200 nicht optimal und Fermi ist zu spät. Aber was das nächste Jahr angeht sollten wir den erstmal abwarten - und vor allem welche Chips darauf noch fußen. Nur weil Fermi evtl. die Clocks nicht erreicht heißt es noch lange nicht, dass die neue Basis an der man >4 Jahre gearbeitet hat schlecht ist.

Mit dem EV6 verbindet die Teile das Busprotokoll und als Personalie Fred Weber, nicht der Prozessorkern. So what?
Dirk Meyer der jetzige CEO von AMD war beim K7 Chefentwickler und kam von Alpha.

Die Alpha 21264-Architektur ist auch sehr ähnlich wie die von K7.

HarryHirsch
2009-12-07, 00:36:57
Hab ich das etwa? Also wenn Nvidia zur zeit keine Probs hat weiß ich ja auch nicht... Läuft ja alles wie geplant... kein Grund zur sorge...
Außer vielleicht Geldmäßig. Da sollte es doch stimmen.

Coda
2009-12-07, 00:45:28
Ich meine natürlich finanzielle Probleme. Das sonst nicht alles reibungslos läuft in letzter Zeit sollte klar sein ;)

Aber gegen den LRB-Fuckup ist das gar nichts ;)

HarryHirsch
2009-12-07, 00:57:29
Was sind denn bitte diese paar Milliarden für Intel? Kleingeld oder?
Wenn sie könnten wie sie wollten würden sie AMD + nVidia komplett schlucken und ruhe ist.
Die entwickeln so lang an LRB rum bis es passt. Und nVidia mit ihren Comics ist schuld! :freak:

LovesuckZ
2009-12-07, 01:05:16
Sie hatten jetzt ein schlechtes Jahr im Rahmen der Wirtschaftskrise.

Davon waren nur zwei Quartale betroffen: Q4.2009 und Q1.2010. In Q2.2009 und Q2.2010 mussten sie wegen ihren Produktfehler draufzahlen.

HarryHirsch
2009-12-07, 01:12:51
Entwicklungsfehler trifft es wohl eher.

Sorkalm
2009-12-07, 01:14:00
Entwicklungsfehler trifft es wohl eher.

Ne, das war die Thematik der kaputten Notebookchips. Das ist schon ein Produktfehler und hat mit der Entwicklung nix zu tun.

HarryHirsch
2009-12-07, 01:19:24
Q2.2010 mussten sie wegen ihren Produktfehler draufzahlen.[/B]

Was für Chips? Die kloppen ihre Kohle nicht um sonst in neue Chips

Tigerchen
2009-12-07, 07:39:16
Ich frage mich gerade warum Intel so ein Faß aufgemacht hat wenn ein konkurrenzfähiges, fertiges Produkt gerade mal als kleiner Punkt am Horizont erkennbar ist. Welchen Sinn macht das?

Will man unbedingt den Vaporware-Oscar?
So eine Peinlichkeit war man ja früher eher von so Klitschen wie den Bitboys gewöhnt.

............und genauso ist es gekommen. Larrabee ist mausetot. Aber halt! Larrebee 2 soll es jetzt richten. Glaubt das einer?

SavageX
2009-12-07, 07:59:22
Dirk Meyer der jetzige CEO von AMD war beim K7 Chefentwickler und kam von Alpha.


Wie zum Henker kam ich auf Fred Weber?


Die Alpha 21264-Architektur ist auch sehr ähnlich wie die von K7.

Sowas wie "Designphilosophie" hängt Leuten halt an ;-)

Der K7 ist aber kein auf x86 umgebogener Alpha - und selbst wenn dem so wäre: AMD weiß aus eigener Erfahrung, dass es nicht ganz einfach ist, einem bereits bestehenden Kern ein x86-Frontend vorzuschnallen ;-)

tombman
2009-12-07, 09:32:09
Tim Sweeney war ganz begeistert von LRB:

"I see the instruction set and mixedscalar/vector programming model of Larrabee as the ultimate computingmodel, delivering GPU-class numeric computing performance and CPU-class programmability with an easy-to-use programming model that will ultimately crush fixed-function graphics pipelines. The model will be revolutionary whether it's sold as an Express add-in card, an integrated graphics solution, or part of the CPU die.

To focus on Teraflops misses a larger point about programmability:Today's GPU programming models are too limited to support large-scale software, such as a complete physics engine, or a next-generation graphics pipeline implemented in software. No quantity of Teraflops can compensate for a lack of support for dynamic dispatch, a full C++ programming model, a coherent memory space, etc."

"Teh Rhivensch of Teh Lerrebie" könnte uns also noch ins Haus stehen- irgendwann mal :ugly:

Aquaschaf
2009-12-07, 10:00:43
Tim Sweeney war ganz begeistert von LRB

Tim Sweeney hat mitlerweile so eine beeindruckende Quote an Vorhersagen, dass sich die Frage stellt warum überhaupt noch jemand seine Meinung zu diesem Thema abdruckt.

tombman
2009-12-07, 10:05:38
Tim Sweeney hat mitlerweile so eine beeindruckende Quote an Vorhersagen, dass sich die Frage stellt warum überhaupt noch jemand seine Meinung zu diesem Thema abdruckt.
Weil uns allen fad ist ;D

Ailuros
2009-12-07, 11:35:39
Nein, dort liegst du völlig falsch.

Sowohl Intel wie auch AMD können eine GPGPU beliebig nah an die CPU und dem Hauptspeicher bauen und dieses dann auch kostengünstig bundeln.

Nur verdonnert LRB so viel Strom als Grundarchitektur dass es total ungeeignet fuer jegliche Integrierung ist. SoCs hat Intel schon heute (set top boxes, netbooks etc.) und sie werden sie natuerlich auch in den PC Markt ziehen um IGPs zu ersetzen. SoCs sind typisch an Bandbreite begrenzt weil sich diese eben die CPU und GPU Einheiten teilen muessen und daher handelt es sich lediglich um eine Evolution der heutigen IGPs und im gegebenen Fall wird aus GenX/IGP einfach das aufgepumpte GenX Zeug in kommende SoCs integriert.

Das kann nVidia nicht. nVidia kann kostenvergleichbar nur PCIe Grafikkartenhersteller beliefern. Selbst bei den Onboard Grafikeinheiten hat nVidia nun einen großen Nachteil.

NVIDIA baut schon selber SoCs in der Form von Tegra fuer den gleichen Kleinkrammarkt den Intel mit ihren heutigen SoCs anspricht. Die Frage ist nun was genau NV vorhat in der weniger absehbaren Zukunft. Unmoeglich ist es auf jeden Fall nicht. Das einzige was sie brauchen sind faehigere ARM CPUs die sich eventuell auch im PC Markt aufrecht halten koennten.

Weder ist der Larabee gestorben, noch sind die von Dir angesprochenen neuen nVidia Geschäftsfelder in einem Wettbewerb zu sehen.
Das einzige was es nicht gibt ist eine Larrabee Grafikkarte. Es wird den Larrabee aber in der CPU geben und dieses ist die viel marktverändernde nachhaltigere Variante.

Ich hoere schon seit ueber 3 Jahren ueber den Larabee Mist und erst seit einiger Zeit haeufen sich die Geruechte an dass LRB angeblich eingebettet werden soll. Mit den Grundlagen des heutigen LRB ist eine solche Integration unmoeglich und es gibt keinen einzigen ernsthaften Anhaltspunkt seitens Intel der dieses erst mal bestaetigt nur der uebliche Bloedsinn ein paar Tagtrauemer die auch Elephanten fliegen sehen koennen.

Und trotzdem ist Intel Marktführer bei den Grafiklösungen schon seit vielen Jahren. Der PC Grafikmarkt wird von Intel dominiert, weil integrierte Lösungen den Markt dominieren.
Du kannst keinen stand alone GPU von Intel kaufen, allerdings wollen die allermeisten Käufer dieses auch gar nicht. Das ist genau das Problem von nVidias momentaner Ausrichtung.

Warten wir erstmal ab bis Intel sich gezwungen sieht ihre Produkte mit legitimeren Methoden zu verkaufen und dann werden wir schon sehen ob die zeitliche Domination auch dem wahren Wert der Produkte entspricht. Denn von einer halbwegs anstaendigen integrierten Grafikloesung kann man wohl schwer reden und schon gar nicht von anstaendigen Treibern.

NVIDIA hat kein Problem anstaendige GPUs zu entwickeln; in dem Fall sollte sich eher Intel im gegebenen Fall ueber die Schulter glotzen ueberhaupt da AMD's 2011 SoCs ziemlich vielversprechend aussehen wenn es zu Grafik kommt.

Wenn Intel nun keine Larrabee Grafikkarte auf den Markt bringt, dann nicht weil der Larrabee so schlecht wäre, dass sie es sich nicht leisten könnten. Intel bringt keine Larrabee Grafikkarte auf den Markt, weil
Sie sich es leisten können keine Larrabee Grafikkarte auf den Markt zu bringen, Intel braucht diese schlicht nicht mehr um ihre Ziele zu verfolgen.

Eine Blamage kann sich selbst Intel nicht leisten. Eben weil Larabee so ein uebertolles Design ist, setzt man sich nun bei Intel hin und entwickelt von Null auf nochmal die SIMD Einheiten.

_DrillSarge]I[
2009-12-07, 11:52:55
Das einzige was sie brauchen sind faehigere ARM CPUs die sich eventuell auch im PC Markt aufrecht halten koennten.
?
weil es dort ja auch überhaupt keine absolut übermächtige konkurrenz gibt..

Avalox
2009-12-07, 14:02:54
Nur verdonnert LRB so viel Strom als Grundarchitektur dass es total ungeeignet fuer jegliche Integrierung ist.


Der LRB ist doch schon integriert. Es ist ja ein x86 Prozessor, er kann x86 Anwendungen und Betriebssysteme nativ ausführen.



Das einzige was sie brauchen sind faehigere ARM CPUs die sich eventuell auch im PC Markt aufrecht halten koennten.


Eben dieses wird ja nun nicht mehr passieren können.
Das ist ja der Punkt, des Wandels am Markt.

Da die nVidia GPUs nun nachhaltig beschränkt sind im Massenmarkt PCIe zu nutzen, wird sich die Auslagerung von Code auf die GPU auf einzelne Spezialfälle beschränken. Weil keine elegante Übergabe der verarbeitenden Prozessorinstanz im PC mehr von CPU zu GPGPU nahtlos möglich ist. Das gemischte Verarbeiten benötigt viel Zeit bei der Übergabe der Daten, Zeit welche immer gegen eine eventuelle Optimierungsersparnis läuft und so den Aufwand relativiert.

Dieses hätte vor einiger Zeit noch anders aussehen können. Dort wäre eine fortschrittliche sehr systemnahe und standardisierte nicht x86 C/GPU in der Lage gewesen große Teile einer Anwendung auf dem PC selbstständig auszuführen. Es währe ein schleichende Unterminiehrung des x86 gewesen, wenn große Codeteile nicht mehr x86 gewesen wären.

Nun sieht die Situation ganz anders aus. Zumindest die nVidia GPU wird der PC CPU nicht näher kommen, als sie es heute schon ist. Damit ist deren theoretische allgemeine Einsetzbarkeit zwar nicht anders, allerdings die Einsetzbarkeit praktisch extrem limitiert.

nVidia wird von Intel/AMD auf Distanz gehalten und dieses ohne mit einem Larrabee im Ring erst antreten zu müssen.



Ich hoere schon seit ueber 3 Jahren ueber den Larabee Mist und erst seit einiger Zeit haeufen sich die Geruechte an dass LRB angeblich eingebettet werden soll.

Nein, eigentlich nicht. Intel hat immer gesagt, dass die dedizierte Larrabee Grafikkarte nur ein erster Sprössling wäre, Ziel war immer die Integration in einer CPU. Es ist ja auch der selbe Weg, den AMD verfolgt.
Natürlich kann es für einen CPU Bauer auf Dauer nur eine echte Prozessingeinheit im System geben, was anders wäre ja widersinnig.

Gestrandet
2009-12-07, 14:08:52
Der LRB ist doch schon integriert. Es ist ja ein x86 Prozessor, er kann x86 Anwendungen und Betriebssysteme nativ ausführen.
LRB ist sosehr eine zeitgemäße x86 CPU, wie ein Traktor ein Formel-1-Rennwagen ist - der hat ja auch 4 Räder und nen Motor :biggrin:
Aber vielleicht gibt das ganz extrem versnobbten Intelusern ja nen besonderes Kick, wenn sie sich zur Abwechslung mal von den VIA Fanbois mit Benchmarks demütigen lassen können ^^

Ailuros
2009-12-07, 15:19:53
Der LRB ist doch schon integriert. Es ist ja ein x86 Prozessor, er kann x86 Anwendungen und Betriebssysteme nativ ausführen.

Es ist und bleibt eine GPU und nein ein OS kann das Ding auch nicht ausfuehren. Oder besser rein theoretisch schon, nur muss einem dann die Leistung auch komplett egal sein.

Eben dieses wird ja nun nicht mehr passieren können.
Das ist ja der Punkt, des Wandels am Markt.

Der einzige Wandel im Markt ist dass die Wichtigkeit der Grafik-Prozessoren weiterhin steigen wird, deshalb hat auch Intel 3 Mrd. ins LRB Projekt verpulvert.

Da die nVidia GPUs nun nachhaltig beschränkt sind im Massenmarkt PCIe zu nutzen, wird sich die Auslagerung von Code auf die GPU auf einzelne Spezialfälle beschränken. Weil keine elegante Übergabe der verarbeitenden Prozessorinstanz im PC mehr von CPU zu GPGPU nahtlos möglich ist. Das gemischte Verarbeiten benötigt viel Zeit bei der Übergabe der Daten, Zeit welche immer gegen eine eventuelle Optimierungsersparnis läuft und so den Aufwand relativiert.

Je mehr eine GPU Daten "on chip" behaelt desto besser die Resultate; ist jetzt eine jegliche eingebettete GPU durch geteilte Bandbreite mit der CPU in einem SoC kastriert, wird dieses stets der Flaschenhals sein. Der eigentliche Zweck von heterogener Bearbeitung von Daten sollte sein dass man die richtigen Daten der effizienteren Einheit zuschiesst (CPU und GPU) und eben vereinfacht wenige threads = CPU, viele threads = GPU.

Ein SoC wird nie und nimmer einen nennenswerten Vorteil gegen eine low end standalone GPU erreichen koennen und schon gar nicht Intel mit ihren uebergrottigen Treibern.

Dieses hätte vor einiger Zeit noch anders aussehen können. Dort wäre eine fortschrittliche sehr systemnahe und standardisierte nicht x86 C/GPU in der Lage gewesen große Teile einer Anwendung auf dem PC selbstständig auszuführen. Es währe ein schleichende Unterminiehrung des x86 gewesen, wenn große Codeteile nicht mehr x86 gewesen wären.

ARM zielt hoehere Frequenzen mit ihren kommendem CPU IP an. Fuer was es gut genug sein wird bleibt abzusehen. Zumindest fuer netbooks koennte es als Anfang ziemlich steif fuer ATOM werden.

Nun sieht die Situation ganz anders aus. Zumindest die nVidia GPU wird der PC CPU nicht näher kommen, als sie es heute schon ist. Damit ist deren theoretische allgemeine Einsetzbarkeit zwar nicht anders, allerdings die Einsetzbarkeit praktisch extrem limitiert.

Schwer zu verstehen; denn Fermi hat als HPC Architektur wenig wenn ueberhaupt irgendwelches Nachsagen im Vergleich zu Larabee. Es will ja auch keiner dass die CPU die GPU ersetzt oder anders rum. Ein logischeres Ziel waere die hoechstmoegliche Ausnutzung der System-resourcen durch heterogene Bearbeitung. Eine oder wenige Aufgaben eine CPU und fuer kompliziertes und hoch parallelisiertes Zeug eine GPU.

nVidia wird von Intel/AMD auf Distanz gehalten und dieses ohne mit einem Larrabee im Ring erst antreten zu müssen.

Dass sie regungslos rumhocken werden klingt aber nicht nach NVIDIA. Irgend etwas haben sie sich schon einfallen lassen und obwohl die Situation nicht optimal fuer NV ist, werden sie wohl schon einen Weg finden sich durchpruegeln zu koennen.

Nein, eigentlich nicht. Intel hat immer gesagt, dass die dedizierte Larrabee Grafikkarte nur ein erster Sprössling wäre, Ziel war immer die Integration in einer CPU.

Dann entwickelt man nicht eine high end Architektur sondern entwickelt eher dafuer von Grund auf fuer die kleinstmoegliche die-area und kleinstmoeglichen Stromverbrauch. Zwischen einem embedded Design und einer high end GPU liegen Lichtjahre an Latenz und man bleibt irgendwo in der Mitte stecken. Ich weiss dass Du es als kein Problem empfindest aber rechne mal aus was ein einziger LRB core an die area und Strom verbratet und dann koennen wir nochmal darueber reden.


Es ist ja auch der selbe Weg, den AMD verfolgt.

Nur sind mehr oder weniger AMD's Llano Daten (Stromverbrauch, die area) mehr oder weniger schon einschaetzbar mit den vorhandenen Einzelheiten. Es ist eine eingebettete DX11 GPU fuer 2011 gegen die Intel nur ihren oeden GenX gegenstellten wird. Und bis zum Punkt wo sie mit Larabee 2, 3 oder 666 endlich mal fertig sind dauert es wohl noch einige Zeit.

LRB als GPU haette fast 2 Mal so hohe die area und Stromverbrauch als eine Cypress GPU und dabei haette sie es schwer gehabt sie schlagen zu koennen. Und ja natuerlich kommt jetzt Intel's Ueber-zauberstab der ploetzlich die perf/W oder perf/mm2 im Handumdrehen um zich Male verbessern koennte.

Ich bin sogar so zickig und bestehe darauf dass ein sw-rasterizer bei einer many core Architektur wie LRB nebensaechlich ist. Bei sehr kleinen Varianten bzw. sehr wenigen cores bezweifle ich erstmal dass die fehlende hw Unterstuetzung fuer rasterizing bzw. tiling nicht zum Bumerang werden koennte. Und hier konnte das GenX team bis heute nichtmal eine anstaendige hw tiling Unterstuetzung auf die Beine stellen.

Natürlich kann es für einen CPU Bauer auf Dauer nur eine echte Prozessingeinheit im System geben, was anders wäre ja widersinnig.

Fuer Low end Quark ja; fuer alles andere wehe wenn man in vorhersehbarer Zukunft auf SoCs fuer high end Grafik setzen wuerde.

Coda
2009-12-07, 15:22:24
Tim Sweeney war ganz begeistert von LRB:

"I see the instruction set and mixedscalar/vector programming model of Larrabee as the ultimate computingmodel, delivering GPU-class numeric computing performance and CPU-class programmability with an easy-to-use programming model that will ultimately crush fixed-function graphics pipelines. The model will be revolutionary whether it's sold as an Express add-in card, an integrated graphics solution, or part of the CPU die.

To focus on Teraflops misses a larger point about programmability:Today's GPU programming models are too limited to support large-scale software, such as a complete physics engine, or a next-generation graphics pipeline implemented in software. No quantity of Teraflops can compensate for a lack of support for dynamic dispatch, a full C++ programming model, a coherent memory space, etc."

"Teh Rhivensch of Teh Lerrebie" könnte uns also noch ins Haus stehen- irgendwann mal :ugly:
Das Problem ist: Das was Sweeney da verlangt ("No quantity of Teraflops can compensate for a lack of support for dynamic dispatch, a full C++ programming model, a coherent memory space, etc.") kann Fermi bereits.

Gestrandet
2009-12-07, 15:45:41
Was Sweeney da labert is doch eh dummes Zeug. Dann hätte es nie den Siegeszug der 3D Beschleuniger geben dürfen, denn der Pentium mit MMX war ja die optimale Lösung. Niemand wird jemals das Gesetz aushebeln können, dass alles was man in Software machen kann, auch schneller in Hardware geht. Und bei der Bilderzeugung seh ich jetzt nicht den Bedarf nach so allumfassender Flexibilität, wieso man da nicht vernünftigerweise das Gros in Hardware gießen sollte. Und wenn irgendjemand die eierlegende Wollmichsau finden sollte, die die Vorteile von Raytracing und Rasterizing vereint und die Nachteile eliminiert und dazu Radiosity und Subsurface Scattering für umsonst mitliefert, aber leider nicht mit GPUs umzusetzen ist - gibts die GPU, die es umsetzt eben kurz darauf. So schaut's doch aus.
Computergrafik-Verfahren sind und waren immer sehr speziell und werden es auch immer bleiben. Es macht wenig Sinn, sowas spezielles mit einer CPU die per definitionem "general purpose" ist, angreifen zu wollen.

Coda
2009-12-07, 15:58:20
Niemand wird jemals das Gesetz aushebeln können, dass alles was man in Software machen kann, auch schneller in Hardware geht.
So einfach ist das nicht.

Wenn die Berechnungsintensitivität von 3D-Grafik weiter so zunimmt kommen wir irgendwann an einen Punkt an dem Software-Rasterisierung oder Raytracing den Braten auch nicht mehr fett macht.

Wir wollen ja irgendwann auch eine wirklich frei programmierbare Pipeline ohne Beschränkungen haben. Die GPUs gehen in diese Richtung, die CPUs werden immer paralleler. Das ganze konvergiert zumindest vom Programmiermodell schon.

tombman
2009-12-07, 15:59:12
Das Problem ist: Das was Sweeney da verlangt ("No quantity of Teraflops can compensate for a lack of support for dynamic dispatch, a full C++ programming model, a coherent memory space, etc.") kann Fermi bereits.
Naja, ne Cpu wird schon noch was mehr können, oder? Falls nicht: und das weiß Sweeney nicht? :eek:
(btw, sein Name bedeutet klanglich im Russischen: "Schweine" :lol:)

Avalox
2009-12-07, 16:09:15
Es ist und bleibt eine GPU und nein ein OS kann das Ding auch nicht ausfuehren. Oder besser rein theoretisch schon, nur muss einem dann die Leistung auch komplett egal sein.


Leistung hin, oder her. Hier geht es erstmal ums Prinzip. Der Larrabee ist dort tatsächlich der erste wirklich integrierte x86 CPU/GPU Ansatz.
Natürlich hat auch Intel nicht vor, dieses so als CPU auf den Markt zu bringen. Intel wird diesen mit einigen fortschrittlichen Kernen kombinieren.


Je mehr eine GPU Daten "on chip" behaelt desto besser die Resultate;
ist jetzt eine jegliche eingebettete GPU durch geteilte Bandbreite mit der CPU in einem SoC kastriert, wird dieses stets der Flaschenhals sein.


Nein es ist nur unflexibler. Dass die Ergebnisse heute besser sind, liegt nur an der Konzeption der Anbindung. Eine CPU nähere Anbindung unter einer immer möglichen Einhaltung der nötigen Speicherbandbreiten würde die Flexibilität erhöhen und zu einer noch besseren Leistung führen.


Der eigentliche Zweck von heterogener Bearbeitung von Daten sollte sein dass man die richtigen Daten der effizienteren Einheit zuschiesst (CPU und GPU) und eben vereinfacht wenige threads = CPU, viele threads = GPU.


Ja, aber dieses funktioniert ja gerade nicht hinreichend frei, wenn die GPU am PCIe hängt.
Weil natürlich in solch einen Konstrukt immer wieder Daten von einem Thread mit anderen Threads synchronisiert werden müssen. Dieses ist in der heutigen Einteilung aber unelegant aufwendig und sich deshalb oftmals nicht auszahlt und damit gleich ganz gelassen wird.



Ein SoC wird nie und nimmer einen nennenswerten Vorteil gegen eine low end standalone GPU erreichen koennen

Solch eine CPU/GPU Kombination wäre ja kein SoC und natürlich hat solch ein Konstrukt den entscheidendsten Vorteil auf seiner Seite. Dieses ist der Preis.

Allerdings werden PC CPUs auch immer SoC ähnlicher. Auch dieses ist natürlich Preis gesteuert .




ARM zielt hoehere Frequenzen mit ihren kommendem CPU IP an. Fuer was es gut genug sein wird bleibt abzusehen. Zumindest fuer netbooks koennte es als Anfang ziemlich steif fuer ATOM werden.



Ganz sicher. Schon heute ist ein Drittel aller Netbooks mit Linux versehen. Dieses wird sich mit der Zeit noch weiter steigern und ARM eine gute Ausgangsbasis verschaffen.
Aber es sind eben Netbooks und keine PC Notebooks. Es ist eine völlig andere Klasse von Geräten, welche den PC Markt ergänzen aber nicht ablösen.



Es will ja auch keiner dass die CPU die GPU ersetzt oder anders rum.


Natürlich ist das Ziel von nVidia, zumindest gewesen.

Es ist ja nicht die Frage, ob die GPU oder die CPU dort ganz verschwindet.
Es ist aber die Frage, wie leistungsfähig eine entsprechende CPU oder GPGPU sein muss.

Reicht vielleicht eine einfachere oder gar älterer CPU in Verbindung mit einer modernen GPGPU?

Verstehst du? Es geht letztendlich um die Frage wer liefert den Prozessor für den Rechenaufwand von morgen. Das kann der GPU Hersteller sein oder es kann der CPU Hersteller sein. Es gibt eine große Schnittmenge.

Dabei geht es gar nicht um die Frage; welche Lösung ist eleganter?
Es geht nur um die Frage, ist es auf dem System hinreichend möglich.

Natürlich kann ein nVidia nicht eine x86 CPU ablösen (nun erst Recht nicht mehr). Aber nVidia kann die Wichtigkeit und damit den Umsatz der x86 CPU beeinflussen.

Intel/AMD können allerdings in der Tat mit einer entsprechenden CP/GPU eine extra GPU völlig überflüssig machen.

Sie können es nicht nur, sie müssen es sogar tun mittelfristig. Weil wenn sie es nicht tun, es jemand anders tut und damit einen Vorteil erlangt. Vorteil meint damit immer den Preis.





Dann entwickelt man nicht eine high end Architektur sondern entwickelt eher dafuer von Grund auf fuer die kleinstmoegliche die-area und kleinstmoeglichen Stromverbrauch.

Das tut ja nVidia auch. Man sucht ja nach neuen Märkten. Allerdings gibt es auch neuen Märkten natürlich auch wieder neue Marktbegleiter.


Und ja natuerlich kommt jetzt Intel's Ueber-zauberstab der ploetzlich die perf/W oder perf/mm2 im Handumdrehen um zich Male verbessern koennte.


Intels Überzauberstab ist deren Marktmacht und das breite Portfolio, welches erlaubt günstige Komplettpakete zu schnüren. Eben die Plattformierung.

Wenn überall für den Kunden ohne Mehrkosten eine entsprechende CP/GPU vorhanden ist, dann wird dieses den Markt mehr beeinflussen als irgend ein hoher Benchmarkwert.

Natürlich werden sich auch solche Lösungen dann weiterentwickeln.

Du darfst ja nicht vergessen, dass solche Lösungen auch technische Vorteile bedeuten, welche du auf Systemen mit CPU und PCIe GPU nicht bekommst.
Wird erstmal nachhaltige Software für solche CP/GPUs nennenswert entwickelt, dann sieht es eh düster aus für getrennte Lösungen.

LovesuckZ
2009-12-07, 16:34:46
nVidias wie AMDs Aktien sind heute deutlich gestiegen. Da werden sie bestimmt den ein oder anderen Präsentkorb zu Intel schicken.

aylano
2009-12-07, 19:30:37
Es ist ja auch der selbe Weg, den AMD verfolgt.
Nur sind mehr oder weniger AMD's Llano Daten (Stromverbrauch, die area) mehr oder weniger schon einschaetzbar mit den vorhandenen Einzelheiten. Es ist eine eingebettete DX11 GPU fuer 2011 gegen die Intel nur ihren oeden GenX gegenstellten wird.
Llano ist ja nur ein Zwischenschritt, "wo der GPU-Anteil neben CPU-Anteil liegt"
Die nächste CPU-Generation nach Llano soll die GPU-Teile schon im CPU-Bereich vermischt haben.

HOT
2009-12-07, 20:17:00
So einfach ist das nicht.

Wenn die Berechnungsintensitivität von 3D-Grafik weiter so zunimmt kommen wir irgendwann an einen Punkt an dem Software-Rasterisierung oder Raytracing den Braten auch nicht mehr fett macht.

Wir wollen ja irgendwann auch eine wirklich frei programmierbare Pipeline ohne Beschränkungen haben. Die GPUs gehen in diese Richtung, die CPUs werden immer paralleler. Das ganze konvergiert zumindest vom Programmiermodell schon.

Das mag zwar richtig sein, aber so parallel wie eine GPU wird eine CPU niemals werden und umgekehrt. Man braucht nunmal beide Extreme, das ist ja das Problem. In Zukunft wird zwar die CPU auch einen GPU-Teil als interne Funktionseinheit bzw. FPU-Ersatz abbekommen, aber nur in sehr eingeschränktem Maße (eben nur als IGP) und die GPU wird notwendig bleiben, quasi also Zusatzparallelrechner. Dafür muss das Teil aber nicht x86 sein, wie Intel das gerne möchte. Ich halte das sowieso für äußerst bekloppt, in einen Parallelrechner x86-Decoder einzubauen :freak:. Bescheuerter kann man Die-Fläche nicht verschwenden (und dabei empfinde ich schon diesen Skalarquatsch, den NV da forciert schon als Platzverschwendung). Wenn ich schonwieder 500mm² lese... das KANN nicht die Zukunft sein.

LovesuckZ
2009-12-07, 20:35:44
ich schonwieder 500mm² lese... das KANN nicht die Zukunft sein.

Aber 333mm^2? :rolleyes:
Die 500mm^2 werden dafür sorgen, dass AMD nichtmal den Geist einer Staubwolke im HPC Bereich sehen wird. Da können sie noch so viel billiger produzieren, nVidia wird einfach wesentlich attraktiver sein und somit auch einen deutlich höhreren Aufpreis nehmen können.

deekey777
2009-12-07, 20:38:10
Aber 333mm^2? :rolleyes:
Die 500mm^2 werden dafür sorgen, dass AMD nichtmal den Geist einer Staubwolke im HPC Bereich sehen wird. Da können sie noch so viel billiger produzieren, nVidia wird einfach wesentlich attraktiver sein und somit auch einen deutlich höhreren Aufpreis nehmen können.
Ja klar. Darum ist ja ein Superrechner mit CPUs auf dem ersten Platz.

LovesuckZ
2009-12-07, 20:39:24
Ja klar. Darum ist ja ein Superrechner mit CPUs auf dem ersten Platz.

Und nächtes Jahr anscheinend einer mit Fermi und CPUs. Und nun? :rolleyes:

Dural
2009-12-07, 21:13:36
Ja klar. Darum ist ja ein Superrechner mit CPUs auf dem ersten Platz.

hab gar nicht gewusst das man Fermi schon kaufen kann! :wink:

G80 war ein kleiner schritt, der GT200 hat den nächsten kleinen schritt gemacht, der GF100 wird in diesem bereich wohl einen viel grösseren schritt machen als G80 und GT200 zusammen!

Black-Scorpion
2009-12-07, 21:20:05
Bevor man einen Schritt machen kann muss man laufen lernen.
Bis jetzt sieht es eher so aus das er nicht mal alleine stehen kann. ;)

LovesuckZ
2009-12-07, 21:29:49
Fermi läuft. Erst erkundigen, dann trollen.

Gestrandet
2009-12-07, 22:36:41
Nachdem das mit dem Laufen schon so lange gedauert hab, hab ich doch so meine Bedenken ob es mit dem Rennen noch rechtzeitig klappt ^^

Dural
2009-12-07, 23:14:22
A1 lief ja schon... sicher nicht so wie er sollte aber er lief ;)

Ailuros
2009-12-08, 09:35:34
Leistung hin, oder her. Hier geht es erstmal ums Prinzip. Der Larrabee ist dort tatsächlich der erste wirklich integrierte x86 CPU/GPU Ansatz.
Natürlich hat auch Intel nicht vor, dieses so als CPU auf den Markt zu bringen. Intel wird diesen mit einigen fortschrittlichen Kernen kombinieren.

Welches Prinzip denn genau? Je nach Variante verpulvert x86 decoding hw auf einem LRB zwischen 10 und 30% der die area. Bei den kleineren Varianten sind die 10% zu wenig dass es etwas bringen wuerden und bei den groesseren sind die 30% zu viel verschendete die area damit es irgendwelchen Sinn machen wuerde.

x86 Integrierung war eine Schnappsidee von Intel's Marketing-Heinis und nein ihre engineers haben diese Entscheidung nie befuerwortet.

Nein es ist nur unflexibler. Dass die Ergebnisse heute besser sind, liegt nur an der Konzeption der Anbindung. Eine CPU nähere Anbindung unter einer immer möglichen Einhaltung der nötigen Speicherbandbreiten würde die Flexibilität erhöhen und zu einer noch besseren Leistung führen.

Na dann guten Appetit eine Speicherbandbreite einer jeglichen standalone GPU heute in einen SoC einzubauen. Die SoCs der vorhersehbaren Zukunft sind alle low-end Material.

Ja, aber dieses funktioniert ja gerade nicht hinreichend frei, wenn die GPU am PCIe hängt.
Weil natürlich in solch einen Konstrukt immer wieder Daten von einem Thread mit anderen Threads synchronisiert werden müssen. Dieses ist in der heutigen Einteilung aber unelegant aufwendig und sich deshalb oftmals nicht auszahlt und damit gleich ganz gelassen wird.

Nach der Logik muesste ein low end SoC schneller mit jeglichem general purpose graphics processing sein als ein high end System mit einer high end CPU + high end GPU.

Solch eine CPU/GPU Kombination wäre ja kein SoC und natürlich hat solch ein Konstrukt den entscheidendsten Vorteil auf seiner Seite. Dieses ist der Preis.

Och von mir aus kannst Du es MCM oder Borgo Sphinxter nennen, es wird aber am Ende ein einziges die package sein mit mehreren verschiedenen Einheiten on die, fuer welches SoC (system on chip) ein ziemlich gute Beschreibung ist.

Allerdings werden PC CPUs auch immer SoC ähnlicher. Auch dieses ist natürlich Preis gesteuert .

Schoen. Dann lass mal etwas 3D alleine auf einer quad-core CPU laufen und bewundere die resultierende slide-show selber. Und komm mir bloss nicht mit irgendwelchen sw renderer mit 2002 Material, beschissener Filterung und maessigen Aufloesungen.

Ganz sicher. Schon heute ist ein Drittel aller Netbooks mit Linux versehen. Dieses wird sich mit der Zeit noch weiter steigern und ARM eine gute Ausgangsbasis verschaffen.
Aber es sind eben Netbooks und keine PC Notebooks. Es ist eine völlig andere Klasse von Geräten, welche den PC Markt ergänzen aber nicht ablösen.

Die eingentliche Frage ist ob ARM vorhat in der Zukunft weiter nach oben zu skalieren.

Natürlich ist das Ziel von nVidia, zumindest gewesen.

Dann bist Du ein weiteres Opfer von falsch interpretiertem Marketing seitens NVIDIA. Fuer anstaendiges 3D wird man auch in der Zukunft eine high end CPU und eine high end GPU brauchen. Dieses wird Dir jeder NV oder Intel engineer mitteilen.

Es ist ja nicht die Frage, ob die GPU oder die CPU dort ganz verschwindet.
Es ist aber die Frage, wie leistungsfähig eine entsprechende CPU oder GPGPU sein muss.

Nochmal bei sehr hohem Parallelismus erreicht eine GPU ihre maximale Effizienz und eben genau andersrum eine CPU. Bis zum Punkt wo sich beide Einheiten fuer hohen und niedrigen Parallelismus irgendwo in der Mitte treffen (wenn ueberhaupt) sind wir noch Lichtjahre entfernt.

Im gegebenen Fall ist Larabee arschlahm als CPU (weil sie eben nie als solche entwickelt wurde) und ziemlich mittelmaessig als GPU. Ergo wohl schwer ein Pferd fuer irgend eine Revolution.

Reicht vielleicht eine einfachere oder gar älterer CPU in Verbindung mit einer modernen GPGPU?

Verstehst du? Es geht letztendlich um die Frage wer liefert den Prozessor für den Rechenaufwand von morgen. Das kann der GPU Hersteller sein oder es kann der CPU Hersteller sein. Es gibt eine große Schnittmenge.

Und was soll Larabee in diesem Fall genau loesen? Gar nichts. Im Gegenteil sah ich bis jetzt keine einzige Indizie die in die andere Richtung deuten wuerde.

Dabei geht es gar nicht um die Frage; welche Lösung ist eleganter?
Es geht nur um die Frage, ist es auf dem System hinreichend möglich.

Man legt eine elegantere Loesung mit klaren Vorteilen nicht auf Eis. So wie es heute aussieht ueberwiegen jegliche Vorteile eben nicht den Nachteilen und so wie es aussieht wenn sie tatsaechlich die SIMDs nochmal von vorne entwickeln koennen sie auf einen 2011 tape out hoffen und wenn dann alles nach Plan gelaufen sein sollte (ohne die abartige Anzahl von respins die LRB1 benoetigte = 11 heutzutage), kann man erstmal auf einen high end Nachfolger vom heutigen LRB hoffen und dann faengt man erstmal mit der Skalierung nach unten an.

Natürlich kann ein nVidia nicht eine x86 CPU ablösen (nun erst Recht nicht mehr). Aber nVidia kann die Wichtigkeit und damit den Umsatz der x86 CPU beeinflussen.

Bis Intel mit dem LRB Schlammassel erstmal etwas anstaendiges auf Regale bringt, kann NVIDIA den HPC Markt weiterhin beruhigt kapitulieren. Und hierbei ist es mir auch egal wann Du oder jegliche andere von einer SoC Integrierung von LRB traeumt aber es dauert noch etliche Jahre bis es soweit kommt, wenn ueberhaupt. Denn der x86 Scheiss soll ja trotz Neuentwicklung von den SIMDs nicht aufgegeben werden.

Intel/AMD können allerdings in der Tat mit einer entsprechenden CP/GPU eine extra GPU völlig überflüssig machen.

AMD's Llano/DX11/2011 ist alles andere als low end Material fuer diesen Zeitraum. Es behinhaltet 6 cluster und ist damit unter den Faehigkeiten der kleinsten low end standalone GPU von AMD. Wenn heute eine Cypress schon 1600SPs hat und Llano lediglich mit 240SPs ankommen wird, ist es von jeglicher Ueberfluessigkeit zu reden absoluter Bloedsinn. Ausser Du glaubst dass AMD's GPUs in 2 Jahren bei den heutigen Einheitsanzahlen stecken bleiben.

Das tut ja nVidia auch. Man sucht ja nach neuen Märkten. Allerdings gibt es auch neuen Märkten natürlich auch wieder neue Marktbegleiter.

Die Tegra1 & 2 GPU sind lediglich quasi NV3x Ableger und sind noch meilenweit entfernt von heutigen G8x/G9x oder sogar kommenden GF100 GPUs. Ergo skaliert hier NVIDIA nicht die existierenden high end Architekturen nach unten sondern entwickelte etwas dass auf aelteren Architekturen basiert eben um die area bzw. Stromverbrauch unter Kontrolle zu halten.

Intels Überzauberstab ist deren Marktmacht und das breite Portfolio, welches erlaubt günstige Komplettpakete zu schnüren. Eben die Plattformierung.

Steht Plattformierung hier fuer die nicht legitimen Erpressungen der Vergangenheit an grosse OEM Hersteller? Da die Antwort wohl eher positiv ist fuer diesen Punkt, muss sich Intel womoeglich so langsam an die Idee gewoehnen dass sie endlich ihren Produkte nach ihrem wahrem Wert verkaufen werden muessen.

Wenn überall für den Kunden ohne Mehrkosten eine entsprechende CP/GPU vorhanden ist, dann wird dieses den Markt mehr beeinflussen als irgend ein hoher Benchmarkwert.

Im gegebenen Fall kann Intel wohl beruhigt weiterhin in synthetischen Benchmarks bescheissen um Vertraege abzuschliessen, aber selbst dann liegen sie immer noch weit hinter jeglicher Konkurrenz.

Du darfst ja nicht vergessen, dass solche Lösungen auch technische Vorteile bedeuten, welche du auf Systemen mit CPU und PCIe GPU nicht bekommst.
Wird erstmal nachhaltige Software für solche CP/GPUs nennenswert entwickelt, dann sieht es eh düster aus für getrennte Lösungen.

Es gibt etliche relevante threads ueber NVIDIA's zukuenftige Visionen/Projektionen. Diese strecken sich aber leider ueber das halbe Jahrzehnt hinaus, welches wohl eher bedeutet dass je grosser der Blick in die Zukunft desto groesser die Chancen dass sich Faktoren und roadmaps in der Zwischenzeit radikal aendern koennten.

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7623791&postcount=94

Selbst erfahrene engineers koennen mit so langfristigen Projektionen auf die Nase fallen, ebenso wie das klassische Beispiel Sweeney der immer und immer wieder mit dem gleichem Mist ankommt.

Es geht stets um die absehbare Zukunft und wenn Intel nicht ein getrenntes Projekt fuer zukuenftige SoCs auf der LRB Architektur basierend entwickelt sieht es mit dem heutigen Zustand eher grau aus.

Llano ist ja nur ein Zwischenschritt, "wo der GPU-Anteil neben CPU-Anteil liegt"
Die nächste CPU-Generation nach Llano soll die GPU-Teile schon im CPU-Bereich vermischt haben.

Mir ist die Verpackung scheissegal; es werden auch in Zukunft dedizierte CPU und dedizierte GPU Einheiten auf einem einzigen chip geben. Aber wenn's schon sein muss wuerde ich liebend gerne mal hoeren was Du Dir unter diesen angeblichen "Vermischung" genau vorstellst.

Bevor man einen Schritt machen kann muss man laufen lernen.
Bis jetzt sieht es eher so aus das er nicht mal alleine stehen kann. ;)

LOL. Besser haette ich es nicht zusammenfassen koennen :wink:

***edit:

One reader asked how this will impact Haswell. I don't believe it will, from what I can tell Haswell doesn't use Larrabee.

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3686

*zwitscher floet*

Agner Fog, a Danish expert in software optimization is making a plea for an open and standarized procedure for x86 instruction set extensions. Af first sight, this may seem a discussion that does not concern most of us. After all, the poor souls that have to program the insanely complex x86 compilers will take care of the complete chaos called "the x86 ISA", right? Why should the average the developer, system administrator or hardware enthusiast care?

Agner goes in great detail why the incompatible SSE-x.x additions and other ISA extensions were and are a pretty bad idea, but let me summarize it in a few quotes:

* "The total number of x86 instructions is well above one thousand" (!!)
* "CPU dispatching ... makes the code bigger, and it is so costly in terms of development time and maintenance costs that it is almost never done in a way that adequately optimizes for all brands of CPUs."
* "the decoding of instructions can be a serious bottleneck, and it becomes worse the more complicated the instruction codes are"
* The costs of supporting obsolete instructions is not negligible. You need large execution units to support a large number of instructions. This means more silicon space, longer data paths, more power consumption, and slower execution.

Summarized: Intel and AMD's proprietary x86 additions cost us all money. How much is hard to calculate, but our CPUs are consuming extra energy and underperform as decoders and execution units are unnecessary complicated. The software industry is wasting quite a bit of time and effort supporting different extensions.

Not convinced, still thinking that this only concerns the HPC crowd? The virtualization platforms contain up to 8% more code just to support the incompatible virtualization instructions which are offering almost exactly the same features. Each VMM is 4% bigger because of this. So whether you are running Hyper-V, VMware ESX or Xen, you are wasting valuable RAM space. It is not dramatic of course, but it unnecessary waste. Much worse is that this unstandarized x86 extention mess has made it a lot harder for datacenters to make the step towards a really dynamic environment where you can load balance VMs and thus move applications from one server to another on the fly. It is impossible to move (vmotion, live migrate) a VM from Intel to AMD servers, from newer to (some) older ones, and you need to fiddle with CPU masks in some situations just to make it work (and read complex tech documents). Should 99% of market lose money and flexibility because 1% of the market might get a performance boost?

The reason why Intel and AMD still continue with this is that some people inside feel that can create a "competitive edge". I believe this "competitive edge" is neglible: how many people have bought an Intel "Nehalem" CPU because it has the new SSE 4.2 instructions? How much software is supporting yet another x86 instruction addition?

So I fully support Agner Fog in his quest to a (slightly) less chaotic and more standarized x86 instruction set.

http://www.anandtech.com/weblog/showpost.aspx?i=661

Botcruscher
2009-12-08, 11:01:04
Also die dunkel unterlegte Frage stellt sich durchaus auch für ATi und NV. Für Spieler bringt beispielsweise die DP Performance absolut nichts. Man muss kein Guru sein um die zukünftige Spaltung des Marktes zu sehen. Intel ist sicher nicht an der Idee gescheitert. Der Ansatz an sich wird sich bei den Supercomputern durchsetzen. Intel hat halt den Fehler begangen X86 unbedingt in andere Anwendungsfelder exportieren zu müssen. Da stand ganz klar die eigene Vorherrschaft im Vordergrund. Da wir das Ding nicht in Profibereich sehen, muss es aber noch ganz andere Probleme gegeben haben.

Ailuros
2009-12-08, 11:05:52
Die hw ist weder fuer 3D noch fuer HPC etwas besonderes mehr (selbst wenn diese zu 100% bugfrei waere).

Aquaschaf
2009-12-08, 11:15:04
Also die dunkel unterlegte Frage stellt sich durchaus auch für ATi und NV. Für Spieler bringt beispielsweise die DP Performance absolut nichts.

Highend-GPUs sind nicht so ein Massenprodukt wie CPUs. Und bei der Radeon 57xx wurde ja z.B. die DP-Fähigkeit entfernt.

tombman
2009-12-08, 11:36:29
Ein 100W SoC kann doch nicht mit einer 300W Graka mithalten, selbst wenn Intel immer 1 Fertigungsprozess-Generation vorne liegt :rolleyes:

deekey777
2009-12-08, 13:28:58
Ich pick mal das raus...
...

Nochmal bei sehr hohem Parallelismus erreicht eine GPU ihre maximale Effizienz und eben genau andersrum eine CPU. Bis zum Punkt wo sich beide Einheiten fuer hohen und niedrigen Parallelismus irgendwo in der Mitte treffen (wenn ueberhaupt) sind wir noch Lichtjahre entfernt.

....
... und sag mal laut "Nö!".

Man kann meiner Meinung nach den Parallelismus einer GPU mit dem Parallelismus einer CPU vergleichen.
Eine GPU berechnet nur eine Aufgabe, aber für viele, sehr viele Elemente ("Threads" oder Work Items etc). Das können hunderttausende Threads sein, aber es ist immer der gleiche Kernel. Und die Kernels werden nacheinander ausgeführt, wenn ich mich nicht irre.

Die CPU dagegen kann so eine hohe Anzahl auch bewältigen, aber deutlich langsamer. Was sie deutlich besser kann, ist nebeneinander zwei und mehr Aufgaben durchzuführen.

Viel interessanter wird diese Diskussion, wenn Sandy Bridge und Bulldozer draußen sind.

Ailuros
2009-12-08, 13:41:10
Es handelt sich nicht um eine Meinungsverschiedenheit hier, sondern lediglich einem eleganterem und logischeren Ausdruck meiner zu groben Vereinfachung ;)

Avalox
2009-12-08, 21:14:28
..
x86 Integrierung war eine Schnappsidee von Intel's Marketing-Heinis und nein ihre engineers haben diese Entscheidung nie befuerwortet.


Das ist doch gar nicht der Punkt.

Dass der Larrabee nun als x86 Manycore designt wurde ist nur ein Aspekt.
Viel wichtiger ist, dass es die erste x86 C/GPU war.
Ob nun alle einzelnen Kerne x86 sind oder nicht spielt dort gar keine Rolle. Wichtig ist, dass eben x86 Kerne dort vorhanden sind.
Ein zukünftige marktfähige Variante wird dort spezialisierte Kerne mit leistungsfähigen x86 Kernen kombinieren. Ob nun diese spezialisierten Kerne x86, eine x86 Erweiterung, oder einen speziellen Befehlssatz nutzen ist dabei nebensächlich.
Man hat dort x86 CPU und GPU in einer wegweisenden Art kombiniert.
Der Larrabee geht dort viel weiter als andere Lösungen zur Zeit. Ob nun solch eine Extremform wie dort gezeigt sinnvoll ist oder nicht ist dort gar nicht Frage, es ist die Integration in eine x86 CPU welche wegweisend ist.


Na dann guten Appetit eine Speicherbandbreite einer jeglichen standalone GPU heute in einen SoC einzubauen. Die SoCs der vorhersehbaren Zukunft sind alle low-end Material.


Es ist ja kein SoC. Ausserdem haben ja selbst heutige Prozessoren ähnliche I/O Leistungen wie eine Top GPU. Diese I/O Leistung wird nur anders genutzt. Aber prinzipiell ist es kein Problem auch dort eine CPU mit mehr Speicherkanälen oder gar nur Links zu versehen.


Dann bist Du ein weiteres Opfer von falsch interpretiertem Marketing seitens NVIDIA. Fuer anstaendiges 3D wird man auch in der Zukunft eine high end CPU und eine high end GPU brauchen. Dieses wird Dir jeder NV oder Intel engineer mitteilen.


Nein überhaupt nicht. Beide Processing Einheiten divergieren immer weniger.
Mitnichten ist selbst eine heutige CPU mit einer seriellen singlethread Anwendung auch nur annähernd auszulasten.
Ebenso werden GPGPU der Zukunft viel öfter mit komplexen, nicht parallelisierten Problemen zu tun bekommen. Mit allen Seiteneffekten, z.B. im Bezug auf die Speicherbandbreite.
Die CPU und die GPU unterscheiden sich nicht grundlegend.



Im gegebenen Fall ist Larabee arschlahm als CPU (weil sie eben nie als solche entwickelt wurde) und ziemlich mittelmaessig als GPU. Ergo wohl schwer ein Pferd fuer irgend eine Revolution.


Es ist immer noch die Idee, welche hinter jeder Revolution steckt.
Die Larrabee ist doch sehr schnell. Sogar vergleichend schnell wie heutige Spitzen GPU, mitunter deutlich schneller. Der Knacktus liegt doch ganz wo anders. Zum einen war er in den Spezialfall der heutigen Anwendung eben nicht hinreichend schnell, zum anderen zu aufwändig und natürlich eben nicht als CPU Ersatz konzipiert. Dort brauchen wir nicht über den Larrabee reden, der ist ja eh Geschichte.
Die zukünftigen CGPUs sind dort der Weg der Wahl.




Und was soll Larabee in diesem Fall genau loesen? Gar nichts. Im Gegenteil sah ich bis jetzt keine einzige Indizie die in die andere Richtung deuten wuerde.

Der Larrabee ist als Kernerweiterung von Intel CPUs entwickelt worden. Die eigenständige Larrabee GPU ist nur ein Derivat gewesen.
Ausser Du glaubst dass AMD's GPUs in 2 Jahren bei den heutigen Einheitsanzahlen stecken bleiben.


Nein glaube ich nicht. Du scheinst allerdings zu glauben, dass irgendetwas, was sich dort durchsetzt zwangsläufig eine höhere Leistung haben muss.
Das ist aber nicht so. Die Leistung muss ausschließlich hinreichend sein, durchsetzen tut es sich dann schlicht über den Preis.

Wenn dann erstmal Anwendungen also spezifische Software für solch integrierte Lösungen erscheinen, dann wird er wirklich eng für konventionelle Adapter.




Steht Plattformierung hier fuer die nicht legitimen Erpressungen der Vergangenheit an grosse OEM Hersteller?


Wenn ein Hersteller für ein Paket einen Paketpreis nimmt, ist dieses für dich Erpressung? Etwas befremdlich oder nicht?

Gestrandet
2009-12-08, 21:22:36
Nein überhaupt nicht. Beide Prozessing Einheiten divergieren immer stärker.
Hmmm ... :uponder:

Avalox
2009-12-08, 21:27:36
Hmmm ... :uponder:

Danke. Sollte heißen immer weniger.

DR.ZEISSLER
2009-12-08, 21:43:08
zum thema cpu<>gpu ist das hier nicht uninteressant.
http://www.youtube.com/watch?v=D_p58o6RJ88
da sieht man mal, wie eng die wirklich zusammenhängen
und was in kombination beider so anstellen kann.

Aquaschaf
2009-12-08, 22:07:16
Nein überhaupt nicht. Beide Processing Einheiten divergieren immer weniger.

In Bezug auf allgemeine Programmierbarkeit nähern sich GPUs der CPU immer weiter an. Aber abgesehen davon: nein. In Bezug auf Performance-Charakteristika liegen sie an den entgegengesetzten Enden des Spektrums. Wieso sollte sich das ändern?

Es ist immer noch die Idee, welche hinter jeder Revolution steckt.
Die Larrabee ist doch sehr schnell. Sogar vergleichend schnell wie heutige Spitzen GPU, mitunter deutlich schneller.

Weißt du irgendwas was wir nicht wissen? In einem einzigen akademischen Beispiel, dass auch für die Architektur eher einen Bestfall darstellen sollte, reicht es übertaktet knapp um eine Radeon 4870 zu schlagen.

Wegweisend ist Larrabee 1 sicher. Er zeigt welchen Weg man nicht einschlagen sollte ;)

Avalox
2009-12-08, 22:54:43
In Bezug auf allgemeine Programmierbarkeit nähern sich GPUs der CPU immer weiter an. Aber abgesehen davon: nein. In Bezug auf Performance-Charakteristika liegen sie an den entgegengesetzten Enden des Spektrums. Wieso sollte sich das ändern?


Es ändert sich schon jetzt. Zum einen aus dem simplen Ansatz heraus, weil es ein für den CPU Hersteller gangbarer Weg ist und zum anderen weil auch viele aufwändige heutige Aufgabenstellungen sich tatsächlich gut parallelisieren lassen.
Zum anderen ändert es sich auf der GPU Seite, weil auch dort eine immer größer werdende Anforderung nach Flexibilität gestellt wird.

Es wird sich ändern, weil es schlicht wirtschaftlich möglich ist. Allein das zusammenwachsen benötigt Zeit.



Weißt du irgendwas was wir nicht wissen? In einem einzigen akademischen Beispiel, dass auch für die Architektur eher einen Bestfall darstellen sollte, reicht es übertaktet knapp um eine Radeon 4870 zu schlagen.


Du meinst jetzt, dass ein Single GEMM ein akademisches Beispiel wäre.
Immerhin war dort der abgespeckte Larrabee schon doppelt so schnell wie ein einfacher nVidia Tesla Chip C1060.

Was ich aber eigentlich meinte ist das M-A-Y des Larrabee. Ein sehr konkreter Vorteil des Konzeptes, natürlich erst wenn der Larrabee näher an die CPU rutscht.

Aquaschaf
2009-12-08, 23:21:07
Es ändert sich schon jetzt. Zum einen aus dem simplen Ansatz heraus, weil es ein für den CPU Hersteller gangbarer Weg ist

Wenn maximale sequenzielle Performance gefragt ist: nein.

und zum anderen weil auch viele aufwändige heutige Aufgabenstellungen sich tatsächlich gut parallelisieren lassen.

'Viele' ist ein dehnbarer Begriff. Es gibt ein paar sehr grundlegende Probleme die sich praktisch gar nicht parallelisieren lassen. Z.B. das hier: http://en.wikipedia.org/wiki/Shortest_path_problem

Oder auch ein großer Teil allgemeiner Anwendungslogik braucht sequenzielle Performance.

Zum anderen ändert es sich auf der GPU Seite, weil auch dort eine immer größer werdende Anforderung nach Flexibilität gestellt wird.

Egal was sich ändert, es bleibt dabei dass in dem Feld tonnenweise Datenparallelität vorhanden ist. Und die effizient auszunutzen ist konträr zu sequentieller Ausführung.

Es wird sich ändern, weil es schlicht wirtschaftlich möglich ist. Allein das zusammenwachsen benötigt Zeit.

Was ist wirtschaftlich möglich? Beides auf einem Chip zu integrieren? Was hat das damit zu tun dass "CPU" und "GPU" konvergieren sollen?

Du meinst jetzt, dass ein Single GEMM ein akademisches Beispiel wäre.

Ja. Jedenfalls mehr als speziell genug um nicht daraus ableiten zu können dass die Performance von Larrabee 1 vergleichbar mit einer Highend-GPU wäre, wie du es getan hast. Wie bereits gesagt ist es nicht nur speziell, sondern auch die Art von Problem die Larrabee 1 am ehesten liegt.

Avalox
2009-12-08, 23:36:51
'Viele' ist ein dehnbarer Begriff. Es gibt ein paar sehr grundlegende Probleme die sich praktisch gar nicht parallelisieren lassen. Z.B. das hier: http://en.wikipedia.org/wiki/Shortest_path_problem


Das ist doch wirklich mal ein akademisches Beispiel. Dazu kann man ja nur sagen; ja und?

Welche Anwendungen im Massenmarkt PC sind denn heute von aufwändiger und zeitkritischer Natur? Du wirst dort in der absoluten Regel auf Probleme stoßen, welche sich tatsächlich ausgezeichnet parallelisieren lassen.


Oder auch ein großer Teil allgemeiner Anwendungslogik braucht sequenzielle Performance.


Ja, zweifelsohne. Doch ist diese heute tatsächlich als zeitkritisch zu betrachten?

Natürlich bringt jedes System seine dazu passende Software hervor. Doch dann ist man immer beim Henne/Ei Problem.

Die Frage ist letztendlich die, wie verkaufe ich als CPU Hersteller morgen noch CPUs, welche den Kunden einen tatsächlichen Mehrwert bieten? Denn nur so wird der Kunde Geld ausgeben.
Wer rechnet die Anwendungen von morgen? Wer verdient morgen?


Was ist wirtschaftlich möglich? Beides auf einem Chip zu integrieren? Was hat das damit zu tun dass "CPU" und "GPU" konvergieren sollen?

Nein es ist wirtschaftlich möglich einen immer weiteren Anwendungsbereich zu erschließen und damit einen Bedarf zu wecken.
Ein GPU Hersteller sucht ebenso nach neuen Anwendungsfeldern, wie ein CPU Hersteller. Das treibt automatisch beide Entwicklungen zueinander.
Natürlich in einer Vereinheitlichung mit dem großen Vorteil gerade eben bei der Datensynchronisation.

=Floi=
2009-12-09, 01:24:00
OT
wenn eine ati igp 240 shadereinheiten hätte, dann wären das bei 1ghz 480mflop leistung und das wäre schon eine menge. bei guten treibern und voller unterstützung durch OCL und CS kann man damit schon eine menge machen. es geht ja um die generelle beschleunigung und nicht um spitzenwerte. sicherlich ist eine richtige grafikkarte dann noch mal um den faktor ~10 schneller aber man kann mit der igp die grundperformance des systems steigern. selbst faktor 4 gegenüber einer cpu ist schon gut und sehr stark spürbar. Eine solche igp wird den markt mehr verändern wie eine richtige karte, weil durch solch eine gpu die marktdurchdringung erheblich höher ist. siehe GF5200 und die GF6200.

intel bleibt nichts andere übrig in den nächsten 5-8 jahrenihre aktuelle gpu so stark zu überarbeiten, dass sie mit nv und ati mithalten können.

Ailuros
2009-12-09, 07:23:46
Das ist doch gar nicht der Punkt.

Dass der Larrabee nun als x86 Manycore designt wurde ist nur ein Aspekt.
Viel wichtiger ist, dass es die erste x86 C/GPU war.
Ob nun alle einzelnen Kerne x86 sind oder nicht spielt dort gar keine Rolle. Wichtig ist, dass eben x86 Kerne dort vorhanden sind.
Ein zukünftige marktfähige Variante wird dort spezialisierte Kerne mit leistungsfähigen x86 Kernen kombinieren. Ob nun diese spezialisierten Kerne x86, eine x86 Erweiterung, oder einen speziellen Befehlssatz nutzen ist dabei nebensächlich.
Man hat dort x86 CPU und GPU in einer wegweisenden Art kombiniert.
Der Larrabee geht dort viel weiter als andere Lösungen zur Zeit. Ob nun solch eine Extremform wie dort gezeigt sinnvoll ist oder nicht ist dort gar nicht Frage, es ist die Integration in eine x86 CPU welche wegweisend ist.

Und was wird wenn im zukuenftigen Larabee-revamped kein x86 decoding mehr drinsteckt?


Es ist immer noch die Idee, welche hinter jeder Revolution steckt.
Die Larrabee ist doch sehr schnell. Sogar vergleichend schnell wie heutige Spitzen GPU, mitunter deutlich schneller. Der Knacktus liegt doch ganz wo anders. Zum einen war er in den Spezialfall der heutigen Anwendung eben nicht hinreichend schnell, zum anderen zu aufwändig und natürlich eben nicht als CPU Ersatz konzipiert. Dort brauchen wir nicht über den Larrabee reden, der ist ja eh Geschichte.
Die zukünftigen CGPUs sind dort der Weg der Wahl.

Nur wurde die angebliche "Revolution" vorruebergehend auf Eis gelegt und ich will wetten dass es zu einem nicht mickrigen re-design fuer zukuenftige Varianten kommt. Eben weil Larabee Prime "schnell" und "effizient" in irgend etwas sein sollte oder sogar sich an heutige GPUs naehern sollte. Zwischen bestandlosen Behauptungen ohne einen Strich Dokumentation und der Realitaet dass ein Projekt gestrichen wurde weil es eben keinesfalls konkurrenzfaehig gewesen waere ueberlass ich es Dir weiterzutraeumen.


Der Larrabee ist als Kernerweiterung von Intel CPUs entwickelt worden. Die eigenständige Larrabee GPU ist nur ein Derivat gewesen.

Darin liegt auch die Schnappsidee des ganzen Projekts. Ich frag nochmal was wenn nun Intel x86 entfernt fuer zukuenftige Varianten?

Nein glaube ich nicht. Du scheinst allerdings zu glauben, dass irgendetwas, was sich dort durchsetzt zwangsläufig eine höhere Leistung haben muss.
Das ist aber nicht so. Die Leistung muss ausschließlich hinreichend sein, durchsetzen tut es sich dann schlicht über den Preis.

Ich erwarte persoenlich auch von nirgends mehr Leistung von einem zukuenftigen SoC zu sehen als irgendwo =/>IGPs und auf jeden Fall niedriger als low end standalone GPUs. Wie dem auch sei wage ich gerne zu behaupten dass AMDs Llano keine Sorgen machen muss gegen was immer Intel zu diesem Zeitpunkt auftischt und es waere auch nicht anders wenn Intel den heutigen LRB Design in ein SoC integrieren wuerde, da nur ein einziger LRB core fast so viel Strom verbraten wuerde wie der gesamte Llano SoC selber.

Wenn dann erstmal Anwendungen also spezifische Software für solch integrierte Lösungen erscheinen, dann wird er wirklich eng für konventionelle Adapter.

*gaehn*

Wenn ein Hersteller für ein Paket einen Paketpreis nimmt, ist dieses für dich Erpressung? Etwas befremdlich oder nicht?

Natuerlich ist der ganze rechtliche Krieg zwischen AMD und Intel nur eine bodenlose Erfindung und eben genau der Grund warum sich Intel und AMD ausserhalb Gerichten abgefunden haben und Intel 1.25 Mrd$ an AMD abzahlte oder?

http://www.brightsideofnews.com/news/2009/12/7/ftc-probe---intel-caught-with-hand-in-cookie-jar.aspx

http://www.brightsideofnews.com/Data/2009_12_7/FTC-probe-Intel-caught-with-hand-in-cookie-jar/INTC_Insides_FreeMarket_350.jpg

OT
wenn eine ati igp 240 shadereinheiten hätte, dann wären das bei 1ghz 480mflop leistung und das wäre schon eine menge. bei guten treibern und voller unterstützung durch OCL und CS kann man damit schon eine menge machen. es geht ja um die generelle beschleunigung und nicht um spitzenwerte. sicherlich ist eine richtige grafikkarte dann noch mal um den faktor ~10 schneller aber man kann mit der igp die grundperformance des systems steigern. selbst faktor 4 gegenüber einer cpu ist schon gut und sehr stark spürbar. Eine solche igp wird den markt mehr verändern wie eine richtige karte, weil durch solch eine gpu die marktdurchdringung erheblich höher ist. siehe GF5200 und die GF6200.

intel bleibt nichts andere übrig in den nächsten 5-8 jahrenihre aktuelle gpu so stark zu überarbeiten, dass sie mit nv und ati mithalten können.

Llano liegt ueber der TFLOP Grenze. Wunder Dich aber nicht wenn eine zukuenftige low end (Radeon) GPU in 2011 irgendwo =/>400SP Marge liegt.

Aquaschaf
2009-12-09, 08:21:22
Das ist doch wirklich mal ein akademisches Beispiel. Dazu kann man ja nur sagen; ja und?

Nein, überhaupt nicht. Das Problem ist der rechenintensive Kern in jedem Routenplaner und in jeder Logistiksoftware, um mal die offensichtlichsten Beispiele zu nennen.

Avalox
2009-12-09, 09:08:16
Nein, überhaupt nicht. Das Problem ist der rechenintensive Kern in jedem Routenplaner und in jeder Logistiksoftware, um mal die offensichtlichsten Beispiele zu nennen.

Ja. Sind aber Routenplaner auf dem PC(!) heute zu langsam? Würde irgendjemand was gewinnen, wenn die Streckenplanung nun 100 x so schnell(allein die Ausführung auf der CPU wohlgemerkt) geschehen würde? Nein. Logistiksoftware hat im PC Umfeld doch eher weniger verloren und ist schlicht eine Fachanwendung. Natürlich gibt es immer Fachanwendungen und Fachanwendungen haben halt Fachanforderungen.
Gerade die Leistungsfähigkeit der GPGPUs im Bereich der sequentiellen Verarbeitung steigt ja zudem.

Wenn der gemeine PC oder sein Benutzer, Prozessor bedingte Probleme mit der Ausführungszeit hat, dann ist dieses Problem i.d.R. gut parallelisierbar. Das ist kein Gesetz und natürlich im Einzellfall nicht immer so, aber überwiegend ist dieses heute der Fall und damit ist der Markt halt auch entsprechend groß.

Aquaschaf
2009-12-09, 09:16:24
Ja. Sind aber Routenplaner auf dem PC(!) heute zu langsam? Würde irgendjemand was gewinnen, wenn die Streckenplanung nun 100 x so schnell(allein die Ausführung auf der CPU wohlgemerkt) geschehen würde? Nein. Logistiksoftware hat im PC Umfeld doch eher weniger verloren und ist schlicht eine Fachanwendung. Natürlich gibt es immer Fachanwendungen.
Gerade die Leistungsfähigkeit der GPGPUs im Bereich der sequentiellen Verarbeitung steigt zudem

Wenn der gemeine PC oder sein Benutzer, Prozessor bedingte Probleme mit der Ausführungszeit hat, dann ist dieses Problem i.d.R. gut parallelisierbar. Das ist kein Gesetz und natürlich im Einzellfall nicht immer so, aber überwiegend ist dieses heute der Fall und damit ist der Markt halt auch entsprechend groß.

Natürlich würde man etwas gewinnen (und wie gesagt waren das jetzt auch nur 2 Beispiele in denen man relativ einfach sehen kann wieso dieses Problem relevant ist). Wenn du so argumentierst könntest du sagen dass doch eigentlich bereits alles "schnell genug" ist. Schnell genug gibt es nicht. Wenn man etwas schneller lösen kann, dann kann man größere Probleminstanzen lösen als vorher, neue Anwendungen finden usw..

Und der Beweis dass Probleme in der Regel "gut parallelisierbar" sind steht nach wie vor aus. Ein paar Dinge sind es, andere überhaupt nicht. Ich bin nicht so vermessen zu behaupten ich wüsste was der Regelfall ist.

Avalox
2009-12-09, 09:41:03
Natürlich würde man etwas gewinnen (und wie gesagt waren das jetzt auch nur 2 Beispiele in denen man relativ einfach sehen kann wieso dieses Problem relevant ist). Wenn du so argumentierst könntest du sagen dass doch eigentlich bereits alles "schnell genug" ist.


In einer kurzfristigen Sichtweise kann absolut behaupten, dass alles schnell in vielen Anwendungsfeldern hinreichend schnell genug ist. Nur so entstehen ja die momentanen Märkte für CPUs geringer Leistung.

Natürlich ist dieses längerfristig gesehen nicht so, was aber erstmal neue Software und vor allen neue Anwendungsfälle bzw. neue Benutzungsmethoden voraussetzt.


Der Knacktus der stetigen Innovation evolutionärer Ausprägung, wie es eben Markttypisch zielt auf kurzfristige Erfolge. Erfolge, welche der Benutzer spürt und vom Aufwand zu vertreten sind.

Die gesamte Parallelisierung in der IT stellt an sich eine Anwendungsbezogene Optimierung dar. Es ist eine Aufwandsoptimierung.

Der einzige Grund weshalb es heute im PC(und allgemein) überhaupt eine parallele Verarbeitung von Daten gibt, ist die, dass es hinreichend viele Anforderungen gibt, welche sich parallelisieren lassen. Die Universalität ist immer die sequentielle Verarbeitung und nur diese.


Schnell genug gibt es nicht. Wenn man etwas schneller lösen kann, dann kann man größere Probleminstanzen lösen als vorher, neue Anwendungen finden usw..

Das kommt aus der absoluten Denkweise. Aber absolut ist überhaupt nichts auf der Welt.

IT ist ein Werkzeug und ein Werkzeug ist hinreichend für eine Aufgabe, oder es ist nicht hinreichend für eine Aufgabe.
Das Argument oben so ähnlich wie, ein Hammer kann nicht schwer genug sein.

Natürlich erlauben schwerere Hämmer neue Aufgaben, oder wie du sagst Probleminstanzen, zu lösen. Diese Probleminstanzen müssen allerdings erstmal vorhanden sein. Natürlich gibt es immer Probleme, wo immer schwerere Hämmer gefragt sein werden, allerdings gibt es in der Tat viele Problem wo ein schwererer Hammer keinen Vorteil bietet.
Was ich damit sagen möchte ist, dass ein Werkzeug nie Selbstzweck ist. Für entsprechende Werkzeuge müssen Aufgaben vorhanden sein, sonst ist es schlicht sinnlos.
Diese Aufgaben für "größere" Prozessoren heute, sind allerdings Themen wie Video-/Medienbearbeitung Unterhaltungssoftware, Mustererkennung, Verschlüsselung und Kompression. Allesamt sehr gut zu parallelisieren.

Aquaschaf
2009-12-09, 09:53:23
Der einzige Grund weshalb es heute im PC(und allgemein) überhaupt eine parallele Verarbeitung von Daten gibt, ist die, dass es hinreichend viele Anforderungen gibt, welche sich parallelisieren lassen. Die Universalität ist immer die sequentielle Verarbeitung und nur diese.

Nein, der Grund ist nicht dass es möglich ist Dinge zu parallelisieren. Die reine Möglichkeit der Parallelisierung ist eine notwendige Voraussetzung, aber nicht der Grund. Der Grund ist dass Bedarf besteht Dinge schneller auszuführen als es sequentiell möglich wäre. Wenn man immer noch jedes Jahr schnellere sequentielle Prozessoren mit dem vorhandenen Transistorbudget bauen könnte, dann würde man sich wenig darum scheren dass sich Aufgaben auch parallel lösen lassen ;)

=Floi=
2009-12-09, 10:05:47
ultra lowend gpus brauchen wohl auch nicht mehr leistung.
das obere segment wird weiter wachsen, aber wie bei der 8400er reicht so eine karte für diesen markt. ich denke die GPU-fähigkeiten (spiele und 3d) werden bei diesen karten auch stagnieren und das zusätzliche transistorbudget wird man im mehr recheneinheiten stecken. Das sieht man auch bei der GF 240 sehr schön.

mir ging es da nur um die generelle aussage, dass diese 240sps bei einer ati igp eigentlich eine menge holz sind.

Aquaschaf
2009-12-09, 10:27:34
ultra lowend gpus brauchen wohl auch nicht mehr leistung.

In Hinsicht auf Spiele brauchen diese Karten indirekt schon mehr Leistung. Denn wenn sich da nichts mehr tut, dann geht die Leistungsschere immer weiter auseinander. Dann entwickelt im Extremfall keiner mehr Spiele die Highend-Hardware ausnutzen, weil es zu aufwändig wird die große Bandbreite an vorhandener Leistung zu bedienen. Das ist ja jetzt schon ein großer Kritikpunkt der im Bezug auf die IGPs von Intel von Spieleentwicklern hin und wieder zu hören ist.

dust
2009-12-09, 10:30:18
Ja. Sind aber Routenplaner auf dem PC(!) heute zu langsam? Würde irgendjemand was gewinnen, wenn die Streckenplanung nun 100 x so schnell(allein die Ausführung auf der CPU wohlgemerkt) geschehen würde? Nein. Logistiksoftware hat im PC Umfeld doch eher weniger verloren und ist schlicht eine Fachanwendung. Natürlich gibt es immer Fachanwendungen und Fachanwendungen haben halt Fachanforderungen.
Gerade die Leistungsfähigkeit der GPGPUs im Bereich der sequentiellen Verarbeitung steigt ja zudem.

Wenn der gemeine PC oder sein Benutzer, Prozessor bedingte Probleme mit der Ausführungszeit hat, dann ist dieses Problem i.d.R. gut parallelisierbar. Das ist kein Gesetz und natürlich im Einzellfall nicht immer so, aber überwiegend ist dieses heute der Fall und damit ist der Markt halt auch entsprechend groß.

wobei aber gerade routenplanung für mobile geräte interessant ist. bin da und will dort und dort hin, wie am besten... :wink:

Gast
2009-12-09, 10:30:53
ultra lowend gpus brauchen wohl auch nicht mehr leistung.
das obere segment wird weiter wachsen, aber wie bei der 8400er reicht so eine karte für diesen markt. ich denke die GPU-fähigkeiten (spiele und 3d) werden bei diesen karten auch stagnieren und das zusätzliche transistorbudget wird man im mehr recheneinheiten stecken. Das sieht man auch bei der GF 240 sehr schön.

mir ging es da nur um die generelle aussage, dass diese 240sps bei einer ati igp eigentlich eine menge holz sind.


es sollen 480SPs sein. Deshalb auch die >1TFlops die Ailuros erwähnte.

dust
2009-12-09, 11:00:56
In Hinsicht auf Spiele brauchen diese Karten indirekt schon mehr Leistung. Denn wenn sich da nichts mehr tut, dann geht die Leistungsschere immer weiter auseinander. Dann entwickelt im Extremfall keiner mehr Spiele die Highend-Hardware ausnutzen, weil es zu aufwändig wird die große Bandbreite an vorhandener Leistung zu bedienen. Das ist ja jetzt schon ein großer Kritikpunkt der im Bezug auf die IGPs von Intel von Spieleentwicklern hin und wieder zu hören ist.
und deswegen ist es sinnvoll spiele zu machen die besser skalieren. die leute mit langsamer hardware, weil alt, mobil oder sonstige gründe, können es mit geringerer qualität spielen und die leute mit der super hardware in höchster qualität. solange im multiplayer beide keinen vorteil haben weil die hardware etwas kann oder nicht kann ist es die beste lösung um möglichst viele kunden zu bekommen.

das interessiert die spielehersteller aber überhaupt nicht da sie eine andere politik verfolgen. die wollen einen blöden schlauch als kunden dem man einfach alles endlos reinstopfen kann und der einfach geld auswirft. siehe die ganzen bugs, kopierschutz, plattform politik und jetzt seit neuestem kein server mehr sondern nur noch match making. es geht eben nicht um gute produkte sondern um gewinnmaximierung.

Ailuros
2009-12-09, 11:44:10
es sollen 480SPs sein. Deshalb auch die >1TFlops die Ailuros erwähnte.

Nein es sind 240SPs.

aylano
2009-12-09, 13:49:41
Mir ist die Verpackung scheissegal; es werden auch in Zukunft dedizierte CPU und dedizierte GPU Einheiten auf einem einzigen chip geben. Aber wenn's schon sein muss wuerde ich liebend gerne mal hoeren was Du Dir unter diesen angeblichen "Vermischung" genau vorstellst.
http://www.tgdaily.com/images/stories/article_images/amd/fusion_roadmap.jpg

Sicher wird es detizierte CPUs & GPUs geben.
Aber AMD will auch eine CPU-Architektur entwickeln, wo die GPU in und nicht neben der CPU liegt.
Ich hab jetzt keine bessere Grafik gefunden, aber auf der sieht man, dass Llano (Phase 2) noch ein Zwischenschritt ist, während der erste Zwischenschritt (Phase1) 2009 aufgegeben wurde.

Ailuros
2009-12-09, 14:05:12
Wie alt genau ist denn das Bildchen? Denn Fusion war nicht immer fuer 2011 geplant und es gab noch MCM Plaene in der Vergangenheit.

Uebrigens erwarte ich immer noch eine halbwegs logische technische Erklaerung was unter der angeblichen "Verschmelzung" genau gemeint ist.

san.salvador
2009-12-09, 14:07:42
Expoit? Wer macht denn solche Folien? :ugly2:

StefanV
2009-12-09, 15:27:44
Könnt man nicht AVX als 'GPU Code' bezeichnen??

Demirug
2009-12-09, 16:17:00
Uebrigens erwarte ich immer noch eine halbwegs logische technische Erklaerung was unter der angeblichen "Verschmelzung" genau gemeint ist.

Wenn ich mich recht entsinne ging es dabei um shared Cache und schnelle Kanäle zum Datenaustausch.

aylano
2009-12-09, 16:35:55
Wie alt genau ist denn das Bildchen? Denn Fusion war nicht immer fuer 2011 geplant und es gab noch MCM Plaene in der Vergangenheit.
2007
Wie ich sagte.
2009 ist AFAIK Phase 1 (MCM) gecancelt.
Phase 2 dürfte Llano sein und danach kommt dann ein echter Fusion-Kern.

Es wurde zu allen Stufen der Fusion-Evolution, als auch die MCM-Pläne, Fusion genannt.



Uebrigens erwarte ich immer noch eine halbwegs logische technische Erklaerung was unter der angeblichen "Verschmelzung" genau gemeint ist.
Die wirst nicht bekommen.
Auf einem neueren Bild, vielleicht finde ich das noch, waren beim letzten und echten Fusion-Die zu sehen, dass Rote- (=GPU-Teil) und Grüne-Punkte (=CPU-Teil) eben gleichmäßig auf einem Die verteilt waren, was eben eine vollkommene Verschmelzung der GPU & CPU darstellen sollte.
Keine Ahnung was AMD damit genau meinte, aber es wurde auch fast nichts gesagt wenn überhaupt.

Coda
2009-12-09, 18:03:30
Könnt man nicht AVX als 'GPU Code' bezeichnen??
Nö.

mapel110
2009-12-09, 22:14:21
http://www.abload.de/img/feature_image096mnt.jpg

S940
2009-12-09, 22:47:48
Hahaha

Gast
2009-12-09, 22:54:21
Jo, überrascht mich auch nicht, war ja schon so leicht zu erahnen...
Wenn ich ehrlich bin...ich freu mich sogar:-) Der Markt ist für nvidia und ATI schon hart, da brauchen wir nicht noch jemand. Zumindest nicht Intel!!!

Nach Rambus, 10Ghz PIV, BTX, Wimax, Itanic liegt eben noch der Larrabee auf Intels eigenem Schrottplatz*g*

AMD-Fanboy? ;-)

Konkurrenz ist immer gut, 2 (große) Anbieter sind zu wenig... und ob der dritte ein "symphatisches" kleines Startup ist oder die achso böse Firma Intel ändert daran prinzipiell nichts (und das sagt ein S3-Fan ;-) )

BTW, Rambus war ne tolle Technik, die 1. Nicht von Intel stammte, 2. Nur im PC-Markt tot ist und 3. Einzig und allein von illegalen Preisabsprachen von Samsung & Co. gekillt wurde (war nachzulesen u.a. auf heise.de, gab auch nen Prozess der leider von der Öffentlichkeit kaum beachtet wurde). Die dachten sich "was Intel pusht, setzt sich auch mit überzogenen Preisen durch" & wollten sich eine goldene Nase verdienen... hat nicht geklappt. Schade um einen zukunftsträchtigen & stabilen Speicherstandard, der eigentlich auch relativ günstig zu fertigen gewesen wäre...

S940
2009-12-09, 22:54:21
Uebrigens erwarte ich immer noch eine halbwegs logische technische Erklaerung was unter der angeblichen "Verschmelzung" genau gemeint ist.
Hab die Diskussion hier jetzt nicht verfolgt, aber damit können sie mMn nur die komplette GPU Integration in ein X86 Core meinen.

Im Moment bzw. 2011 ist "Phase 1" (bzw. Phase 2 nach aylano ^^) : GPU "nur" ondie, aber nachwievor als PCIe Device programmier- / ansprechbar, Phase 2 ist volle CPU Integration mit nem eigenen GPU Instr. Dekoder, neben dem fastpath & Microcode x86 Instr. Dekodern.

Dafür gibts AMD Patente, die jeweils beide Ansätze beschreiben. Der "Phasen" Ausruck ist von mir bzw. aylano also Interpretation, aber alles andre würde wohl keinen Sinn machen.

Eventuell ist das auch der Grund, weswegen AMD mit nem eigenen Compiler angefangen hat ...

ciao

Alex

Ailuros
2009-12-10, 13:46:17
2007
Die wirst nicht bekommen.
Auf einem neueren Bild, vielleicht finde ich das noch, waren beim letzten und echten Fusion-Die zu sehen, dass Rote- (=GPU-Teil) und Grüne-Punkte (=CPU-Teil) eben gleichmäßig auf einem Die verteilt waren, was eben eine vollkommene Verschmelzung der GPU & CPU darstellen sollte.
Keine Ahnung was AMD damit genau meinte, aber es wurde auch fast nichts gesagt wenn überhaupt.

Mir reicht schon Demirug's Erlaeuterung, ergo keine reale Verschmelzung sondern nach wie vor dedizierte GPU und CPU Einheiten auf dem gleichen die. Wie die jeweiligen Einheiten miteinander jetzt verbunden werden ist zwar eine wichtige Einzelheit, aendert aber nichts im Prinzip an dem was ich unter zukuenftigen SoCs im Hinterkopf habe.

misterh
2009-12-11, 02:29:08
http://news.yahoo.com/s/pcworld/20091210/tc_pcworld/intelmaygivelarrabeeupdateinlate2010analystsays?utm_source=twitterfeed&utm_medium=twitter

Ailuros
2009-12-11, 06:09:59
http://news.yahoo.com/s/pcworld/20091210/tc_pcworld/intelmaygivelarrabeeupdateinlate2010analystsays?utm_source=twitterfeed&utm_medium=twitter

I do think we will see plans from them next fall, but not a product until sometime later. I would also expect that it might have some significant changes as a result of the lessons learned," McGregor wrote in an e-mail, without speculating what kinds of changes might be made.

...

RLZ
2009-12-11, 15:59:52
http://news.yahoo.com/s/pcworld/20091210/tc_pcworld/intelmaygivelarrabeeupdateinlate2010analystsays?utm_source=twitterfeed&utm_medium=twitter
Reine Spekulation.

Ich spekulier auch mal:
Laut Joseph Schutz haben sie Larrabee im Laufe des nächsten Jahres soweit, dass sie ihn an bestimmte Softwareentwickler zum Testen ausliefern können. Wann das nächstes Jahr der Fall ist, wissen sie noch nicht. (Aussage von Mittwochabend)
Imo wird man vor 2011 nichts konkretes von einem konkurrenzfähigen Nachfolger hören.

S940
2009-12-11, 16:56:41
Is ja schön, dass Intel aus Fehlern lernt, aber bis Ende 2010 gibts sogar schon Fermi im Laden und eventuell schon Details zur nächsten ATi Generation ... das hat was vom Hase & Igel Spielchen...

Gast
2009-12-12, 23:44:28
Is ja schön, dass Intel aus Fehlern lernt, aber bis Ende 2010 gibts sogar schon Fermi im Laden und eventuell schon Details zur nächsten ATi Generation ... das hat was vom Hase & Igel Spielchen...
Muss Intel gleich schneller als ATI & Co. sein?
Es reicht doch wenn sie erstmal ein Mittelklasseprodukt haben (hätten), an dem sie arbeiten können.
Sie müssen doch nicht wie Brawn GP sein, reicht doch wenn sie es wie Ferrari machen [die Kohle für die Ausdauer haben sie :D], nur sollten sie nicht BMW nachahmen *g*.....

deekey777
2009-12-12, 23:51:18
Highend verkauft alles, was darunter liegt. Sprich: Es ist schwer jemanden zu überzeugen, eine Mittelklasse-Grafikkarte zu kaufen, wenn das entsprechende Highendprodukt eine lahme Ente ist.

Gast
2009-12-12, 23:53:54
Highend verkauft alles, was darunter liegt. Sprich: Es ist schwer jemanden zu überzeugen, eine Mittelklasse-Grafikkarte zu kaufen, wenn das entsprechende Highendprodukt eine lahme Ente ist.
Hmm deswegen war die ATI HD4000er Serie auch ein Ladenhüter. Alles klar.

=Floi=
2009-12-13, 00:07:32
aber man bräuchte auch erst einmal karten, auf denen man für diese architektur code programmieren kann. die erste generation wird doch sowieso nict den erfolg haben den man möchte. die treiber dürften auch noch jahre brauchen und das dauert alles seine zeit, bis so ein produkt auf dem markt akzeptiert wird. siehe Audi A8...

StefanV
2009-12-13, 00:07:44
Naja, dafür hat AMD auch etwas arbeiten müssen, dazu war der Preis auch noch richtig gut.

Intel ist ein Neueinsteiger, wenn deren Chip nicht wirklich taugt, wird sich das recht schnell rumsprechen, das wird auch die CPU Verkäufe negativ beeinflussen.

Coda
2009-12-13, 00:35:44
Seh ich auch so. Intel hat einen Ruf zu verlieren.

LovesuckZ
2009-12-13, 00:59:26
Hmm deswegen war die ATI HD4000er Serie auch ein Ladenhüter. Alles klar.

Die 48xx Karten waren High-End. Sie waren das teuerste, was man von AMD kaufen konnte.

Ailuros
2009-12-13, 09:53:19
Highend verkauft alles, was darunter liegt. Sprich: Es ist schwer jemanden zu überzeugen, eine Mittelklasse-Grafikkarte zu kaufen, wenn das entsprechende Highendprodukt eine lahme Ente ist.

Intel wollte wohl LRB Prime zu einem oberem mainstream Preis verschelpeln. Das dumme waere eben dann gewesen dass der Preis der Leistung angepasst waere, aber obere mainstream Leistung mit enthusiast die area bzw. Stromverbrauch. Ich sagte schon vor langer Zeit dass Intel Larabee's groesstes Problem nicht perf/mm2 bzw. perf/Watt eigentlich ist, sondern eher perf/$.

Gast
2009-12-13, 11:02:21
Die 48xx Karten waren High-End. Sie waren das teuerste, was man von AMD kaufen konnte.
Nein, High-End (im gesamten Graka Bereich) war der G200(b) von NV - alles was bis dato von ATI(AMD) kam war Mittelklasse.

LovesuckZ
2009-12-13, 11:09:16
Nein, High-End (im gesamten Graka Bereich) war der G200(b) von NV - alles was bis dato von ATI(AMD) kam war Mittelklasse.

Klassen orientieren sich am Markt. AMD hatte Low-end, Mid-End und High-End im Portfolio. nVidia's G200(b) wäre also demnach auch kein High-End, weil er direkt mit AMD konkurriert hat. Die Größe eines Dies beschreibt nicht, in welcher Klassifikation am Ende die Karte liegt.

Gast
2009-12-13, 11:50:42
Klassen orientieren sich am Markt. AMD hatte Low-end, Mid-End und High-End im Portfolio. nVidia's G200(b) wäre also demnach auch kein High-End, weil er direkt mit AMD konkurriert hat. Die Größe eines Dies beschreibt nicht, in welcher Klassifikation am Ende die Karte liegt.
Wer sagt das die größe eines Dies die Klassifizierung ob Mainstream oder Highend bestimmt? ES GEHT UM LEISTUNG. DIE 4000er SERIE WAR MITTELKLASSE! DER G200(b) [285] HIGHEND. ABER ATI KONNTE DENNOCH SEHR VIELE KARTEN VERKAUFEN. ERGO IST DAS KEIN ARGUMENT, DAS MAN NUR GPU VERKAUFT, WENN MAN DIE SCHNELLSTE GPU HAT (, um auf den evtl. Lrb zurückzukommen!)

Gast
2009-12-13, 11:58:18
Wer sagt das die größe eines Dies die Klassifizierung ob Mainstream oder Highend bestimmt? ES GEHT UM LEISTUNG. DIE 4000er SERIE WAR MITTELKLASSE! DER G200(b) [285] HIGHEND. ABER ATI KONNTE DENNOCH SEHR VIELE KARTEN VERKAUFEN. ERGO IST DAS KEIN ARGUMENT, DAS MAN NUR GPU VERKAUFT, WENN MAN DIE SCHNELLSTE GPU HAT (, um auf den evtl. Lrb zurückzukommen!)

Aber dann müsste man Lrb. sehr günstig verkaufen (durchaus möglich) und einen halbwegs guten Treiber mitliefern (wird wohl nicht möglich sein). Niemand tut sich ne Karte an die eine mittelmäßige Performance bietet und miese Treiber hat wenn die Konkurrenz schon ähnliche Lösungen in dem Bereich hat (wahrscheinlich so ca. +-4870).
Da müsste Intel die Dinger schon fast verschenken...

Ailuros
2009-12-13, 12:31:13
Wer sagt das die größe eines Dies die Klassifizierung ob Mainstream oder Highend bestimmt? ES GEHT UM LEISTUNG. DIE 4000er SERIE WAR MITTELKLASSE! DER G200(b) [285] HIGHEND. ABER ATI KONNTE DENNOCH SEHR VIELE KARTEN VERKAUFEN. ERGO IST DAS KEIN ARGUMENT, DAS MAN NUR GPU VERKAUFT, WENN MAN DIE SCHNELLSTE GPU HAT (, um auf den evtl. Lrb zurückzukommen!)

Wir koennen uns wohl in der Zwischenzeit etwas beruhigen oder?

Gestrandet
2009-12-13, 16:38:37
Ich sagte schon vor langer Zeit dass Intel Larabee's groesstes Problem nicht perf/mm2 bzw. perf/Watt eigentlich ist, sondern eher perf/$.
Das halte ich aber jetzt wirklich für ein Gerücht. Wenn Intel eine Möglichkeit sähe, ihre Technologie durchzudrücken, würde es an den Chipkosten sicher nicht scheitern. Dann verschenkt man die Dinger halt 2 Jahre lang, was solls, die Portokasse quillt eh über.

Ailuros
2009-12-13, 20:05:46
Das halte ich aber jetzt wirklich für ein Gerücht. Wenn Intel eine Möglichkeit sähe, ihre Technologie durchzudrücken, würde es an den Chipkosten sicher nicht scheitern. Dann verschenkt man die Dinger halt 2 Jahre lang, was solls, die Portokasse quillt eh über.

Dann lies den gesamten Post noch ein paar Mal durch; denn nur so kann man den Zusammenhang richtig verstehen.

Gestrandet
2009-12-13, 23:19:08
Ah verstehe (glaub ich) ... du meintest das problem liegt bei der perf./$/Watt - wie man das auch schon auf AMD Folien lesen durfte ^^ (dort nat. nicht mit Bezug auf LRB)

Avalox
2009-12-20, 06:41:21
Aus der ct 01/10 - Prozessorgeflüster "Larrabees neue Wege"

http://www.heise.de/ct/artikel/Prozessorgefluester-887202.html

misterh
2009-12-27, 11:27:31
http://nintendowiix.net/news_details.php?id=9523&titel=intel-und-nintendo-in-chip-verhandlungen

Aquaschaf
2009-12-27, 11:58:26
http://nintendowiix.net/news_details.php?id=9523&titel=intel-und-nintendo-in-chip-verhandlungen

Schwachsinn.

Avalox
2009-12-27, 12:05:01
Schwachsinn.

Wenn Nintendo tatsächlich eine C/GPU sucht, warum sollen Sie dort nicht auch mit Intel sprechen?

Andreas Stiller schreibt ja auch von einen Power7 als Cell Nachfolger in der der Playstation 4. Das hat der gute Herr Goto ja auch schon geschrieben.

Nintendo wäre ja daneben, wenn sie nicht mal bei Intel nachfragen würden und wenn das Angebot nur den Preis des Wettbewerbers drückt.

Aquaschaf
2009-12-27, 12:07:12
Wenn Nintendo tatsächlich eine C/GPU sucht, warum sollen Sie dort nicht auch mit Intel sprechen?

Weil aus ihrer Perspektive rein gar nichts für Larrabee spricht?

Avalox
2009-12-27, 12:08:54
Weil aus ihrer Perspektive rein gar nichts für Larrabee spricht?

Ein guter Preis? ( Natürlich für eine CPU mit Larrabee Teil. Nicht das jemand denkt, dass es dort um den dedizierten Larrabee Chip geht.)

Zockerfrettchen
2009-12-27, 12:09:41
Absolut abwägig, denn:

1. Larrabee ist eine nicht fertige Architektur, ein viel zu großes Risiko für Nintendo
2. Larrabee hat eine enorme Die-Fläche, ist nicht kosteneffizient in "Low-Cost" Systemen wie der
Wii2.
3. Die Wärmeabfuhr eines Larrabee ist viel zu hoch für die Wii
4. Zusätzlich müsste man auch noch einen Prozessor haben= Höhere Kosten/Wärmeabfuhr


Da klingt es deutlich sinnvoller, den Fusion von AMD zu nehmen. Er ist ebenfalls gut zu programmieren, ein Nintendo entsprechender Leistungsschub im Vergleich zur jetzigen Wii, hat insgesamt einen geringeren Stromverbrauch und ist vor allem kosteneffizient.

Diese Meldung ist absoluter Mist

Avalox
2009-12-27, 12:12:58
Da klingt es deutlich sinnvoller, den Fusion von AMD zu nehmen.

Larrabee ist ja konkreter als AMDs Fusion. Werden ja sogar schon Entwicklungsumgebungen verteilt.

Keinesfalls ist dort ein Larrabee Chip gemeint. Den wird es nicht geben. Der Larrabee kommt auf eine CPU und dieses dürfte schon interessant sein für Nintendo. Potentiell zumindest.
Den Stromverbrauch kann man gleich wieder vergessen. Der wird sich natürlich normalisieren bei einem fertigen Produkt.

Wie dem auch sei, dass Nintendo Richtung x86 geht hört man von allen Seiten. Bleibt ja auch nichts anderes übrig, wenn man eine C/GPU haben möchte, welche über einen besseren Handy Ansatz hinaus geht.

Zockerfrettchen
2009-12-27, 12:22:27
Dann haben wir immer noch das Problem mit der Leistung/Watt, denn genau aus diesem Grund wurde der Larrabee wie er geplant war auf "Eis gelegt". Man hat also zwei Möglichkeiten:
Erstens einen Leistungsfähigen Chip aus Larrabee und CPU einzusetzen, welcher jegliche TDP sprengt, oder Zweitens, einen leistungsmäßig schwachen, jedoch kühlbaren Chip nutzen.
Beides scheint alles andere als perfekt zu sein. Und vergess nicht die enorme Die Größe von Larrabee, und ohne diese ist er nicht Konkurenzfähig was Gaming betrifft. Ich kann mir auch schwer vorstellen, Das Intel einen Chip produziert, auf dem die Grafikeinheit mindestens doppelt so groß wie die CPU wäre.....
Amds Fusion ist für mich deutlich konkreter als Larrabee, da er aus bereits gut bekannten und relativ ausgereiften Komponenten besteht und deren Vorteile kombiniert. Larrabee mag in Zukunft im Servermarkt dominant werden, davon hat Nintendo aber einfach nichts, denn bekannter Maßen ist die Wii nicht für den Servermarkt gedacht^^, sondern auf geringe Kosten getrimmt. Der Kaufgrund für eine Wii ist die Innovation, die Nintendo aufbringt gepaart mit dem billigen Preis. Deshalb halte ich Larrabee für abwägig.

Avalox
2009-12-27, 12:46:29
Dann haben wir immer noch das Problem mit der Leistung/Watt, denn genau aus diesem Grund wurde der Larrabee wie er geplant war auf "Eis gelegt".


Nee. Deshalb ganz bestimmt nicht. Hast den verlinkten c't Artikel oben nicht gelesen?

Der Larrabee konnte sich als separate GPU nicht absetzen, seine Vorteile nicht nutzen und es mangelte an Entwicklerunterstützung. Das sind die Gründe.

schwachen, jedoch kühlbaren Chip nutzen.


Vergesse einfach den Stromverbrauch des Musters. Hat keine Relevanz für spätere Produkte.

Amds Fusion ist für mich deutlich konkreter als Larrabee, da er aus bereits gut bekannten und relativ ausgereiften Komponenten besteht und deren Vorteile kombiniert.

Nein AMD Fusion ist keine Kombination von gut bekannten. Deswegen heißt der Chip ja auch nicht Kombination, sondern Fusion.
Dort hat AMD Probleme zu lösen, welche Intel schon längst gelöst hat, denn der Larrabee ist schon fusioniert.

Fusion halte ich dort naheliegender für ein Produkt wie der Wii. Allerdings weiß man nicht, was Intel im Labor schon rumzuliegen hat. Jedenfalls wäre es naiv anzunehmen, dass Intel dort AMD das weite Feld dieser zukünftigen multifunktionalen CPUs überlassen wird.

Zockerfrettchen
2009-12-27, 12:59:08
Na gut, klingt alles logisch, lassen wir die Leistungsaufnahme mal weg.
Dann haben wir aber immer noch den Kostenfaktor. Außerdem hatte Intel auch das Problem, das Larrabee im Gaming zu schwach war im Vergleich zur Konkurenz. Larrabee ist nur ein Spitzenprodukt für den Servermarkt, finde ich zumindest. Sollten sie jedoch mit der nächsten Generation von Larrabee den Durchbruch schaffen, könnte ich mir auch einen Larrabee vlcht. in 28nm? vorstellen. Der wäre dann auch nicht mehr so überdimensional groß....
Tja, bis die nächste Generation von Larrabee da ist, dauerts aber noch ein Weilchen, wahrscheinlich zu lange um in der Wii2 eingesetzt zu werden

Gast
2009-12-27, 13:04:23
nur sind dann die konkurenten auch entsprechend kleiner ;-)

bleibt also auch in 28nm das selbe

Zockerfrettchen
2009-12-27, 13:09:26
Ich komme auch zu dem Schluss, das Larrabee nicht für Konsolen geeignet ist....

Aquaschaf
2009-12-27, 13:09:55
Ein guter Preis? ( Natürlich für eine CPU mit Larrabee Teil. Nicht das jemand denkt, dass es dort um den dedizierten Larrabee Chip geht.)

Denkst du nicht, dass auch die nächste Inkarnation des Projekts eher auf Performance bzw. High-End abzielen wird? Was will Nintendo mit einem Chip der mehr Leistung umsetzt als sie für die ganze Konsole einplanen? Und was ist mit der Frage der Fertigung? Glaubst du Intel würde die IP verkaufen? Vor allem wenn es nicht nur um Larrabee geht, sondern auch um eine CPU.

Irgendeine kleine GPU gepaart mit z.B. einer neueren Variante der PowerPC-Architektur (vielleicht dual core) ist um Welten wahrscheinlicher.

Dort hat AMD Probleme zu lösen, welche Intel schon längst gelöst hat, denn der Larrabee ist schon fusioniert.

Äh was ist an Larrabee fusioniert und genau welche Probleme hat Intel gelöst ;)? Der Instruktionssatz ist btw gerade mal scheißegal.

Coda
2009-12-27, 14:25:29
Larrabee ist ja konkreter als AMDs Fusion. Werden ja sogar schon Entwicklungsumgebungen verteilt.
Fusion verhält sich genauso wie eine CPU mit einer dedizierten GPU, deshalb ist das um Welten verbreiteter unter Entwicklern als ein Larrabee ;)

Avalox
2009-12-27, 20:39:11
Fusion verhält sich genauso wie eine CPU mit einer dedizierten GPU, deshalb ist das um Welten verbreiteter unter Entwicklern als ein Larrabee ;)

Um das Potential solch einer Lösung zu nutzen, reicht es aber nicht Fusion so zu betrachten.
Fusion wird ein M-Space Produkt sein. Die Integration wird auf dem Silizium statt finden. Der GPU Kern wird angebunden wie ein CPU Kern. Es wird einheitliche Speicher geben, bzw. werden die Latenzen im Datenaustausch beider Kerntypen extrem verringert. Dementsprechend werden sich auch dort die Programmierung, bzw. generell die Lösungsansätze ändern

AMD beschreibt es Phase 3 und die Fusions Wii wäre Phase 3.
http://media.bestofmicro.com/,7-4-93568-3.jpg
http://www.tgdaily.com/images/stories/article_images/amd/fusion_roadmap.jpg

Vielleicht ist der persönlich Einstieg für den Entwickler dort ein leichterer, am Ende steht aber ebenso was neues.
Na ja. Von Intel gäbe es als ausgleich vermutlich die interessanteren Compiler.

StefanV
2009-12-27, 22:38:21
Von Intel gäbe es als ausgleich vermutlich die interessanteren Compiler.
Der einem mit einer absolut unbrauchbaren GPU aber auch nicht besonders viel nutzt.

Warum sollte man hier einen Deal mit Intel abschließen?
Was haben die an Hardware, das besser ist als das was AMD hat?
Vorallen musst hier das Gesamtpaket betrachten, CPU, Chipsatz und Grafik aus einer Hand.

Was hat Intel hier zu bieten?

Ich würd mal sagen, dass das nicht besonders viel ist, die CPUs mögen vielleicht (noch) etwas besser sein, aber die Grafikbeschleuniger sind es nicht, zumal AMD wohl auch schon vorzeigbare Bulldozer Cores haben sollte....

Avalox
2009-12-27, 22:57:35
Was haben die an Hardware, das besser ist als das was AMD hat?


Das ist nicht die Kernfrage. Die Kernfrage ist grundlegender und dort
hat; Intel was an Hardware. Damit unterscheiden sie sich erstmal grundsätzlich vom restlichen Markt der Anbieter, welcher nun mal sehr klein ist was C/GPUs Lösungen dieser Größenordnung angeht.

Was dann nun besser/schlechter geeignet ist liegt im Auge des Betrachters, der Preis wird dort eine entscheidende Rolle spielen.

Ich glaube auch nicht wirklich an einer CPU mit Larrabee Komponente in einer Wii2. Das liegt aber zum Großteil schlicht daran, dass man auch nicht weiss, was dort bei Intel im Labor zu schlummern, bzw. auf der Agenda hat.

Allerdings wäre es doch sehr naiv anzunehmen, dass Intel dort keine zeitnahen Antwort auf den Fusion in der Tasche hat. Dafür ist Fusion viel zu nachhaltig.

Coda
2009-12-27, 23:46:16
Um das Potential solch einer Lösung zu nutzen, reicht es aber nicht Fusion so zu betrachten.
Du klingst wie irgend ein Marketingfritze.

Im Endeffekt wird man genauso OpenCL oder DirectCompute verwenden um die GPU-Einheiten anzusprechen.

Du hast ein viel zu verklärtes Bild dazu. Die Latenzen sind zwar geringer, aber da man Stream-Kernel sowieso parallel zu CPU-Aufgaben laufen lassen will ist das weitgehend irrelevant.

Gast
2009-12-28, 08:53:36
Um das Potential solch einer Lösung zu nutzen, reicht es aber nicht Fusion so zu betrachten.
Fusion wird ein M-Space Produkt sein. Die Integration wird auf dem Silizium statt finden. Der GPU Kern wird angebunden wie ein CPU Kern. Es wird einheitliche Speicher geben, bzw. werden die Latenzen im Datenaustausch beider Kerntypen extrem verringert. Dementsprechend werden sich auch dort die Programmierung, bzw. generell die Lösungsansätze ändern

Vielleicht ist der persönlich Einstieg für den Entwickler dort ein leichterer, am Ende steht aber ebenso was neues.
Na ja. Von Intel gäbe es als ausgleich vermutlich die interessanteren Compiler.


du hast den wichtigsten Vorteil von Fusion vergessen...ein hochperformanter Fallback-Modus. Du kannst bei genügend Resourcen Fusion bestimmt so nutzen wie von dir angedeutet. ABER, wenn du das nicht kannst oder willst hast du immer noch eine leistungsfähige CPU und eine vergleichsweise leistungsfähige GPU auf einem Package die auch getrennt angesprochen immer noch hervorragend funktionieren.

Ergo, Fusion ist IMHO das bessere Produkt weil du dich ohne große Performanceprobleme an die neuartige Programmierung herantasten kannst. Erinnert ein wenig an AMD64 gegen iA64.

Gast
2009-12-28, 08:56:10
Du klingst wie irgend ein Marketingfritze.

Im Endeffekt wird man genauso OpenCL oder DirectCompute verwenden um die GPU-Einheiten anzusprechen.

Du hast ein viel zu verklärtes Bild dazu. Die Latenzen sind zwar geringer, aber da man Stream-Kernel sowieso parallel zu CPU-Aufgaben laufen lassen will ist das weitgehend irrelevant.


ein Stream-Prozessor mit direkter Anbindung an den Hauptspeicher. Siehe letzte c't. Das scheint schon ein großer Vorteil zu sein.

=Floi=
2009-12-28, 08:58:54
das ist eher ein nachteil.
selbst das onboard vram der 785igp sollte schneller sein.

Aquaschaf
2009-12-28, 12:17:17
das ist eher ein nachteil.

Wenn die Bandbreite so hoch ist wie zu dediziertem GPU-Speicher, dann ist es ein Vorteil in Situationen in denen man große Datenmengen sowohl mit der CPU als auch der GPU verarbeiten will. Ist die Menge der geteilten Daten nicht groß, dann hat man nichts oder nicht viel davon.

Avalox
2009-12-28, 13:57:53
das ist eher ein nachteil.
selbst das onboard vram der 785igp sollte schneller sein.

Ne, überhaupt nicht.
Es ist ein gigantischer Vorteil, in welchen natürlich auch Intel mit M-Y-O schon ordentlich rumgeritten sind.
Du verbindest nur damit, dass die GPU Kerne mit den langsamen Hauptspeicher vorlieb nehmen müssen.

Das ist aber nicht der Fall. Natürlich kann es weiterhin schnellen Speicher geben (und den wird es schon auf dem Fusion Prozessor selbst geben, weil dort mit Z-Ram deutlich mehr Speicher ungebracht werden wird), auf diesen schnelleren Speicher können dann allerdings ebenso die CPU Kerne zugreifen, wie auch die GPU Kerne problemlos und schnell auf den Hauptspeicher zugreifen können. Das geht heutzutage schlicht nicht.

Du hast dadurch nur Vorteile und keine Nachteile. Es ist nur heute kein praktischer Nachteil, weil zum einen GPGPUs keine nennenswerte Bedeutung haben und es vor allen keine andere Lösung gibt und deshalb die Software, bzw. der Vergleich schlicht fehlt.

Gast
2009-12-28, 14:11:17
Du hast dadurch nur Vorteile und keine Nachteile. Es ist nur heute kein praktischer Nachteil,

du meinst wohl Vorteil statt nachteil oder ?

=Floi=
2009-12-31, 08:12:34
die stream-prozessoren brauchen bandbreite und die nimmt man der CPU doch damit weg. das ist das gleiche problem wie bei den gpus.
Man muß dann 4-8 cpu kerne füttern und noch einen gflop stream prozessor?! wie soll das funktionieren?
imho bremst man dadurch nur die cpu (oder gpu) aus. Ich möchte auch noch einwenden, dass normale systeme keine vollbestückung (!) haben und somit teils nur single channel zur verfügung steht und nicht die möglichkeit das ganze über 2 oder 3 controller zu splitten. (können die speichercontroller von amd eigentlich auch getrennt wie beim i7 arbeiten?)

man könnte den weg mit dem fest verbauten speicher weiterführen da der normale ram immer langsamer sein wird. der gpu teil hätte dann ~512mb fest verbauten speicher auf dem board (auf den auch die cpu dann zugreifen kann) und die cpu hat noch den normalen ram.

Avalox
2009-12-31, 10:44:48
die stream-prozessoren brauchen bandbreite und die nimmt man der CPU doch damit weg. das ist das gleiche problem wie bei den gpus.
Man muß dann 4-8 cpu kerne füttern und noch einen gflop stream prozessor?! wie soll das funktionieren?


Mit mehr Bandbreite. Schon heutige CPUs bewegen sich ja im I/O Bereich durchaus vergleichbar mit den GPUs.

Die HT und QPI Links sind schon heute alternative Pfade, welche nur nicht im Heimsystem adäquat genutzt oder benötigt werden.
Aber sehe dir doch nur mal die Multi CPU Systeme an, wo man ja eine NUMA CPU durchaus auch als eigenständigen zusätzlichen Speichercontroller einer dort angebundenen CPU betrachten kann.

Ausserdem glaube ich, dass mit zunehmender Verabeitungskomplexität der Shader Anwendungen auch im Grafikbereich sich das allgemeine Zugriffsprofil
auf den Speicher ändern wird (oder es ja jetzt schon). Dieses gilt ganz speziell für GPGPU Anwendungen.

G.
2010-01-03, 01:20:53
Drei Anbieter sind viel zu viel. Einer wäre am Ende hängen geblieben und das wäre bestimmt nicht Intel gewesen.
Wenn du das auf "Pleite gehen" beziehst, dann hast du recht. Aber es hätte ja auch passieren können, dass Intel wieder aussteigt.

LovesuckZ
2010-01-03, 01:40:12
Wenn du das auf "Pleite gehen" beziehst, dann hast du recht. Aber es hätte ja auch passieren können, dass Intel wieder aussteigt.

Warum sollte Intel aussteigen? Sie benötigen etwas, um gegen nVidia und AMD im HPC Bereich bestehen zu können. nVidia wird mit Fermi den nächsten Schritt unternehmen und viele Leute werden auch verstärkt anfangen GPUs ernst zu nehmen.
Das Intel Larrabee I gecancelt hat, trifft sie sehr schwer. Keiner wird sich Larrabee als Softwarelösung antun, wenn er mit CUDA und Fermi praktische Erfahrungen sammeln kann. Und dieser Vorsprung von nVidia wird selbst für Intel nicht so schnell aufholbar sein.

Gast
2010-01-03, 01:56:58
Keiner wird sich Larrabee als Softwarelösung antun, wenn er mit CUDA und Fermi praktische Erfahrungen sammeln kann. Und dieser Vorsprung von nVidia wird selbst für Intel nicht so schnell aufholbar sein.

Das ändert nichts an der Tatsache, dass sich diese Pionierarbeit für NV auf lange Sicht nicht auszahlen wird. Der kleinste gemeinsame Nenner setzt sich durch und was dies nun sein wird, liegt in der Hand der Konkurrenz. NV generiert munter Bedarf und andere steigen zum günstigsten Zeitpunkt ein, um davon zu profitieren.

LovesuckZ
2010-01-03, 01:59:29
Das ändert nichts an der Tatsache, dass sich diese Pionierarbeit für NV auf lange Sicht nicht auszahlen wird. Der kleinste gemeinsame Nenner setzt sich durch und was dies nun sein wird, liegt in der Hand der Konkurrenz. NV generiert munter Bedarf und andere steigen zum günstigsten Zeitpunkt ein, um davon zu profitieren.

Wenn man den Markt nicht versteht, dann schreibt man sowas.
Da aber nVidia im Quadro-Bereich einen Marktanteil von knapp 90% hat, scheint es wohl nicht nur von der Hardware abzuhängen, wo man Geld verdient. :rolleyes:

Gast
2010-01-03, 02:06:48
Der Markt besteht aber nicht zu 90% aus Quadros. Man ist gerade dabei, Anwendungsgebiete zu erschließen und sich vom Spielzeughersteller zu emanzipieren. 90% eines heute (relativ) kleinen Marktes sagen gar nichts aus, machen sich aber auf Folien ganz gut;)

deekey777
2010-01-03, 10:58:12
Warum sollte Intel aussteigen? Sie benötigen etwas, um gegen nVidia und AMD im HPC Bereich bestehen zu können. nVidia wird mit Fermi den nächsten Schritt unternehmen und viele Leute werden auch verstärkt anfangen GPUs ernst zu nehmen.
Das Intel Larrabee I gecancelt hat, trifft sie sehr schwer. Keiner wird sich Larrabee als Softwarelösung antun, wenn er mit CUDA und Fermi praktische Erfahrungen sammeln kann. Und dieser Vorsprung von nVidia wird selbst für Intel nicht so schnell aufholbar sein.
Baut Intel keine CPUs mehr?
Überhaupt: Was haben Nvidia und AMD den CPUs entgegenzusetzen? Versprechen und schöne Präsentationen?

Knuddelbearli
2010-01-03, 12:44:05
ihre GPUs die in so manchen Großrechner Anwendungen xx mal schneller sind.
Und AMD ihre CPUs die in der Energietechnisch gleich auf sind. und in der Anschaffung auch günstiger "einziger" Nachteil brauchen mehr Platz.

Gast
2010-01-03, 14:09:59
grins... nochmal zum Fusion:

Bei den Supercomputern hat AMD ja momentan einen Lauf.

Der beste Supercomputer erreicht momentan 1759 TFlops im Linmark Benchmark mit 224162 cores (also 37360 Istanbul CPUs mit 2,6GHz)

ersetzt man nun diese 37360 Istanbul durch neue 32nm Fusion CPUs mit ca. 3,2 GHz erreicht man folgendes:

-min. 82% der Leistung ohne Ausnutzung der GPUs
-ca. 14x höhere Leistung wenn man die GPUs auch noch mit nutzt ( GPUs mit 1,066GHz; 4/5 SP-Leistung ohne 5. SP-Einheit, 75% Linmark Effizienz)

Das ganze ist natürlich nur ein Gedankenspiel, zeigt aber was Fusion möglich machen kann. Fermi wird es dagegen sehr schwer haben.

LovesuckZ
2010-01-03, 14:16:05
Baut Intel keine CPUs mehr?
Überhaupt: Was haben Nvidia und AMD den CPUs entgegenzusetzen? Versprechen und schöne Präsentationen?

Was das? Sinnloskommentar?
Vielleicht solltest du nochmal nachdenken, dass ich nur gesagt habe, dass GPUs es den CPUs schwer machen können. Und sobald das passiert, benötigt Intel mehr als nur 12 oder 16 CPU Kerne. :rolleyes:
nVidia unternimmt alles, um parallele Entwicklung zu vereinfachen. Und das wird der Knackpunkt sein: Schaffen sie es soweit, dass die Leute den Mehraufwand in Kauf nehmen und sich in das Thema einarbeiten, werden sie die Vorteile der GPUs schnell erkennen und nutzen. Und dann benötigt Intel eine GPU-Konkurrenz.

Ailuros
2010-01-04, 09:53:10
Baut Intel keine CPUs mehr?
Überhaupt: Was haben Nvidia und AMD den CPUs entgegenzusetzen? Versprechen und schöne Präsentationen?

Zwar etwas merkwuerdig ausgedrueckt (doch liegt schon wahres dran), aber Intel hat das LRB Projekt auch nicht entwickelt um sich in HPC Maerkten auf CPUs zu konzentrieren.

NVIDIA entwickelte nicht Fermi um in HPC die CPUs zu entbehren und eben genau das gleiche gilt fuer Intel und Larabee.

Es wird wohl keiner behaupten dass ein jegliches HPC System nur mit GPUs oder nur mit CPUs auskommen kann. Wenn es um heterogenes computing geht braucht man wohl sowohl eine CPU als auch eine GPU, sonst sollte man gleich das "heterogene" weglassen um Widerspruechen zu entgehen.

Intel braucht eine GPU Architektur (ausserhalb dem GenX Zeug und 3rd party IP) fuer die Zukunft. Sie verschwinden zwar nicht aus dem HPC Markt vorruebergehend dank CPUs, aber es fehlt ihnen trotz allem eine GPU um NVIDIA genau da anzufechten wo es ihnen am meisten schmerzen wuerde.

Gast
2010-01-04, 11:59:38
Das ist aber nicht der Fall. Natürlich kann es weiterhin schnellen Speicher geben (und den wird es schon auf dem Fusion Prozessor selbst geben, weil dort mit Z-Ram deutlich mehr Speicher ungebracht werden wird), auf diesen schnelleren Speicher können dann allerdings ebenso die CPU Kerne zugreifen, wie auch die GPU Kerne problemlos und schnell auf den Hauptspeicher zugreifen können. Das geht heutzutage schlicht nicht.
ich glaube das problem ist dass du speicher nur in "schnell" oder "langsam" klassifizierst, die anforderungen von GPU und CPU an den speicher sind jedoch grundverschieden.
weshalb haben Graphikkarten meistens 10x schnelleren speicher als cpus? weil sie bereit sind den preis zu bezahlen, hohe latenz. schau dir z.b. ein Cuda paper an, 300cycle latenz, bei ca 1.4GHz, dem stehen CPUs gegenueber, die bei 3GHz unter 100cycle latenz haben.
Entsprechend ist auch die cache architektur, riesen caches mit relativ niedriger latenz, damit die CPU arbeiten kann. GPUs haben hingegen winzige caches, bei Fermi kommt erst ein normaler cache zum einsatz, vorher gab es nur streaming caches (quasi direct mapped buffer um die daten fuer den aktuellen task zwischenzuspeichern), und selbst die fermi caches sind an sich irrsinnig klein wenn der chip 512 "cores" ablaufen laesst und dabei tausende threads auf dem cache arbeiten sollen.



Es wird wohl keiner behaupten dass ein jegliches HPC System nur mit GPUs oder nur mit CPUs auskommen kann. Wenn es um heterogenes computing geht braucht man wohl sowohl eine CPU als auch eine GPU, sonst sollte man gleich das "heterogene" weglassen um Widerspruechen zu entgehen.

nicht mit nur cpu oder nur gpu, aber mit nur larrabee geht es.

Ich finde der wahre vorteil vom Larrabee ist eben weil es ein einziger solider chip ist. Stellt euch nur vor ihr wollt nen supercomputer bauen, ihr sollt hardware zusammenstellen aus cpus und gpus die fuer verschiedene einsatzgebiete bestes load balancing bieten... es wird zwangslaeufig was brach liegen (selbes problem wie bei seperaten vertex/pixel shadern). oder ihr macht eine konsole, welche cpu/gpu kombination wird fuer die naechsten 10jahre reichen? welche technologie beim rendern wird entscheident sein?...
oder ihr implementiert software, wie verteilt ihr den load? was soll von der cpu kopiert werden und was von der gpu? welchen teil der aufgaben uebernimmt wer und welche suboptimalen tasks lasst ihr trotzdem auf einer der einheiten laufen, weil das synchronisieren viel mehr performance kosten wuerde als es auf die dumme art zu machen?

mit Larrabee stellen sich solche fragen nicht. statt larrabee haette intel auch einfach x86 rausbringen koennen mit "SSE5" das die vector instructions von LRB hat (oder AVX2 oder.. ) und niemand wuerde es als sonderliches wunderding ansehen, sondern als ne extrem rechenstarke nen cpu architektur.

man vektorisiert code der auf anhieb lief so wie man es mit MMX/SSE/3dNow!/... macht um kritische stellen zu beschleunigen.

Ailuros
2010-01-04, 15:33:58
nicht mit nur cpu oder nur gpu, aber mit nur larrabee geht es.

LRB ist eine GPU und nicht eine Allzwecks-einheit die in einem System problemlos als CPU und GPU dienen kann. Als CPU waere das Ding arschlahm.

Gipsel
2010-01-04, 17:15:05
GPUs haben hingegen winzige caches, bei Fermi kommt erst ein normaler cache zum einsatz, vorher gab es nur streaming caches (quasi direct mapped buffer um die daten fuer den aktuellen task zwischenzuspeichern)
Nö. Gerade weil man sich die Latenz leisten kann, haben die (read-only) Caches der GPUs ein sehr hohe Assoziativität (bei ATi sind sie voll assoziativ). Die sollen möglichst gut Bandbreite sparen, nicht die Latenz verringern (selbst ein L1 Cache-Hit hat an die 100 Takte Latenz).

Der wesentliche Unterschied bei GPUs sind die normalerweise sehr regelmäßigen Zugriffsmuster beim Schreiben. Deswegen laufen Schreibzugriffe traditionell gar nicht über die Caches, sondern nur über Write-Combining Puffer. Fermi führt erstmals einen "unified" Cache ein, der sowohl lesend als auch schreibend genutzt wird. ATI geht bei den Evergreens nicht ganz so weit, allerdings gibt es dort (zusätzlich zu den traditionellen read-only Caches) jetzt immerhin globale 128kB read-write Caches beim Cypress (64kB bei Juniper, 16kB pro 32bit Memory-Controller) für wahlfreien Zugriff auf den Speicher.

Gast
2010-01-06, 10:08:23
Manche Leute haben schon drollige Ansichten.

Der K5 war immerhin die erste out-of-order x86-CPU mit RISC-Kern für den Consumer-Markt, sehr mächtiges Design.

Das bringt dem Anwender einer lahmen CPU sehr viel... ;-)
Und was den K6 angeht, über eine bis an die Grenze der Stabilität getaktete und dennoch langsame CPU mit besonders mieser 3D-Leistung (trotz "3DNow" *lach* ) muss man nicht mehr viel sagen... Als Aufrüstoption war er evtl. brauchbar, mehr nicht...

Netburst ist bei weitem nicht so schlecht wie immer hehauptet wird:
1. Northwood beispielsweise war eine gute & mehr als konkurrenzfähige Architektur.
2. Netburst brachte uns HT & DualCore... und an alle die denken dass das sie nicht betrifft (weil sie erst einen Core2/Phenom/etc. gekauft haben): Der heutige Stand der Multi-threaded Software auf dem Markt ist hier auch Intels Vorarbeit zu verdanken. 64-Bit im Athlon 64, das war ein Witz... (nicht technisch, sondern Marketing- und Markt-mäßig gesehen)

Auch Rambus war von der Technik her ein brilliantes Konzept... (dass illegale Preisabsprachen von Samsung & Co. dieser Technik den Garaus gemacht haben, und nicht die Herstellungskosten an sich, sollte inzwischen selbst hinter dem Mond angekommen sein..

Triskaine
2010-01-06, 13:50:05
RDRAM hatte so brutal hohe Latenzen, dass der Bandbreitenvorteil, von einigen Ausnahmefällen mal abgesehen, nahezu vollständig verpufft ist. Dazu haben die ordentlich Strom geschluckt und geheizt wie Atomkraftwerke. Die überhöhten Preise, die natürlich zum Teil auch dem DRAM-Kartell anzukreiden sind, waren da lediglich das Sahnehäubchen auf dem dampfenden Misthaufen.

Aquaschaf
2010-01-07, 10:34:31
Netburst ist bei weitem nicht so schlecht wie immer hehauptet wird:
1. Northwood beispielsweise war eine gute & mehr als konkurrenzfähige Architektur.
2. Netburst brachte uns HT & DualCore... und an alle die denken dass das sie nicht betrifft (weil sie erst einen Core2/Phenom/etc. gekauft haben)

1. Die Produkte waren nur konkurrenzfähig weil Intel mit der Fertigungstechnologie weiter als AMD lag.
2. Dual core kann man kaum als Verdienst von Netburst betrachten, das wäre unabhängig von der Architektur gekommen.

StefanV
2010-01-07, 11:52:54
Das bringt dem Anwender einer lahmen CPU sehr viel... ;-)
Die war nicht lahm!
In keinem Bereich!

Nur am Takt haperte es...


Netburst ist bei weitem nicht so schlecht wie immer hehauptet wird:
1. Northwood beispielsweise war eine gute & mehr als konkurrenzfähige Architektur.
2. Netburst brachte uns HT & DualCore... und an alle die denken dass das sie nicht betrifft (weil sie erst einen Core2/Phenom/etc. gekauft haben): Der heutige Stand der Multi-threaded Software auf dem Markt ist hier auch Intels Vorarbeit zu verdanken. 64-Bit im Athlon 64, das war ein Witz... (nicht technisch, sondern Marketing- und Markt-mäßig gesehen)
1. Nur dank der Fertigung, aber so wirklich toll wars nicht, ganz im Gegenteil...
Schau dir mal Willamettes im Vergleich zu Coppermines an, beide 0,18µ...
2. Dualcore brachte uns die K8 Architektur, hier war AMD (wieder) schneller, dass wir jetzt schon 64bit Betriebssysteme für Consumer haben, die NICHT Epic basieren, ist uns AMD und M$ zu verdanken!

Auch Rambus war von der Technik her ein brilliantes Konzept... (dass illegale Preisabsprachen von Samsung & Co. dieser Technik den Garaus gemacht haben, und nicht die Herstellungskosten an sich, sollte inzwischen selbst hinter dem Mond angekommen sein..
RDRAM war Mist, PUNKT.
Man kann nun wirklich nicht viel positives darüber sagen, echt nicht.

Exxtreme
2010-01-07, 12:03:05
Das bringt dem Anwender einer lahmen CPU sehr viel... ;-)
Und was den K6 angeht, über eine bis an die Grenze der Stabilität getaktete und dennoch langsame CPU mit besonders mieser 3D-Leistung (trotz "3DNow" *lach* ) muss man nicht mehr viel sagen... Als Aufrüstoption war er evtl. brauchbar, mehr nicht...
Beim K6 war "nur" die FPU ziemlich lahm was leider Auswirkungen auf 3D-Spiele hatte. Ansonsten war diese CPU recht brauchbar. Und zudem soviel billiger als ein vergleichbares Intel-System, daß es eine Voodoo 1 obendrauf gab für den gleichen Preis.
Auch Rambus war von der Technik her ein brilliantes Konzept... (dass illegale Preisabsprachen von Samsung & Co. dieser Technik den Garaus gemacht haben, und nicht die Herstellungskosten an sich, sollte inzwischen selbst hinter dem Mond angekommen sein..
Sorry, aber RDRAM war für den Massenmarkt nix und das lag nicht nur an den Preisabsprachen. Auch die Motheboards mussten wesentlich genauer gefertigt werden da die Leitungen zum Speicher viel weniger Toleranzen hatten was ihre Länge angeht etc.

Ich hatte damals die Wahl zwischen einem Athlon und einem P4. Bei gleicher Leistung hätte ein P4-System 1200 Mark mehr gekostet. Und da war der RDRAM der krasseste Kostenfaktor.

Ailuros
2010-01-16, 09:28:36
http://www.stanford.edu/class/ee380/

Ist das Ding neu?

Aquaschaf
2010-01-16, 12:13:39
Auf den slides steht zumindest nichts neues.

Gast
2010-01-19, 10:38:22
LRB ist eine GPU und nicht eine Allzwecks-einheit die in einem System problemlos als CPU und GPU dienen kann. Als CPU waere das Ding arschlahm.
jeder core waere in etwa so schnell wie eine atom cpu bzw ppu eines cells, mit guter auslastung der vectorunits waere das ding schneller als CPUs. (z.b. motion estimation)

Gast
2010-01-19, 10:46:03
jeder core waere in etwa so schnell wie eine atom cpu bzw ppu eines cells, mit guter auslastung der vectorunits waere das ding schneller als CPUs. (z.b. motion estimation)

Ja wahsinn bei dem Anteil an Vectorcode der bei einem Betriebssystem+Office anfällt.
Und gibt es irgendeine Quelle(bitte nicht semi oder fud) die belegt das ein Larrabeecore identisch mit einem Atomcore ist?

Gast
2010-01-19, 10:46:07
Nö. Gerade weil man sich die Latenz leisten kann, haben die (read-only) Caches der GPUs ein sehr hohe Assoziativität (bei ATi sind sie voll assoziativ). Die sollen möglichst gut Bandbreite sparen, nicht die Latenz verringern (selbst ein L1 Cache-Hit hat an die 100 Takte Latenz).
Das waere sehr unsinnig. Man organisiert speicher schon so dass er sehr lokal ist (z.b. swizzlen bzw kacheln von texturen und framebuffer), von daher ist die assoziativitaet nicht so wichtig. wenn man so sampled wie beim rendern vorgesehen, wird es selbst beim direct mapping 99% cachehits geben.
Die latenz ist gross, aber nicht wegen der langsamkeit des caches an sich, sondern weil die cachemiss-latenz mit einer recht langen queue versteckt wird. es gibt ja alle zeit lang mal einen miss beim zugriff auf eine texture kachel, danach sind alle zugriffe koherent und fast alles hits.


Der wesentliche Unterschied bei GPUs sind die normalerweise sehr regelmäßigen Zugriffsmuster beim Schreiben. Deswegen laufen Schreibzugriffe traditionell gar nicht über die Caches, sondern nur über Write-Combining Puffer.
streaming caches ist die terminologie die ich kenne :)
und genau deswegen braucht man keine assoziativitaet.

wundert mich dass du oben das eine behauptest und unten dann wieder was anderes.

Gast
2010-01-19, 10:50:20
Ja wahsinn bei dem Anteil an Vectorcode der bei einem Betriebssystem+Office anfällt.
emm ja, super, ich hoffe du hast auch eine dedicate office prozessing unit und nicht die integrierte version, da scrollt der text natuerlich halb so schnell.


Und gibt es irgendeine Quelle(bitte nicht semi oder fud) die belegt das ein Larrabeecore identisch mit einem Atomcore ist?
schau dir einfach die specs an von atom, cell-ppu und larrabee. schau dir die benchmarks von atom und cell-ppu an. den rest kannst du dir denken, oder trotzig gegenlabern, als cool-guy der du scheinbar bist.

Gast
2010-01-19, 10:55:54
schau dir einfach die specs an von atom, cell-ppu und larrabee. schau dir die benchmarks von atom und cell-ppu an. den rest kannst du dir denken, oder trotzig gegenlabern, als cool-guy der du scheinbar bist.

Weil die Leistung gleich ist ist die Architektur gleich?
Ich glaub das ist EOD wise-guy;)

Ailuros
2010-01-19, 11:40:28
Wie waere es wenn sich der Ton zwischen Euch beiden wieder normalisiert?

Ailuros
2010-03-10, 10:25:40
http://www.xbitlabs.com/news/cpu/display/20100307164006_Intel_People_Do_Not_Need_High_Performance_Graphics.html

When people think about graphics, they think about 3D war games and more realism. I'm not going to dismiss this, but (this market) attracts a relatively small amount of people. I think what a significant portion of consumers really want is media.

:rolleyes:

Gast
2010-03-10, 10:54:51
http://www.xbitlabs.com/news/cpu/display/20100307164006_Intel_People_Do_Not_Need_High_Performance_Graphics.html



:rolleyes:

Jo is kla...
Intel ist jauch ein totaler Vorreiter in Media...
Da ist auch Nicht zu peinlich.

StefanV
2010-03-10, 13:27:14
klingt so, als hätte man lange Zeit nichts in diesem Markt vorzuweisen und nun lügt man sich irgendwas zusammen, um nicht ganz blöd dastehen zu müssen...

mapel110
2010-03-10, 13:30:48
Wieso? Mit Larrabee zielt man doch auf GPGPU ab und nicht auf Grafik?! Daher sehe ich keinen Widerspruch. Nur mit den Multimedia-Features hat sich Intel ein wenig vertan.

Gast
2010-03-10, 13:32:40
Wieso? Mit Larrabee zielt man doch auf GPGPU ab und nicht auf Grafik?! Daher sehe ich keinen Widerspruch. Nur mit den Multimedia-Features hat sich Intel ein wenig vertan.

Im Augenblick hat man doch Nichts mit dem man zielen kann.
Es gibt afaik nicht einmal eine Ankündigung wann überhaupt Etwas kommen soll.

Ailuros
2010-03-11, 07:08:06
Wieso? Mit Larrabee zielt man doch auf GPGPU ab und nicht auf Grafik?! Daher sehe ich keinen Widerspruch. Nur mit den Multimedia-Features hat sich Intel ein wenig vertan.

Dass es sich hier um eine typische PR Aussage haltet verstehen wir wohl alle. Natuerlich ist LRB auch fuer 3D gedacht. Glaubst Du sie haben sich Project Offset zum Spass gekauft? Und sie haetten auch mehr "eingekauft" wenn sie eine standalone GPU auf dem Markt haetten.

Der Gast hat recht. Momentan herrscht Stille rund um LRB welches sich auch zu den Geruechten eines re-design der Architektur reimt.

S940
2010-03-11, 10:51:20
Wieso? Mit Larrabee zielt man doch auf GPGPU ab und nicht auf Grafik?!
Dann blätter Mal ein paar Seiten zurück und schau Dir die ganzen Intel Sprüche an die man vor 1-2 Jahren verbreitet hat.
GPGPU war nie das alleinige Ziel, Ziel war auch DirectX Kompatibilität und ATI/nVidia Konkurrenz.

Daran sind die gescheitert, GPGPU würde laufen - aber wahrscheinlich auch nicht schneller als bei nV oder ATi.
Lrb hat den Vorteil von x86 , aber das ist auch nur eine schöne Illusion, da die 512bit Befehle nagelneu sind. Wenn man da schon den Code neu anpacken muss, kann man gleich für nV oder Ati coden.

Summa Summarum alles sehr unausgegoren, x86 Cores sind für massiv parallele Anwendungen wie Kanonen auf Spatzen ...

StefanV
2010-03-11, 14:49:28
Man verballert da einfach viel zu viel Transistoren, die man eigentlich gar nicht braucht, das war das Problem bei Intel.

Und nVidia/AMD hätten damit wesentlich bessere/effizientere Cores, so dass man am Ende auf verlorenem Posten wäre...

Ailuros
2010-03-11, 14:57:11
Dann blätter Mal ein paar Seiten zurück und schau Dir die ganzen Intel Sprüche an die man vor 1-2 Jahren verbreitet hat.
GPGPU war nie das alleinige Ziel, Ziel war auch DirectX Kompatibilität und ATI/nVidia Konkurrenz.

Daran sind die gescheitert, GPGPU würde laufen - aber wahrscheinlich auch nicht schneller als bei nV oder ATi.
Lrb hat den Vorteil von x86 , aber das ist auch nur eine schöne Illusion, da die 512bit Befehle nagelneu sind. Wenn man da schon den Code neu anpacken muss, kann man gleich für nV oder Ati coden.

Summa Summarum alles sehr unausgegoren, x86 Cores sind für massiv parallele Anwendungen wie Kanonen auf Spatzen ...

Tja kann sein dass Du den "Vorteil" (wenn es auch wirklich einer ist) vielleicht vergessen solltest bei "LRB2".

merfu
2010-03-14, 17:30:42
http://hartware.net/news_48731.html

Laut eines Intel Mitarbeiters gibt es sogar eine Roadmap zur Veröffentlichung und so wie es klingt Arbeiten die noch an den selben Ansatz.
Also wohl doch der Spekulierte Redesign.

mfg
merfu

Ailuros
2010-03-16, 08:22:21
http://hartware.net/news_48731.html

Laut eines Intel Mitarbeiters gibt es sogar eine Roadmap zur Veröffentlichung und so wie es klingt Arbeiten die noch an den selben Ansatz.
Also wohl doch der Spekulierte Redesign.

mfg
merfu

Dass x86 angeblich rausfliegen soll kommt von der gleichen Ecke die mir vor einiger Zeit erzaehlte dass LRB prime storniert werden soll. Ich glaubte es damals auch nicht und dachte dass es sich um FUD handelt.

Ich kann natuerlich nicht wissen ob x86 stehen bleibt oder nicht, aber ich koennte mir schon einen guten Grund vorstellen warum es rausfliegen sollte denn angeblich soll es um die 30% an die area auf dem groessten core gefressen haben (32 core, ~600mm2@45nm). Mir klingt es zwar weit uebertrieben aber wenn das x86 tatsaechlich in dem Fall ungefaehr 180mm2 fressen sollte, dann gibt es schon Grund entweder hier radikal zu reduzieren (bei der kleinsten Variante sollten es nur noch 10% sein) oder das Zeug gleich loszuwerden.

S940
2010-03-16, 11:18:48
Ich kann natuerlich nicht wissen ob x86 stehen bleibt oder nicht, aber ich koennte mir schon einen guten Grund vorstellen warum es rausfliegen sollte denn angeblich soll es um die 30% an die area auf dem groessten core gefressen haben (32 core, ~600mm2@45nm). Mir klingt es zwar weit uebertrieben aber wenn das x86 tatsaechlich in dem Fall ungefaehr 180mm2 fressen sollte, dann gibt es schon Grund entweder hier radikal zu reduzieren (bei der kleinsten Variante sollten es nur noch 10% sein) oder das Zeug gleich loszuwerden.
Jo, mMn wäre das auch der einzig brauchbare Weg.
Das Ding soll ja many-cores haben ... mit je einem x86 Dec. pro Core packt man sich pro weiteren Core "many" Probleme aufs Transistoren Budget.

Andere Möglichkeit wäre ein Riesen- geteiltes Front-End ähnlich wie bei AMDs Bulldozer Design. Aber ob das bei many cores vernünftig skalieren würde ... keine Ahnung.

Coda
2010-03-16, 14:41:30
x86 auf einer GPU ist eh totale Grütze. Wer ihnen da ins Hirn geschissen hat weiß ich bis heute nicht - sorry, aber anders kann man das nicht sagen.

x86-Kompatibilität will man nur haben um Abwärtskompatibel zu Legacy-Binärcode zu sein - und die laufen eh nicht sinnvoll auf einer solchen Architektur. Weder was Code- noch Thread-Level-Parallelität angeht.

Selbst das Argument, dass ja Programme Assembler enthalten könnten und deshalb nicht einfach rekompilierbar ist ist Grütze. Jeglicher Code der die Vektoreinheit nicht verwendet ist unbrauchbar.

Intel hat also genau eines gewonnen von x86: Sie müssen den Decoder mitschleppen, der bei solch einfachen Cores unglaublich viel vergeudeter Die-Space bedeutet. NVIDIAs und ATIs Architekturen haben wohl nichtmal einen Microcode.

Es ist gut, dass Intel da zur Vernunft gekommen ist. Sonst hätten sie auch bei GPUs für alle Zeiten abwärtskompatibel zu dem Käse sein müssen, während alle anderen Hersteller die ISA tauschen wie beliebt, weil sie sie durch Bytecode abstrahieren und sowieso auf Hochsprachen setzen.

misterh
2010-03-17, 07:32:49
http://cpu.zenha.net/news/201003171/1253461.shtml

Ailuros
2010-03-17, 09:32:04
http://www.xbitlabs.com/news/video/display/20100312095318_Intel_Has_a_Luxury_of_Releasing_Larrabee_in_Its_Own_time_Larrabee _Engineer.html

According to the hardware designer, if Larrabee had emerged on time, it would have change the whole industry. Larrabee was supposed to render graphics, feature extremely flexible programmability and retain compatibility with x86 instruction set so to allow developers to easily use many-core Larrabee for multi-threaded non-graphics applications.

:rolleyes:

S940
2010-03-18, 02:34:30
it would have change the whole industry.
:rolleyes:
Jo, jeder hätte Intel nicht mehr Ernst genommen und Tränen gelacht :freak:

Gast
2010-03-19, 08:31:16
Redesign, ha.
Die Vektoreinheiten sind "complete", mehr als die braucht man nicht. Rest fliegt weg, dazu nicht koherenter Cache und ein Softwaremodel das input&output Resourcen trennt, das macht den Cache schneller, billiger und besser skalierend.

TMUs sind noch fraglich, mit nicht koherentem Cache kann man die DMA-Einheit auch in ein einheitliches Format in den Cache dekodieren lassen so wie es bei TMUs der Fall ist. Es kostet manchmal die extra Interpolationsinstruktionen in der Vektoreinheit, die aber weit aus weniger latenz haben als der nachfolgende DMA, zudem bringt es weit bessere auslastung des ganzen Chips.
Und mit steigendem Bedarf beim Compute und Postprocessing ist es effizienter per Gather zu lesen als TMU-Aufrufe und dann idle, vor allem wenn der DIE-Space stattdessen mit mehr Cores gepflastert wird.

Wer ihnen da ins Hirn geschissen hat weiß ich bis heute nichtEs ist weitläufig bekannt welche "Render Gurus" bei Intel Consulting betrieben haben.

seltenerGast
2010-04-15, 23:42:41
Mal 'ne ganz einfache Frage:

Braucht jeder x86 Core wirklich eine decoder-unit, oder ist es vorstellbar, dass sich n-x86 cores eine decoder-unit "teilen" könnten?

Ailuros
2010-04-16, 07:13:18
Mal 'ne ganz einfache Frage:

Braucht jeder x86 Core wirklich eine decoder-unit, oder ist es vorstellbar, dass sich n-x86 cores eine decoder-unit "teilen" könnten?

Ich hab den Verdacht dass dem so ist je nach Variante; nach Geruechten war die eingeschaetzte die area beim top dog fast 30%, waehrend beim kleinsten nur noch ~10%.

Ailuros
2010-05-18, 14:38:03
http://www.semiaccurate.com/2010/05/17/larrabee-3-now-larrabee-2/

IMO zumindest H2 2012.

Avalox
2010-05-25, 11:09:05
Andreas Stiller hat im aktuellen Prozessorgeflüster auch was zum Larrabee geschrieben,.

Sehr interessant ist, dass die gezeigten Larrabee nun tatsächlich an Entwickler gehen.

"Larrabee lebt

Intel ist mit seiner GPU-Version namens Larrabee auch noch nicht aus dem Rennen. Die Larrabee-Grafikchips seien nicht tot, bekräftige Otellini auf einem Analystentreffen. Die gleiche Anzahl Entwickler arbeite weiter emsig an dem Projekt so wie vor sechs Monaten, als man die für den Desktop-Grafikmarkt gedachte erste Version weitgehend einstampfte. Ein paar davon sollen allerdings auf Entwickler-Boards zum Einsatz kommen, die Intel vermutlich im November auf der Supercomputer-Konferenz in New Orleans vorstellen wird. Sie sollen mit dem von ihnen unterstützen neuen Instruktionssatz für die 512 Bit breite Vektor-Einheit den Boden für neue Larrabee-Generationen bereiten. Die müssen sich dann zunächst im HPC-Umfeld bewähren, bevor man einen Angriff im Grafikbereich gegen die ATI- und Nvidia-Übermacht wagt. Wuchern will Intel hier vor allem mit einem gemeinsamen Speichermodell von CPU und GPU – eine Option, die Nvidia mangels passender CPU erst einmal verschlossen bleibt. "

http://www.heise.de/ct/artikel/Prozessorgefluester-1003395.html

Gast
2010-05-26, 11:05:14
Im intel Blog ist gestern eine durchaus intereante info erspähbar gewesen.

http://blogs.intel.com/technology/2010/05/an_update_on_our_graphics-rela.php

"3.We will not bring a discrete graphics product to market, at least in the short-term. As we said in December, we missed some key product milestones. Upon further assessment, and as mentioned above, we are focused on processor graphics, and we believe media/HD video and mobile computing are the most important areas to focus on moving forward."

Hört sich meiner Meinung nach so an als wäre Larrabee vorerst auf Eis gelegt.

Ailuros
2010-05-26, 11:24:49
Wie gesagt vor 2012 kommt von LRB-"Next" sowieso nichts.

[...]at least in the short-term[...]

Avalox
2010-05-26, 20:11:42
Heise online schreibt heute

"Intels Larrabee soll "vorerst" nur als Applikationsbeschleuniger kommen
...
Kirk Skaugen, Chef der Intel Data Center Gorup, anlässlich der bevorstehenden Supercomputer-Konferenz ISC '10 am nächsten Montag weitere Larrabee-Informationen verkünden wird.
"

Mal sehen klingt ja spannend.
http://www.heise.de/newsticker/meldung/Intels-Larrabee-soll-vorerst-nur-als-Applikationsbeschleuniger-kommen-1008363.html

Gast
2010-05-31, 15:17:35
Da wird wohl keine Grafikkarte mehr kommen.

http://www.golem.de/1005/75457.html

anderer Gast
2010-05-31, 15:46:35
@ Gast:
Richtig. Die Sache war inzwischen jedoch absehbar...
Für mich ist diese Meldung jedenfalls keine Überraschung.

Zwei bedeutende Konsequenzen hieraus bleiben jedoch festzuhalten;

1. Raytracing ist auf absehbare Zeit gestorben. Nvidia und Ati werden mit Tesselation und anderen Eyecandygeschichten die nächsten paar Jahre genug zu tun haben. Vielleicht wird in 5-10 Jahren ein neuer Anlauf genommen werden. Bis dahin stimmt dann auch die Rohleistung.
Die Erfahrung mit Larrabee wird sicherlich auch zum Teil in die neuen IGP-Lösungen auf CPU-Die einfließen.

2. Mit der neuen Verwendung für "Larrabee" zielt Intel direkt auf die neuen Komptenzen von Nvidia ab und möchte NV wohl schön in die Parade fahren. Die neue Stoßrichtung des Intelprojekts bedeutet aber auch, dass den fanatischen X-Core-Enthusiasten endgültig der Wind aus den Segeln genommen ist. Diese Entwicklung entbindet Intel ein großes Stück weit von dem Zwang, klassische CPUs mit immer mehr Kernen auszustatten.

Ja, der Kern-Wahn ist in meinen Augen ebenso eine Sackgasse wie der MHz-Wahn vor 10 Jahren.

AnarchX
2010-05-31, 18:54:24
Auf Basis der Präsentation könnte man behaupten, das gerade mal 500 GFLOPs SP das thermisch vertretbare für den 45nm LRB sind, der wohl bei >600mm² liegt.
Da muss mit 22nm und >50 Cores ein ziemliches Wunder geschehen, wenn man AMD und NV da aufholen will.

AnarchX
2010-06-01, 10:58:13
http://img15.imageshack.us/img15/8738/aubreyisledie.jpg


http://img64.imageshack.us/img64/5417/lrbcard.jpg

http://www.intel.com/pressroom/archive/releases/2010/20100531comp.htm

Aquaschaf
2010-06-01, 11:08:27
1-2GB Speicher sind ein bischen wenig.

Avalox
2010-06-01, 11:22:41
Was hat denn die Karte auf dem Bild für externe Anschlüsse und warum hat sie überhaupt welche?

AnarchX
2010-06-01, 11:38:07
http://scr3.golem.de/screenshots/1005/Intel_Knights_Corner/DSC_1962.jpg

deekey777
2010-06-01, 11:51:10
SC10: Intel Larrabee ist da (http://www.heise.de/newsticker/meldung/SC10-Intel-Larrabee-ist-da-1012723.html)
Yeeha!

Was hat denn die Karte auf dem Bild für externe Anschlüsse und warum hat sie überhaupt welche?
Benutzerfreundlichkeit?
Die ersten GPGPU-Karten (R580er FireStream, die ersten Teslas, die erste R600/RV670-FireStream) hatten wirklich keine VGA/DVI-Anschlüsse.

Avalox
2010-06-01, 11:57:10
http://scr3.golem.de/screenshots/1005/Intel_Knights_Corner/DSC_1962.jpg


Das ist doch mindestens ein Displayport. Also kann dieses Karte doch Grafik ausgeben?


Benutzerfreundlichkeit?
Die ersten GPGPU-Karten (R580er FireStream, die ersten Teslas, die erste R600/RV670-FireStream) hatten wirklich keine VGA/DVI-Anschlüsse.

Warum sollte denn eine Larrabee Karte dieser Ausrichtung Monitoranschlüsse haben? Wird doch noch nicht mal einen Grafiktreiber geben. Warum auch? Trotzdem scheint ja die Karte Framebuffer und alles was dazu gehört zu unterstützen.

deekey777
2010-06-01, 12:24:29
Warum sollte denn eine Larrabee Karte dieser Ausrichtung Monitoranschlüsse haben? Wird doch noch nicht mal einen Grafiktreiber geben. Warum auch? Trotzdem scheint ja die Karte Framebuffer und alles was dazu gehört zu unterstützen.
Wenn du einen HPC-Rechner aufbaust, warum sollte die Larrabee-Steckkarte keine Grafikausgabe übernehmen können? Ein mulmiges Gefühl ist wirklich berechtigt: Was ist von der GPU-Larrabee im HPC-Larrabee übriggeblieben? Denkbar wäre, dass auf der Beschleunigerkarte ein zusätzlicher Grafikchip für Grafikausgabe verlötet ist. Oder dieser zusätzliche Grafikchip in den Larrabee integriert ist. Oder die Treiber sind so beschnitten, dass technisch alles möglich ist, die Treiber die Fähigkeit des Larrabee um 3D-Ausgabe (D3D/OpenGL-Beschleunigung) beschneidet.

Coda
2010-06-01, 12:50:22
Am Chip wurde nix verändert. Sogar die TMUs sind noch da :ugly:

Wenn du einen HPC-Rechner aufbaust, warum sollte die Larrabee-Steckkarte keine Grafikausgabe übernehmen können?
Weil Intel auf keinen Fall will dass jemand bemerkt wie lahm das Ding für 3D ist :D

Die finalen Karten werden keine Anschlüsse mehr haben.

Ailuros
2010-06-02, 10:56:19
Weil Intel auf keinen Fall will dass jemand bemerkt wie lahm das Ding für 3D ist :D

Zwar verdammt gemein, aber ich musste trotzdem damit lachen.

misterh
2010-06-10, 13:59:40
http://www.pcgameshardware.de/aid,749603/Intel-Larrabee-Referenz-Grafikkarte-vorgestellt-Update-mit-Youtube-Video/Grafikkarte/News/

Neon3D
2010-08-26, 14:09:23
@ Gast:
Richtig. Die Sache war inzwischen jedoch absehbar...
Für mich ist diese Meldung jedenfalls keine Überraschung.

Zwei bedeutende Konsequenzen hieraus bleiben jedoch festzuhalten;

1. Raytracing ist auf absehbare Zeit gestorben. Nvidia und Ati werden mit Tesselation und anderen Eyecandygeschichten die nächsten paar Jahre genug zu tun haben. Vielleicht wird in 5-10 Jahren ein neuer Anlauf genommen werden. Bis dahin stimmt dann auch die Rohleistung.
Die Erfahrung mit Larrabee wird sicherlich auch zum Teil in die neuen IGP-Lösungen auf CPU-Die einfließen.

2. Mit der neuen Verwendung für "Larrabee" zielt Intel direkt auf die neuen Komptenzen von Nvidia ab und möchte NV wohl schön in die Parade fahren. Die neue Stoßrichtung des Intelprojekts bedeutet aber auch, dass den fanatischen X-Core-Enthusiasten endgültig der Wind aus den Segeln genommen ist. Diese Entwicklung entbindet Intel ein großes Stück weit von dem Zwang, klassische CPUs mit immer mehr Kernen auszustatten.

Ja, der Kern-Wahn ist in meinen Augen ebenso eine Sackgasse wie der MHz-Wahn vor 10 Jahren.

vollkommen richtig. intel wollte mit larrabee das vorrücken von nvidia & ati aufhalten, was jedoch nicht geklappt hat. zukünftige cpu`s mit gpu werden nicht schnell genug sein um gegen standalone grakarten auch nur annähernd mitzuhalten, geschweige denn sich übertakten zu lassen. die teile sind nur für laptops zu gebrauchen.

schon irgendwie komisch. intel, einer der größten unternehmen der welt muß mit ansehen, wie ihnen das wasser aus den händen gleitet und was machen sie? konzentrieren sich auf kernwahn (und raytracing, was ja in die hose ging).
die produzieren wie wild 32 & 64 cores und hoffen das der einstein des multithreads sich noch rechtzeitig meldet.
naja mal sehen ob das geht, das cpu`s mit shaderunits aufgepeppt werden und als "kleiner bruder" den schnelleren grafikkarten ein wenig mehr perfomance verhilft.

deekey777
2010-09-17, 20:30:03
Intel: Larrabee was 'impractical' (http://www.techradar.com/news/computing-components/graphics-cards/intel-larrabee-was-impractical--716960)

Gasti
2010-09-17, 20:46:12
Wenn man viel in Software rechnen möchte, dann benötigt man sehr viel Rechenleistung.
Nachdem scheinbar die gezeigten ~1TF schon die Peakleistung war, war bereits klar dass Das Nichts mehr wird.

Duplex
2010-09-17, 20:50:11
Larrabee ist nichts anderes außer ein Papiertiger.

AMD & Nvidia werden permanent bessere Grafik Produkte als Intel haben.

xiao didi *
2010-09-17, 20:55:34
Larrabee ist nichts anderes außer ein Papiertiger.
Guten Morgen, Duplex. :wave:
Larrabee wurde vor Ewigkeiten schon ganz offiziell für tot erklärt.

Duplex
2010-09-17, 20:58:55
das weis ich selber.
finde es peinlich, Intel größter Chiphersteller investiert Milliarden in so ein Projekt, am ende kommt dabei nichts raus ;)

xiao didi *
2010-09-17, 21:09:44
Ich verfüge zwar nur ein äußerst eingeschränktes Wissen in dem Bereich, ich denke aber, dass Intel durchaus das ein oder andere aus diesem Projekt gelernt hat.

In der Tat ist Larrabee aber auch ein schönes Beispiel dafür, dass Geld nur in gewissem Maße Brainpower und langjährige Erfahrung ersetzt.
Sollte eines Tages Nvidia nicht mehr sein, dann wird Intel die Leute auch sicher mit astronomischen Gehältern locken.