PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Larrabee (der Spekulationsthread)


Seiten : 1 2 3 [4] 5 6 7 8 9

Coda
2008-12-18, 20:46:56
x87 und SSE2 sind auf jeden Fall IEEE754 compliant.

Gast
2008-12-21, 09:22:55
Natürlich kann ich das.

Was er getan hat ist ein paar Quake-Levels in den Saarland-OpenRT-Raytracer gespielt das ganze in einer Studienarbeit publiziert und nachher unglaublich Bullshit in Interviews rausgelabert. Der Typ hat doch nichtmal etwas an dem Raytracer implementiert.

Wer eine ordentliche Meinung dazu hören will soll sich mal anschauen was Carmack dazu gesagt hat und das mit seinem Geschwätz vergleichen. Auf die Probleme mit dynamischer Geometrie ist er erst gar nicht eingegangen - das sagt schon alles.

Nun, immerhin hat er gewußt wie er sich bestens verkaufen kann.
Das erfordert auch intelligenz.

Aber zum der Meinung von Carmack hätte ich jetzt noch gern eine Quelle

deekey777
2009-01-11, 03:18:28
Larrabee might have its own API (http://www.fudzilla.com/index.php?option=com_content&task=view&id=11361&Itemid=65)
Ich hoffe, der Autor meint unter "own API" nicht C't (ist auch keine API).

Intel soll eine Veranstaltung gehalten haben, die streng geheim ist: http://forum.beyond3d.com/showthread.php?t=51326
So ein Spruch ist ziemlich interessant und lässt viel Raum für Spekulatios:
Battlefield 3 to officially support Larrabee! Confirmed here first people!

Raff
2009-01-11, 03:19:38
Für wann ist Betafield 3 denn scheduled? Anfang 2010?

MfG,
Raff

Coda
2009-01-11, 03:28:56
Aber zum der Meinung von Carmack hätte ich jetzt noch gern eine Quelle
http://www.pcper.com/article.php?aid=532&type=expert&pid=2

The Jackal
2009-01-25, 18:52:20
Frage zu Larrabee:

Wenn ich das richtig verstanden habe, dann wird diese CPU die für GPU mißhandelt wird alles können?
Also spielt es keine Rolle mehr ob DX11 12 40 oder was anderes wie OpenGL 8.x, es ist rein eine sache der Programierung?
Der einzige Grund zum wechseln nur noch die reine Leistung ist wenn die Karte das neue Spiel nicht mehr packt?

Coda
2009-01-25, 18:54:07
Jain. Die TMUs sind noch fixe Logik, d.h. die unterstützen Texturformate können nicht ohne erheblichen Performanceverlust durch Softwareemulation erweitert werden.

The Jackal
2009-01-25, 18:56:19
Also wir der DirectX und OpenGL Mist immer noch bleiben?

Neues Spiel mit DX12 und ich brauch ein neuen Larrabee wenn ich alle gimmix genießen will?

Coda
2009-01-25, 19:00:20
Kommt darauf an ob das was die TMUs können müssen erweitert wird und ob Intel überhaupt bereit ist für alte Chips neue Treiber bereitzustellen.

Ich denke nämlich vor allem letzteres werden sie eher nicht tun.

The Jackal
2009-01-25, 19:03:48
Ich dachte das alle Larrabee's gleich sein werden von der Struktur, nur sich in der Anzahl der Cores, des Ram's und der Geschwindigkeit unterscheiden.

Also wird es auch nichts anderes als eine GraKa die man nach 1-2 Jahren aus dem System feffert.

BlackBirdSR
2009-01-25, 21:29:43
Ich dachte das alle Larrabee's gleich sein werden von der Struktur, nur sich in der Anzahl der Cores, des Ram's und der Geschwindigkeit unterscheiden.

Also wird es auch nichts anderes als eine GraKa die man nach 1-2 Jahren aus dem System feffert.

Intel will ja auch Geld daran verdienen. In diesem Punkt ist die freie Marktwirtschaft nie besonders Benutzerfreundlich.
Erst mal sehen, inwiefern Intel mit den Treiber zurecht kommt. Bisher hat man sich in dieser Richtung nicht besonders hervorgetan.

dust
2009-01-26, 00:19:05
Intel will ja auch Geld daran verdienen. In diesem Punkt ist die freie Marktwirtschaft nie besonders Benutzerfreundlich.
Erst mal sehen, inwiefern Intel mit den Treiber zurecht kommt. Bisher hat man sich in dieser Richtung nicht besonders hervorgetan.

intel unterstützt für etliches open source treiber und was besseres kann man sich wohl nicht wünschen...

Coda
2009-01-26, 01:00:30
Die Open-Source-Treiber von Intel sind erbärmlich optimiert. Natürlich kann man sich für Larrabee etwas besseres wünschen.

deekey777
2009-01-26, 01:06:28
intel unterstützt für etliches open source treiber und was besseres kann man sich wohl nicht wünschen...
Genau: Wir werden einen Opensource-Treiber für DirectX sehen...

Gast
2009-01-28, 15:46:25
Die Open-Source-Treiber von Intel sind erbärmlich optimiert. Natürlich kann man sich für Larrabee etwas besseres wünschen.
Dafür funktioniert er wie er soll

Die 2D-Performance ist besser als die von NV und AMD und OGL 2.1 + GLSL funktionieren recht gut

Ailuros
2009-01-28, 16:39:30
Dafür funktioniert er wie er soll

Die 2D-Performance ist besser als die von NV und AMD und OGL 2.1 + GLSL funktionieren recht gut


Das soll jetzt ein Trost sein fuer was genau? Nicht dass ich Dir glaube denn meine Erfahrungen zeigen genau das Gegenteil, aber mir fehlt die Relevanz generell zu Larabee.

Ausser Du willst uns kund machen dass Intel auch anstaendige Treiber schreiben kann. Aussnahmen gibt es immer.

Exxtreme
2009-01-28, 16:45:23
Dafür funktioniert er wie er soll

Die 2D-Performance ist besser als die von NV und AMD und OGL 2.1 + GLSL funktionieren recht gut
Mir ist keine Hardware von Intel bekannt wo ich sagen würde, die Treiber sind wirklich ausgezeichnet. Auf meiner alten WS in der Arbeit verursachten die Treiber sogar sporadische Bluescreens ... bei normaler 2D-Office-Arbeit. Erst ein Nachfolgetreiber brachte Besserung. Und blieb auch der einzige Nachfolgetreiber da man sich für mehr Treiber zu schade war.

Die Treibersituation bei Intel beäuge ich sehr sehr skeptisch.

haifisch1896
2009-01-28, 18:30:04
Dafür ist bei Larrabee mMn mehr Druck seitens des Marktes dahinter.

Die integrierten Chipsätze sollen nur eins: ein Bild möglichst fehlerfrei darstellen. DX-Techlevel sind eh nur Marketinggeschwätz. Sofern Bluescreens bei den Hauptaufgaben des IGP auftreten, Office darzustellen, werden diese ausgemerzt.
Wozu dann mehr Geld in "bessere Treiber" stecken? Und ob nun Crysis mit 3 oder 4 fps läuft, ist doch egal.

Larrabee hingegen soll ja auch den Gamermarkt ansprechen. Der Ruf Intels als Hersteller für Gamerhardware würde in diesem Segment massivst Schaden nehmen und sich vielleicht auch auf die Plattformverkäufe (bzw. nur das CPU-Segment) auswirken.

Gast
2009-01-28, 20:37:38
Ich habe vom X11-Treiber und nicht vom Windows-Treiber geredet.

Gast
2009-01-28, 20:54:02
Der Xorg-Treiber ist auch nicht das Gelbe vom Ei.

Coda
2009-01-28, 21:02:44
Mir ist keine Hardware von Intel bekannt wo ich sagen würde, die Treiber sind wirklich ausgezeichnet.
Chipsätze, Netzwerkkarten, Storage-Controller und WiFi-Chips funktionieren eigentlich einwandfrei.

Ich würde sagen mir ist keine Intel-Hardware außer den Grafikchips bekannt wo das so wäre.

=Floi=
2009-01-28, 21:07:59
es ist wohl nichts so komplex und pflegebedürftig wie ein treiber für grafikkaren. Ich würde das nicht mit anderer hardware vergleichen...

Gast
2009-01-28, 21:20:43
Der Xorg-Treiber ist auch nicht das Gelbe vom Ei.
Wenn die Intel-Treiber nicht das gelbe vom Ei sind, was sind dann die ATI- und Nvidia-Treiber? :rolleyes

Ailuros
2009-01-29, 09:51:59
Die integrierten Chipsätze sollen nur eins: ein Bild möglichst fehlerfrei darstellen. DX-Techlevel sind eh nur Marketinggeschwätz. Sofern Bluescreens bei den Hauptaufgaben des IGP auftreten, Office darzustellen, werden diese ausgemerzt.
Wozu dann mehr Geld in "bessere Treiber" stecken? Und ob nun Crysis mit 3 oder 4 fps läuft, ist doch egal.

Dass die Treiber besser sein koennten betrifft leider nicht ausschliesslich 3D Leistung die eigentlich sowieso ziemlich gleichgueltig sein sollte auf einem IGP. Generell ist G45 einer der besten IGPs die Intel je veroeffentlicht hat IMHLO. Ein besserer Treiber koennte schon einiges besser machen, damit ein vergleichbarer AMD/NVIDIA IGP weniger wenn nicht gleich ueberhaupt keine Vorteile mehr hat.

Larrabee hingegen soll ja auch den Gamermarkt ansprechen. Der Ruf Intels als Hersteller für Gamerhardware würde in diesem Segment massivst Schaden nehmen und sich vielleicht auch auf die Plattformverkäufe (bzw. nur das CPU-Segment) auswirken.

LRB ist eine high end GPU und kein IGP. Hier werden die Ansprueche fuer die angezielten Profi- und Gamer-Maerkte um etliche Male hoeher. Intel's LRB Treiber-Team hat nicht nur von "Null" anfangen muessen, sondern es sind auch die IGP Treiber ziemlich nutzlos. Intel mangelt es keinesfalls an Resourcen und sie koennen es sich auch durchaus leisten zwei getrennte Teams fuer Grafik zu haben.

Dass jegliches Resultat von LRB Intel's CPU core-Geschaeft beinflussen wuerde, will ich ernthaft bezweifeln.

Exxtreme
2009-01-29, 10:17:00
Dafür ist bei Larrabee mMn mehr Druck seitens des Marktes dahinter.

Die integrierten Chipsätze sollen nur eins: ein Bild möglichst fehlerfrei darstellen. DX-Techlevel sind eh nur Marketinggeschwätz. Sofern Bluescreens bei den Hauptaufgaben des IGP auftreten, Office darzustellen, werden diese ausgemerzt.
Wozu dann mehr Geld in "bessere Treiber" stecken? Und ob nun Crysis mit 3 oder 4 fps läuft, ist doch egal.

Larrabee hingegen soll ja auch den Gamermarkt ansprechen. Der Ruf Intels als Hersteller für Gamerhardware würde in diesem Segment massivst Schaden nehmen und sich vielleicht auch auf die Plattformverkäufe (bzw. nur das CPU-Segment) auswirken.
Ich glaube nicht, daß Intel sich dem Druck beugen wird. Eher werden sie darauf abzielen, daß sich die Spielehersteller an die Treiber anpassen und nicht umgekehrt. ;)

Und der Ruf ist Intel wohl ziemlich egal. Da setzt man halt paar Händler unter Druck und fertig. Hat ja ganz gut funktioniert auch wenn man jetzt ein Verfahren in der EU am Hals hat.


Chipsätze, Netzwerkkarten, Storage-Controller und WiFi-Chips funktionieren eigentlich einwandfrei.

Ich würde sagen mir ist keine Intel-Hardware außer den Grafikchips bekannt wo das so wäre.
Die Treiber sind trotzdem wirklich sehr minimalistisch. Und Grafikchip-Treiber sind wohl auch ein ganz anderes Kaliber als Netzwerkchip-Treiber. Und genau hier hat sich Intel nie mit Ruhm bekleckert.

Coda
2009-01-29, 13:31:22
Die Treiber sind trotzdem wirklich sehr minimalistisch.
Was verstehst du unter "minimalistisch"?

deekey777
2009-02-03, 13:18:35
Intel at Game Developer Conference 2009 (http://software.intel.com/en-us/articles/intel-at-gdc/)
Malsehen, wieviel sie verraten werden.

BlackBirdSR
2009-02-03, 13:31:29
Chipsätze, Netzwerkkarten, Storage-Controller und WiFi-Chips funktionieren eigentlich einwandfrei.

Ich würde sagen mir ist keine Intel-Hardware außer den Grafikchips bekannt wo das so wäre.

Die ChangeLogs und noch bestehenden Probleme des Matrix-Treibers für AHCI und Raid sind ein Graus. Was da noch Baustelle ist...
Aber ich freue mich ja, erst im Januar hat es ein neuer Treiber endlich! geschafft, dass mein System nicht 15Sekunden aus dem S3 zum Aufwachen benötigt, genau wie es im Changelog steht.

Aber der Sinn geht verloren. Intel ist kein Lebewesen oder Ding, es ist eine Firma aus unzähligen Teams. Wenn TeamA nur scheisse baut, muss dies nicht für TeamB zutreffen, solange das Management darüber nicht ganz für die Tonne ist, will sagen: Sitzen die richtigen Leute am Treiber von Lrb, dann muss die Sache nicht wie bei den IGPs laufen.

Ailuros
2009-02-06, 10:11:41
http://www.theinquirer.net/inquirer/news/851/1050851/intel-design-playstation-gpu

Tja nur in einem Fall liegt der liebe Charlie falsch; der Rest duerfte stimmen ;)

Demirug
2009-02-06, 10:13:51
"it's nonsense, and is quite possibly the best work of fiction I've read, since Lord of the Rings."

http://www.techradar.com/news/gaming/sony-shoots-down-intel-gpu-in-ps4-rumours-525563

Ailuros
2009-02-06, 10:25:47
"it's nonsense, and is quite possibly the best work of fiction I've read, since Lord of the Rings."

http://www.techradar.com/news/gaming/sony-shoots-down-intel-gpu-in-ps4-rumours-525563

NVIDIA ist auf keinen Fall "out" was den Consolen-Markt betrifft, um damit anzufangen. Ich bezweifle dass SONY schon eine finale Entscheidung getroffen hat. Es wuerde mich trotz allem kein bisschen wundern wenn sie zu LRB greifen wuerden.

BlackBirdSR
2009-02-06, 12:39:03
Mit AVX und Larrabbe wäre zumindest alles aus einer Hand und vielleicht programmierfreundlicher als z.B. Cell.

Auf der anderen Seite ist es natürlich dumm, dass Larrabbe wahrscheinlich nicht genug Leistung bereitstellt, um den Part der CPU gleich mit zu übernehmen.

KonKorT
2009-02-06, 12:54:35
Tja nur in einem Fall liegt der liebe Charlie falsch; der Rest duerfte stimmen ;)

Wo liegt er deiner Ansicht nach falsch?

Ailuros
2009-02-06, 12:56:28
Bleibt die Frage ob SONY tatsaechlich die gesamte Investition in Cell aufgeben will.

Auf der anderen Seite ist es natürlich dumm, dass Larrabbe wahrscheinlich nicht genug Leistung bereitstellt, um den Part der CPU gleich mit zu übernehmen.

LRB soll froh sein wenn sich das Ding konkurrenzfaehig gegenueber den anderen D3D11 GPUs stellen kann. GPUs sind keine 2in1 Schampoos.

GPGPU/OpenCL oder heterogenous computing ist in meinem Hinterkopf eine Affaere so viel wie moeglich CPU + GPU Resourcen auszulasten und nicht die CPUs mit GPUs zu ersetzen (oder umgekehrt).

Ich will zwar bezweifeln dass AMD mit Fusion eine high end CPU mit einer high end GPU kombinieren wird, aber falls es soweit kommen sollte will ich nicht wissen wieviel die area oder wieviel Strom so ein Monstum brauchen wuerde.

Ailuros
2009-02-06, 12:59:51
Wo liegt er deiner Ansicht nach falsch?

Dass NVIDIA weg vom Fenster ist was den Consolen-Markt betrifft. Ich sag es mal so: es waere besser wenn Charlie nicht so grosskotzigen Mist zusammenkehren wuerde denn die Anzahl an Besen die er irgendwann mal konfrotieren koennte, werden ihm ziemlich schwer auf dem Magen liegen.

Exxtreme
2009-02-06, 13:10:32
Was verstehst du unter "minimalistisch"?
Die Treiber sind gerade gut genug, als daß das Gerät vom Betriebssystem erkannt wird. *g*

mojojojo
2009-02-06, 13:21:34
Was ist eigentlich zwischen MS und NVIDIA vorgefallen, dass sie evtl bei MS prinzipiell out sein könnten?
Aber das sich Sony nicht unbedingt einen NVIDIA-Chip in die nächste Konsole packt ist garnicht mal so abwegig auch wenns nicht zwinged Larrabee ist.
Der Grafikchip der PS3 ist ja auf jeden fall schwächer als der ATI-Chip der Box soweit ich weiss. Auch wenn das Gesamtpaket am ende vielleicht duch CELL mehr Leistung hat.
Wenn nun Intel ankommt und nen fetten Batzen Geld hinlegt oder sonstwas, um den Grafikchip der PS4 produzieren zu dürfen...naja soooo abwegig klingt das garnicht.
Wäre doch auf jeden fall ein weg Larrabee in den Markt zu pushen und das lässt sich Intel bestimmt gerne was kosten.

Edit:
Hab die sache mit MS und NVIDIA grad selber ergoogelt. für interessierte:
http://winfuture.de/news,7959.html

pixelguy
2009-02-06, 13:51:16
Was spricht gegen einen gemeinsamen Einsatz von Cell und LRB?

Sind die Kosten dafür zu hoch oder wird es einfach zu komplex?

robbitop@work
2009-02-06, 14:29:25
IIRC war es so: MS musste damals NV AFAIK die GPUs abkaufen. Also hat NV direkt bei TSMC die NV2a produzieren lassen und an MS verkauft. Das führte zu recht hohen pro Stück Kosten. Mit ATI hat man einen Deal für einmalige Zahlung für die C1-Lizenz vereinbart. Produzieren läßt MS dann selbst.
So lässt sich die Lizenz über die Stückzahl besser abschreiben.

Warum Sony mit NV schlechte Erfahrung hat, ist mir unklar. Die haben ja ein ähnliches Modell wie zw MS und ATI ausgemacht. Nur, dass Sony sogar eine eigne Fab hatte für die GPUs (aber mittlerweile auch das ausgelagert hat IIRC).
RSX war eine anständige GPU zu ihrer Zeit, die auch nicht einen all zu großen DIE hatte. Mit ordentlicher gezielter Optimierung ist das NV4x Design nicht so schlecht. Das NRM_PP gibts ja immer "kostenlos" dazu. Auch kann man die Stalls durch Tricksereien und Optimierungen mit Sicherheit auch in Grenzen halten. So hat man am Ende zwar nie die 48x MADs am Ende, die theoretisch drin wären aber die Grundleistung scheint ja ok zu sein.

Seit dem G8x hat NV auch eine hervorragende USC-Architektur im Portfolio. Die kann man wunderbar hoch und runter skalieren. Je nach dem, was man nächstes Mal vor hat. Eine kostengünstige Konsole mit einem 4 Cluster G9x in 40 nm oder ein Monster vieleicht schon auf der GT300 Architektur.

NV ist für GPUs sicher nicht die schlechteste Wahl. CPU wird man vermutlich auch weder AMD noch Intel heran lassen, da diese ja selbst produzieren wollen würden und es würde wieder zur o.g. Situation kommen. Ich tippe eher, dass sie Cell vorantreiben werden. Für das Konsolengeschäft ist es sicher keine all zu verkehrte CPU.

reunion
2009-02-06, 14:39:31
Auch kann man die Stalls durch Tricksereien und Optimierungen mit Sicherheit auch in Grenzen halten.

Nein, wie auch? Es gibt nur eine Pipeline für TEX- und ALU-Ops.

mojojojo
2009-02-06, 14:43:02
IIRC war es so: MS musste damals NV AFAIK die GPUs abkaufen. Also hat NV direkt bei TSMC die NV2a produzieren lassen und an MS verkauft. Das führte zu recht hohen pro Stück Kosten. Mit ATI hat man einen Deal für einmalige Zahlung für die C1-Lizenz vereinbart. Produzieren läßt MS dann selbst.
So lässt sich die Lizenz über die Stückzahl besser abschreiben.

Warum Sony mit NV schlechte Erfahrung hat, ist mir unklar. Die haben ja ein ähnliches Modell wie zw MS und ATI ausgemacht. Nur, dass Sony sogar eine eigne Fab hatte für die GPUs (aber mittlerweile auch das ausgelagert hat IIRC).

Danke für die etwas detailliertere Info.

robbitop@work
2009-02-06, 15:23:02
Nein, wie auch? Es gibt nur eine Pipeline für TEX- und ALU-Ops.
In dem man das Verhältnis von TEX:ALU möglichst so balanciert, dass es keine Stalls gibt. Dass das nie perfekt möglich ist, sollte klar sein.

Coda
2009-02-06, 15:37:10
"it's nonsense, and is quite possibly the best work of fiction I've read, since Lord of the Rings."

http://www.techradar.com/news/gaming/sony-shoots-down-intel-gpu-in-ps4-rumours-525563
Ich könnte mir vorstellen, dass sie mit der PS4 versuchen - falls es sie gibt - sowas wie Larrabee auf Cell-Basis zu bringen.
Aber das ist nun wirklich OT.

In dem man das Verhältnis von TEX:ALU möglichst so balanciert, dass es keine Stalls gibt. Dass das nie perfekt möglich ist, sollte klar sein.
Es gibt immer Stalls bei der Architektur, es sei denn man samplet bilinear.

Allerdings kann es sein, dass mit das etwas dadurch entschärft werden kann dass auch bei G7x mehrere Threads "in flight" sind.

robbitop@work
2009-02-06, 15:39:17
Ob das eine sinnvolle Grafiklösung ergäbe? Aber die Sony Leute sind, was Architekturen angeht, sowieso zu jeder Schandtat bereit. xD

Coda
2009-02-06, 15:59:59
Ob das eine sinnvolle Grafiklösung ergäbe?
Naja, Sony ist anscheinend ein großer Fan davon möglichst viel auf die Entwickler abzuwälzen und Ihnen damit auch mehr Möglichkeiten zu überlassen die Hardware unterschiedlich und bis ins letzte Detail auszunutzen.

Ursprünglich war ja angeblich ein zweiter Cell als "GPU" gedacht, aber sie hatten dann ein einsehen ;)

Prinzipiell fehlen vor allem TMUs und SMT in den SPEs und dort noch die entsprechend breiten Vektorinstructions. Im Endeffekt wär's dann gar nich mehr so verschieden von Larrabee.

pixelguy
2009-02-06, 16:02:34
Ich habe mehrmals gelesen, dass Sony die Kosten der PS4 gering halten will.
Ähnlich wie Gamecube -> Wii würde sich daher doch eine rein auf Cell aufbauende PS4 lohnen...

robbitop@work
2009-02-06, 16:15:29
Wenn man eine Low-Cost Konsole plant, dann sollte man lieber keinen Cell einsetzen. Dann sollte man eine herkömmliche kleine CPU einsetzen. Wenn man unbedingt einen Lizenzkauf machen möchte, wird man wohl bei In-Order MIPS oder PowerPC Prozessoren landen. Maximal Dual-Core und vermutlich geringe Taktraten. Dazu eine Grafikeinheit, die vieleicht 100 sqmm DIE-Fläche hat.

Damit wird man aber vermutlich nichtmal die PS3 Performance im Jahre 2010/11 großartig knacken können. Allerdings wäre so eine Konsole für rund 200 $ BOM möglich.

Ob man unbedingt diesen Weg gehen möchte, wage ich jedoch zu bezweifeln. IMO ging MS mit der X360 einen sehr guten Mittelweg.

pixelguy
2009-02-06, 16:22:25
Ich ging eher davon aus, dass der Cell in kleineren Strukturen hergestellt wird und dann evtl. mehrfach eingesetzt wird. Möglicherweise auch als GPU.

Da der Cell ja ohnehin da ist, dürften die Entwicklungs- und Herstellungskosten wesentlich günstiger liegen als bei der PS3.

Es geht dabei nicht um eine Billig-Konsole wie die Wii sondern um den Entwicklungsschritt, welche Sie vom Gamecube gemacht hat.

Coda
2009-02-06, 16:23:06
Welcher Entwicklungsschritt? ;)

pixelguy
2009-02-06, 16:28:09
naja eben... minimal :-)
Allerdings dürfte die Leistung dabei schon etwas mehr steigen.

CPU: 2x aufgebohrter Cell
GPU: angepasster Cell

Was spricht dagegen?

BlackBirdSR
2009-02-06, 16:37:05
naja eben... minimal :-)
Allerdings dürfte die Leistung dabei schon etwas mehr steigen.

CPU: 2x aufgebohrter Cell
GPU: angepasster Cell

Was spricht dagegen?

Cell braucht nicht 2x so viel Einheiten, Cell braucht mehr Leistung was die PPE-Komponente betrifft und vielleicht hier und da ein paar Optimierungen an den SPEs.

Und was gegen eine Cell-GPU spricht? ATI und Nvidia dominieren den Grafikmarkt. Inzwischen gibt es keinen Spielerhersteller (Handy ausgenommen), der nicht schon mal für einen der beiden Chips programmiert hat. Von denen ist der überwältigende Großteil nur damit beschäftigt für ATI und Nvidia zu schreiben. Diese Entwickler haben neben der Erfahrung auch Kontakte und Beziehungen zum Tech-Support und den Treiberteams.
Schon Intel wird es mit Larrabee verdammt schwer haben, in diesem elitären Club Fuß zu fassen. Warum sollte Sony jetzt zusätzlich Unsummen darauf verschwenden?
Immerhin gibt es (neben den Nachteilen) sehr viele handfeste Vorteile, Konsolen mit den gleichen GPUs auszustatten, wie sie in PCs sitzen.

pixelguy
2009-02-06, 17:15:24
klingt logisch. eine cell-gpu wäre in diesem fall wohl wirklich hinfällig...

aber wo läge dann er vorteil von lrb gegenüber eine nvidia oder ati gpu?

BlackBirdSR
2009-02-06, 17:37:38
klingt logisch. eine cell-gpu wäre in diesem fall wohl wirklich hinfällig...

aber wo läge dann er vorteil von lrb gegenüber eine nvidia oder ati gpu?

Wer sagt denn was von Vorteilen? Je nachdem, wie einfach es ist x86-Programme darauf zu beschleunigen, hat man vielleicht einen Vorteil in dieser Hinsicht. Aber nur weil Intel drauf steht, muss es noch lange nicht besser sein als der Rest - auch wenn Intel das gerne so sieht.

Gast
2009-02-06, 22:46:30
klingt logisch. eine cell-gpu wäre in diesem fall wohl wirklich hinfällig...

aber wo läge dann er vorteil von lrb gegenüber eine nvidia oder ati gpu?
Der Vorteil für den Konsolenhersteller heißt Intel. Wenn Intel will dass sich Larrabee relativ schnell durchsetzt dann ist der "einfachste" Weg der Einsatz in einer Konsole. Und daher werden sie auch ein finanziell demensprechend attraktives Angebot machen müssen.
Die Fertigung könnte auch eine Rolle spielen. 2012 könnte man schon auf dem Weg zu 22nm sein, und bei den Größen wird es sehr schwer die Chips weiter zu verkleinern. Gut möglich dass sich der Vorsprung von Intel dadurch deutlich vergrößert. Selbst wenn Sony dann erst ein Jahr nach der Einführung des neuen Prozesses von Intel mit Larrabees beliefert wird könnte man trotzdem noch ein Jahr oder mehr vor der Konkurrenz sein.

Gast
2009-02-07, 00:28:32
Wenn Intel wie geplant die 22nm Technik in 2011 einführt dann könnte Larrabee in der PS4 (geschätzt Q4/2012) auch schon in 22nm gefertigt werden.

http://www.computerbase.de/news/hardware/prozessoren/intel/2009/februar/32-nm-cpus_intel_jahr/

S940
2009-02-07, 01:53:07
Der Vorteil von lrb wäre doch v.a. der Raytracing Modus (so das so hinhaut wien es geplant ist), das wäre mal wieder graphisch was Neues. Gut möglich, dass sich Sony das exklusiv sicher will.

Intel hätte auch was davon -> Durchbruch für lrb & Massenmarkt.

ciao

Alex

deekey777
2009-02-07, 02:02:24
Schonwieder Raytracing...
Und woher soll man die Rechenleistung nehmen? RT verschlingt so viel an GFLOPs, dass es für die wichtigen Dinge wie realistische Materialshader kaum Leistung übrig bleibt. Dazu kommt, dass Einheiten, die "gewöhnliche" GPUs als Hardware haben, per Software "nachgemacht" werden.

Gast
2009-02-07, 02:21:29
Schonwieder Raytracing...
Und woher soll man die Rechenleistung nehmen? RT verschlingt so viel an GFLOPs, dass es für die wichtigen Dinge wie realistische Materialshader kaum Leistung übrig bleibt. Dazu kommt, dass Einheiten, die "gewöhnliche" GPUs als Hardware haben, per Software "nachgemacht" werden.

link?

deekey777
2009-02-07, 02:28:47
link?
http://www.heise.de/kiosk/archiv/ct/2008/15/156_kiosk

HarryHirsch
2009-02-07, 02:33:30
Das glaub ich so nicht. Hat wer 0,70€?
btw:
c't und 3D :D

deekey777
2009-02-07, 02:48:48
Das glaub ich so nicht. Hat wer 0,70€?
btw:
c't und 3D :D
Die Schätzung aus dem Artikel basiert auf Intels Schätzungen, und wenn Intel sagt, dass für die Qualität der heutigen Raster-Spielgrafik etwa 1.000.000.000 Strahlen pro Sekunde nötig ist (also mit allen Späßen wie Anti-Aliasing, weichen Schatten, AO usw).
Für die erste Q4-Demo, die mit 90 fps aber mit nur einem Stahl pro Pixel lief, wurden acht Kerne (zwei Xeons) mit insgesamt 100 GFLOPS (DP) verwendet. Für 24 Strahlen und nur 45 fps wären allein für RT etwa 1.2 TFLOPS nötig.
Wenn man davon ausgeht, dass LRB 1 mit 2 TFLOPS theoretischer Gesamtleistung kommen wird, dann wird er kräftig schwitzen müssen. Denn die übriggebliebenen 800 GFLOPS müssen für den Rest ausreichen. Das ist die Geometrie, Materialshader, Späße wie POM, Postprocessing usw. Hinzu kommt, dass ihm FF-Einheiten fehlen und seine In-Order-Architektur nicht die volle Rechenleistung entfalten lassen wird.

Edith: Das Haupteinsatzfeld von Larrabee ist Rasterizing und nicht Ray-Tracing

HarryHirsch
2009-02-07, 02:54:11
"2 TFLOPS" - lol
da hab ich heut schon mehr... oder was glaubst du hat ATI im Auge?

deekey777
2009-02-07, 03:00:48
2 TFLOPs bei 32 Kernen und 2 GHz, aber Fudo meinte, es werden 48. Bei 2 GHz wären wir bei 3 TFLOPs (und das bei einer Singlechip-Grafikkarte).

HarryHirsch
2009-02-07, 03:04:26
2 TFLOPs bei 32 Kernen und 2 GHz, aber Fudo meinte, es werden 48. Bei 2 GHz wären wir bei 3 TFLOPs (und das bei einer Singlechip-Grafikkarte).
na besser is! die TFLOPS sind ja das günstigste am ganzen

S940
2009-02-07, 04:00:48
Edith: Das Haupteinsatzfeld von Larrabee ist Rasterizing und nicht Ray-Tracing
Glaub ich nicht, wozu dann den ganzen Firlefanz betreiben, da könnte Intel doch ansonsten gleich eine normalen Raster GPU basteln.
Klar muss lrb auch die alte legacy DX Software darstellen können, aber mehr als ein Kombatibilitätsmodus ist das nicht. Die RV9xx und nV GT3xx sind da garantiert schneller :)

Die aktuellen Kern- und Leistungseinschätzungen beruhen alle auf 32nm, wer weiss schon, ob der Sony PS4 Vertrag nicht für den Nachfolger in 22nm gilt ...

Zur fehlenden Rechenleistung:
Vielleicht verfolgen sie ja den Wii Ansatz :)

ciao

Alex

Coda
2009-02-07, 06:49:57
"2 TFLOPS" - lol
da hab ich heut schon mehr... oder was glaubst du hat ATI im Auge?
TFLOP != TFLOP.

=Floi=
2009-02-07, 06:50:58
warum sollte sony das teil verbauen? das ist doch quatsch hoch 5. Die ganze architektur und alles basieren auf cell und der gpu von nv und bisher ist man damit ganz gut gefahren. Da kann man auch sehr viel bei der nächsten gpu wieder verwenden und das spart dann zeit und geld. Sony wird ganz sicherlich bei nv bleiben. Sony wird auch ganz genau dahin gehen wo die neuen xbox hinsteuert, denn dadurch kann man auch deren games leichter auf die eigene konsole portieren. (Die publisher überlegen sich ganz genau wo sie ihre games bringen
PC, Box, PS)

Ich sehe auch dx9 die nächsten jahre noch nicht sterben. (leider)

HarryHirsch
2009-02-07, 07:00:48
TFLOP != TFLOP.

Ich weiß worauf sie hinaus wollen.
its Intel

Coda
2009-02-07, 07:06:27
Ich weiß worauf sie hinaus wollen.
its Intel
Bitte?

Ich wollte dir nur klarmachen, dass die Angabe "TFLOP" nicht viel aussagt, wenn man unterschiedliche Architekturen vergleicht. Genauer gesagt: Gar nichts.

Eine GPU mit 1 TFLOP/s kann noch lange nicht gut raytracen, weil dafür ihre Pipelinekonfiguration nicht taugt.

HarryHirsch
2009-02-07, 07:12:43
Nix bitte.
We will see.

Edit:
Ich muss mich korrigieren. TFLOP/s |TFLOP/s

dust
2009-02-07, 08:19:13
hat eigentlich irgendeiner der raytracer pläne ihre berechnungen nach opencl zu portieren? dann könnte man abschätzen was die derzeitigen gpu bringen und was noch fehlt um raytracing in echtzeit in spielen zu machen.

Ailuros
2009-02-07, 08:45:03
Ich wollte dir nur klarmachen, dass die Angabe "TFLOP" nicht viel aussagt, wenn man unterschiedliche Architekturen vergleicht. Genauer gesagt: Gar nichts.

Stimmt; zwar nicht relevant aber nach meinem Verstaendnis ist LRB nur ueber MADD ergo 2 FLOPs/Takt fuer jede Einheit faehig.

Eine GPU mit 1 TFLOP/s kann noch lange nicht gut raytracen, weil dafür ihre Pipelinekonfiguration nicht taugt.

Man koennte locker OpenCL oder CUDA mit OpenGL mischen und nur da raytracen wo es auch wirklich Sinn macht.

Mike11
2009-02-07, 08:46:44
Ich kann mir das mit PS4 und Larrabee nur vorstellen falls Intel sozusagen ein "unmoralisches Angebot" gemacht hat:
GPU praktisch zum Unkostenpreis und mit Die-Shrink jeweils innerhalb eines Jahres nach Einführung eines neuen Prozesses :D

Ailuros
2009-02-07, 09:04:22
Ich leie mir mal ein anderes Beispiel: zwar wurde es noch nicht oeffentlich bestaetigt aber ich bin mir zu 100% sicher dass SONY fuer den PSP2 Imagination IP gekauft hat.

AFAIK denkt sich ein Hersteller wie SONY ein Konzept X aus fuer ein Geraet mit sehr spezifischer Groesse, die area fuer die Hardware, den Stromverbrauch und die Batterie-Groesse u.a.

Sie schaetzen also grob ein wo bei jedem Aspekt das hoechstmoegliche sein koennte und wenn sie mit einem Grafik-IHV verhandeln heisst es wir koennen bis soundsoviel die area fuer Grafik opfern, was koennt Ihr in diesem budget mit wieviel Leistung und wieviel Stromverbrauch genau herstellen. NVIDIA's Tegra ist vergleichsmaessig um einiges groesser als SGX und die zusaetzlichen Faehigkeiten mitberechnet ist es ziemlich klar warum SONY letztenendes SGX gewaehlt hat.

Es ist auch nicht anders bei den normalen Consolen; Intel hat mit Sicherheit alle Hersteller fuer LRB angesprochen und nein man zeigt praesentable HW und keine Papier-franzen in solch einem Fall. Damit fuer SONY und jeglichen anderen Hersteller LRB ueberhaupt eine Chance besteht, muss die oben erwaehnte komplizierte Kombination von die/area, Leistung, Stromverbrauch besser sein als bei der Konkurrenz.

Entschuldigt aber ich musste ueber den 22nm Unsinn nur lachen; Intel hat etwas handhaftes vorgezeigt und dieses ist auf keinen Fall auf 22/32 oder weiss der Geier welche unverfuegbaren Herstellungsprozesse momentan. Dabei kann sich SONY, Microsoft oder NINTENDO kinderleicht dann ausrechnen wie das Ganze mit zukuenftigen Herstellungsprozess X aussehen koennte.

Avalox
2009-02-07, 10:04:13
warum sollte sony das teil verbauen? das ist doch quatsch hoch 5. Die ganze architektur und alles basieren auf cell und der gpu von nv und bisher ist man damit ganz gut gefahren.


Ob sie damit ganz gut gefahren sind finde ich fraglich.
Ebenso wie bei Toshiba sollte der Cell vor allen in alle möglichen Consumer Geräte wandern, vom DVD Player, in den Fernseher, in das Autoradio usw.

Ist nicht viel geschehen seitdem. Sony wollte schon ein paar mal Cell abstoßen und kann sich gut möglich im nächsten Jahr komplett aus der Cell Entwicklung (http://winfuture.de/news,35592.html) zurück ziehen.

Was mich bei solch einen Larrabee doch überraschen würde, wäre wieder solch ein früher Einstieg. Die Technik hat bisher überhaupt nichts bewiesen, zudem ist diese "anders". Man weis nicht, ob diese pünktlich kommt und auch nicht ob diese hinreichend ausgereift kommt. Auch weis man nicht wie sie sich mit den Wettbewerbern schlagen wird.

Ehe man sich versieht wird eine PS4 das gleiche Debakel wie die PS3.
Obwohl dieses ja vermuten lässt, dass wirklich solch ein Deal im Hintergrund getätigt wurde. Nur Sony würde sowas fertig bringen. Wenn es solch einen Deal gibt, finde ich es ausgesprochen mutig.

Gast
2009-02-07, 11:46:25
Ich leie mir mal ein anderes Beispiel: zwar wurde es noch nicht oeffentlich bestaetigt aber ich bin mir zu 100% sicher dass SONY fuer den PSP2 Imagination IP gekauft hat.

AFAIK denkt sich ein Hersteller wie SONY ein Konzept X aus fuer ein Geraet mit sehr spezifischer Groesse, die area fuer die Hardware, den Stromverbrauch und die Batterie-Groesse u.a.

Sie schaetzen also grob ein wo bei jedem Aspekt das hoechstmoegliche sein koennte und wenn sie mit einem Grafik-IHV verhandeln heisst es wir koennen bis soundsoviel die area fuer Grafik opfern, was koennt Ihr in diesem budget mit wieviel Leistung und wieviel Stromverbrauch genau herstellen. NVIDIA's Tegra ist vergleichsmaessig um einiges groesser als SGX und die zusaetzlichen Faehigkeiten mitberechnet ist es ziemlich klar warum SONY letztenendes SGX gewaehlt hat.

Es ist auch nicht anders bei den normalen Consolen; Intel hat mit Sicherheit alle Hersteller fuer LRB angesprochen und nein man zeigt praesentable HW und keine Papier-franzen in solch einem Fall. Damit fuer SONY und jeglichen anderen Hersteller LRB ueberhaupt eine Chance besteht, muss die oben erwaehnte komplizierte Kombination von die/area, Leistung, Stromverbrauch besser sein als bei der Konkurrenz.

Entschuldigt aber ich musste ueber den 22nm Unsinn nur lachen; Intel hat etwas handhaftes vorgezeigt und dieses ist auf keinen Fall auf 22/32 oder weiss der Geier welche unverfuegbaren Herstellungsprozesse momentan. Dabei kann sich SONY, Microsoft oder NINTENDO kinderleicht dann ausrechnen wie das Ganze mit zukuenftigen Herstellungsprozess X aussehen koennte.
Hm, wie soll denn das mit der präsentablen HW funktionieren? Ich meine wenn die sich wirklich jetzt für eine GPU für 2012 entschieden haben welcher Hersteller konnte denn dann Hardware für einen Chip zeigen der erst in über 3 Jahren fertig ist (sollte er überhaupt gebaut werden im Falle eines Custom- oder stark angepaßtem Designs)? 3 Jahre sind ja fast zwei komplette echte Generationen (nicht nur refresh) heutzutage, das läßt sich dann ja auch schwer aus aktueller Hardware hochrechnen.

_DrillSarge]I[
2009-02-07, 11:51:37
ich denke, sony (oder irgendein anderer) stellt die anforderungen und schreibt dann aus: chip soll xyz füllrate haben, xxx speicher, featureset z etc.
dann, nach einer weile, schaut sich sony die produkte der firmen an (momentan ja eigentlich nur nv&amd, vielleicht bald auch intel) und entscheidet dann. die gpu-produzentenn werden schon viel r&d in sowas reinstecken, da dahinter große stückzahlen stecken.

Gast
2009-02-07, 12:34:12
http://www.computerbase.de/news/consumer_electronics/konsolen/sony/2009/februar/kein_intel-prozessor_playstation_4/

Gast
2009-02-07, 12:53:28
I[;7090525']ich denke, sony (oder irgendein anderer) stellt die anforderungen und schreibt dann aus: chip soll xyz füllrate haben, xxx speicher, featureset z etc.



Man könnte auch Lastenheft sagen.

iceman.s
2009-02-07, 13:30:14
Falls es stimmt mit Larrabee on PS4, dann muss man die Entscheidung wohl eher als Business Entscheidung betrachten, weniger als Ingenieurs Entscheidung. Für beide Seiten. Intel versucht schon lange im CE Bereich Fuß zu fassen, aber erst in letzter Zeit zeigen sich dort erste Erfolge.

Ich denke Sony soll für Intel im CE Bereich sein, was Apple im IT Bereich ist. Und der Deal würde wohl sehr ähnlich aussehen. So übernimmt ja Intel einen Teil der Entwicklungsarbeit für Apple. Also wenn Intel an der PS4 ist, dann als junior Partner.

Denkt euch doch mal in die Stelle von Sony rein! De facto hat man das aktuelle Konsolen Rennen verloren, aber die Schlacht über den DVD Nachfolger gewonnen. Für die nächsten 5-10 Jahre ist kein Nachfolger in Sicht, wird vermutlich auch nie kommen, auch wenn natürlich optische Medien Weiterentwickelt werden und in den Markt kommen werden, aber vermutlich wird es in der CE keine Rolle mehr spielen.
Ich denke Sony hat begriffen, das sie mit der PS3 keinen Blumentopf mehr gewinnen werden, außerdem ist die Marke PS3 beschädigt worden und die Fähigkeiten reichen nicht mehr für die nächste Evolutionsstufe der BluRay:
3D und 4k(2160p) Filme

Ich an Stelle von Sony würde alles in meiner Macht stehende tun, so schnell wie möglich Hardware und API-Schnittstellen zu spezifizieren, damit die Entwicklung entsprechender Spiele unverzüglich aufgenommen werden kann und man Zeitnah auf Konkurrenten reagieren kann.

Also wenn Charlie Demerjian Angaben stimmen und in meinen Augen machen sie sehr viel Sinn, dann wird wohl ein nicht zu übersehendes Intel Logo auf der PS4 Packung zu finden sein, vielleicht sogar prominent auf der Hardware selber.

Denken wie mal logisch nach. Angenommen die Komplette Entwicklung(Hard- & Software) der PS4 kostet 2 Milliarden US$ und Sony könne vielleicht die Hälfte einsparen, wenn Intel einen Teil schultert + Einsparungen an der BOM, denn vermutlich müsste Sony nur mehr oder weniger für die Umkosten der Herstellung aufkommen. Dann währe so ein Deal äußerst reizvoll für Sony. Geringere Entwicklungskosten PLUS geringere Herstellungskosten, das ist ein no brainer für Sony. Selbst wenn eine Nvidia Lösung etwas leistungsfähiger und schneller währe, warum sollten sie das tun und auf das ganze Geld verzichten?!? Außerdem sollte man ja nicht vergessen, das Sony schon immer etwas anders sein wollte. Eine Entscheidung zu Gunsten ATI oder Nvidia währe viel zu viel Mainstream, außerdem könnten sie an ihre ursprünglichen PS3 Pläne anknüpfen.

Ich denke, man kann schon mit hoher Wahrscheinlichkeit davon ausgehen, das Larrabee die GPU für die PS4 wird. Vermutlich dürfte ein Sandy Bridge Ableger als CPU dienen, denn nur so dürften sich die einsprechenden Einsparungen bei der Entwicklung einstellen. Es gibt nur einen Knackpunkt bei der ganzen Sache, die Rückwärtskompatibilität. Da gibt es 2 Möglichkeiten, entweder eine Softwarelösung über Code morphing, wahrscheinlich die bevorzugte Methode oder die PS4 bekommt noch einen CELL als Coprozessor.

Also ich für meinen Teil gehe erst mal davon aus, dass die PS4 auf Intel Technik basieren wird.

=Floi=
2009-02-08, 03:22:49
und genau da sehe ich den knachpunkt. Es ist längerfristig weniger von bedeutung, wie teuer die entwicklung war, sondern wie gut die platform von den entwicklern unterstützt wird. Zum lebensende der ps3 gibt es eben eine gute codebasis und eine stange von programmieren für die architektur der ps3. Das würde auch ab dem ersten tag der ps4 zugute kommen und mit einer abwertskompatibilität auch den zugriff auf alte spiele ermöglichen.

zitat
Ob sie damit ganz gut gefahren sind finde ich fraglich.
das ist aber wieder ein anderes thema und hier hast du schon recht. Ich bezog mich einfach nur auf die architektur und die die ansteuerung der gpu. Beim larrabee müsste man wieder besonderheiten beachten und eine neue codebasis schaffen.
Noch mal zurück zum RSX:
Ich glaube sony wurde einfach vom ati-chip überrascht. Da spielen auch verspätengen eine rolle und für damalige spiele war die gpu eben ganz gut. Die frage wäre eher, warum man sich nicht in richtung kleinem G80 entschieden hat und ob nv da sony einblick auf diese neue architektur gewährt hatte.
Darüber sollte man eigentlich einen eigenen thread aufmachen.

Ailuros
2009-02-08, 09:02:34
Hm, wie soll denn das mit der präsentablen HW funktionieren? Ich meine wenn die sich wirklich jetzt für eine GPU für 2012 entschieden haben welcher Hersteller konnte denn dann Hardware für einen Chip zeigen der erst in über 3 Jahren fertig ist (sollte er überhaupt gebaut werden im Falle eines Custom- oder stark angepaßtem Designs)? 3 Jahre sind ja fast zwei komplette echte Generationen (nicht nur refresh) heutzutage, das läßt sich dann ja auch schwer aus aktueller Hardware hochrechnen.

1. Intel hat Praesentations-samples.
2. Wird der erste LRB hoechstwahrscheinlich Ende 09'/Anfang 10' (letzteres ist wahrscheinlicher) erscheinen.
3. 3 Generationen von was genau? Wuerde heute ein Hersteller Architektur X lizenzieren, dann wird genau das was heute vorliegt nur auf einem kleineren Herstellungsprozess hergestellt.

Nimm den ATI Xenos als Beispiel; wann dieser ungefaehr lizenziert wurde und wann dieser letztendes in einer fertigen Console erschien; und ja auch ATI wie jeglicher andere IHV haben etwas vorzuzeigen sonst wird nicht eingekauft.

Gigapixel verlor vor Jahren den XBox1 Deal von Microsoft weil nur Papierfranzen vorhanden waren und es hat sich auch heutzutage nichts geaendert.

Ailuros
2009-02-08, 09:03:53
Also ich für meinen Teil gehe erst mal davon aus, dass die PS4 auf Intel Technik basieren wird.

Nein.

I[;7090525']ich denke, sony (oder irgendein anderer) stellt die anforderungen und schreibt dann aus: chip soll xyz füllrate haben, xxx speicher, featureset z etc.
dann, nach einer weile, schaut sich sony die produkte der firmen an (momentan ja eigentlich nur nv&amd, vielleicht bald auch intel) und entscheidet dann. die gpu-produzentenn werden schon viel r&d in sowas reinstecken, da dahinter große stückzahlen stecken.

Es ist schon passiert und man hat abgelehnt. IHVs entwickeln selten ausdruecklich eine getrennte Architektur fuer Consolen, obwohl das Resultat natuerlich dafuer angepasst wird. Aussnahme war als Beispiel Xenos der lediglich der alte stornierte "R400" fuer den desktop war.

Was die Consolen generell betrifft wuerde ich sagen dass es sein kann dass die Karten auf dem Tisch vielleicht neu gemischt werden zwischen AMD und NVIDIA, da die letztere einen noch nicht oeffentlichen Vertrag mit Nintendo abgeschlossen hat.

iceman.s
2009-02-08, 09:14:04
Also im Verlaub, sowas war noch nie ein Hinderungsgrund für einen Systemwechsel bei Konsolen. Man dürfte nur sehr wenige Konsolen finden, wo der Nachfolger mehr oder weniger eine direkte Weiterentwicklung des Vorgängers ist. Es war schon immer Politik der Konsolenhersteller, eine Hardware zu bauen, die das meiste für das Geld bot und das sich gefälligst die Entwickler an diese anzupassen haben. Microsoft hat zwar schon mehr oder weniger verlauten lassen, das der 360 Nachfolger eine Weiterentwicklung ist, aber deswegen muss Sony noch lange nicht das selbe tun.

Gerade weil die PS3 '2.Wahl' für die meisten Entwickler in dieser Generation ist, dürfte die Entscheidung doch sehr leicht fallen. Denn es dürfte nur sehr wenige Entwickler geben, die Hoch optimierten Code für die PS3 schreiben. Ein Großteil der Entwickler wird, wenn überhaupt, auf die Besonderheiten der PS3 Architektur nur über API's von Sony oder 3rd party developers zugreifen. Und die könnte man 'relativ' leicht nach PS4 portieren.

Auch ist fraglich, ob die Fähigkeit einer PS4 PS3 Spiele nutzen zu können, überhaupt noch eine große Bedeutung für Sony hat. In der PS3 ist dies ja aus Kostengründen auch schnell entfallen. Vermutlich dürften über 90% aller Käufer, die im ersten Jahr eine PS4 kaufen werden, schon über den Vorgänger verfügen. Also dürfte auch nur relativ wenig zusätzlicher Umsatz, durch so eine Funktion erzeugt werden. Bei Null Kosten oder sehr geringen, ist das mit Sicherheit drin, aber ansonsten wohl nicht mehr.

und genau da sehe ich den knachpunkt. Es ist längerfristig weniger von bedeutung, wie teuer die entwicklung war, sondern wie gut die platform von den entwicklern unterstützt wird. Zum lebensende der ps3 gibt es eben eine gute codebasis und eine stange von programmieren für die architektur der ps3. Das würde auch ab dem ersten tag der ps4 zugute kommen und mit einer abwertskompatibilität auch den zugriff auf alte spiele ermöglichen.

iceman.s
2009-02-08, 09:18:02
Wieso, wenn man fragen darf? Welches so gute Argument spricht dagegen?

Nein.

Ailuros
2009-02-08, 09:24:37
Wieso, wenn man fragen darf? Welches so gute Argument spricht dagegen?

Ueberhaupt kein Argument; es wird keine Console mit LRB geben. Was wie und warum wird sich mit der Zeit schon zeigen, aber in der Zwischenzeit waere es weise sich an SONY's sehr schnelle und sehr deutliche Reaktion auf INQ's Maerchen zu halten.

dust
2009-02-08, 09:25:40
Wieso, wenn man fragen darf? Welches so gute Argument spricht dagegen?

sony wird chips nehmen die zu einem bestimmten preis die meiste leistung bringt. da ist es völlig egal wer oder was das ist, ob wieder power basierend wie der cell oder x86 basierend wie ein lrb oder etwas völlig anderes.

iceman.s
2009-02-08, 12:38:52
Ueberhaupt kein Argument; es wird keine Console mit LRB geben. Was wie und warum wird sich mit der Zeit schon zeigen, aber in der Zwischenzeit waere es weise sich an SONY's sehr schnelle und sehr deutliche Reaktion auf INQ's Maerchen zu halten.

Na ja, nicht sehr überzeugend. Vielleicht spielt auch Sony nur Spielchen um Nvidia oder ATI bessere Konditionen abzuringen. Ich habe keine Verbindungen zu Sony, Intel, Nvidia oder Entwicklern, die involviert wären mit der PS4 oder Xbox 3. Also vielleicht weist du mehr als ich, aber so lange du diese Informationen nicht mit anderen Teils, ist alles Möglich für mich.

Und Dementis wurden schon so häufig von sich gegeben, das ist nun wirklich kein Argument dagegen. Um uns hier nicht falsch zu verstehen, ich bin kein Fan von Larrabee oder der Idee ihn vielleicht in PS4 zu verwenden aber auch nicht dagegen. Aus technischer Sicht macht es vielleicht weniger Sinn darüber zu diskutieren, man muss es in seiner Gesamtheit betrachten. Und potenzielle Einsparungen bei Entwicklung und Herstellung sind ein mächtiges Argument. Zumal anzunehmen ist, das mit dem 'Abgang' von PS Vater Ken Kutaragi, die Ingenieure sehr viel Weniger Macht haben werden, was die Entwicklung und Richtung der PS4 angeht.

iceman.s
2009-02-08, 12:50:32
sony wird chips nehmen die zu einem bestimmten preis die meiste leistung bringt. da ist es völlig egal wer oder was das ist, ob wieder power basierend wie der cell oder x86 basierend wie ein lrb oder etwas völlig anderes.

Das ist nur ein Faktor von vielen für die Entscheidungsfindung. Preis, Verfügbarkeit, Zuverlässigkeit, hohe Stückzahlen, thermisches Profil, Entwicklungskosten, Aufwand/Kosten PCB, Stromaufnahme, ...

Wenn Intel mit einem dicken Scheck winkt und zusagt Larrabee(2) wird in der selben Leistungsklasse sein, wie ein Chip der in der Xbox 3 Verwendung finden soll. Warum nein sagen? Sony ist mit Nvidia nicht verheiratet und die werden ihre Technik nie 'verschenken', das haben sie schon mehrmals deutlich gemacht.

Gast
2009-02-08, 12:52:31
Ueberhaupt kein Argument; es wird keine Console mit LRB geben. Was wie und warum wird sich mit der Zeit schon zeigen, aber in der Zwischenzeit waere es weise sich an SONY's sehr schnelle und sehr deutliche Reaktion auf INQ's Maerchen zu halten.
Hm, vielleicht kann ja Intel Apple überreden nächste Generation (ca. 2012) ins Konsolengeschäft einzusteigen, mit Intel als Junior/Hardware-Partner. Falls Intel Larrabee wirklich unbedingt pushen möchte und Microsoft oder Sony aus dem Konsolengeschäft aussteigen wäre das eine Möglichkeit. Was im IT Bereich geklappt hat könnte auch im CE Bereich funktionieren. Und Intel kann jetzt auch zum ersten mal die komplette Hardware Plattform für eine Konsole anbieten.

pixelguy
2009-02-08, 13:10:09
Ich bezweifle, dass Apple mal eben eine Konsole an den Start bringt...
Denen fehlt dazu einfach die komplette Infrastruktur und passende Partner im SW-Bereich. Ganz zu schweigen von der Erfahrung.

Sonst wäre das iPhone auch schon wesentlich länger ein PSP-Rivale.

Natürlich wäre es strategisch ein sehr guter Schachzug und eigentlich auch notwendig. Man bedenke, dass Apple einen großen Teil Ihrer Umsätze über iTunes machen. Wenn dieser Part bald über die Konsolen angeboten wird (Film-, und Audio), verliert Apple deutlich an Marktmacht... Ob man dafür aber unbedingt eine Spielekonsole braucht ist fraglich. Wahrscheinlich tut es auch ein etwas besseres Apple TV.

EDIT: ich könnte mir aber eine etwas andere Möglichkeit vorstellen... Nämlich ein rein Download basierendes gerät, welches über eine Art App-Store funktioniert. Wie bei dem iPhone... Wäre eher Apple-Typisch.

Aquaschaf
2009-02-08, 13:11:41
Wenn Apple eine Spielekonsole baut, dann fresse ich einen Besen. Mindestens. Das passt nicht ins Konzept von Apple und es wäre strategisch sehr dumm. Es sei denn sie wollen einfach aus Spaß tonnenweise Geld verbrennen.

pixelguy
2009-02-08, 13:12:46
Wie oben geschrieben, Evtl. wird es nur ein aufgebohrtes Apple TV mit App-Store. Für den ersten Start reicht es doch... :-)

dust
2009-02-08, 13:19:05
Das ist nur ein Faktor von vielen für die Entscheidungsfindung. Preis, Verfügbarkeit, Zuverlässigkeit, hohe Stückzahlen, thermisches Profil, Entwicklungskosten, Aufwand/Kosten PCB, Stromaufnahme, ...

Wenn Intel mit einem dicken Scheck winkt und zusagt Larrabee(2) wird in der selben Leistungsklasse sein, wie ein Chip der in der Xbox 3 Verwendung finden soll. Warum nein sagen? Sony ist mit Nvidia nicht verheiratet und die werden ihre Technik nie 'verschenken', das haben sie schon mehrmals deutlich gemacht.

mit kosten und leistung meinte ich gesamtkosten und die leistung die man dem kunden verkauft, da sind die von dir angeführten unterpunkte inkludiert.

dann müsste sony einen weiterentwickelten cell chip nehmen, es soll ein sony produkt sein das ein intel teil drinnen haben kann aber es darf kein intel produkt sein. ausserdem will sony eine bessere konsole als die konkurrenz haben, die werden sich nicht mit einem me too teil begnügen. eher würden sich sony und nintendo auf ein packl hauen als einfach eine ms kopie zu bauen.

iceman.s
2009-02-08, 13:44:24
mit kosten und leistung meinte ich gesamtkosten und die leistung die man dem kunden verkauft, da sind die von dir angeführten unterpunkte inkludiert.

dann müsste sony einen weiterentwickelten cell chip nehmen, es soll ein sony produkt sein das ein intel teil drinnen haben kann aber es darf kein intel produkt sein. ausserdem will sony eine bessere konsole als die konkurrenz haben, die werden sich nicht mit einem me too teil begnügen. eher würden sich sony und nintendo auf ein packl hauen als einfach eine ms kopie zu bauen.

Kommt jetzt auf die Betrachtungsweise an. Ich wollte nur ausdrücken, Shaderleistung/Preis = Preis-Leistung, so einfach ist es nicht.

Also wenn ich mich nicht Irre, dann scheint die Liebe Sony's zu CELL doch doch stark erkühlt zu sein. Ich würde nicht darauf zählen, das sie noch so groß ist, damit auf jeden Fall noch ein Cell in die PS4 kommt. Und CELL ist primär immer noch ein IBM Produkt. Sicherlich sind ordentliche Summen von Sony zu IBM geflossen, aber diese sind im Zusammenhang mit der PS3 Entwicklung abgeschrieben worden. Und CELL als Haupt-CPU war und ist eine dumme Idee. Ich kann mir eigentlich nicht vorstellen, das sie diesen Fehler wiederholen würden.

Nur Larrabee von Intel zu nehmen, halte ich auch nicht für Klug, aber im Zusammenhang mit Sandy/Ivy Bridge als CPU, macht es verdammt viel Sinn. Im Prinzip bräuchte man nur noch 3 größere Chips: Cpu mit MC & PCIe/QP Controller, Larrabee(2) und ein Multi-I/O-Chip für den Rest. Dazu noch RAM, BluRay und Festplatte und fertig ist die PS4.:smile:

Ich denke nicht, das Sony denkt: Es kann nicht sein, was nicht sein darf

deekey777
2009-02-08, 13:46:14
Zurück zum Thema: Larrabee. Und nur Larrabee.

dust
2009-02-08, 14:18:32
intels plan für den lrb ist zuerst den grafikworkstation markt zu bedienen, da hier die margen am grössten sind und erst ca. 1? jahr später den consumer markt zu bedienen.

abgesehen davon will ich endlich prototypen, benchmarks und beispielimplementierungen sehen...

_DrillSarge]I[
2009-02-08, 14:20:58
abgesehen davon will ich endlich prototypen, benchmarks und beispielimplementierungen sehen...
ich auch. man hat ja gar nix gezeigt. null. entweder ist das ding der oberkracher oder man hat gemerkt, dass es doch nicht so toll gegen nv/amd karten ankommt und überarbeitet es nochmal. :confused:

iceman.s
2009-02-08, 14:37:00
I[;7092743']ich auch. man hat ja gar nix gezeigt. null. entweder ist das ding der oberkracher oder man hat gemerkt, dass es doch nicht so toll gegen nv/amd karten ankommt und überarbeitet es nochmal. :confused:

Ich schätze, dass man schon intern über funktionierendes Silizium verfügt. Durch Simulation dürfte man auch schon recht genau wissen, wie der endgültige Larrabee wird. Nur dürften die Partner auch im Moment nicht mehr wissen und deswegen gibt es wohl momentan keine Leaks. Früher oder später muss Intel was rausrücken und dann wissen wir mehr.

Für weitere Diskussionen um PS4, Xbox 3, Wii HD und Apple TV 2, bitte hier hin:
Sammelthread WII HD, XBOX3 und Playstation 4 (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7092758)

=Floi=
2009-02-08, 18:00:50
Ich kann mir überhauptnicht vorstellen, wie intel da fuß fassen will mit einer neuen hardware im workstation markt. Das wird sich doch niemand freiwillig antun und auch die bewährten lösungen setzen. Da kommen die karten eher für leidensfähige spieler mit beta treibern. Da wird dann nicht so viel gejammert und gezahlt wird trotzdem.

wird lrb eigentlich neue features und techniken mitringen? Betrieb mit 4 monitoren pro karte? (HDMI oder DP) Wird es eine art sli/cf geben? (wie viele karten max?)

Ailuros
2009-02-09, 05:46:38
Na ja, nicht sehr überzeugend.

Selbst wenn ich handhafte Beweise haette, wuerde es Deine Meinung sowieso nicht aendern.

Vielleicht spielt auch Sony nur Spielchen um Nvidia oder ATI bessere Konditionen abzuringen. Ich habe keine Verbindungen zu Sony, Intel, Nvidia oder Entwicklern, die involviert wären mit der PS4 oder Xbox 3. Also vielleicht weist du mehr als ich, aber so lange du diese Informationen nicht mit anderen Teils, ist alles Möglich für mich.

Ich kann und will nicht jeglichen Fetzen nur so herausblubbern. Wer zwischen den Zeilen lesen kann, hat schon verstanden auf was ich hinaus will; die LRB Architektur hat einen grossen Nachteil die nur rotes Licht fuer jeglichen Consolen-Hersteller bedeutet.

Und Dementis wurden schon so häufig von sich gegeben, das ist nun wirklich kein Argument dagegen. Um uns hier nicht falsch zu verstehen, ich bin kein Fan von Larrabee oder der Idee ihn vielleicht in PS4 zu verwenden aber auch nicht dagegen. Aus technischer Sicht macht es vielleicht weniger Sinn darüber zu diskutieren, man muss es in seiner Gesamtheit betrachten. Und potenzielle Einsparungen bei Entwicklung und Herstellung sind ein mächtiges Argument. Zumal anzunehmen ist, das mit dem 'Abgang' von PS Vater Ken Kutaragi, die Ingenieure sehr viel Weniger Macht haben werden, was die Entwicklung und Richtung der PS4 angeht.

Solche Aspekte sind Kleinigkeiten fuer grosse Hersteller fuer SONY. Wenn alles unter der Rechnung fuer Loesung X stimmt dann ist es SONY oder jeglichem anderem Hersteller scheissegal ob X vom Teufel selbst hergestellt wird.

Dem abgesehen hat SONY seit Jahren eingesehen dass sie trotz allem GPU IP einkaufen muessen und dass das "in house developed" Material eben nicht mehr gut genug ist. Deshalb greifen sie auch sowohl fuer die naechste Generation Console als auch fuer die naechste Generation handheld (siehe PSP2) zu IP von dritten Firmen.

I[;7092743']ich auch. man hat ja gar nix gezeigt. null. entweder ist das ding der oberkracher oder man hat gemerkt, dass es doch nicht so toll gegen nv/amd karten ankommt und überarbeitet es nochmal. :confused:

Welcher IHV hat bis jetzt Leistungsdaten ca. ein Jahr vor dem Launch jeglicher Architektur vorgestellt? Es geht nicht um die Leistung; denkt mal ein bisschen schaerfer nach so schwer wird es nicht sein es herauszulesen.

BlackBirdSR
2009-02-10, 07:37:22
Es geht nicht um die Leistung; denkt mal ein bisschen schaerfer nach so schwer wird es nicht sein es herauszulesen.

Wenn ich richtig zwischen den Zeilen lese, geht es schon um -Leistung, nur eben nicht um diese Leistung ;)

turboschlumpf
2009-02-10, 15:24:46
Zum Thema Larrabee und PS4:

Sony hat bei Entwicklung und Verkauf der PS3 Milliardenverluste gemacht. Das passiert denen nicht ein zweites Mal. Wenn Intel nun die Taschen aufmacht und Larrabee mit ein oder zwei Milliarden Dollar versüßt, dann gibt es für Sony da nicht viel zu überlegen.

In Anbetracht der Tatsache, dass es sich bei Larrabee für Intel um ein immens wichtiges strategisches Produkt handelt, halte ich diesen Betrag für nicht unrealistisch. Zumal eine Konsole der absolute Jackpot ist, wenn es darum geht Larrabee in den Markt zu drücken. Das íst wie ein Katapultstart vom Flugzeugträger.

AMD kann sich solche Subventionen finanziell nicht leisten und Jen-Hsun ist viel zu arrogant dafür. Ob er da mal nicht die strategische Tragweite dieses Deals unterschätzt.

darkvader
2009-02-10, 15:48:35
Dem Markt ist es vollkommen egal welcher Chip in einer Konsole steckt - sorry, aber ich glaube da überschätzen viele die Macht einer Konsole.
Kein Mensch geht in den Laden und sagt "Ich will einen ATI Chip, mit dem hab ich auf der Wii auch soviel Spass".
Und dass die Durchdringung bei den Entwicklern damit besser wird ist auch überschätzt, denn in 99% aller Fälle wird eh für Multiplattformen entwickelt, und damit läufts dann auch auf allen anderen Geräten.

dust
2009-02-10, 15:53:54
Zum Thema Larrabee und PS4:

Sony hat bei Entwicklung und Verkauf der PS3 Milliardenverluste gemacht. Das passiert denen nicht ein zweites Mal. Wenn Intel nun die Taschen aufmacht und Larrabee mit ein oder zwei Milliarden Dollar versüßt, dann gibt es für Sony da nicht viel zu überlegen.

In Anbetracht der Tatsache, dass es sich bei Larrabee für Intel um ein immens wichtiges strategisches Produkt handelt, halte ich diesen Betrag für nicht unrealistisch. Zumal eine Konsole der absolute Jackpot ist, wenn es darum geht Larrabee in den Markt zu drücken. Das íst wie ein Katapultstart vom Flugzeugträger.

AMD kann sich solche Subventionen finanziell nicht leisten und Jen-Hsun ist viel zu arrogant dafür. Ob er da mal nicht die strategische Tragweite dieses Deals unterschätzt.

das kann ibm mit einem verbesserten cell aber auch machen, nicht nur intel. warum sollte sony das cell knowhow wegschmeissen und mit x86 alles wieder neu lernen müssen?

lrb hat nur den vorteil ein x86 zu sein in einer x86 welt...

turboschlumpf
2009-02-10, 16:34:39
Dem Markt ist es vollkommen egal welcher Chip in einer Konsole steckt - sorry, aber ich glaube da überschätzen viele die Macht einer Konsole.
Kein Mensch geht in den Laden und sagt "Ich will einen ATI Chip, mit dem hab ich auf der Wii auch soviel Spass".
Darum geht es auch überhaupt nicht!
das kann ibm mit einem verbesserten cell aber auch machen, nicht nur intel. warum sollte sony das cell knowhow wegschmeissen und mit x86 alles wieder neu lernen müssen?
Es geht um die GPU und nicht um die CPU!

darkvader
2009-02-10, 16:36:43
Darum geht es auch überhaupt nicht!



Und worum geht es dann? Welchen unmittelbaren Nutzen soll Intel bitte daraus ziehen?

haifisch1896
2009-02-10, 18:29:28
Lässt sich mit PPC-Code für den Hauptprozessor denn die Grafik problemlos in x86 ansprechen?

Coda
2009-02-10, 18:48:31
Ja.

Demogod
2009-02-10, 19:50:48
2 Gedanken:
a) wird es bestimmt WENN dann eh LRB 2 sein
b) ist doch eh fraglich, ob wieder ein Design wie bei PS3 hergenommen wird (1 PPC Kern + manycore)

Coda
2009-02-10, 21:49:11
Es wird sowieso kein Larrabee ;)

Demogod
2009-02-10, 23:06:27
Hmm meinste nicht?
Wäre halt günstig einzukaufen und gute Devtools wären vermutlich auch von Anfang an am Start.

Coda
2009-02-10, 23:10:20
Wäre halt günstig einzukaufen
Günstig? Intel wird niemals IP dafür rausrücken und solange sie alleine nur den Chip fertigen können macht sich Sony komplett von den von Intel diktierten Preisen abhängig.

Den Fehler hat Microsoft schon mal gemacht.

Ailuros
2009-02-11, 07:13:36
Coda,

Wenn Intel selbst die geringste Chance bestehen wuerde, dann waeren sie (rein hypothetisch) schoen bloed wenn sie nicht zu einem Rueckschritt fuer IP machen wuerden.

misterh
2009-02-13, 07:18:51
falls ihr das schon kennt, ignorieren.

http://download.intel.com/technology/architecture-silicon/Siggraph_Larrabee_paper.pdf

http://download.intel.com/technology/architecture-silicon/GamePhysicsOnLarrabee_paper.pdf

KonKorT
2009-02-21, 02:23:07
Hier ein deutscher Bericht über die Larrabee-Architektur, der schwerpunktmäßig die Larrabee-Cores, Cache, SMT, Interconnect Ring-Network, VPU und Fixed-Function-Logic behandelt.

Intel Larrabee-Architektur (http://www.hardware-infos.com/berichte.php?bericht=40)

GeneralHanno
2009-02-21, 12:18:24
schöner artikel. leider kaum tiefgreifende informationen über die "urfunktionen" einer GPU ... z.b. die TUs

was die spieleleistung angeht mache ich mir keine zu großen hoffnungen!

deekey777
2009-02-21, 13:15:56
schöner artikel. leider kaum tiefgreifende informationen über die "urfunktionen" einer GPU ... z.b. die TUs
...
Weil sie unter NDA sind (genau wie die Anzahl der Cores usw).

Ailuros
2009-02-21, 13:24:35
Weil sie unter NDA sind (genau wie die Anzahl der Cores usw).

Zumindest ist es um einiges mehr bekannt ueber die Architektur als was die zukuenftigen D3D11 GPUs von AMD/NVIDIA betrifft.

KonKorT
2009-02-21, 13:54:33
Richtig, da zeigt sich mal wieder die offene Intel-Politik.

Andererseits könnte man aber auch sagen: Intel muss was zeigen; die haben bisher auf dem Genre nämlich nichts vorzeigen können im Gegensatz zu AMD und Nvidia.

GeneralHanno
2009-02-21, 14:30:22
nvidia und amd MÜSSEN ihre aktuellen chips verkaufen, intel hat nix im portfolio, also können sie schonmal die kunden scharf machen ... ;)

AnarchX
2009-03-04, 11:06:47
2010: XFX Extreme GMA G6900 XXX Edition? (http://www.computerbase.de/news/hardware/grafikkarten/2009/maerz/xfx_larrabee-grafikkarten/)

Ailuros
2009-03-04, 11:49:19
2010: XFX Extreme GMA G6900 XXX Edition? (http://www.computerbase.de/news/hardware/grafikkarten/2009/maerz/xfx_larrabee-grafikkarten/)

Das einzige interessante an dem newsblurb ist 2010. Dass Intel etwas besseres als 45nm braucht fuer LRB ist ja auch nichts Neues.

maaks
2009-03-09, 13:40:24
Ich war auf der Cebit und habe mal versucht am Intel Stand an Informationen zu kommen. Der Herr mit dem ich gesprochen habe hat, wie zu erwarten war, nicht viel gesagt. Meiner Meinung nach wusste er aber auf jeden Fall mehr, als er sagen durfte.

Was er bestätigt hat war folgendes:
- Larrabee kommt 2010 (genauer wollte er sich, auch nachdem ich nochmal nachgehackt habe, nicht festlegen)
- Es wird eine Grafikkarte geben

haifisch1896
2009-03-09, 16:40:42
Intel muss was zeigen; die haben bisher auf dem Genre nämlich nichts vorzeigen können im Gegensatz zu AMD und Nvidia.

Für den Anfang tut es Mainstream-Hardware, um "bekannt" zu werden.
Höheres Terretorium kann man immernoch danach betreten.

Zudem glaube ich trotzdem nicht, dass das eine Spielerkarte werden soll, wie einige Quellen meinen, sondern eher ein billiger und möglichst stromsparender Numbercruncher.

deekey777
2009-03-09, 17:15:37
Caustic-Diskussion: http://www.forum-3dcenter.org/vbulletin/showthread.php?t=449590

josefYY
2009-03-10, 13:42:40
Hier mal ein interessantes Zitat aus einem Forum:

"I think my contracts forbid me to talk about any specifics regarding LRB, however I do believe that it has the potential to be the market leader when it comes out."
http://ompf.org/forum/viewtopic.php?f=3&t=904&sid=6075e5f8de9bc13863bd4cf6081fc2ba&start=200

Autor dieses Zitates ist Jon Olick einer der Programmierer bei iD-Software.

Ailuros
2009-03-11, 07:26:03
Hier mal ein interessantes Zitat aus einem Forum:

"I think my contracts forbid me to talk about any specifics regarding LRB, however I do believe that it has the potential to be the market leader when it comes out."
http://ompf.org/forum/viewtopic.php?f=3&t=904&sid=6075e5f8de9bc13863bd4cf6081fc2ba&start=200

Autor dieses Zitates ist Jon Olick einer der Programmierer bei iD-Software.

Dieser Satz reicht eigentlich:

However its impossible to tell without real hardware in hand.

Im spezifischen Thread erwaehnt er mehr als einmal dass theoretische LRB einen Vorteil dank grossen caches fuer voxels haben wird. Er schliesst aber nirgends aus dass die anderen naechster Generation GPUs mit genauso kleinen caches wie heute ankommen werden.

josefYY
2009-03-11, 09:43:25
Dieser Satz reicht eigentlich:



Im spezifischen Thread erwaehnt er mehr als einmal dass theoretische LRB einen Vorteil dank grossen caches fuer voxels haben wird. Er schliesst aber nirgends aus dass die anderen naechster Generation GPUs mit genauso kleinen caches wie heute ankommen werden.
Bedenke dass das von dir erwähnte Zitat von Juli 2008 ist.
Mein erwähntes Zitat jedoch von letzter Woche. Dazwischen liegen immerhin 9 Monate. Vielleicht weiss der gute Mann ja mittlerweile deutlich mehr als er vor 9 Monaten wusste, oder hat womöglich gar Zugriff auf Hardware.
Fachlich will ich mich an der Diskussion sowieso nicht beteiligen, dafür fehlt mir das Knowhow :smile:

Ailuros
2009-03-11, 10:00:23
Ein Entwickler beschaeftigt sich wohl schwer oder eher selten mit Einzelheiten wie perf/mm2, perf/Watt oder sogar perf/$. Selbst wenn koennte er Dir sowieso auf keine relevante Frage dank NDA antworten.

IMHLO scheint Intel in allen drei Bereichen ein Problem zu haben. Erstens ist 32nm wohl lebenswichtig fuer LRB sonst wuerde das Ding auch eher Ende 2009 antanzen und zweitens egal was Intel selber behauptet mit perf/$ hat TSMC einen ziemlich guten Vorteil.

Intel hat zwar einen Vertrag mit TSMC abgeschlossen aber eher nur fuer notebook/Atom Zeug wobei jegliche integrierte Grafik sowieso nicht das geringste mit LRB zu tun hat. Es sind entweder IGPs aus dem chipset team oder IMG IP.

Unter "Markfuehrer" verstehe ich persoenlich etwas anderes als nur jegliche moegliche Flexibilitaet bei der Programmierung. Oben erwaehnte Faktoren und auch viele andere zaehlen erstmal mit.

RLZ
2009-03-23, 11:02:31
Wohl nur für wenige interessant. :)
http://software.intel.com/en-us/articles/prototype-primitives-guide/

Friedhelm
2009-03-26, 13:51:20
Darum geht es auch überhaupt nicht!

Es geht um die GPU und nicht um die CPU!
Ich denke, er meinte, daß in der PS4 auch die Grafik von einem zukünftigen Cell übernommen werden könnte.


Falls es überhaupt noch eine PS4 geben wird.

Ailuros
2009-03-27, 08:30:37
Wohl nur für wenige interessant. :)
http://software.intel.com/en-us/articles/prototype-primitives-guide/

Relevante Debatte fuer diejenigen die verstehen um was es sich handelt (ich auf jeden Fall nicht...):

http://forum.beyond3d.com/showthread.php?t=53542

-----------------------------------------------------------------------

Irgendwie hab ich trotz allem das Gefuehl dass das generelle Interesse in LRB fuer HPC etwas gesetzt hat. Hat Intel bis jetzt ueberzeugen koennen dass LRB alle Probleme loesen wird und dass x86 wirklich alles leichter machen wird? Ich wuerde nein sagen, lasse mich aber gerne eines besseren belehren.

Gast
2009-03-27, 11:53:50
Irgendwie hab ich trotz allem das Gefuehl dass das generelle Interesse in LRB fuer HPC etwas gesetzt hat. Hat Intel bis jetzt ueberzeugen koennen dass LRB alle Probleme loesen wird und dass x86 wirklich alles leichter machen wird? Ich wuerde nein sagen, lasse mich aber gerne eines besseren belehren.
Gegenfrage: Hast du was negatives gehört? Oder sind es einfach nur viel weniger Aussagen?
(was bedeuten würde, dass es gibt einen Grund geben muss, warum sich weniger Leute darüber äußern ;) )

=Floi=
2009-03-27, 11:57:33
nvidia ist da eben etablierter und macht mehr beim support. Ein neues system baut niemand gerne auf und das gleiche problem hat ja auch ati.
Da wird sicherlich jeder erst einmal die 2. oder 3. generation abwarten. Es ist ja bei anderen dingen auch nicht anders und ein produktivsystem muß vor allem fehlerfrei laufen.

Ailuros
2009-03-27, 12:23:11
Gegenfrage: Hast du was negatives gehört? Oder sind es einfach nur viel weniger Aussagen?
(was bedeuten würde, dass es gibt einen Grund geben muss, warum sich weniger Leute darüber äußern ;) )

Negativ nicht unbedingt. Es scheint sich lediglich die erste Begeisterung ueber LRB etwas gesetzt zu haben. Diese koennte sich natuerlich nach der offiziellen Vorstellung aendern. Trotz allem scheint keiner darauf zu warten und Floi hat in relativem Sinn schon den Nagel auf den Kopf getroffen.

deekey777
2009-03-28, 01:32:39
http://venturebeat.com/2009/03/27/intels-larrabee-graphics-processor-draws-a-crowd-at-game-developers-conference/

Abrash said that Larrabee isn’t likely to be as fast at raw graphics performance as other graphics chips, but it is power-efficient and flexible. It’s just another day in the graphics chip war.
Kommt mir bekannt vor.

Ach, was zum Lachen oder Weinen:
Intel accused of using gamesmanship to force Nvidia out of the market, Drew Henry discusses Nvidia counter suit (http://www.digitimes.com/news/a20090327VL200.html)
Nvidia believes that Intel is using Nvidia IP in currently shipping IGP products and the company also believes that Intel would not be able to develop its Larrabee graphics chips without making use of Nvidia's IP portfolio, said Henry. Henry went on to say that, Nvidia may ask the courts to terminate Intel's rights to these IPs in the event that it is found that Intel is in beech of contract.
;(

Ailuros
2009-03-28, 08:00:09
Abrash said that Larrabee isn’t likely to be as fast at raw graphics performance as other graphics chips, but it is power-efficient and flexible. It’s just another day in the graphics chip war.

Reality check ahoi. Die Grafik-Leistung koennte durchaus gleich so hoch oder sogar hoeher als die der zukuenftigen D3D11 GPUs sein, nur wuerde der Stromverbrauch in diesem Fall aus der Decke schiessen.

So etwas ist bei weitem nicht "power-efficient". Man musste es lediglich so stark kastrieren, dass es nach aussen auch so aussieht.

Diejenigen die etwas in der Region von =/>64 cores als Beispiel mit extravaganten Frequenzen erwartet haben, muessen sich wohl diesem "reality check" anschliessen.

***edit: zum zweiten...Intel sollte IMHLO die chipset Abteilung endlich fuer etwas anderes umschaufeln. Da LRB nicht danach aussieht dass man es fuer SoCs nach unten skalieren koennte, koennten sie mit dem heutigen vorhandenen IMG IP ziemlich viel Dampf unter ihren Hintern legen fuer alle zukuenftigen SoCs und auch jegliche zukuenftige rechtliche (aeusserst laecherliche) Patentzankerei mit anderen vermeiden. Ich kann mir bei bestem Willen nicht vorstellen was fuer NV IP Intel's IGPs haben koennten...

Demirug
2009-03-28, 09:30:54
Nvidia hat genau wie AMD/ATI soviel grundlegenden 3D Grafikpatente das man eigentlich fast zwangsweise was davon verletzte. Nur gibt es zwischen die etablierten Hersteller sowas wie ein stillschweigendes Patentaustauschabkommen. Wer in diesen exklusiven Club will muss was mitbringen. Für die schwachen Intel IGPs hat wohl bisher eine Chipsatz Lizenz gereicht. Für Larrabee müssen sie aber vielleicht mehr rausrücken. Es könnte durchaus sein das nvidia auf eine X86 Lizenz besteht. Vor dem gleichen Hintergrund könnten auch die derzeitigen Streitereien von AMD und Intel zu sehen sein. Intel scheint die Situation nutzen zu wollen um sich auch für die ATI Patente von AMD einen Freibrief zu holen. Scheint mir daher alles nur das übliche Kettengerassel

Coda
2009-03-28, 14:12:52
Umgeht Intel aber nicht auch viel indem sie es in Software implementieren?

Ailuros
2009-03-29, 09:32:25
Umgeht Intel aber nicht auch viel indem sie es in Software implementieren?

So wie es Demirug oben beschreibt kann ich mir gut vorstellen was fuer ein absurdes gerichtliches hin und her es geben koennte, bis sich beide auf einen Patent-Austausch einigen und jeder bekommt was er braucht.

AnarchX
2009-03-30, 10:43:21
Eine ziemlich Umfangreiche Sammlung an Intel Folien über die Architektur von Larrabee und deren Funktionsweisen von der aktuellen GDC:
http://translate.google.ch/translate?u=http%3A%2F%2Fpc.watch.impress.co.jp%2Fdocs%2F2009%2F0330%2Fkaigai498 .htm%3Fref%3Drss&sl=ja&tl=de&hl=de&ie=UTF-8

BlackBirdSR
2009-03-30, 13:25:08
Hmm nur Single-Precision in einem Durchgang. Das Ding könnte also (ähnlich wie Cell) einen Großteil seiner Vektorleistung bei Double-Precision einbüßen.

Interessant wird auch, ob der x86-Kern über eine FPU verfügt (übernimmt entweder die Primary-ALU oder die Vektoreinheit) und ob es wirklich schnell genug ist, um ein aktuelles Betriebsystem alleine zu starten und zu betreiben. Atom kann es, aber ich gehe davon aus, dass dieser Kern noch um einiges langsamer sein wird. Zumindest lese ich raus, dass pro Takt nur eine Instruktion an den x86-Kern gehen kann, die andere geht an die Vektoreinheit. Ich frage mich auch, ob Intel den Kern auf 64Bit erweitert hat.

Sollte es trotzdem gut funktionieren, wären Entwicklersysteme denkbar, die nur über ein LRB-Karte, etwas Speicher und eine SSD/USB-Flash als Storage verfügen. Passt in ein Netbookge Gehäuse:tongue: Fusion is Now;D

AnarchX
2009-03-30, 14:09:21
AFAIK war die aktuelle Spekulation doch, dass für DP zwei Takte benötigt werde und das wäre immer noch eine ganze Menge Leistung.

BlackBirdSR
2009-03-30, 14:13:30
AFAIK war die aktuelle Spekulation doch, dass für DP zwei Takte benötigt werde und das wäre immer noch eine ganze Menge Leistung.

Natürlich, fragt sich nur, ob das weitere Auswirkungen auf die Latenz und deren Verschleierung hat. Wir werden es sehen. Bleibt eh offen, ob AMD oder Nvidia bis dahin vergleichbar starke FP64-HW haben.

Coda
2009-03-30, 14:38:18
Interessant wird auch, ob der x86-Kern über eine FPU verfügt (übernimmt entweder die Primary-ALU oder die Vektoreinheit) und ob es wirklich schnell genug ist, um ein aktuelles Betriebsystem alleine zu starten und zu betreiben. Atom kann es, aber ich gehe davon aus, dass dieser Kern noch um einiges langsamer sein wird. Zumindest lese ich raus, dass pro Takt nur eine Instruktion an den x86-Kern gehen kann, die andere geht an die Vektoreinheit. Ich frage mich auch, ob Intel den Kern auf 64Bit erweitert hat.
Schau dir das Schaubild nochmal an. Beide Ports sind sowohl an Vektoreinheit- als auch an den Rest angebunden:
http://pc.watch.impress.co.jp/docs/2009/0330/kaigai498_01.jpg

Du hast schon recht, dass in einem Takt "x86"+Vec möglich ist, aber auch "x86"+"x86" oder Vec+Vec.

64 bit muss es geben, weil Intel die Speicherräume von CPU und Larrabee zusammenlegen will.

Ailuros
2009-03-31, 08:26:53
Sollte es trotzdem gut funktionieren, wären Entwicklersysteme denkbar, die nur über ein LRB-Karte, etwas Speicher und eine SSD/USB-Flash als Storage verfügen. Passt in ein Netbookge Gehäuse:tongue: Fusion is Now;D

Intel wird wohl eher weiterhin auf SoCs setzen. Was fuer einen TDP hat denn das neueste SoC mit der 32nm CPU und 45nm IGP?

The Jackal
2009-04-05, 08:47:05
Still ist es geworden um Larrabee seitens Intel. Die rücken ja garkeine Infos mehr raus.

GeneralHanno
2009-04-05, 19:32:17
heiß und fettig ;)
http://www.pcgameshardware.de/aid,680522/Neues-zu-Intels-Grafikkarte-Larrabee-von-der-GDC-2009/Grafikkarte/News/

Spasstiger
2009-04-09, 00:30:52
Hier ein Wafershot:

http://www.computerbase.de/news/hardware/grafikkarten/2009/april/idf_intel_larrabee-wafer/

Ich komme da auf grob geschätzt 23 mm * 15 mm = 345 mm² pro Die. In 45 nm und bei einer Transistordichte irgendwo zwischen dem GT200b (3,0 Mio./mm²) RV770 (3,7 Mio./mm²) und dem komm ich da auf einen Transistorcount von ungefähr (55/45)²*345*3 Mio. = 1,55 Mrd. bis (55/45)²*345*3,7 Mio. = 1,91 Mrd.
Also grob geschätzt 1,7±0,2 Mrd. Transistoren.

_DrillSarge]I[
2009-04-09, 00:36:31
Hier lässt sich Intel auch auf dem aktuellen IDF noch nicht genauer in die Karten schauen, die Folie lässt aber vermuten, dass es wohl 64 Kerne sein könnten.
keine ahnung, woher die info ist und ob es stimmt, aber intel hatte ja mal gerade von der hälfte zu anfang gesprochen. :D Angst?

zu die-size etc: itanium der gpus ;D

Coda
2009-04-09, 00:38:43
Mit 345mm²? GT200 hat 576mm².

Spasstiger
2009-04-09, 00:40:47
I[;7224571']zu die-size etc: itanium der gpus ;D
Naja, bis zum Larrabee-Release gibts ja vermutlich auch schon den GT300 mit 2,5-3 Mrd. Transistoren und den RV870 mit vermutlich auch mehr als 2 Mrd. Transistoren. Da wirkt der Larrabee mit unter 2 Mrd. Transistoren dann eher wie der Benjamin im Bund der High-End-GPUs. Und ich würde für den Larrabee auf jeden Fall eine eher pessimistische Schätzung des Transistoraccounts ansetzen, weil sie vermutlich eher hohe Taktraten anpeilen (2 GHz für den Shadercore).

An 64 SIMD-Einheiten glaube ich übrigens auch nicht, damit käme man bei 2 GHz auf 4 Teraflops. Die 64 SIMD-Einheiten sind wohl eher eine Hochrechnung von Intel oder eine Messung mit einem Multi-Prozessor-Verbund.
64 512-Bit-SIMD-Cores würden vermutlich auch den abgeschätzten Transistorcount sprengen, wenn man bedenkt, dass eine GPU nicht nur aus dem Shadercore besteht. 64 512-Bit-SIMD-Cores wären umgerechnet 1024 "Streamprozessoren", die auf hohe Taktraten optimiert sein sollen. NV bringt auf dem GT200(b) @ 1,4 Mrd. Transistoren nur 240 solcher "Streamprozessoren" unter.
Aber vielleicht überrascht uns Intel auch und schlägt eher den AMD/ATI-Weg ein. Wobei man dann auch nur mit 1 GHz Taktfrequenz rechnen sollte - womit wir wieder bei den spekulierten 2 Teraflops wären. ;)

Coda
2009-04-09, 00:50:59
Der GT200b von Nvidia hat sozusagen 10 768-Bit-SIMD-Cores und kommt damit auch schon auf 1,4 Mrd. Transistoren.
Nein. Er hat 30 mit 256 Bit. Die drei ALUs pro TMU-Block laufen unabhängig.

Allerdings sind es eher 30 mit 1024 Bit, weil immer gleich 32 Floats in 4 Takten verarbeitet werden.

Spasstiger
2009-04-09, 00:55:16
Nein. Er hat 30 mit 256 Bit. Die drei ALUs pro TMU-Block laufen unabhängig.
Ich hab das Ganze nochmal überarbeitet und mich direkt anders ausgedrückt. Wird hier sonst zu verwirrend. ;)

Coda
2009-04-09, 00:58:08
Aber vielleicht überrascht uns Intel auch und schlägt eher den AMD/ATI-Weg ein.
Was meinst du damit?

Spasstiger
2009-04-09, 00:58:52
Was meinst du damit?
Transistoreffiziente, aber dafür weniger leistungseffiziente und weniger taktfreudige SIMD-Prozessoren.

Coda
2009-04-09, 01:01:02
Nö, es werden bei Larrabee immer 4 Quads durch das Shading gelassen. Es ist also genauso wie bei NVIDIA derzeit - Skalar.

Es gibt keinen guten Grund warum ATIs Einheiten transistorsparender sein sollten. Das ist eine reine Optimierungsfrage. Intel hat aber ohne Frage natürlich exzellente Schaltungsdesigner.

Spasstiger
2009-04-09, 01:07:54
Es gibt keinen guten Grund warum ATIs Einheiten transistorsparender sein sollten.
AMD bekommt auf einem Chip mit knapp 1 Mrd. Transistoren 1600 MADDs unter, NV dagegen auf einem Chip mit 1,4 Mrd. Transistoren nur 480 MADDs + 240 MULs. Der Shadercore von NV sieht sicherlich auch auf der Gatterebene etwas anders aus als der von AMD/ATI. Dafür spricht ja auch die bessere Taktfreudigkeit.

Coda
2009-04-09, 01:11:23
AMD bekommt auf einem Chip mit knapp 1 Mrd. Transistoren 1600 MADDs unter, NV dagegen auf einem Chip mit 1,4 Mrd. Transistoren nur 480 MADDs + 240 MULs.
Ich glaube nicht dass das an der Schaltung an sich liegt. ATI hat einfach von RV670 wirklich alles daran gesetzt alles zu verkleinern.

NVIDIA hat Däumchen gedreht. Die Transistoren/mm² sind bei GT200 einfach miserabel.

Spasstiger
2009-04-09, 01:23:40
NVIDIA hat Däumchen gedreht. Die Transistoren/mm² sind bei GT200 einfach miserabel.
Das steht ja wieder auf einem anderen Blatt und habe ich auch gar nicht angesprochen. Mir gings ja rein um Einheiten/OPs pro Transistor.
Weißt du eigentlich, was NV für so eine MADD+MUL-Einheit an Transistoren aufwendet? Ich finde hier nur ein IP-Design (http://www.siliconlogic.com/floating_point_multiply_accumulate.asp) einer fp32-MADD-Einheit nach IEEE 754 für die 12.800 Gatter angegeben werden. Das entspräche 25.600 Transistoren in einem normalen CMOS-Verfahren mit NAND-Gattern. Kommt mir ziemlich wenig vor, wenn man bedenkt, dass der Shadercore des GT200 mehrere hundert Mio. Transistoren wiegt und nur 240 MADD-Einheiten enthält.

Coda
2009-04-09, 02:28:48
Ne sorry, da kann wohl niemand hier Auskunft geben und wenn dann stände er unter NDA.

Ailuros
2009-04-09, 07:09:09
I[;7224571']keine ahnung, woher die info ist und ob es stimmt, aber intel hatte ja mal gerade von der hälfte zu anfang gesprochen. :D Angst?

zu die-size etc: itanium der gpus ;D

Nur weil die Folie die Skalierung zwischen 8 und 64 cores heisst es erstmal gar nichts. Abrash erwaehnte ueber 1TFLOP; selbst wenn es noch knapp unter 2 TFLOPs waeren klingen 64 cores viel zu viel.

Das steht ja wieder auf einem anderen Blatt und habe ich auch gar nicht angesprochen. Mir gings ja rein um Einheiten/OPs pro Transistor.
Weißt du eigentlich, was NV für so eine MADD+MUL-Einheit an Transistoren aufwendet? Ich finde hier nur ein IP-Design einer fp32-MADD-Einheit nach IEEE 754 für die 12.800 Gatter angegeben werden. Das entspräche 25.600 Transistoren in einem normalen CMOS-Verfahren mit NAND-Gattern. Kommt mir ziemlich wenig vor, wenn man bedenkt, dass der Shadercore des GT200 mehrere hundert Mio. Transistoren wiegt und nur 240 MADD-Einheiten enthält.

Es gibt doch GT200 die shots wo draufsteht wie gross jeder Block ist; wenn ich mich nicht irre nehmen die ALUs insgesamt irgendwo 1/4 des dies ein. Falls Du die DP Einheiten nicht mitrechnen willst, kannst Du eventuell ja auch auf G92 Basis vergleichen. Erwarte aber bloss keine genauen Infos ausser ein paar sehr groben Schaetzungen.

NVIDIA hat Däumchen gedreht. Die Transistoren/mm² sind bei GT200 einfach miserabel.

Trotzdem bestehen die zustaendigen engineers dass die getrennten DP Einheiten als Beispiel eine sehr bewusste Design-Entscheidung war und ihnen die Effizienz mit diesen wichtiger war. Mir klingt das Ganze als eine bloede Entschuldigung und ich will hoffen dass dieses auch nicht fuer die naechste Generation gilt.

Ailuros
2009-04-09, 10:56:42
Hier ein Wafershot:

http://www.computerbase.de/news/hardware/grafikkarten/2009/april/idf_intel_larrabee-wafer/

Ich komme da auf grob geschätzt 23 mm * 15 mm = 345 mm² pro Die. In 45 nm und bei einer Transistordichte irgendwo zwischen dem GT200b (3,0 Mio./mm²) RV770 (3,7 Mio./mm²) und dem komm ich da auf einen Transistorcount von ungefähr (55/45)²*345*3 Mio. = 1,55 Mrd. bis (55/45)²*345*3,7 Mio. = 1,91 Mrd.
Also grob geschätzt 1,7±0,2 Mrd. Transistoren.


Uebrigens:

http://forum.beyond3d.com/showpost.php?p=1285345&postcount=133

deekey777
2009-04-09, 14:10:11
Nur weil die Folie die Skalierung zwischen 8 und 64 cores heisst es erstmal gar nichts. Abrash erwaehnte ueber 1TFLOP; selbst wenn es noch knapp unter 2 TFLOPs waeren klingen 64 cores viel zu viel.



...
Zwei TFLOPs (32 Kerne mit 2 GHz) wären eigentlich das Mindeste, was zu erwarten ist. Abrash stappelt absichtlich extrem tief, um ja nicht die tatsächliche Leistung (= Anzahl der Cores) zu verraten.

Lesezeug: http://software.intel.com/en-us/articles/intel-at-gdc/

Spasstiger
2009-04-09, 14:17:47
Uebrigens:

http://forum.beyond3d.com/showpost.php?p=1285345&postcount=133
Hm, also vielleicht doch 500 mm² aufwärts? Halte ich für ein ziemliches Wagnis, wo sich Intel mit Larrabee erstmal beweisen muss, vor allem software-/treiberseitig.
Aber dann würden die 64 SIMD-Cores durchaus reinpassen, was den Weg für 4 Teraflops @ 2 GHz ebnen würde.

KonKorT
2009-04-09, 14:36:42
2 GHz pro Kern? Das wäre sehr sportlich. 32 Kerne sind hingegen denkbar.

AnarchX
2009-04-09, 15:37:24
Hm, also vielleicht doch 500 mm² aufwärts?
Geschätzte 600 mm²:
http://www.hardware.fr/articles/757-4/idf-printemps-2009-pekin.html

Bleibt die Frage ob 45nm oder gar schon 32nm ;D?

_DrillSarge]I[
2009-04-09, 15:48:30
ich sag doch itanium der gpus ;D
600mm² @32nm -> ;D;D;D

Hvoralek
2009-04-09, 16:06:59
2 GHz pro Kern? Das wäre sehr sportlich.Bei den Arithmetikeinheiten kann ich mir das gut vorstellen. 2 GHz hat ja G92 schon fast erreicht, und Intel hat wesentlich mehr Erfahrung mit/ bessere Fertigungsverfahren für hoch taktende Prozessoren als Nvidia/ TSMC.

Die TMUs werden aber wohl kaum so hoch takten.

Nakai
2009-04-09, 16:19:05
Bei den Arithmetikeinheiten kann ich mir das gut vorstellen. 2 GHz hat ja G92 schon fast erreicht, und Intel hat wesentlich mehr Erfahrung mit/ bessere Fertigungsverfahren für hoch taktende Prozessoren als Nvidia/ TSMC.

Die TMUs werden aber wohl kaum so hoch takten.


Denke ich nicht. Die TMUs werden wohl sehr entkompliziert sein und klein sein um hohe Taktraten zu erreichen. Ich hab irgendwas mit 8bit-TMUs gehört, was ich leider gar nicht einordnen kann.


mfg Nakai

Coda
2009-04-09, 16:56:54
Das bedeutet dass sie ein 8-Bit-Bilinear-Sample pro Takt abwerfen, bzw ein 16-Bit-Bilinear-Sample in zwei Takten wie jede derzeitige NVIDIA- und ATI-TMU auch. Simpler geht es nicht.

Ich würde auch meinen, dass sie die TMUs eher langsamer takten als die Cores.

reunion
2009-04-09, 17:07:22
I[;7225668']ich sag doch itanium der gpus ;D
600mm² @32nm -> ;D;D;D

Intel hat halt die besten Fertigungshallen der Welt und spielt diesen Trumpf natürlich auch aus.

deekey777
2009-04-09, 17:08:24
Wird Larrabee überhaupt bei Intel gefertigt?

reunion
2009-04-09, 17:10:26
Es gibt AFAIK keine offizielle Aussage dazu, aber warum nicht? Intel fertigt alles selbst.

Coda
2009-04-09, 17:12:12
Wird Larrabee überhaupt bei Intel gefertigt?
Gegenfrage: Wer sollte sonst in naher Zukunft 32nm liefern können? ;)

reunion
2009-04-09, 17:13:33
Larrabee kommt niemals in 32nm IMO.

Coda
2009-04-09, 17:14:32
Ich wette dagegen.

reunion
2009-04-09, 17:17:12
Bitte. Selbst Westmere kommt nicht vor H1/2010. Da soll ein 600mm² Core, welcher fast nur aus Logik bestehen wird womöglich noch 2009 kommen?

deekey777
2009-04-09, 17:20:31
Taiwan's TMSC and Intel team up on Atom processor (http://www.spacemart.com/reports/Taiwans_TMSC_and_Intel_team_up_on_Atom_processor_999.html)

Wenn das Teil von Intel produziert wird, dann sind sehr wahrscheinlich 32 nm zu erwarten, aber 600 mm²?
Wenn das Teil im Auftrag von Intel bei TMSC produziert wird, dann werden es wahrscheinlich 45 nm sein, aber immernoch sind 600 mm² sehr zweifelhaft.

_DrillSarge]I[
2009-04-09, 17:23:33
Intel hat halt die besten Fertigungshallen der Welt und spielt diesen Trumpf natürlich auch aus.
sorry, aber man will ja auch was abliefern, was sich irgendwo rentieren muss und die gpus der anderen erzeugen da ja auch konkurrenzdruck.

Spasstiger
2009-04-09, 17:55:58
600 mm² in 32 nm bis Ende 2009 klingen ziemlich verrückt, das können durchaus 6 Mrd. Transistoren sein. Auf die Idee kommt man doch nicht bei klarem Verstand. Imo soll Larrabee ein Consumerprodukt sein und da müssen sich die Kosten im Rahmen halten. Ein 600-mm²-Chip in einem brandneuen, unerprobten 32-nm-Verfahren dürfte wohl mehrere 100$ kosten. Außerdem wäre die Leistungsaufnahme exorbitant, wenn das Teil partiell auch noch mit 2 GHz takten würde.

Coda
2009-04-09, 18:00:29
Ich vermute er hat einfach einen 45nm-Wafer gezeigt, aber das Endprodukt sollte 32nm sein.

AnarchX
2009-04-09, 18:07:15
Das dürfte wohl am wahrscheinlichsten sein. Es könnte wohl sogar noch etwas mehr als 600mm² sein:
http://forum.beyond3d.com/showpost.php?p=1285425&postcount=145

Da sind Ailuros' Andeutungen, dass Intel 32nm benötigt wohl nicht ganz unbegründet.

mrt
2009-04-09, 18:08:33
Nur das es mit 32nm nichts vor Mitte/Ende '10 wird bei einem Design wie Larrabee.

dust
2009-04-09, 18:12:22
Imo soll Larrabee ein Consumerprodukt sein und da müssen sich die Kosten im Rahmen halten.

nein, zuerst wollen sie den profi markt, laut einer intel aussage.

Spasstiger
2009-04-09, 18:12:54
Ok, 600-700 mm² @ 45 nm, was dann 300-3500 mm² @ 32 nm wären, klingen noch realistisch. Darauf könnte man über 3 Mrd. Transistoren unterbringen.
Bei einem derart fetten Chip muss Intel allerdings schon sehr davon überzeugt sein, einen guten Start mit Larrabee hinlegen zu können. Die letzten Erfahrungen mit dedizierten Grafikkarten liegen bei Intel afaik schon ein Jahrzehnt zurück. Und D3D10 hat man afaik auch noch nicht über Intel-Hardware flimmern sehen.

Coda
2009-04-09, 18:15:58
Die letzten Erfahrungen mit dedizierten Grafikkarten liegen bei Intel afaik schon ein Jahrzehnt zurück.
Was tut das zur Sache? Das Team ist ein völlig anderes und das Konzept liegt Lichtjahre auseinander.

Und D3D10 hat man afaik auch noch nicht über Intel-Hardware flimmern sehen.
Natürlich hat man das.

Aber das hat auch rien gar nichts mit Larrabee zu tun.

Spasstiger
2009-04-09, 18:38:53
Natürlich hat man das.
Ja, ok, gibt ja inzwischen sogar D3D10-Treiber. Die funktionieren aber auch mehr schlecht als recht, bei Crysis Warhead bekam Computerbase z.B. nur Grafikfehler und Assasin's Creed stürzte gleich ganz ab:
- http://www.computerbase.de/artikel/hardware/mainboards/2008/test_nvidia_geforce_9300-chipsatz_mcp7a/6/#abschnitt_assassins_creed
- http://www.computerbase.de/artikel/hardware/mainboards/2008/test_nvidia_geforce_9300-chipsatz_mcp7a/7/#abschnitt_crysis_warhead
Stalker Clear Sky scheint aber mit D3D10 auf dem GMA X4500HD (G45-Chipsatz) fehlerfrei zu laufen, wenn auch extrem langsam im Vergleich zur IGP-Konkurrenz. Dabei hat der X4500 sogar 10 Renderpipelines mit jeweils einer TMU, einer ROP und einer Unified-Shader-Einheit.

Coda
2009-04-09, 18:54:55
Ja. Und?

Das tut trotzdem nichts zur Sache Larrabee. Ganz andere Leute und ganz andere Mittelmengen.

Spasstiger
2009-04-09, 18:57:24
Das tut trotzdem nichts zur Sache Larrabee. Ganz andere Leute und ganz andere Mittelmengen.
Also denkst du, dass sich Larrabee von Anfang an in Spieletests behaupten kann und in keinem wichtigen Spiel irgendwelche Probleme auftreten werden?

mrt
2009-04-09, 19:01:20
Ich wage mal zu behaupten, dass Teile der fixed-function Logik (insbesondere TMUs) aus der IGP-Abteilung abstammen.
Die Treiber von Larrabee werden zumindest anfangs auf den Profi/GPGPU-Märkte optimiert sein, am Desktop würd ich mir nicht viel erwarten.

reunion
2009-04-09, 19:04:09
Ich sage es nochmal: Intel will laut eigenen Aussagen die professionelle Variante von Larrabee noch 2009 bringen. Der 32nm Prozess wird aber erst ab dem Q4/2009 überhaupt "production ready" sein laut Intel Folien und selbst relativ simple Prozessoren kommen nicht vor H1/2010. Ich sehe hier keine 32nm Larrabee vor H2/2010.

Ailuros
2009-04-09, 19:06:43
Intel hat halt die besten Fertigungshallen der Welt und spielt diesen Trumpf natürlich auch aus.

Echt? Ihr neuester SoC hat eine 32nm CPU und eine 45nm GPU. Junge da wundere ich mich sogar warum Intel neuestens eine Vereinbarung mit TSMC abgeschlossen hat fuer zukuenftige SoCs.

Ich sage es nochmal: Intel will laut eigenen Aussagen die professionelle Variante von Larrabee noch 2009 bringen.

Ich will auch vieles nur klappt leider nicht immer alles nach Wunsch. Und was heisst profi Variante ueberhaupt?

Der 32nm Prozess wird aber erst ab dem Q4/2009 überhaupt "production ready" sein laut Intel Folien und selbst relativ simple Prozessoren kommen nicht vor H1/2010. Ich sehe hier keine 32nm Larrabee vor H2/2010.

Kommt das nicht ein bisschen zum Widerspruch zu Deinem ersten Satz oben?

Ich wage mal zu behaupten, dass Teile der fixed-function Logik (insbesondere TMUs) aus der IGP-Abteilung abstammen.

...nicht dass ich wuesste. Was fuer andere ff hw hat denn LRB noch die aus dem chipset Team kommen koennte?

Die Treiber von Larrabee werden zumindest anfangs auf den Profi/GPGPU-Märkte optimiert sein, am Desktop würd ich mir nicht viel erwarten.

Es wird schon ziemlich lange an den desktop Treibern gearbeitet und aus verstaendlichen Gruenden um einiges intensiver als alles andere. Das die Leistung sowieso nicht auf dem Niveau der Konkurrenz liegen wird hat nicht allzu viel mit den Treibern zu tun. Der Abstand ist groesser als jegliche Treiber-Optimierung aus LRB holen koennte.

reunion
2009-04-09, 19:07:23
Also denkst du, dass sich Larrabee von Anfang an in Spieletests behaupten kann und in keinem wichtigen Spiel irgendwelche Probleme auftreten werden?

Ich behaupte das Intel die Spieleabteilung am Arsch vorbei geht. Larrabee soll zuerst für Server und Workstations gelauncht werden und erst später, eher als Abfallprodukt für den Customer-Markt. Intel hat sich nie um den Grafikmarkt geschert wie an ihren unseligen IPGs zu sehen ist, erst jetzt wo Grafikkarten zunehmend für andere Dinge verwendet werden können kommt Larrabee.

Ailuros
2009-04-09, 19:17:33
Ich behaupte das Intel die Spieleabteilung am Arsch vorbei geht. Larrabee soll zuerst für Server und Workstations gelauncht werden und erst später, eher als Abfallprodukt für den Customer-Markt. Intel hat sich nie um den Grafikmarkt geschert wie an ihren unseligen IPGs zu sehen ist, erst jetzt wo Grafikkarten zunehmend für andere Dinge verwendet werden können kommt Larrabee.

Wer erzaehlt denn ueberhaupt so viel und so konkreten Bullshit? Da Du es unbedingt hoeren willst, AMD sollte froh sein wenn sie in den naechsten 10 Jahren mit so viel Resourcen herumschmeissen koennten wie Intel in den letzten 3-4 Jahren und ja fuer gaming, denn sie kaufen ja rechts und links wie verrueckt ein.

***edit: nur ein einziges Beispiel:

http://www.projectoffset.com/

Coda
2009-04-09, 20:13:29
Also denkst du, dass sich Larrabee von Anfang an in Spieletests behaupten kann und in keinem wichtigen Spiel irgendwelche Probleme auftreten werden?
Ich denke, dass die Treiber ziemlich ausgereift sein werden. Vor allem D3D10/11, da das wirklich sehr straff spezifiziert ist. Sie werden kein Karten rausbringen auf denen nicht alle aktuellen AAA-Titel fehlerfrei laufen.

Zudem verstehe ich auch nicht wie man dort überhaupt eine Verbindung ziehen kann. Euch scheint nicht ganz klar zu sein, dass Larrabee ein Software-Rasterizer ist. Das heißt der Großteils des Treibers IST die GPU. Ohne entsprechende Software ist das Ding nicht für 3D-APIs zu gebrauchen.

Das mit den TMUs ist auch grober Unfug. Die von den IGPs sind so hundsmiserabel, das nur ein komplettes Redesign hilft.

dust
2009-04-09, 20:18:28
nachdem sie am anfang auf den profi markt wollen werden sie gute opengl treiber brauchen.

Coda
2009-04-09, 21:37:10
nachdem sie am anfang auf den profi markt wollen werden sie gute opengl treiber brauchen.
Die API ist das allerkleinste Teil des Problems. Sie werden sowieso ein gemeinsames Backend für Direct3D und OpenGL haben.

Exxtreme
2009-04-09, 21:50:38
Ich denke, dass die Treiber ziemlich ausgereift sein werden. Vor allem D3D10/11, da das wirklich sehr straff spezifiziert ist. Sie werden kein Karten rausbringen auf denen nicht alle aktuellen AAA-Titel fehlerfrei laufen.

Zudem verstehe ich auch nicht wie man dort überhaupt eine Verbindung ziehen kann. Euch scheint nicht ganz klar zu sein, dass Larrabee ein Software-Rasterizer ist. Das heißt der Großteils des Treibers IST die GPU. Ohne entsprechende Software ist das Ding nicht für 3D-APIs zu gebrauchen.

Das mit den TMUs ist auch grober Unfug. Die von den IGPs sind so hundsmiserabel, das nur ein komplettes Redesign hilft.
Das wäre dann das erste Mal, daß Intel brauchbare Grafikchip-Treiber bringt. :| Ich habe mit den Dingern so meine Erfahrung. Leider keine gute...

deekey777
2009-04-09, 21:53:28
Die Larrabee-Softwareabteilung soll 500 Leute beschäftigen, da ist die Wahrscheinlichkeit sehr groß, dass für Larrabee verünftige Treiber kommen werden. Die Angst ist eher unbegründet.



Intel Gets Ready to Push Ct Out of the Lab (http://www.hpcwire.com/features/Intel-Gets-Ready-to-Push-Ct-Out-of-the-Lab-42634332.html)

Coda
2009-04-09, 21:53:50
Das wäre dann das erste Mal, daß Intel brauchbare Grafikchip-Treiber bringt. :| Ich habe mit den Dingern so meine Erfahrung. Leider keine gute...
Nochmal: Das ist ein völlig anderes Team und die Qualitätsanforderungen sind völlig andere als bei einem kleinen IGP die vielleicht mal für ein Spielchen nebenher genutzt wird und D3D10 nur auf dem Papier braucht um beim Marketing besser dazustehen.

Man investiert doch nicht Millionen in eine High-End-GPU um sie am Ende durch Treiber unbrauchbar zu machen. Das ist doch absurd.

Die Larrabee-Softwareabteilung soll 500 Leute beschäftigen, da ist die Wahrscheinlichkeit sehr groß, dass für Larrabee verünftige Treiber kommen werden. Die Angst ist eher unbegründet.
Wie gesagt ist die Software zum großen Teil die GPU in Larrabee, deshalb verwundert mich das kein Stück.

_DrillSarge]I[
2009-04-09, 21:56:29
Das wäre dann das erste Mal, daß Intel brauchbare Grafikchip-Treiber bringt. :| Ich habe mit den Dingern so meine Erfahrung. Leider keine gute...
selbst die "neuen" igps basieren auf technik von vorgestern und sind dafür gedacht maximal sowas wie vista aero zu beschleunigen.
hinter den igps (und deren treibern) steckt bestimmt 100 mal (wenns reicht) weniger manpower und entwicklungsarbeit als hinter larrabee.

nymand
2009-04-09, 22:04:30
I[;7226346']selbst die "neuen" igps basieren auf technik von vorgestern und sind dafür gedacht maximal sowas wie vista aero zu beschleunigen.
hinter den igps (und deren treibern) steckt bestimmt 100 mal (wenns reicht) weniger manpower und entwicklungsarbeit als hinter larrabee.
Trotzdem ist Intel was Grafikhardware angeht eher skeptisch zu sehen. Haben sie in diesem Segment eigentlich jemals wort gehalten? ;D

=Floi=
2009-04-09, 22:05:09
ich muß aber reunion hier schon helfen. Die heutigen treiber sind einfach verdammt komplex, denn sonst hätten ja auch ATI und nv nicht so viele probleme mit ihren karten. Eine neue architektur muß ca. 2 jahre reifen bis sie wirklich sehr gut läuft und auch alles einwandfrei funktioniert. Ich kann reunion auch bei der hardware beipflichten. Alleine schon aus dem grund, weil im profimarkt die margen stimmen und man wohl auch schlicht nicht die kapazität für den massenmarkt hat wird intel da zumindest versuchen ihre karten dort zu verkaufen. Intel ist vor allem auch die marge wichtig und da wird man sich nicht so einfach auf die 200$ ebene herablassen. Es gibt auch viel weniger profi-software wie games. Da kann man auch relativ einfach ansetzen.
Es spricht so einiges gegen einen frühen start im consumer bereich. Für den kunden (und nicht nerd!) ist das ding doch sowieso eher unwichtig.

ich darf übrigens hier noch einmal auf die intel eigenen eckpunkte verweisen:
http://img70.imageshack.us/img70/9112/geshervslarabeear9.jpg
da klingen diese 4gflop schon ein wenig traumhaft...

@coda
ausgerechnet du verteidigst treiber, jammerst (zurecht) aber schon an deiner ati zigmal rum...
Intel hat zum thema treiber noch nichts durchsickern lassen und da gibt es noch vieles abzuwarten. WU AF? gutes AA? etc.

ScottManDeath
2009-04-09, 22:28:15
Einen Treiber zu bauen, der eine API spec implementiert, ist eine Sache. Aber einen zu bauen der um die App-fuck-ups drumherumwuselt, das braucht Erfahrung und Zeit. Nicht zu vergessen dass man auch unguenstiges API Nutzen der Apps erkennen und behandeln muss.

Coda
2009-04-09, 22:29:33
ausgerechnet du verteidigst treiber, jammerst (zurecht) aber schon an deiner ati zigmal rum...
Ich habe keine Schwierigkeiten mit den Bugs der ATI-Treiber, sondern damit wie sie sich gezielt verhalten.

Einen Treiber zu bauen, der eine API spec implementiert, ist eine Sache. Aber einen zu bauen der um die App-fuck-ups drumherumwuselt, das braucht Erfahrung und Zeit. Nicht zu vergessen dass man auch unguenstiges API Nutzen der Apps erkennen und behandeln muss.
Ich gehe davon aus, dass sie entsprechende Leute abgeworben haben.

Ansonsten gebe ich dir natürlich recht.

Exxtreme
2009-04-09, 22:35:47
Einen Treiber zu bauen, der eine API spec implementiert, ist eine Sache. Aber einen zu bauen der um die App-fuck-ups drumherumwuselt, das braucht Erfahrung und Zeit. Nicht zu vergessen dass man auch unguenstiges API Nutzen der Apps erkennen und behandeln muss.
Tja, um irgendwelche fehlerhaften Anwendungen Dritter würde ich mich nicht kümmern sondern gezielt mit dem Finger auf die zeigen. ;)

Coda
2009-04-09, 22:38:52
Das wird die Kundschaft aber nicht interessieren und die Entwickler auch nicht wenn alles mit NVIDIA und ATI funktioniert.

Z.B. hat Half Life 2 bis heute ein ungefixtes Problem mit dem Nebel auf D3D10-Karten, das vom Treiber behoben werden muss.

Ailuros
2009-04-10, 07:12:09
Das wäre dann das erste Mal, daß Intel brauchbare Grafikchip-Treiber bringt. :| Ich habe mit den Dingern so meine Erfahrung. Leider keine gute...

Obwohl es stimmt, sind es total getrennte Abteilungen. Die chipset Abteilung hat auch ueber einige Generationen TBR in HW in ihren IGPs, dennoch funktioniert es nicht. Auf LRB funktioniert es aber weil es als high end Design mit so vielen cores keine hw Implementierung noetig hat.

Mir persoenlich macht die Spiele-leistung keine besonderen Sorgen da ich nicht erwarte dass sich LRB mit RV870 bzw. GT3x0 messen werden kann. Meine persoenliche Unruhe bezieht sich eher auf die IQ; und nein ich hab bis jetzt nichts relevantes dazu gehoert.

Einen Treiber zu bauen, der eine API spec implementiert, ist eine Sache. Aber einen zu bauen der um die App-fuck-ups drumherumwuselt, das braucht Erfahrung und Zeit. Nicht zu vergessen dass man auch unguenstiges API Nutzen der Apps erkennen und behandeln muss.

Zeit hatten sie genug IMO; zwar gebe ich Dir insgesamt schon recht, aber wie schon erwaehnt vereinfacht besteht LRB aus quasi primitiver hw mit intelligentem Treiber der ziemlich vieles wenn nicht fast alles anstellen kann.

***edit:

http://www.hpcwire.com/features/Intel-Gets-Ready-to-Push-Ct-Out-of-the-Lab-42634332.html

Although Ct is intrinsically target-agnostic, it does assume a general-purpose CPU-ish architecture with enough vector hardware to make data parallel computing worthwhile. Ct will, however, not support strictly SIMD architectures like NVIDIA and AMD GPUs. Initially this means the first Ct implementation will target x86 multicore chips with Streaming SIMD Extensions (SSE) capability. Conveniently, this includes support for AMD x86 silicon too. All of Intel's current set of compilers and libraries support AMD processors, and Ct will be no different. Unlike the hardware side of the business, Intel's software customers expect x86 compatibility across company lines.

Kein Wunder NVIDIA versucht CUDA in jeder Ecke durchzupruegeln....

As we reported last year, the first implemention of Larrabee will be targeted to graphics and visual computing applications, not the more general-purpose technical computing applications (seismic analysis, financial analytics, scientific research, high-end imaging, etc.) that Ct is aimed at.

*ahem*

At this point though, Intel hasn't decided how much Larrabee support will end up in the initial version of Ct. "I think you can expect to see an answer to that by the end of the year, as Larrabee is coming available," said Reinders.

Da die neuesten Bilder die herumschwirren keine gute Schaetzungen erlauben, sagen wir mal dass das Ding tatsaechlich ueber 600qmm liegen wird. Hoechstwahrscheinlich 45nm. Wenn man das Bildchen von Floi etwas genauer betrachtet dann 24 cores@2.5GHz = 960GFLOPs/DP. Das ganze x2 dann hoechstwahrscheinlich 1.9TFLOPs/s. Eigentlich erwarte ich mehr cores als 24 mit kleinerer Frequenz, aber abwarten und Tee trinken....

Auf jeden Fall gibt es guten Grund dass ich eher eine 32nm Variante erwartete. Der die klingt absolut monstroes fuer die Leistung die man erwarten koennte.

***edit2: in der Zukunft werden wir also nicht nur CUDA vs. OpenCL Debatten haben, sondern wohl auch CUDA vs. OpenCL vs. Ct und man wird auch nicht nur ueber einen uebermaessig grossen die zum meckern haben (mine is bigger than yours *neener neener*). Klingt nach interessanten Zeiten *jauchz* :D

KonKorT
2009-04-10, 11:27:23
Wenn man das Bildchen von Floi etwas genauer betrachtet dann 24 cores@2.5GHz = 960GFLOPs/DP. Das ganze x2 dann hoechstwahrscheinlich 1.9TFLOPs/s. Eigentlich erwarte ich mehr cores als 24 mit kleinerer Frequenz, aber abwarten und Tee trinken....
Mich würde mal brennend interessieren, wo die Grafik entspringt. Feststeht aber, dass sie sehr alt ist und ich denke, man kann sich nicht mehr darauf beziehen. Sandy Bridge wird hier noch als Gesher geführt - damit muss sie älter als Q1/2007 sein - und inzwischen weiß man relativ sicher, dass er mit 24 statt 2-3 MiB L3-Cache ausgestattet sein wird.

Folglich will ich auch die weiteren Infos, insbesondere zu Larrabee, doch eher anzweifeln. Wie du schon selbst sagtest, es sollten mehr als 24 Kerne drin sein, aber gleichwohl wird man die vermutlich nicht so extrem takten können.
Ich kann mir vorstellen, dass man im vorhinein die Kernzahl festgelegt hat und dann über die Taktrate entsprechend reguliert, dass die Leistungsaufnahme nicht in die Höhe schießt. Intel würde sich keinen Gefallen tun, am Anfang hier neue Negativrekorde aufzustellen. So ein Ruf bleibt nämlich oft haften; da lieber mit der zweiten Generation on the top sein und jetzt für $300 ein gutes Produkt unter die Leute bringen.

Würden 24 Kerne mit 2,5 GHz nicht eine theoretische Rechenleistung von 1,80 statt 0,96 Teraflops ergeben?

reunion
2009-04-10, 11:41:41
Echt? Ihr neuester SoC hat eine 32nm CPU und eine 45nm GPU. Junge da wundere ich mich sogar warum Intel neuestens eine Vereinbarung mit TSMC abgeschlossen hat fuer zukuenftige SoCs.

Um Kosten zu sparen. Intel will die teuren, hochmodernen Fertigungshallen nicht mit simples Atom-Zeug vollmüllen.


Kommt das nicht ein bisschen zum Widerspruch zu Deinem ersten Satz oben?


Nein überhaupt nicht. Ich halte 32nm angesichts des von Intel angestrebten Termins und der aktuellen Fertigungsroadmap schlicht für ausgeschlossen.

AnarchX
2009-04-10, 11:43:41
@ KonKorT
Auf der Folie sind ja auch DP-FLOPS gegeben. Bei einfacher Genauigkeit ist es die doppelte Rechenleistung.

Sandy Bridge wird hier noch als Gesher geführt - damit muss sie älter als Q1/2007 sein - und inzwischen weiß man relativ sicher, dass er mit 24 statt 2-3 MiB L3-Cache ausgestattet sein wird.

"Cache per Core", also 8 Kerne mit 16-24 MiB L3, wie auch hier schon berichtet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6715171#post6715171

Ailuros
2009-04-10, 11:58:39
Würden 24 Kerne mit 2,5 GHz nicht eine theoretische Rechenleistung von 1,80 statt 0,96 Teraflops ergeben?

DP ist afaik theoretisch 1/2 SP (eben das was Intel selber angiebt).

Um Kosten zu sparen. Intel will die teuren, hochmodernen Fertigungshallen nicht mit simples Atom-Zeug vollmüllen.

Dann entziffer mir folgendes Zitat und Du weisst wie selten ich solches Zeug in aller Oeffentlichkeit zitiere:

However, what is likely to be the biggest problem is perf/$. It doesn't matter what gets publicly claimed; the economics just do not match TSMC's. The performance advantage only makes sense when the pricing depending on performance is more than just linear

Nein überhaupt nicht. Ich halte 32nm angesichts des von Intel angestrebten Termins und der aktuellen Fertigungsroadmap schlicht für ausgeschlossen.

Dann haben sie eben ein noch groesseres perf/mm2, perf/W und perf/$ Problem als wir uns bis jetzt vorstellen konnten.

Gaestle
2009-04-10, 13:02:58
Ich verstehe ehrlich gesagt nicht ganz, warum ihr so skeptisch seid. Intel will in den GPU Makt, sie haben riesige Ressourcen und wohl auch know how. Sie gehen anscheinend einen anderen Weg, als Ati und NV es (noch) tun und der noch näher an ihrer Kernkompentenz (CPUs) liegt. Aber denkt ihr wirklich, dass Intel mit einem Looser-Chip ankommt, der sie Unmengen gekostet hat und dann nix reißt?

Ich meine, die sind doch nicht blöd. Wenn sie nicht sehen würden, dass es sich rechnen kann, würden sie es doch nicht machen. Und rechnen kann es sich gerade in diesem speziellen Markt doch nur, wenn es konkurrenzfähig ist. Und nachdem was ihr schreibt, ist es das nicht wirklich.

Warum seid ihr so skeptisch?
Kann es nicht sein, dass Intel seine Infomationen gut im Griff hat und nur ein bißchen rumnebelt?

Naive Frage, okay, aber ernst gemeint. Woher kommt Eure Skepsis? IGP-Erfahrungen bitte außen vor.

KonKorT
2009-04-10, 14:09:15
@ KonKorT
Auf der Folie sind ja auch DP-FLOPS gegeben. Bei einfacher Genauigkeit ist es die doppelte Rechenleistung.
DP ist afaik theoretisch 1/2 SP (eben das was Intel selber angiebt).
Okay, dann ist es erklärbar, wobei ich mich auch noch wunderte, dass 0,96 ja nicht exakt die Hälfte von 1,80 sind. Du hast vermutlich mit den 40 GF/Core bei 24 Kernen und 2,5 GHz gerechnet - sozusagen den best case.

"Cache per Core", also 8 Kerne mit 16-24 MiB L3, wie auch hier schon berichtet:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=6715171#post6715171
Dann bleibt aber immer noch ein veralteter Codename, der die Roadmap mindestens 2 Jahre alt macht. Gut, die grobe Marschrichtung sollte seinerzeit schon gegeben sein, dennoch würde ich sie mit Vorsicht genießen.

ScottManDeath
2009-04-10, 22:03:21
Tja, um irgendwelche fehlerhaften Anwendungen Dritter würde ich mich nicht kümmern sondern gezielt mit dem Finger auf die zeigen. ;)

Mach das mal, dann kauft Dich keiner =) Es sind ja nicht nur kleine mickrige Programme, sondern auch AA oder AAA Titel.


Zeit hatten sie genug IMO; zwar gebe ich Dir insgesamt schon recht, aber wie schon erwaehnt vereinfacht besteht LRB aus quasi primitiver hw mit intelligentem Treiber der ziemlich vieles wenn nicht fast alles anstellen kann.

Kompatibiltaet sich zu erarbeiten dauert lange. Und man braucht die. Q3 ist 10 Jahre alt, aber es gibt immer Spiele die mit der Engine umherlaufen, und da haben die Coder wohl gepennt, denn moderne OpenGL Treiber haben mehr als 4k bytes im Extensionstring, ohne die Option im NV Treiber gibts bei denen ansonsten Bufferueberlaufe. Und das ist nur die Spitze des Eisbergs.

=Floi=
2009-04-10, 22:47:00
ohhh das mit dem DP-Flops habe ich ja garnicht gesehen. Das ist zumindest eine orginale intel präsentation und die ist schon etwas wert. Wie su selbst sagst stand damals schon die ungefähre marschrichtung fest und das ganze ist zumindest mal handfest.
Eine idee wäre auch noch 2 von den dingern auf einen DICE zu kleben!

edit
jetzt habe ich die news doch noch gefunden
http://www.computerbase.de/news/hardware/grafikkarten/2007/juni/larrabee_fakten_intel_highend-grafikkarte/
Dank anarchX kam man im 3dcenter aber schon vorher an das orginale pdf

edit2
die news von cb ist schon wieder gelöscht
http://209.85.129.132/search?q=cache:PienI7iQ6L0J:www.computerbase.de/news/hardware/grafikkarten/2009/april/idf_intel_larrabee-wafer/+http://www.computerbase.de/news/hardware/grafikkarten/2009/april/idf_intel_larrabee-wafer/&cd=1&hl=de&ct=clnk&gl=de

Ailuros
2009-04-11, 01:13:50
Kompatibiltaet sich zu erarbeiten dauert lange. Und man braucht die. Q3 ist 10 Jahre alt, aber es gibt immer Spiele die mit der Engine umherlaufen, und da haben die Coder wohl gepennt, denn moderne OpenGL Treiber haben mehr als 4k bytes im Extensionstring, ohne die Option im NV Treiber gibts bei denen ansonsten Bufferueberlaufe. Und das ist nur die Spitze des Eisbergs.

Intel hat alles andere als Anfaenger eingestellt wenn es zu sw engineers kommt. Dass LRB's erste Treiber auf dem gleichen Nivaeu wie AMD/NVIDIA's liegen werden was die Kompatibilitaet betrifft will ich zwar auch nicht glauben, aber so miserabel wie von jeglichem 0815 Firmchen dass in der Vergangenheit aus dem nichts auftauchte und im nichts wieder verstand werden sie wohl nicht sein.

Es hapert bei Intel auf keinen Fall an Resourcen; eher wie schon oefters erwaehnt an Intel's Philosophie was Grafik betrifft.

Ailuros
2009-04-11, 02:18:29
Nvidia's recently appointed chief-scientist Bill Dally, who formerly headed Stanford University's computer science department, talked to The New York Times about heterogeneous computing, and more interestingly, Intel's upcoming Larrabee GPU.

Dally claims Intel and AMD are basically hitting a brick wall in CPU development, and are being forced to focus on more cores instead of higher speeds. GPUs, on the other hand, don't face these hurdles. They already have a head start in multicore computing and offer more potential for further development. Dally sees a bright future for heterogeneous computing, where CPUs will be tasked with less demanding, 'boring' tasks, while powerful GPUs will take care of demanding applications.

Dally believes Intel is not being innovative enough with its GPU design, Larrabee, and points out it is still based on the old x86 architecture. Intel argues the x86 instruction set will make life easier for developers, but Dally thinks it will merely take up precious die space, making the chip larger.

“Intel’s chip is lugging along this x86 instruction set, and there is a tax you have to pay for that,” Mr. Dally said. “I think their argument is mostly a marketing thing.”

Interestingly, Dally considered joining Intel at one point, but he says he decided against joining a company with a "denial architecture.”

“Intel just didn’t seem like a place where I could effect very much change,” he said. “It’s so large and bureaucratic.”

http://www.fudzilla.com/index.php?option=com_content&task=view&id=13118&Itemid=1

BlackBirdSR
2009-04-11, 02:19:11
Man darf an Larrabee ja nicht nur die Ingenieure und Treiberentwickler sehen. Intel besteht nicht nur aus einem Namen und Konzept, das in die gleichen Richtung zieht.

Vielmehr besteht Intel aus einer Vielzahl von Interessen, Konflikten und Vorstellungen. Da können sehr einfach Probleme, Fehleinschätzungen und Limitierungen entstehen.

Beispiele brauche ich wohl nicht groß zu erwähnen. Man denke an die i860/960, die Entscheidung den P5-Bus auch für den P6 verwenden zu wollen, die Rivalität und Kommunikationsprobleme zwischen IA32 und IA64. Das Fiasko mit dem Pentium4 und die Investitionen in Itanium...

Es reicht also nicht zu sagen: Es ist Intel, also wird das schon werden. Ich bin sehr gespannt, wie viel man aus den früheren Fehlern gelernt hat.


Dally believes Intel is not being innovative enough with its GPU design, Larrabee, and points out it is still based on the old x86 architecture. Intel argues the x86 instruction set will make life easier for developers, but Dally thinks it will merely take up precious die space, making the chip larger.


Säbelrasseln sonst nichts. Bei Milliarden von Transistoren, ist die x86 ISA kein Ballast mehr, was Platz betrifft. Das haben wir schon schon zu Pentium3/4 Zeiten geklärt.


“Intel just didn’t seem like a place where I could effect very much change,” he said. “It’s so large and bureaucratic.”


Siehe oben ;)

Ailuros
2009-04-11, 02:28:56
Vielmehr besteht Intel aus einer Vielzahl von Interessen, Konflikten und Vorstellungen. Da können sehr einfach Probleme, Fehleinschätzungen und Limitierungen entstehen.

Das meine ich ja auch wenn ich sage dass es Intel an der richtigen Philosophie fuer Grafik fehlt.

Es reicht also nicht zu sagen: Es ist Intel, also wird das schon werden. Ich bin sehr gespannt, wie viel man aus den früheren Fehlern gelernt hat.

Warnung: intel inside :uexplode:

Coda
2009-04-11, 04:42:57
Ich glaube übrigens auch nicht, dass Larrabee der Performancekracher sein wird. Dafür ist das Design einfach zu allgemein ausgelegt.

Intel kann vermutlich bei 3D-API-Workload höchstens mithalten, wenn sie ihren Fertigungsprozess ausspielen.

Säbelrasseln sonst nichts. Bei Milliarden von Transistoren, ist die x86 ISA kein Ballast mehr, was Platz betrifft. Das haben wir schon schon zu Pentium3/4 Zeiten geklärt.
Bei einfachen In-Order-Cores? Hmm... Hmm... Ich würd mich da nicht so weit aus dem Fenster lehnen. Es hat schon einen Grund warum x86 noch nicht im ARM-Segment angekommen ist.

Ich habe eine Quelle die besagt, dass Pentium 30% der Transistoren für x86-Kompatibilität aufgewendet hat, auch wenn sich das durch die Vektor-Recheneinheit natürlich verschiebt.

Die Entscheidung für x86 bei LRB fand ich auch schon von Anfang an komisch.

reunion
2009-04-11, 09:53:14
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13118&Itemid=1

Naja, das ein NV-Mann Larrabee nicht in den Himmel lobt sollte auch klar sein. Man wird wohl erst am fertigen Produkt erfahren wieviel davon Marketing und wieviel der Realität entspricht.

Bei einfachen In-Order-Cores? Hmm... Hmm... Ich würd mich da nicht so weit aus dem Fenster lehnen. Es hat schon einen Grund warum x86 noch nicht im ARM-Segment angekommen ist.

Ich habe eine Quelle die besagt, dass Pentium 30% der Transistoren für x86-Kompatibilität aufgewendet hat, auch wenn sich das durch die Vektor-Recheneinheit natürlich verschiebt.

Die Entscheidung für x86 bei LRB fand ich auch schon von Anfang an komisch.

Andererseits hat sich x86 bisher überall wo es angekommen ist durchgesetzt. Auch Atom soll in der nächsten Ausbaustufe das ARM-Segment stürmen. Und selbst wenn es tatsächlich 20% mehr Transistoren sind wegen x86, dann hat man eben ein 20% größeres Die. Kompatibilität ist unbezahlbar.

Aquaschaf
2009-04-11, 10:04:04
In dem Fall ist Kompatibilität nicht viel wert weil Programme die nicht für die Architektur von Larrabee geschrieben wurden darauf elendig langsam laufen werden.

BlackBirdSR
2009-04-11, 12:22:35
Bei einfachen In-Order-Cores? Hmm... Hmm... Ich würd mich da nicht so weit aus dem Fenster lehnen. Es hat schon einen Grund warum x86 noch nicht im ARM-Segment angekommen ist.

Ich habe eine Quelle die besagt, dass Pentium 30% der Transistoren für x86-Kompatibilität aufgewendet hat, auch wenn sich das durch die Vektor-Recheneinheit natürlich verschiebt.

Die Entscheidung für x86 bei LRB fand ich auch schon von Anfang an komisch.

Ich ging natürlich vom Gesamtbudget des Chips aus. Für die einzelnen Kerne ist das sicherlich eine höhere Belastung. Ob es einen Unterschied macht, ist die Frage...

Für mich sieht LRB übrigens nach einer schnellen (Panik) Entwicklung aus, für deren Grundbausteine man nicht genug Vorlauf hatte. Also nimmt man, was man kriegen kann.

turboschlumpf
2009-04-11, 12:53:36
Hier ein Wafershot:

http://www.computerbase.de/news/hardware/grafikkarten/2009/april/idf_intel_larrabee-wafer/

Ich komme da auf grob geschätzt 23 mm * 15 mm = 345 mm² pro Die. In 45 nm und bei einer Transistordichte irgendwo zwischen dem GT200b (3,0 Mio./mm²) RV770 (3,7 Mio./mm²) und dem komm ich da auf einen Transistorcount von ungefähr (55/45)²*345*3 Mio. = 1,55 Mrd. bis (55/45)²*345*3,7 Mio. = 1,91 Mrd.
Also grob geschätzt 1,7±0,2 Mrd. Transistoren.
Die Rechnung ist zwar hinfällig (siehe 1 (http://forum.beyond3d.com/showpost.php?p=1285345&postcount=133), 2 (http://www.hardware.fr/articles/757-4/idf-printemps-2009-pekin.html), 3 (http://forum.beyond3d.com/showpost.php?p=1285425&postcount=145)), aber Larrabee besitzt immerhin 8 MiB L2-Cache (bei 32 Cores); das dürfte den Transistorcount noch etwas pushen.

I[;7225866']sorry, aber man will ja auch was abliefern, was sich irgendwo rentieren muss und die gpus der anderen erzeugen da ja auch konkurrenzdruck.
Bei Larrabee handelt es sich um ein aus strategischer Sicht unbedingt notwendiges Produkt um Intels Marktstellung zu sichern. Selbstverständlich muss sich Larrabee rentieren, aber sicherlich nicht im Jahr 2010, sondern auf Sicht von meinetwegen zehn Jahren. Und das wohl auch nur zu einem geringen Teil aus direkt erzeugten Deckungsbeiträgen.

Gast
2009-04-11, 12:58:27
Sorry für die etwas naive Frage, aber warum sieht LRB nach einer Panik-Entwicklung aus? Oder besser gesagt, was hat Intel in Panik versetzt?

Dazu passend natürlich die Frage an turboschlumpf, warum Intel LRB zur Sicherung der Marktstellung benötigt?

Geht es hier allgemein um den Trend hin zu GPGPUs oder was steckt dahinter?

Aquaschaf
2009-04-11, 13:10:59
Es geht darum dass in Intel's traditioneller Domäne in absehbarer Zeit Schicht im Schacht ist - sehr viel schnellere CPUs kann man wahrscheinlich nicht bauen, solange keine grundlegend anderen Fertigungstechniken gefunden werden.

Massiv parallele Architekturen haben dieses Problem noch nicht. Unter diesen Prozessorarchitekturen sind diejenigen welche (auch) gute GPUs sind aus Sicht eines Prozessorherstellers interessant weil sie bereits ein Massenprodukt sind.

reunion
2009-04-11, 13:16:57
Es geht darum dass in Intel's traditioneller Domäne in absehbarer Zeit Schicht im Schacht ist - sehr viel schnellere CPUs kann man wahrscheinlich nicht bauen, solange keine grundlegend anderen Fertigungstechniken gefunden werden.

Massiv parallele Architekturen haben dieses Problem noch nicht.

In die breite kannst du auch bei CPUs immer gehen.

_DrillSarge]I[
2009-04-11, 13:18:34
Bei Larrabee handelt es sich um ein aus strategischer Sicht unbedingt notwendiges Produkt um Intels Marktstellung zu sichern. Selbstverständlich muss sich Larrabee rentieren, aber sicherlich nicht im Jahr 2010, sondern auf Sicht von meinetwegen zehn Jahren. Und das wohl auch nur zu einem geringen Teil aus direkt erzeugten Deckungsbeiträgen.
so ein riesen-chip wird dann auch für den endkunden teurer. und larrabee MUSS deutlich besser und/oder preislich attraktiver sein als die produkte von amd/nv. denn sonst hat man keinen grund, von herstellern mit jahrelanger erfahrung, auf intel zu wechseln. das soll nicht bedeuten, dass ich intel know-how o.ä. aberkenne, aber man muss sich erst beweisen.

€: vielleicht scheffelt man ja mit den, für intel billigst zu produzierenden, atoms kohle für den verlust durch larrabee ;D;D;D

=Floi=
2009-04-11, 14:32:44
intel wird sicherlich ab der 2. oder 3. generatin richtig geld verdienen. Bei denen traue ich das sogar ab der ersten generation zu. in der heutigen zeit wird aber auch mehr marktforschung und risikominimierung betrieben als vor 10 jahren. Heutzutage kann sich niemand mehr einen großen fehlschlag leisten.
Mit einer GPU ist man auf jedenfall auf der sichreren seite und kann hier problemlos in richtung grafik oder in richtung GPGPU skalieren, je nachdem was der markt will.

BlackBirdSR
2009-04-11, 14:41:19
In die breite kannst du auch bei CPUs immer gehen.

Aber nicht skalar. Gleichzeitig wären größere SIMD-Kapazitäten für eine Vielzahl von Usern und Anwendungen verschwendetes Geld.

Raff
2009-04-11, 16:05:05
Karten, das vom Treiber behoben werden muss.

Ist der Nebel also immer noch fucked up, wenn man A.I. deaktiviert?

MfG,
Raff

Coda
2009-04-11, 16:08:55
Als ich das letzte Mal geschaut habe - ja.

Ailuros
2009-04-11, 21:45:55
Naja, das ein NV-Mann Larrabee nicht in den Himmel lobt sollte auch klar sein. Man wird wohl erst am fertigen Produkt erfahren wieviel davon Marketing und wieviel der Realität entspricht.

Hab mir bloss keine zu hohen Hoffnungen.

In die breite kannst du auch bei CPUs immer gehen.

Mit wievielen threads / Takt? Die GPU IHVs muessen sich keineswegs IMHLO ueber die Schulter gucken langfristig, es sind eher die CPU IHVs die langfristig ein Problem haben koennten. Deshalb war fuer Intel LRB als Projekt lebenswichtig ebenso wie fuer AMD der ATI Aufkauf.

Gast
2009-04-12, 07:51:28
wäre schön,wenn ein Dritter NV und ATI mal richtig in den Po tritt.
So wie die beiden seit 2 Jahren dahin schleichen is schon eine Frechheit.

nymand
2009-04-12, 10:57:49
wäre schön,wenn ein Dritter NV und ATI mal richtig in den Po tritt.
So wie die beiden seit 2 Jahren dahin schleichen is schon eine Frechheit.

Eigentlich ist hier die Schuld eher bei ATI zu suchen, die von der 8800GTX erschlagen wurden. Aber mittlerweile sind sie ja halbwegs in Schlagdistanz

Gast
2009-04-12, 11:00:55
Eigentlich ist hier die Schuld eher bei ATI zu suchen, die von der 8800GTX erschlagen wurden. Aber mittlerweile sind sie ja halbwegs in Schlagdistanz
Aber vor allem wegen den Preisen, nicht wegen der Performancekrone.
Wenns so weiter geht, gibt GTX 285 Leistung für 100€, aber eben nichts schnelleres.

Gast
2009-04-12, 11:31:02
Aber nicht skalar. Gleichzeitig wären größere SIMD-Kapazitäten für eine Vielzahl von Usern und Anwendungen verschwendetes Geld.Im diesem Sinne sind die gewaltigen SIMD-Kapazitäten der GPUs auch verschwendetes Geld. Außerhalb des Spielesektors dürfte der Nutzerkreis noch nicht einmal 5% der Anwender umfassen und ein noch kleinerer Anteil der Anwendungen sollten jemals signifikante Vorteile daraus ziehen können. Ergo, massiv paralleles SIMD ist und bleibt ein Nischenmarkt der Spezialanwendungen.

BlackBirdSR
2009-04-12, 13:00:46
Im diesem Sinne sind die gewaltigen SIMD-Kapazitäten der GPUs auch verschwendetes Geld. Außerhalb des Spielesektors dürfte der Nutzerkreis noch nicht einmal 5% der Anwender umfassen und ein noch kleinerer Anteil der Anwendungen sollten jemals signifikante Vorteile daraus ziehen können. Ergo, massiv paralleles SIMD ist und bleibt ein Nischenmarkt der Spezialanwendungen.


Nur werden GPUs für Spiele entwickelt und alle weiteren Anwendungsfelder sind ebenfalls massiv parallelisierbar. Ich sehe da keine Verschwendung.

Ailuros
2009-04-12, 19:15:58
Die Moeglichkeit echte skalare Einheiten zu sehen wuerde ich nicht ausschliessen.

Coda
2009-04-12, 20:50:37
Bei Larrabee? Hä? Die Architektur ist doch bekannt :|

Intel lässt jeweils 4 Quads (16 Pixel) durch die Cores beim Shading. Das entspricht dem was NVIDIA seit G80 mit 32 Pixeln macht.

Ailuros
2009-04-13, 08:08:26
Bei Larrabee? Hä? Die Architektur ist doch bekannt :|

Ach Du dachtest ich meinte LRB? *grunz*

mboeller
2009-04-15, 10:44:51
Performance wise, look for strong accent on GPGPU applications and not-so-much accent on games, with LRB performing in the range of mainstream cards…


Quelle: http://www.brightsideofnews.com/news/2009/4/10/idf-spring-2009-intel-larrabee-to-feature-17-billion-transistors.aspx

AnarchX
2009-04-15, 11:00:30
Bleibt natürlich die Frage, was er als Mainstream definiert.
Anfang 2010 könnte man darunter den Bereich von RV740/GT215 bis RV870Pro verstehen.

Mehr sollte wohl auch anfänglich nicht mit einer 32-Core-Version möglich sein, die mit etwas unter 2 TFLOPs (einfache Genauigkeit) daherkommt, wovon natürlich einiges in die Software-Rasterisierung fließt.
Bei den TMUs könnte es wohl ein Quad von den 8-Bit TMUs pro Core sein, also insgesamt 128 TMUs, die dann 64 TMUs bei aktuellen NV/ATi-GPUs entsprechen, bleibt natürlich die Frage nach dem Takt, wobei es wohl nicht der Takt der ALU-Domain sein wird.
Mit dem spekulierten 512-Bit MC + GDDR5 könnte jedoch die Performance mit Kantenglättung recht brauchbar sein, sodass man dieses wohl auf einer LRB-GraKa meist an lassen wird.

reunion
2009-04-15, 11:02:15
[...]also insgesamt 128 TMUs, die dann 64 TMUs bei aktuellen NV/ATi-GPUs entsprechen[..]

Warum? :|

AnarchX
2009-04-15, 11:24:01
Das ist in der Tat nicht richtig, ich war kurz bei der Annahme, dass es bei NV und ATi 16-Bit TMUs wären, aber es sind ja auch nur 8-Bit Integer pro Takt.

Dann werden es wohl bei LRB kaum 128 TMUs sein, auf den Folien sieht es ja auch eher nicht danach aus, als wären die TMUs pro Core, sondern wie bei den aktuellen GMA-Chips im Setup.

Bleibt die Frage was Intel hier als sinnvoll ansieht und hoffentlich unterbietet man ATi nicht noch bei der Filterqualität...

reunion
2009-04-15, 11:32:42
Dachte mir schon. Nur R6xx hatten 16-bit TMUs. Aber das wird ohnehin kaum verwendet.

AnarchX
2009-04-15, 11:49:33
Das >600mm² Ungetüm soll offenbar eine Extreme Edition sein:
"What you saw is the 'extreme' version, let me put it that way," said Otellini, adding that the GPU is in the debug stage now. "I would expect volume introduction of this product to be early next year."
http://www.fudzilla.com/index.php?option=com_content&task=view&id=13175&Itemid=34

Damit wahrscheinlich >32 Cores und eben für den Server/Workstation-Markt und Enthusiasten, die den Preis dafür bezahlen wollen.
Da wird sich wohl auch der 512-Bit MC auf diese Version beziehen und die Consumer-Version wohl eher mit 256-Bit kommen.