PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Larrabee (der Spekulationsthread)


Seiten : 1 2 3 4 5 [6] 7 8 9

reunion
2009-06-13, 22:43:39
Ist nur das Problem, dass Spiele das Zugpferd sind bei Streamprozessoren. Wie viele Leute wollen schon Videos hin und herkonvertieren?!
Überhaupt wird der Markt dafür wohl überschätzt.

Darum geht es gar nicht. Zukünftige CPUs müssen nicht nur general purpose Code ausführen können, sondern auch massiv parallelen Code schnell abarbeiten. Fusion, die Verschmelzung von general purpose Cores mit Streamprozessoren ist das Ziel. Alles andere ist Kinderkacke. Larrabee ist Intels erster marktfähiger Ausflug in Richtung Streamprozessoren (es gab ja auch schon Polaris oder so ähnlich). Eine Vorbereitung für zukünftige Entwicklungen. Der Spielermarkt ist nur das nötige Sprungbrett damit man so etwas aktuell rentabel anbieten kann.

AnarchX
2009-06-13, 23:53:22
Nicht ohne Grund soll es ja noch eine LRB-XE geben, bei dem ich mir vorstellen könnte, dass man hier die TMU-Zahl gegenüber den Consumer/kleinen Workstation-Version beibehält und nur die SPs skaliert.

Im Endeffekt wird LRB in gewisser Form das sein, was wir auch bei NV und AMD >2012 im Bezug auf Consumer-3D-Prozessoren sehen werden.

Gast
2009-06-14, 00:33:51
Wer will da schon AMD Stream? AMD macht fast gar nichts und hofft, dass sich alle darauf stürzen, denn die Hardware ist ja da... Es sieht so aus, alsob Nvidia alles richtig gemacht hat und AMD gar nichts.

Nicht ganz in der ct 11/09 S.142-144 ist ein sehr schöner Artikel, darin steht sinngemäß:

Software:
+ Mit Brook+ 1.4 hat AMD fast sämtliche Rückstände beseitigt.
+ AMD hat OpenSource Ansatz der Stanford-Gruppeübernommen (NV nicht)
+ Hardware kann direkt angesteuert werden
+ viele weiter sind der ct zu entnehmen

Hardware:
+ Eine 4870er liefert etwas mehr Rechen leistung als eine GTX285(!) bei einfacher Genauigkeit (int).
+ Bei doppelter sogar fast die DREIfache Rechenleistung!

Marketing / Support:
- quasi kein Marketing vorhanden
- kaum Support nötig da Kunden unbekannt

Fazit:
Die Hard und Software ist der von NV mindestens ebenbürtig teilweise deutlich überlegen, das Problem liegt im Marketing / Support begraben. Das war schon immer die schwäche von AMD und wird es wohl auch immer bleiben.

Ich vermute desweiteren das Finanzielle Gründe dahinter stecken, nach dem teuren ATi Kauf und der Wirtschaftskrise sind die Kassen wohl bereits leeren Kassen von AMD noch leerer als ATI noch nicht zu AMD gehörte. Nichtsdestotrotz finde ich den zusammen Schluss von AMD und ATI gut ;-)

deekey777
2009-06-14, 01:14:52
Das, was ich geschrieben habe, kommt aus dem c't-Artikel. CUDA ist für AMD Stream nicht einzuholen. CUDA ist deutlich besser dokumentiert, es gibt eine deutlich breitere Basis (HD2000/3000 sind tot).

Hier findet man, wer so alles AMD Stream nutzt: http://developer.amd.com/SAMPLES/STREAMSHOWCASE/Pages/default.aspx

Gast
2009-06-14, 05:52:45
naja, ich halte dne streit zwischen cuda und stream eh sinnlos auf dieser basis.
solange es "geschlossen" bleibt, wird sich eh keins durchsetzen.

Ailuros
2009-06-14, 08:32:54
Wenn es um GPGPU geht, dann könnte man A) sagen, aber mit sehr viel Vorbehalt. Nvidia bietet nicht nur CUDA und die passende Hardware dazu, sondern man unterstützt jeden Furz, der CUDA nutzen soll. Man bietet Lehrgänge und Schulungen, wissenschaftliche Projekte können einen Riesenzuschuss und entsprechende Hardware bekommen, Unis bekommen Gastvorlesungen usw.
Das ist perfektes Marketing. Wer will da schon AMD Stream? AMD macht fast gar nichts und hofft, dass sich alle darauf stürzen, denn die Hardware ist ja da... Es sieht so aus, alsob Nvidia alles richtig gemacht hat und AMD gar nichts.

Es ist eher C dann und ja ich hab mit Absicht meine Frage so formuliert.


Darum geht es gar nicht. Zukünftige CPUs müssen nicht nur general purpose Code ausführen können, sondern auch massiv parallelen Code schnell abarbeiten. Fusion, die Verschmelzung von general purpose Cores mit Streamprozessoren ist das Ziel. Alles andere ist Kinderkacke. Larrabee ist Intels erster marktfähiger Ausflug in Richtung Streamprozessoren (es gab ja auch schon Polaris oder so ähnlich). Eine Vorbereitung für zukünftige Entwicklungen. Der Spielermarkt ist nur das nötige Sprungbrett damit man so etwas aktuell rentabel anbieten kann.

Ich hatte bis jetzt den Eindruck dass Fusion eher eine Art SoC ist; gibt es neueres der an etwas anderes denken laesst? (ehrliche Frage). Anders es faellt mir schwer zu glauben dass bei etwas wie Fusion die gleichen Einheiten sowohl CPU als auch GPU Aufgaben ausfuehren werden. Ergo reden wir eher ueber etwas dass fuer Allzweck-Maschinen gedacht ist, eher in Richtung IGP (oder vielleicht sogar low end GPU) Ersatz mit variablen Konfiguration von so und so viel CPU cores und GPU cores. Das Resultat kann logischerweise nur eine bestimmte Grenze von die area einnehmen welches je nach Zielmarkt entweder die CPU oder die GPU Leistung begrenzen wird. Wichtig und stets im Hinterkopf behalten: bei einem jeglichen SoC kaempfen stets die CPU und GPU cores um die gleiche Bandbreite, welches unter normalen Umstaenden die Bandbreite der GPU verdammt stark limitiert. Eben auch ein Grund warum IMG mit ihrem TBDR Zeug so erfolreich in den Kleinkram Maerkten ist.

Wie dem auch sei Fusion (so wie ich es mir vorstelle) hat erstmal ueberhaupt nichts mit LRB zu tun. Ich wuerde sagen dass wir so weit sind um etabliert zu haben dass Sachen wie die area und Stromverbrauch LRB als total ungeeignet momentan sind fuer alles embedded. Fuer diesen Bereich wird Intel weiterhin ihre Chipset-Abteilung benutzen (fuer wie lang genau unbekannt) und fuer kleineren Kram IMG IP.

Das, was ich geschrieben habe, kommt aus dem c't-Artikel. CUDA ist für AMD Stream nicht einzuholen. CUDA ist deutlich besser dokumentiert, es gibt eine deutlich breitere Basis (HD2000/3000 sind tot).

Hier findet man, wer so alles AMD Stream nutzt: http://developer.amd.com/SAMPLES/STREAMSHOWCASE/Pages/default.aspx


http://gpgpu.org/

Gast
2009-06-14, 09:42:17
Das, was ich geschrieben habe, kommt aus dem c't-Artikel. CUDA ist für AMD Stream nicht einzuholen. CUDA ist deutlich besser dokumentiert, es gibt eine deutlich breitere Basis (HD2000/3000 sind tot).

Hier findet man, wer so alles AMD Stream nutzt: http://developer.amd.com/SAMPLES/STREAMSHOWCASE/Pages/default.aspx


Wenn du den ct Artikel richtig gelesen hättest würdest du nicht so was schreiben:

"Es sieht so aus, alsob Nvidia alles richtig gemacht hat und AMD gar nichts.

Außer du bis bein NV Fanboy... richtig ist das es NV besser verkauft. Aber AMD macht bestimmt nicht alles verkehrt.

Allerdings wird es AMD so sehen das sich sowohl Stream als auch Cuda nie durchsetzen werden sondern OpenCL evt. DX11. Und eine Investition in etwas was von vornherein zum scheitern verurteilt ist, ist keine gute Investition.

reunion
2009-06-14, 09:56:07
Ich hatte bis jetzt den Eindruck dass Fusion eher eine Art SoC ist; gibt es neueres der an etwas anderes denken laesst? (ehrliche Frage).

Fusion war von Anfang an dazu gedacht CPU und GPU zu verschmelzen. Intel geht den gleichen Weg, dazu braucht man aber erst mal einen vernünftigen Streamprozessor. Ein SoC ist bestenfalls der erste Schritt dazu.

Ich habe dir mal eine Folien rausgesucht:

http://img31.imageshack.us/img31/3334/12508amdfusion5116723.jpg (http://img31.imageshack.us/i/12508amdfusion5116723.jpg/)

Aquaschaf
2009-06-14, 10:02:11
Allerdings wird es AMD so sehen das sich sowohl Stream als auch Cuda nie durchsetzen werden sondern OpenCL evt. DX11. Und eine Investition in etwas was von vornherein zum scheitern verurteilt ist, ist keine gute Investition.

Soweit ich es sehe ist GPGPU im Consumer-Bereich nicht für sehr viele Anwendungen interessant, außer für Spiele. Und bei wissenschaftlichen Anwendungen, HPC etc. ist es nicht schlimm wenn ein Programm nur auf NVidia oder ATI läuft. Solange die hardwareabhängigen Sprachen OpenCL oder Compute Shader weit genug vorraus sind, wenn es darum geht effizient und effektiv zu programmieren, dann behalten CUDA und AMD Stream ihre Daseinsberchtigung noch für eine ganze Weile.

Ailuros
2009-06-14, 10:15:08
Fusion war von Anfang an dazu gedacht CPU und GPU zu verschmelzen.

Nur ist es im strengen Sinn keine Verschmelzung sondern lediglich CPU und GPU cores auf dem gleichen chip. Jack of all trades, master of none.

Intel geht den gleichen Weg, dazu braucht man aber erst mal einen vernünftigen Streamprozessor. Ein SoC ist bestenfalls der erste Schritt dazu.

Intel hat mit SGX den vernuenftigsten Streamprozessor ueberhaupt fuer den Marktbereich nur sind sie zu bloed diesen mit anstaendigen Treibern auszustatten und diesen auch voll auszunutzen. Und nochmal es wird NICHTS mit LRB in seinem heutigen Zustand fuer eingebettes Zeug.

Ich habe dir mal eine Folien rausgesucht:

http://img31.imageshack.us/img31/3334/12508amdfusion5116723.jpg (http://img31.imageshack.us/i/12508amdfusion5116723.jpg/)

Genau das hatte ich auch im Hinterkopf. Ergo nochmal was soll daran so besonders sein? Ich hab eine ziemlich lange Liste an Fragen betreffend Fusion die mir bis jetzt noch keiner beantworten kann. Wie z.B. man bei einem Spiel mehr als einen core benutzt und damit auch Geometrie anstaendig skaliert. Hoffentlich nicht irgend eine Blitzidee wie AFR und dazu noch mit dem ohnehin stark begrenzten Speicher eines jeglichen SoCs.

meinst die auf Anandtech, RV770: Road to success?

Ja.

Coda
2009-06-14, 14:17:35
Auf einem Die muss man GPU-Einheiten ja nicht über AFR skalieren.

Gast
2009-06-14, 14:29:00
Auf einem Die muss man GPU-Einheiten ja nicht über AFR skalieren.
Bleibt das jetzt mal so im Raum stehen oder lässt du uns teilhaben? Und warum werden dann vorahndene Multi-GPU-Karten nicht einfach zu einem virtuellen Die zusammengeführt und der Drops wäre gelutscht? :)

deekey777
2009-06-14, 14:31:44
Bleibt das jetzt mal so im Raum stehen oder lässt du uns teilhaben? Und warum werden dann vorahndene Multi-GPU-Karten nicht einfach zu einem virtuellen Die zusammengeführt und der Drops wäre gelutscht? :)
Wodurch entstehen die Drops?

=Floi=
2009-06-14, 15:13:59
meinst du nich die speicherbandbreite? speicher ist ja mitlerweile kein thema mehr. MGPU ist für fusion ja eh kein thema, denn der ist eher für office und mainstream und nicht für größere sachen gedacht. es würde ja auch keinen sinn machen.

AnarchX
2009-06-14, 18:25:15
Bleibt das jetzt mal so im Raum stehen oder lässt du uns teilhaben? Und warum werden dann vorahndene Multi-GPU-Karten nicht einfach zu einem virtuellen Die zusammengeführt
Dafür müsste man die einzelnen Dies mit Interfaces mit weit über 100GB/s verbinden, was dann wieder Die-Fläche für das Pin-Out der breiten Interfaces benötigt oder extrem hohe Frequenzen.

Coda
2009-06-14, 18:28:30
Das ist nicht nur das Problem. Es wären auch mindestens drei Chips nötig, weil die Controllogik für alle Dies natürlich geteilt werden muss.

Ailuros
2009-06-14, 18:38:31
Auf einem Die muss man GPU-Einheiten ja nicht über AFR skalieren.

Ausser mit den bisherigen slides ist eher "many-core" als multi-core gemeint, sehe ich nichts anderes fuer den zweiten Fall wo auf einem IMR ausserhalb von AFR die Geometrie anstaendig skalieren wuerde.

Wenn's kein many-core (eben a la LRB) sein sollte, dann blubbert man nicht auch ueber mehrere "cores" sondern der Skalierung von Einheiten.

Herr Doktor Klöbner
2009-06-14, 18:42:40
Hallo,

mal eine Frage an die die sich auskennen: In der CT stand, das ein Hauptproblem der bisherigen Karten bei GPGPU Anwendungen der Datenverkehr mit dem Hauptspeicher ist, welcher aufgrund kleiner und ineffekiver Caches gleichsam Lichtjahre entfernt ist, was wohl vieles massiv ausbremst.
Ist das beim Larrabee besser gelöst ?

AnarchX
2009-06-14, 18:47:03
Bei LRB soll jeder Core 256KiB L2-Cache haben, was gegenüber aktuellen GPUs schon erheblich mehr ist.

reunion
2009-06-14, 18:48:10
Genau das hatte ich auch im Hinterkopf. Ergo nochmal was soll daran so besonders sein? Ich hab eine ziemlich lange Liste an Fragen betreffend Fusion die mir bis jetzt noch keiner beantworten kann. Wie z.B. man bei einem Spiel mehr als einen core benutzt und damit auch Geometrie anstaendig skaliert. Hoffentlich nicht irgend eine Blitzidee wie AFR und dazu noch mit dem ohnehin stark begrenzten Speicher eines jeglichen SoCs.


Ich verstehe die Frage gar nicht. Spiele werden wohl auf absehbare Zeit eine dezidierte Grafikkarte benötigen. Dazu hat man auf dem CPU-Sockel schlicht zu wenig Bandbreite und zu wenig Die-Fläche übrig. Es geht aber darum CPUs auch für massiv parallelen Code bei üblichen Anwendungen wie zB Videocodierung, Verschlüsselungen, Beschleunigung verschiedenster CAD-Anwendungen, etc. fit zu machen. Es macht keinen Sinn hunderte sehr teure CPU-Cores zu verbauen wenn nur manche Anwendungen so viele Threads überhaupt verwenden können. Stattdessen skaliert man die teuren OOO-Core nur bis zu einer gewissen Anzahl und macht dann mit kleinen billigen IO-Cores in großer Anzahl weiter. Wenn ich jetzt auf einem Die zB vier Phenom-Cores und meinetwegen 120 Rv7xx-ALUs vereine verstehe ich nicht was du mit deinem AFR jetzt hier willst. Eine dezidierte Grafikkarte verwendet ja auch nicht AFR wenn sie Videos codiert oder CAD-Anwendungen beschleunigt.

Coda
2009-06-14, 19:31:02
reunion hat schon recht. Das ist eigentlich die Quintessenz von Amdahl's Law. Entweder es skaliert nicht und ist dann mit 8 "dicken" Cores eh schon gesättigt oder es skaliert eben praktisch unlimitiert und dann sind viele schlanke Einheiten schneller.

turboschlumpf
2009-06-14, 20:40:13
Ich sehe das ebenfalls so wie reunion.

Die Streaming-Cores werden für massiv parallelisierbaren Code verwendet und ersetzen zudem den IGP.

=Floi=
2009-06-14, 20:46:46
dann würde es aber noch immer mehr sinn machen eine richtige grafikkarte einzusetzen. wenn die software wirklich gut skaliert, dann lohnt es sich eher teure grafikkarten zu verbauen als so einen kleinen core. der mitarbeiter ist xmal teurer und bringt mit einem schnellen rechner der firma mehr geld.

fusion ist für billige office rechner. damit spart man vor allem am mainboard und senkt dadurch die kosten. auch kann man dadurch normal große DICE mit wenig cache bauen.

reunion
2009-06-14, 21:08:46
dann würde es aber noch immer mehr sinn machen eine richtige grafikkarte einzusetzen. wenn die software wirklich gut skaliert, dann lohnt es sich eher teure grafikkarten zu verbauen als so einen kleinen core. der mitarbeiter ist xmal teurer und bringt mit einem schnellen rechner der firma mehr geld.

fusion ist für billige office rechner. damit spart man vor allem am mainboard und senkt dadurch die kosten. auch kann man dadurch normal große DICE mit wenig cache bauen.

Fusion ist ein Marketingbegriff von AMD welcher die Integration von Bestandteilen des modernen PCs (allen voran die Grafikkarte) in die CPU symbolisieren soll und leider von vielen falsch verstanden wird. Das ein kleiner Grafikkern ("IPG") in die CPU wandert ist nach der Northbridge und dem Memorycontroller nur ein weiterer logischer Schritt. Aber es geht nicht nur darum das eine CPU bald auch Bilder anzeigen wird können, sondern es geht vorallem darum wie man die Leistung von CPUs in Zukunft weiter steigert. Endlos sehr teure OOO-Cores zu duplizieren ist hier sicherlich der falsche Weg. Man muss sich spezialisieren, man muss unterschiedliche Cores für unterschiedliche Aufgaben integrieren.

Ailuros
2009-06-14, 22:49:41
reunion hat schon recht. Das ist eigentlich die Quintessenz von Amdahl's Law. Entweder es skaliert nicht und ist dann mit 8 "dicken" Cores eh schon gesättigt oder es skaliert eben praktisch unlimitiert und dann sind viele schlanke Einheiten schneller.

Meine Frage war offensichtlich auf 3D konzentriert und nicht auf GPGPU. Fuer GP bzw. multimedia Aufgaben u.a. hab ich keinen einzigen Zweifel dass die Skalierung der GPU cores optimaler sein wird.

reunion,

Du hast sowohl recht wie auch Floi. Da wir aber im LRB Thread sind wird Intel wohl nicht so bloed sein diesen in seiner heutigen Form fuer eingebettetes Zeug zu benutzen.

=Floi=
2009-06-16, 03:25:18
es wäre mal wissenswert wie viele versionen intel davon bringen wird und wie skalierbar deren achitektur sein ist. normalerweise wird intel ja auch hier den kompletten markt abdecken und auch kleinere karten bringen. zumindest bei der 2. und 3. version kann ich mir das vorstellen.

Ailuros
2009-06-16, 21:56:56
es wäre mal wissenswert wie viele versionen intel davon bringen wird und wie skalierbar deren achitektur sein ist. normalerweise wird intel ja auch hier den kompletten markt abdecken und auch kleinere karten bringen. zumindest bei der 2. und 3. version kann ich mir das vorstellen.

Wenn eine Architektur zu hohe die area einnimmt im Vergleich zu anderen, wird dieses auch Folgen auf die Skalierbarkeit der ersten haben.

turboschlumpf
2009-06-19, 15:14:25
Larrabee is officially 1H 2010

[...]

Intel´s representatives came back to us claiming that Larrabe in 2010 is not something new and that even Ottelini Intel´s CEO confirmed 1H 2010 as the target for Larrabee launch in Intel´s last conference call.

If they don´t delay if further, Larrabee will have to fight the one we call R800 and the one we call GT300, if not even their offspring.

Quelle: http://www.fudzilla.com/content/view/14307/1/..

mekakic
2009-06-23, 16:13:40
Ich habe mich schon lange gefragt, warum Intel keinen X3100 mehr Einheiten, höheren Takt spendiert, evtl ein bissl fixt und das Treiberteam verstärkt. Verglichen mit dem Aufwand der für LRB betrieben wird dürfte es überschaubarer sein und die aktuelle Leistung des LRB locker toppen.

Man hätte die Entwicklung einfach an ImgTec fremdvergeben und sich auf das Bauen von dem Ding konzentrieren sollen.

turboschlumpf
2009-06-26, 15:35:31
Intel: Larrabee ist Chefsache und kommt erst zum IDF

Auf dem "Research @ Intel Day" in Santa Clara fehlt Intels erster Manycore-Prozessor mit Codenamen "Larrabee". Die erste öffentliche Vorführung soll nun auf dem IDF Ende September 2009 in San Francisco erfolgen.

[...]

Dennoch betont Intel, dass auch einige wenige Spieleentwickler bereits Larrabee-Karten besitzen.

[...]

Quelle: http://www.golem.de/0906/67860.html..

Ailuros
2009-06-26, 16:19:40
Da alle Entwickler selbstverstaendlich unter NDA stehen, willst Du raten wie ihre Eindruecke momentan genau aussehen?

turboschlumpf
2009-06-26, 16:59:13
Dass du kein gutes Haar an Larrabee lässt ist ja hinlänglich bekannt.

Warten wir stattdessen doch einfach das IDF (22.-24. September) ab.

Ailuros
2009-06-26, 17:49:12
Dass du kein gutes Haar an Larrabee lässt ist ja hinlänglich bekannt.

Ich werde auf jeden Fall nicht enttauescht mit LRB. Eine jegliche angenehme Ueberraschung ist im Gegensatz zu dem was Du glaubst durchaus willkommen.

Warten wir stattdessen doch einfach das IDF (22.-24. September) ab.

Nach 3 Jahren Marketing-Geblubber ueber das Ding waere kaufbare HW wuenschenswert, anstatt eine ausfuehrlichere Wiederholung vom gleichen Brei.

turboschlumpf
2009-06-26, 18:29:52
Ich werde auf jeden Fall nicht enttauescht mit LRB. Eine jegliche angenehme Ueberraschung ist im Gegensatz zu dem was Du glaubst durchaus willkommen. Vielleicht ist deine Einschätzung von Larrabee ja genauso falsch wie deine Einschätzung meiner Erwartungen von Larrabee. Zumindest glaube ich kaum, dass ich von Larrabee enttäuscht sein werde.

Nach 3 Jahren Marketing-Geblubber ueber das Ding waere kaufbare HW wuenschenswert, anstatt eine ausfuehrlichere Wiederholung vom gleichen Brei.Funktionsfähige Hardware zu sehen würde mir schon ausreichen.

=Floi=
2009-06-26, 21:57:10
auf ail ist normalerweise verlass und seine gründe sind ja auch plausibel.

Ailuros
2009-06-27, 08:02:08
Vielleicht ist deine Einschätzung von Larrabee ja genauso falsch wie deine Einschätzung meiner Erwartungen von Larrabee. Zumindest glaube ich kaum, dass ich von Larrabee enttäuscht sein werde.

Damit wir uns nicht falsch verstehen ich hab nie gesagt dass mir die Grundidee hinter LRB nicht gefaellt (ie vereinfacht quasi primitive hw mit einem intelligenten Treiber); eher das Gegenteil da der sw bzw. Treiber-Anteil eine ziemlich hohe Flexibilitaet garantiert. Meine hauptsaechlichen Einwaende betreffen den Bereich HW wobei ich mir immer noch nicht sicher bin dass die Vorteile den Nachteilen ueberwiegen.

Funktionsfähige Hardware zu sehen würde mir schon ausreichen.

Vorzeige-Material haben sie schon seit einiger Zeit, sonst haetten sie mit den Consolen-Herstellern auch nie verhandeln koennen.

Es ist eine Schande wenn man so viel Moneten in ein Projekt investiert und die einzigen Rekorde die man zu brechen schafft sind die der zu grossen die area und des zu grossen Stromverbrauchs fuer Leistung X. Diese Tatsache limitiert den Design leider sowohl ganz nach unten in den eingebetteten sowohl auch in den Enthusiast Markt zu skalieren.

KonKorT
2009-06-27, 10:27:25
Kann man mit Sicherheit sagen, dass die bisher gezeigte Hardware - und man hat ja auch schon einen Wafer in die Kamera gehalten - in 45 Nanometer produziert wurde? Gemäß diesem Fall werden mit 32 Nanometer noch mal die Karten neu gemischt in puncto Chipfläche und Leistungsaufnahme, was nicht heißen soll, dass Larrabee dann ad hoc vom Sorgenkind zum Superman wird, aber auf jedenfall vorzeigbar, respektabel.

Ailuros
2009-06-27, 14:09:19
Es werden aber nicht nur LRB's Karten zu dem Zeitpunk neu gemischt, sondern auch von den anderen IHVs die eh schon Globalfoundries neue kleinere Prozesse im Auge haben. Intel's 32nm SoC mit 45nm Grafikanteil ist zwar bei der Fertigstellung, aber auch noch nicht erhaeltlich.

Damit Intel einen Unterschied machen koennte fuer LRB muesste ein hypothetischer 32nm LRB zeitgleich als Beispiel mit einem 40nm Evergreen ankommen. Wenn's dann in der Zukunft zu sagen wir mal 32 vs. 28nm kommt nutzt es Intel auch nichts mehr besonderes.

KonKorT
2009-06-27, 15:52:46
Zurzeit muss man aber davon ausgehen, dass wir einen Larrabee @ 32 nm eher sehen als einen RV8xx oder G3xx in 32/28 nm.
Und zu deinem Vergleich, dass erst ein Larrabee 32 nm mit AMDs 40 nm-Chips mithalten kann: Wäre dem nicht so, wäre Larrabee auch revolutionär.

Mittelfristig wird Intel am Grafikkartenmarkt, und zwar auch High-End, mitmischen. Wenn sie zu Beginn die Performance erreichen, wo sich heute in etwa Performance-GPUs ala HD 4850 oder 9800 GTX+ einordnen lassen, wäre das schon ordentlich.

Ich kann mir vorstellen, dass wir mit etwas besserem als GTX 285 rechnen können.

Ailuros
2009-06-28, 13:44:53
Zurzeit muss man aber davon ausgehen, dass wir einen Larrabee @ 32 nm eher sehen als einen RV8xx oder G3xx in 32/28 nm.
Und zu deinem Vergleich, dass erst ein Larrabee 32 nm mit AMDs 40 nm-Chips mithalten kann: Wäre dem nicht so, wäre Larrabee auch revolutionär.

Indizien deuten auf mehrere Wehwehchen momentan in hw; hoechstwahrscheinlich werden diese erstmal ausgebuegelt und wenn dieses "ausbuegeln" lange genug dauert kann man erst an 32nm denken ohne das Projekt noch weiter zu verspaeten. So wie die Lage momentan aussieht sieht es fuer 32nm eher H2 2010 aus.

Mittelfristig wird Intel am Grafikkartenmarkt, und zwar auch High-End, mitmischen. Wenn sie zu Beginn die Performance erreichen, wo sich heute in etwa Performance-GPUs ala HD 4850 oder 9800 GTX+ einordnen lassen, wäre das schon ordentlich.

Kommt auf die Anzahl der cores, die finale Frequenz, den Herstellungsprozess und den Release Termin an.

Ich kann mir vorstellen, dass wir mit etwas besserem als GTX 285 rechnen können.

R600 brauchte 3 Revisionen bis es Performance Niveau in 2007 erreichen konnte und die Haelfte der Probleme waren Herstellungsprozess-bedingt. LRB ist schon bei seiner 7. Und die bisherigen leaks von Entwicklern sind gerade diese die von ein paar akzeptablen peaks sprechen aber einer eher groesseren Anzahl von unerklaerlichen Tiefen.

Gmax
2009-07-12, 02:52:32
Keine Ahnung wohin damit, ich schmeiß es mal einfach hier rein.

800 TFLOP real-time ray tracing GPU unveiled, not for gamers

A Japanese company has announced an ambitious new system that uses what is essentially a complex, 45nm ray-tracing GPU to accelerate real-time ray traced rendering. The target market is automotive design, and, unfortunately for any gamers who might fantasize about one day using it for games, it's likely to stay confined to that niche forever....

http://arstechnica.com/hardware/news/2009/07/800-tflop-real-time-ray-tracing-gpu-unveiled-not-for-gamers.ars

Ailuros
2009-07-12, 09:19:09
Normalerweise koennte es einen getrennten Thread verdienen, denn es handelt sich in dem Fall um eine hoch spezialisierte GPU.

Gast
2009-07-12, 10:19:32
Es ist keine GPU, sondern ein komplettes System und es sind keine 800 TFLOPS sondern das Äquivalent von 800 TFLOPS.
http://www.pcgameshardware.de/aid,689393/Topstream-Raytracing-Desktop-System-soll-Aequivalent-von-800-TFLOPS-erreichen/CPU/News/

turboschlumpf
2009-07-24, 13:35:32
Mal wieder eine Meldung über Larrabee.

Larrabee has two HD decoders

[...]

Getting back to power, Larrabee 1 was the first of it's kind, so once silicon came back, there were obvious things that needed doing on the next version, and the one after that. Intel is going for a fast cadence to roll out new Larrabee chips, with Larrabee 2 coming out about 9 months after 1, and number 3 about 9 months after that. There is an obvious comparison here that we won't stoop to.

[...]

So, what you will see with Larrabee is initially to get it out there, then optimize for Larrabee 2. A 32nm version will lose half the area right off the bat from the shrink. Then Intel will unleash the optimization elves from the caves under Hillsboro (After dark of course......), and you could be looking at a second generation that is closer to 250mm^2 than 500.

[...]

Quelle: http://www.semiaccurate.com/2009/07/21/larrabee-has-two-hd-decoders/

deekey777
2009-07-24, 14:09:08
Es ist nicht überraschend, dass der Larrabee spezielle Hardware für die Videowiedergabe bekommt, das haben nämlich alle Grafikkarten der letzten Jahre.

turboschlumpf
2009-07-24, 14:33:58
Weitere Infos zu Larrabee zur Siggraph in gut einer Woche.
Intel to Begin Educating Software Makers How to Develop for Larrabee Graphics Chips at Siggraph.

Intel Corp. will start educating software developers to use its code-named Larrabee graphics processing units (GPU) efficiently and utilize their unique capabilities at Siggraph conference due in early August ’09. This is virtually the first time when Intel plans to publicly reveal ways of advanced utilization of Larrabee among more or less wide audience.

[...]

Siggraph conference will be held from the 3rd to the 7th August, 2009, whereas the Siggraph exhibition are scheduled for 4 – 6 August, 2009. Both events will be held in Ernest N. Morial Convention Center in New Orleans, Louisiana.

Quelle: http://www.xbitlabs.com/news/video/display/20090720145335_Intel_to_Begin_Educating_Software_Makers_How_to_Develop_for_Larra bee_Graphics_Chips_at_Siggraph.html

Ailuros
2009-07-24, 14:43:29
Es ist nicht überraschend, dass der Larrabee spezielle Hardware für die Videowiedergabe bekommt, das haben nämlich alle Grafikkarten der letzten Jahre.

Sogar SoCs fuer Handys haben getrennte Decoder, eben weil man auch hier den graphics core nicht fuer so etwas einfaches einschalten will ueberhaupt wenn man auf Batterie operiert. Auf LRB ist aber eine solche Massnahme notwendiger als auf anderen GPUs, da der insgesamte Stromverbrauch alles andere als mager ist.

Wie dem auch sei die ~<22mm2/core koennten stimmen (@45nm), eben der Grund warum ich schon seit einiger Zeit sage dass LRB fuer SoCs vorruebergehend total ungeeignet ist. Auch bei <45nm Prozessen duerfte sich in diesem Bereich nicht viel aendern, denn die area skaliert auch bei heutigen eingebetteten chips mit kleineren Herstellungsprozessen radikal nach unten.

deekey777
2009-07-24, 14:50:04
Sogar SoCs fuer Handys haben getrennte Decoder, eben weil man auch hier den graphics core nicht fuer so etwas einfaches einschalten will ueberhaupt wenn man auf Batterie operiert. Auf LRB ist aber eine solche Massnahme notwendiger als auf anderen GPUs, da der insgesamte Stromverbrauch alles andere als mager ist.
Mir ging's eher darum, dass niemand auf die falsche Fährte kommt und den Larrabee umsonst schlecht macht ("2 TFLOPS an Leistung und trotzdem zusätzliche Videodecoder").
Die GPUs haben diese zusätzlichen Cores gerade, weil die Umsetzung über Shader zu kompliziert wäre.

Ein Multimedia-Rechner mit dem Larrabee mit Schwerpunkt auf Videobearbeitung/-Encoding könnte bei entsprechender Software erste Sahne werden.

Ailuros
2009-07-24, 14:53:59
Ein Multimedia-Rechner mit dem Larrabee mit Schwerpunkt auf Videobearbeitung/-Encoding könnte bei entsprechender Software erste Sahne werden.

Bei bruellenden ~22mm2/core@45nm? Wie gross sind denn die eigebetteten Grafik cores von Intel unter 45nm?

robbitop
2009-07-24, 14:54:14
Videoencoding ist so eine Sache. Die einfachen Algorithmen lassen sich gut parallelisieren und erbringen eine verhältnismäßig mäßige Komprimierung bzw. BQ. Die komplexeren Algorithmen hingegen lassen sich nur bedingt parallelisieren. Nicht ohne Grund kann man bisherige CUDA/Stream/GPGPU Encoder bis heute eigentlich in die Tonne kloppen. Die x264 Devs haben das ja auch schon mal angedeutet.

deekey777
2009-07-24, 15:04:24
Bei bruellenden ~22mm2/core@45nm? Wie gross sind denn die eigebetteten Grafik cores von Intel unter 45nm?
Worauf willst du jetzt hinaus?

Aber was ist mit dieser Idee: Es wird der Xilleon bzw. ein Abkömmling dessen sein. Broadcom hat die Xilleon-Technologie aufgekauft und soll für Pine-Ding liefern, was irgendwie nach Xilleon klingt.

Ailuros
2009-07-24, 15:11:43
Worauf willst du jetzt hinaus?

Aber was ist mit dieser Idee: Es wird der Xilleon bzw. ein Abkömmling dessen sein. Broadcom hat die Xilleon-Technologie aufgekauft und soll für Pine-Ding liefern, was irgendwie nach Xilleon klingt.

Es kann sein dass wir uns hier vielleicht falsch verstehen; afaik wird Intel's chipset team und IMG IP weiterhin fuer die vorhersehbare Zukunft fuer SoCs eingesetzt weil eben LRB zu viel die area im Gegensatz fuer diese Maerkte verdampft.

Mir geht es nicht um die decoder sondern um die Grafikkerne. Uebrigens bleibt mein Verdacht dass man fuer tiling bzw. rasterizing bei so einer Unzahl von cores wie auf LRB auch nicht wirklich relevante ff hw dafuer braucht. Wenn man ganz nach unten skalieren will kann man entweder auf den tiling Fehlschlag von Intel's chipsets beruhen oder relevante nutzvolle hw einbauen. Soll jetzt nochmal ein relativ kleines Prozentual an die area dazukommen entwickelt man lieber einen Ersatz von Grund auf.

Gast
2009-07-27, 13:36:24
dem gegenueber steht die SPURSEngine von Toshiba die angaeblich super fuer decoden/encoden ist, bei recht kleiner leistungsaufnahme.

Gast
2009-08-02, 16:18:34
Kennt Ihr die Papers/Präsentationen/Artikel zu LRB ?

http://www.ac.usc.es/arith19/sites/default/files/SSGPUP2_LarrabeeAManyCoreIntelArchitectureProcessor.pdf

A First Look at the Larrabee New Instructions (LRBni)
http://www.ddj.com/architect/216402188

Rasterization on Larrabee
http://www.ddj.com/hpc-high-performance-computing/217200602

http://www.ece.neu.edu/groups/nucar/GPGPU/GPGPU-2/Seiler.pdf

Home›Technology and Research›Intel Technology Journal›Multi-Core Software
http://www.intel.com/technology/itj/2007/v11i4/7-future-proof/1-abstract.htm

A closer look at GPU's
http://graphics.stanford.edu/~kayvonf/papers/fatahalianCACM.pdf

Gruß

misterh
2009-08-07, 02:57:13
http://software.intel.com/en-us/videos/SIMD-Programming-with-Larrabee-part-I-of-II/

http://software.intel.com/en-us/videos/SIMD-Programming-with-Larrabee-part-II-of-II/

AnarchX
2009-08-11, 11:28:45
16 Core LRB im Einsatz? (http://www.youtube.com/watch?v=3AFi6y1Ap-c)

boxleitnerb
2009-08-11, 11:39:56
OT: Was ist das für eine Sprache in dem Video? Klingt irgendwie nach verenglischtem Spanisch.

AnarchX
2009-08-11, 11:42:09
Portugiesisch, das Video stammt offenbar von diesem brasilianischen Tech-Porta (http://olhardigital.uol.com.br/)l.

Ailuros
2009-08-11, 12:24:16
16 Core LRB im Einsatz? (http://www.youtube.com/watch?v=3AFi6y1Ap-c)

An error occured. Please try again later

Klingt erstmal nach Intel's Treibern :biggrin:

Ailuros
2009-08-18, 14:47:43
http://www.fudzilla.com/content/view/15098/1/

crux2005
2009-08-18, 15:02:03
16 Core LRB im Einsatz? (http://www.youtube.com/watch?v=3AFi6y1Ap-c)

cos gamos modernos und sie zeigen Bilder von CS ;D wie geil...

http://www.fudzilla.com/content/view/15098/1/

Mich würde echt interessieren, wie viel Geld die schon in das Projekt Larrabee gesteckt haben wenn es schon die "3.gen" ist... wenig war es aber sicher nicht.

Gast
2009-08-19, 10:32:47
Wie lange ist der Chip denn schon in Entwickung?

Ailuros
2009-08-19, 10:44:29
Wie lange ist der Chip denn schon in Entwickung?

Wie lange braucht man fuer 7 chip Revisionen?

StefanV
2009-08-19, 15:28:42
Braucht man immer noch 12 Wochen vom Waferstart bis zum Ende??
Oder sinds nur 3-4 Wochen?

Ailuros
2009-08-20, 14:08:13
http://www.fudzilla.com/content/view/15108/1/

Wie jetzt das obrige zur folgenden Logik passen soll muss mir jemand erstmal erklaeren:

http://www.fudzilla.com/content/view/15138/1/

Kurz sie fuchteln unendlich am originalen Projekt rum wobei es verstaendliche Stromverbrauch-Probleme gibt, man hofft momentan auf einen H2 2010 release und gleichzeitig plant man angeblich einen IGP fuer ~2011 dafuer wobei Stromverbrauch der wichtigste Punkt ueberhaupt bei jedem integrierten/eingebetten Design generell ist....

Coda
2009-08-20, 14:37:53
Evtl. sehen wir tatsächlich nie einen x86-Larrabee. Ich wäre nicht sonderlich überrascht.

Ailuros
2009-08-20, 14:42:39
Evtl. sehen wir tatsächlich nie einen x86-Larrabee. Ich wäre nicht sonderlich überrascht.

Nach all den Jahren an Entwicklung nochmal fast von vorne anfangen?

Coda
2009-08-20, 14:51:59
Nö, man kann x86 ja auch soweit "entmisten", dass es vernünftig wird. Das erste was def. entfernt gehört ist x87 und SSE.

Die Vector-Instructions passen ja soweit schon.

Ailuros
2009-08-21, 11:20:40
http://www.fudzilla.com/content/view/15148/1/

Pah...!

Knuddelbearli
2009-08-21, 11:31:38
Sehe für den Larrabee das selbe Schicksal wie für Itanium.

allem Anschein extreme TDP ( Itanic hatte bis zu 170W ) und sehe immer noch nicht den Sinn darin hoch effiziente auf 1 Art der Berechnung aufgebaute Architektur durch eine x86 zu ersetzten, wobei man die meisten Funktionen nie brauchen wird, und alles über Software gereglt werden muss wo Intel doch für seine IGPs so gute Treiber macht ...


Dazu kommt noch das Ende 2010 auch GPUs sicherlich 32nm haben da Anfang Mitte 2011 28nm geplant ist.

Transistoren sollte ja bereits die G300 mehr haben als der zuletzt spekulierte Larrabee und dazu sind die des G300 hoch spezialisiert leisten also mehr je Transistor.


Dazu passt auch das man den Itanic2 nativer Quad solange rausgeschoben wird bis alle Vorbestellungen zurückgezogen werden.

StefanV
2009-08-21, 11:46:33
http://www.fudzilla.com/content/view/15148/1/

Pah...!
Hm, ich glaub da eher den nV/AMD Leuten als Intel.
Weil was soll der denn sonst sagen?!

Sowas wohl kaum:
"Oh, ja, die anderen sind korrekt, unsere ersten 2/3 Designs waren Müll und haben gar nicht funktioniert, so dass wir gezwungen waren, den Larrabee noch mal zu überarbeiten".

Coda
2009-08-21, 13:51:56
Ich denke nicht, dass sie nicht funktionieren, sondern eher dass sie viel zu viel Strom fressen.

=Floi=
2009-08-21, 14:18:45
dann müssen sie hald im treiber eine drosselung einbauen. ;D *teuflischlach*

(del)
2009-08-21, 14:18:49
@Coda
Das ist auch die Eigenschaft von allen GPUs die hier periodisch angebeten werden.

p.s.:
Floi troll mal nicht dauernd rum. Häng erstmal ein MP3 an wo man hören kann ob du überhaupt teuflisch lachen kannst. Viel erzählen kann jeder.

Coda
2009-08-21, 14:21:06
Das ist auch die Eigenschaft von allen GPUs die hier periodisch angebeten werden.
Spar dir deine OT-Kommentare. Es geht um eine TDP weit jenseits von derzeitigen GPUs.

Es ist die Kühlung das Problem, nicht das was dir in deiner Welt als zu viel erscheint.

Ailuros
2009-08-21, 14:28:59
@Coda
Das ist auch die Eigenschaft von allen GPUs die hier periodisch angebeten werden.

Ist sie eben nicht; das Stromverbrauch zu Leistungsverhaeltnis auf dem Ding ist momentan immer noch so schlecht dass man es bei bestem Willen nicht so verkaufen kann.

p.s.:
Floi troll mal nicht dauernd rum. Häng erstmal ein MP3 an wo man hören kann ob du überhaupt teuflisch lachen kannst. Viel erzählen kann jeder.

Da er weder jemand persoenlich angegriffen hat direkt oder indirekt im Gegensatz zu Dir, rate mal wer von Euch beiden beim naechsten Mal unangenehme Konsequenzen zu erwarten hat.

(del)
2009-08-21, 14:33:08
@Coda
Dafür sparst du meist mit Quellen und Links. Daß Larabee "jenseits" oberhalb der TDPs solcher GPUs ist konnte ich bis jetzt nirgendwo nachlesen. Ist ja keine Schande erstmal.
Deine Beiträge aber basieren sowieso oft auf der Annahme, man sollte die Zweizeiler für Wort Gottes halten. Ich find das meist recht mager und tippfaul.

Deswegen kann die Behauptung genausogut Bullshit sein, weil die Kühlung ist auch bei den erwähnten GPUs schon ein Problem. Die können sich aber auf einer großen Steckkarte mit einer mächtigen "flächendeckenden" Kühllösung austoben.

@Ailuros
Daß das Verhältnis TDP zur Rechenleistung sehr mager sein soll, ist ein leicht anderes Thema. Das war erstmal nicht das was Coda rausgezischt hat. Von dem was ich bis jetzt gesehen habe könnte man den Larabee auch noch nicht so wirklich verkaufen, selbst wenn er besser kühlbar wäre (?)

Ist die Initiative auch mal klares Longue-Gaga außerhalb einzuschränken, ausgelaufen? Dann hab ich das noch nicht mitbekommen. Man entschuldige.

Ailuros
2009-08-21, 14:37:28
Hm, ich glaub da eher den nV/AMD Leuten als Intel.
Weil was soll der denn sonst sagen?!

Sowas wohl kaum:
"Oh, ja, die anderen sind korrekt, unsere ersten 2/3 Designs waren Müll und haben gar nicht funktioniert, so dass wir gezwungen waren, den Larrabee noch mal zu überarbeiten".

Es stimmt leider dass der heutige Design durch mehrere Revisionen gelaufen ist und es ist Ansichstsache wie man die Anzahl des Designs zaehlen will. Darum geht es aber auch gar nicht. Das eigentliche Problem ist dass der Stromverbrauch enorm hoch ist und es wurde auch indirekt von einem waschechten Intel engineer auf B3D vor Tagen in aller Oeffentlichkeit bestaetigt, nur weiss eben nicht gerade jeder der mitliest wer jetzt wer genau ist. Irgendwo in der Art als jemand von ueber 20W pro core murmelte: "we are not that crazy after all...". Sie koennen froh sein wenn sich das finale Resultat auf </=7W pro core sein wird, aber unter 45nm sieht es nach einem verdammt langem Weg aus. Ausser man trottelt die Frequenz auf total banale Werte und kastriert nochmal die finale Leistung.

Mit IGPs wird aus dem Zeug selbst mit 7W/core wohl nichts; ausser Intel ist es scheissegal dass ihre IGPs dann zich Mal mehr Strom brauchen als jeder andere konkurrierende chip.

=Floi=
2009-08-21, 14:39:22
im professionellen GPGPU-bereich wird wohl sehr stark darauf geschaut, weil es ein entscheidender kostenfaktor ist.

Ailuros
2009-08-21, 14:46:38
@Ailuros
Daß das Verhältnis TDP zur Rechenleistung sehr mager sein soll, ist ein leicht anderes Thema. Das war erstmal nicht das was Coda rausgezischt hat.

Ich bezweifle dass es eigentlich um die Perspektive einer Tatsache geht.

Angenommen sie schaffen das Ding so hinzudrehen unter 45nm dass es nur um die 7W pro core verbratet, hat man also ~224W fuer das Ding bei 32 cores und man verbratet damit ueber 70% mal mehr als der naechster Generation highest end single chip, hat um ca. 40+% mehr die area verschwendet fuer Leistung die nur unter Sonderbedingungen und mit viel Anstrengung auf heutige GPU Werte reicht.

(del)
2009-08-21, 14:54:06
aber unter 45nm sieht es nach einem verdammt langem Weg aus.Was ich jedenfalls beobachtet habe, ist, daß das Zeug schon bei den Ankündigungen NV recht nervös machte bzw. macht. ATI hat die Reaktionen seiner Leute nur besser im Griff gehabt. Das kommt aber alles nicht von ungefähr.

Andererseits haben die IHVs unterhalb 45nm auch mehr Möglichkeiten. Es ist schwierig da mit der Glaskugel zu fuchteln.
Soetwas wie P4 oder Itanium kennt man von Intel bereits...

edit:
Ja ok. Das sind schon brutale Werte :)

Ailuros
2009-08-21, 14:58:33
Was ich jedenfalls beobachtet habe, ist, daß das Zeug schon bei den Ankündigungen NV recht nervös machte bzw. macht. ATI hat die Reaktionen seiner Leute nur besser im Griff gehabt.

Und was hat das jetzt mit dem Thema zu tun? Gar nichts. Ganz nebenbei kommen meine Schnippel an Infos von weder noch sondern direkt vom Maul des Loewen.

Andererseits haben die IHVs unterhalb 45nm auch mehr Möglichkeiten. Es ist schwierig da mit der Glaskugel zu fuchteln.

Wenn es schon nach aussen sickert dass es eher H2 2010 koennten werde, ist 45nm schon nicht mehr der Rede wert. Je kleiner der chip und je weniger er verbraucht im Vergleich zu vorigen Varianten desto besser fuer Intel und fuer Intel alleine.

(del)
2009-08-21, 15:24:45
Und was hat das jetzt mit dem Thema zu tun?Muß ich mich jetzt starr an deine Interpretation des Threadtitels halten? :| Irgendwie...

H2 2010 ist für mich aber kein "langer Weg" mehr, von jetzt an. Andererseits denke ich, daß auch 2010 noch nichts rauskommt was uns hier glücklich machen könnte.

KonKorT
2009-08-21, 16:17:09
Mit IGPs wird aus dem Zeug selbst mit 7W/core wohl nichts; ausser Intel ist es scheissegal dass ihre IGPs dann zich Mal mehr Strom brauchen als jeder andere konkurrierende chip.
Fuad und Charlie haben da bullshit geschrieben. Es soll keine IGP auf Larrabee-Basis geben!
Womit Fuad aber offenbar recht hat, ist, dass es bisher schon drei Chips gab. Und bis Larrabee final im Handel steht, wird es mindestens noch einen vierten Chip geben.
Inwiefern sich das alles auf den Launchzeitpunkt auswirken wird, bleibt abzuwarten.

StefanV
2009-08-21, 17:37:13
Ich denke nicht, dass sie nicht funktionieren, sondern eher dass sie viel zu viel Strom fressen.
Hm, zwischen Hirn und PC ist irgendwie ein 'gut' abhanden gekommen...
Aber die Sache mit der Leistungsaufnahme ist ein Punkt, der so alt ist wie Larrabee selbst...
Ist sie eben nicht; das Stromverbrauch zu Leistungsverhaeltnis auf dem Ding ist momentan immer noch so schlecht dass man es bei bestem Willen nicht so verkaufen kann.
Genau, man munkelt ja auch, das die 300W Erweiterung der PCIe Spec sowie die 3 Slot Kühler eben Intel verschuldet sein soll, die das eben aufgrund ihres super tollen Grafikchps benötigen.


Es stimmt leider dass der heutige Design durch mehrere Revisionen gelaufen ist und es ist Ansichstsache wie man die Anzahl des Designs zaehlen will. Darum geht es aber auch gar nicht. Das eigentliche Problem ist dass der Stromverbrauch enorm hoch ist und es wurde auch indirekt von einem waschechten Intel engineer auf B3D vor Tagen in aller Oeffentlichkeit bestaetigt, nur weiss eben nicht gerade jeder der mitliest wer jetzt wer genau ist. Irgendwo in der Art als jemand von ueber 20W pro core murmelte: "we are not that crazy after all...". Sie koennen froh sein wenn sich das finale Resultat auf </=7W pro core sein wird, aber unter 45nm sieht es nach einem verdammt langem Weg aus. Ausser man trottelt die Frequenz auf total banale Werte und kastriert nochmal die finale Leistung.
Schade, ich hab gehofft, das Intel sich mal richtig schön vor aller Welt blamiert, mit dem "Itanic, Part 2", das wäre auch etwas, das wirklich mal nötig wäre...

Anyway: Was beinhaltet ein Larrabee Core eigentlich?
'nen Atömchen mit AVX??


Mit IGPs wird aus dem Zeug selbst mit 7W/core wohl nichts; ausser Intel ist es scheissegal dass ihre IGPs dann zich Mal mehr Strom brauchen als jeder andere konkurrierende chip.
Siehe Netburst in 90nm aka Presskott (oder Preskopp oder Preshot), da war auch schon die Leistungsaufnahme enorm, von daher ist das durchaus möglich, das sie das tatsächlich bringen werden.

Die Reviewer werden das schon irgendwie schön reden (wie beim Notebook Review letztens auf Anand, wo die unbrauchbare Intel IGP schön geredet wurd, weil braucht man ja eh nicht in 'nem mobilen Rechner)...

Ailuros
2009-08-22, 06:46:41
Muß ich mich jetzt starr an deine Interpretation des Threadtitels halten? :| Irgendwie...

Keineswegs. Aber es waere schon angebrachter wenn Du auf jemand's Post Punkt fuer Punkt zu antworten versuchst, dass es auch eine gewisse Relevanz zwischen all dem gibt.

H2 2010 ist für mich aber kein "langer Weg" mehr, von jetzt an. Andererseits denke ich, daß auch 2010 noch nichts rauskommt was uns hier glücklich machen könnte.

Ich kann nicht wissen ob 32nm schon in H2 moeglich ist. Auf jeden Fall klang es mir als Laie von Anfang an besser wenn LRB nicht mit 45nm in die Startloecher gehen wuerde. Froh bin ich auf jeden Fall nicht ueber die endlosen Verspaetungen, egal ob es danach klingen koennte.

Mir wurde in der Vergangenheit etliche Male vorgeworfen dass ich voreingenommen gegen Intel bin; waere dem so haette ich bis jetzt eine Unmenge an Luegen aufgetischt, LRB wuerde zumindest vor Auflauf des Jahres auf Regalen hocken und beide andere Grafik IHVs verdammt unruhig mit dem Resultat machen.

Fuad und Charlie haben da bullshit geschrieben. Es soll keine IGP auf Larrabee-Basis geben!
Womit Fuad aber offenbar recht hat, ist, dass es bisher schon drei Chips gab. Und bis Larrabee final im Handel steht, wird es mindestens noch einen vierten Chip geben.
Inwiefern sich das alles auf den Launchzeitpunkt auswirken wird, bleibt abzuwarten.

Und wenn ich jetzt frage was Fudo mit 3 chips meint bekomm ich wieder keine logische Antwort? Afaik ist es bis jetzt der gleiche chip der durch mehrere Revisionen gegangen ist. Das letzte Mal als ich etwas darueber hoerte war es bei Nummer 7 und eine Revision ist ein total anderes Kapitel als angebliche 3 oder 4 chips. Man wird ja nicht so bloed sein einen chip jedesmal links liegen zu lassen und das Ganze von vorne nochmal anzugreifen.


Siehe Netburst in 90nm aka Presskott (oder Preskopp oder Preshot), da war auch schon die Leistungsaufnahme enorm, von daher ist das durchaus möglich, das sie das tatsächlich bringen werden.

Die Reviewer werden das schon irgendwie schön reden (wie beim Notebook Review letztens auf Anand, wo die unbrauchbare Intel IGP schön geredet wurd, weil braucht man ja eh nicht in 'nem mobilen Rechner)...

Ich halte die integrierte/eingebettete LRB Geschichte nach wie vor als ein Maerchen. Intel's groesster Gewinnpunkt mit der ATOM Z Serie ist der sehr geringe Stromverbrauch insgesamt und vermarkten diesen auch ziemlich fett. Ich bezweifle dass momentan ausserhalb von Intel's Waenden jemand weiss was sie fuer desktop IGPs oder SoCs der Zukunft genau vorhaben. Aber es sieht nach wie vor wahrscheinlicher aus dass ihr chipset team weiterhin besteht und sie fuer Kleinkram/eingebettetes Zeug weiterhin lizenzieren werden. Was war bis jetzt der Verkaufsslogan gegen ION? Was wird nun wenn ION2 zumindest 2x Mal so leistungsfaehig als ION ausfaellt, mit aber ziemlich vergleichbaren Verbrauch? Vergleiche mit AMD laufen dann auf der gleichen Schiene und Schluessel dazu ist das Schlagwort FUSION....

So lange wird es nicht mehr dauern bis IMG ihre kommende Serie6 ankuedingt; Intel war bis jetzt konstant fuer 2 Generationen der erste Lizenznehmer von IMG IP. Im Fall von Serie5 kam zuerst die Intel Lizenz und dann die offizielle Serie5 Ankuendigung. Sobald eine aehnliche zukuenftige Ankuedigung auftaucht, waere es schon ein erstes Anzeichen was Intel vielleicht planen koennte.

Popopinsel
2009-08-22, 18:52:04
Komme gerade von der Gamescom wieder und hatte ein kleines Gespräch mit einem Intel-Mitarbeiter.

Nach seiner Aussage sei mit ersten Serienprodukten "ab nächstem Jahr" zu rechnen und man "plant" gar mit den "Platzhirschen" Nvidia und ATI im "High-End"-Segment mitzumischen.

Vielleicht keine Neuigkeiten für Euch, aber trotzdem ein sehr interessantes Gespräch über den i7 und Larrabee. Ich hatte mir eigentlich nur den Wafer dort näher anschauen wollen, als mich der Mitarbeiter über die technischen Details aufklären wollte. Als ich meine Chance witterte, hab ich ihn auf das Thema Larrabee angesprochen, auf das er zunächst nur mit einem Schmunzeln reagierte. =)

][immy
2009-08-22, 22:01:14
Mit IGPs wird aus dem Zeug selbst mit 7W/core wohl nichts; ausser Intel ist es scheissegal dass ihre IGPs dann zich Mal mehr Strom brauchen als jeder andere konkurrierende chip.

selbst wenn es sich um 7 watt pro core handelt, wären das ja noch 224 Watt bei einer 32-chip variante. wenn dann nicht mal die Geschwindigkeit einer kommenden high-end karte erreicht wird, ist intel definitiv auf dem falschen weg. Oder habe ich jetzt etwas bei ein 7 watt pro core falsch verstanden?

Ailuros
2009-08-23, 06:32:33
[immy;7487721']selbst wenn es sich um 7 watt pro core handelt, wären das ja noch 224 Watt bei einer 32-chip variante. wenn dann nicht mal die Geschwindigkeit einer kommenden high-end karte erreicht wird, ist intel definitiv auf dem falschen weg. Oder habe ich jetzt etwas bei ein 7 watt pro core falsch verstanden?

http://forum.beyond3d.com/showpost.php?p=1321561&postcount=27

uh, yes, we are going to ship a part that requires 32*30 watts.

yeah, right. think about it, that just cannot be right.

speculating how close to the existing power envelope of top-end cards we will be, thats informed speculation.

speculating we will be 2-3x existing cards power envelope, that isnt really giving us much credit. we are not crazy, well, at least not that crazy

http://forum.beyond3d.com/showpost.php?p=1321647&postcount=30

Think about LRB cores as Atom + VPU. Atom has TDP=2.4W @ 2GHz, so 32 cores would only use 64W (save TDP by eliminating the FSB which is 0.2-0.5W and sse unit). Then you have the VPUs, which are pretty power hungry, but I don't want to wager a guess on the actual numbers. Then you have the memory interface and TMUs.

Kurz Du hast leider gar nichts falsch verstanden. Cypress aka RV870 ist insgesamt einen kleinen Schnitt unter der GTX295 Leistung; denk mal nach was so ein Ding an Strom verbrauchen koennte und wieviel die area es einnehmen koennte.

***edit: ich mach es Dir noch einfacher und hochspekulativ meinerseits:

Stromverbrauch:

LRB -> RV870 -> D12U

Perf/mm2:

RV870 -> D12U -> LRB

Leistung insgesamt:

D12U -> RV870 -> LRB

Gast
2009-08-23, 11:12:55
Nach seiner Aussage sei mit ersten Serienprodukten "ab nächstem Jahr" zu rechnen und man "plant" gar mit den "Platzhirschen" Nvidia und ATI im "High-End"-Segment mitzumischen.

Wenn dem mal nicht das gleiche Schicksal wie der i740 blüht...
Da die Entwicklung im Bereich 3D-Beschleunigung aber rasant voranschritt, veraltete der Chip sehr bald, ohne große Spuren auf dem Markt hinterlassen zu haben.

http://de.wikipedia.org/wiki/I740

Gast
2009-08-23, 13:47:53
RV870 braucht mehr Saft als D12U???

***edit: ich mach es Dir noch einfacher und hochspekulativ meinerseits:

Stromverbrauch:

LRB -> RV870 -> D12U

Perf/mm2:

RV870 -> D12U -> LRB

Leistung insgesamt:

D12U -> RV870 -> LRB

Gast
2009-08-23, 14:48:36
RV870 braucht mehr Saft als D12U???
siehe:
und hochspekulativ meinerseits

=Floi=
2009-08-23, 15:03:00
viel weniger wird er sicherlich nicht brauchen. Ati wird dem ding sicherlich wieder ganz gut feuer machen, damit der takt stimmt und man auf nv so nahe wie möglich aufschließen kann.

LRB könnte aber durch mehr und bessere features überraschen. zumindest eine gute filterung würde ihn aufwerten. Intel könnte auch gutes aa und andere sachen einbauen. ich denke den meisten wird klar sein, dass man nich von 0 auf 100 mit dem ersten produkt kommt und man sich dauerhaft entwickeln muß. ich sehe lrb trotzdem als eine sehr große konkurrenz.

Tigerchen
2009-08-23, 15:53:10
viel weniger wird er sicherlich nicht brauchen. Ati wird dem ding sicherlich wieder ganz gut feuer machen, damit der takt stimmt und man auf nv so nahe wie möglich aufschließen kann.

LRB könnte aber durch mehr und bessere features überraschen. zumindest eine gute filterung würde ihn aufwerten. Intel könnte auch gutes aa und andere sachen einbauen. ich denke den meisten wird klar sein, dass man nich von 0 auf 100 mit dem ersten produkt kommt und man sich dauerhaft entwickeln muß. ich sehe lrb trotzdem als eine sehr große konkurrenz.
Larrabee ist und bleibt Vaporware und wird wohl überhaupt nur ab 2015 als IGP Verwendung finden.

StefanV
2009-08-23, 16:15:34
LRB könnte aber durch mehr und bessere features überraschen. zumindest eine gute filterung würde ihn aufwerten. Intel könnte auch gutes aa und andere sachen einbauen. ich denke den meisten wird klar sein, dass man nich von 0 auf 100 mit dem ersten produkt kommt und man sich dauerhaft entwickeln muß. ich sehe lrb trotzdem als eine sehr große konkurrenz.
Man sollte den Tag nicht vor dem Abend loben!
Bisher ist Intel auch nicht gerade für überragende Bildqualität bekannt sondern eher das Gegenteil davon!
Also Grafik mit allen möglichen Mogeleien, auf SIS/XGI Niveau, dazu noch äußerst bescheidenste Treiber für den Grafikkern.

Also erst ein mal abwarten und Tee rauchen, nur weil da Intel drauf steht, muss es noch lang nicht gut sein, auch wenn das einige gern hätten...

=Floi=
2009-08-23, 17:26:44
sagte ich ja auch nicht und habe ich auch nie erwartet, nur könnte man sich so positiv absetzen und durch solche sachen auffallen, da der stromverbrauch und perf/mm2 eben nicht gut sind.
wenn man es gut anstellt, dann kann man das auch relativ unwichtig erscheinen lassen. siehe nv, bei denen bringt man auch dafür andere vorteile.
intel muß hier aber viel mehr geld in den treiber stecken und ohne guten treiber kann intel einpacken. Diese mogeleien und nicht vorhande qualität geht hier nicht mehr durch, da mit der karte auch gespielt werden soll! Intel hat zumindest das geld und die intelligenz noch etwas gutes daraus zu machen, da das potential des chips einfach da ist.

Coda
2009-08-23, 17:29:23
Man sollte den Tag nicht vor dem Abend loben!
Bisher ist Intel auch nicht gerade für überragende Bildqualität bekannt sondern eher das Gegenteil davon!
Also Grafik mit allen möglichen Mogeleien, auf SIS/XGI Niveau, dazu noch äußerst bescheidenste Treiber für den Grafikkern.

Also erst ein mal abwarten und Tee rauchen, nur weil da Intel drauf steht, muss es noch lang nicht gut sein, auch wenn das einige gern hätten...
Ach Steffi, du glaubst doch nicht ernsthaft, dass Intel bei LRB kein gescheites AF anbieten wird.

Multisampling wird's auch geben inkl. sparsed grid.

StefanV
2009-08-23, 18:14:59
Ach Stefan, du glaubst doch nicht ernsthaft, dass Intel bei LRB kein gescheites AF anbieten wird.

Multisampling wird's auch geben inkl. sparsed grid.
Ich glaubs erst, wenn ichs sehe, vorher nicht, was davor passiert, ist nicht bekannt, sagen kann man viel.

Von daher: abwarten und Tee rauchen und nicht auf irgendwas hoffen, das am Ende nicht unbedingt sein muss...

Coda
2009-08-23, 18:41:00
Ich glaubs erst, wenn ichs sehe, vorher nicht, was davor passiert, ist nicht bekannt, sagen kann man viel.
Multisampling ist ein Fakt und vor allem eine Voraussetzung für D3D11.

Bei AF brauchen sie mit High-End-GPUs nichtmal antreten, falls es nicht zumindest winkelabhängig ist. Sample-"Optimierungen" sind natürlich eine andere Sache, aber da bräuchten sie sich ja auch hinter AMD nicht zu verstecken.

Demirug
2009-08-23, 18:59:21
Multisampling ist ein Fakt und vor allem eine Voraussetzung für D3D11.

Bei AF brauchen sie mit High-End-GPUs nichtmal antreten, falls es nicht zumindest winkelabhängig ist. Sample-"Optimierungen" sind natürlich eine andere Sache, aber da bräuchten sie sich ja auch hinter AMD nicht zu verstecken.

MS ist schon ab 10.1 Plicht. 16xAF sogar ab 10.0

StefanV
2009-08-23, 20:29:58
Ist mir auch klar, das das für D3D10 voraussetzung ist, trotz dessen ich einige Zeit nicht hier war...
Dennoch ändert das nichts an dem Zustand, das wir hier nicht zu viel erwarten sollten bzw irgend etwas hypen bzw mehr erwarten sollen als das, was die Spec verlangt.
Von daher, wie so oft: abwarten und Tee rauchen.

Ich erwarte KEINEN D3D11 Chip sehnsüchtig, eher das Gregor H. wieder durchs Bild hüpft...

DR.ZEISSLER
2009-08-23, 20:51:36
helft mal bitte einem Laien.

D3D und OGL werden doch von den derzeitigen rasterizern unterstützt. Da der LRB paratisch ne frei Prgrammierbare Enheit ist, könnte man doch damit sowohl D3D, als auch OGL per Software "emulieren" und vielleicht auch ne Software-Raytracer oder ne Voxel-Engine oder oder oder...

sehe ich das grundsätzlich richtig ?

wenn ich an ms-dos zeiten und die alten grafikkarten vor ogl und d3d zurückdenke, dann fallen mir immer demos ein, die versucht haben durch geniale programmierung die abwitzigsten effekte zu zaubern (von der futurecrew bspw. Unreal/Second Reality)

ich frage mich ob in der demoscene wieder so ein quantensprung gelingt, da mit LRB wohl wieder unbegrenzte möglichkeiten entstehen und die dann ganz kreativ genutzt werden können.
ich bin es echt leid den millionsten-08/15 effekt in aktuellen demos zu sehen, mit wenigen ausnahmen sind die doch stink langweilig, hässlich und ohne innovation.

das letzte geile demo was mich beeindruckt hat war: http://www.youtube.com/watch?v=tCMo-bJQC8A

mal sehen ob apple den LRB auch einsetzt.

dust
2009-08-23, 21:09:42
http://www.youtube.com/watch?v=_YWMGuh15nE
4k demo, VIER KILOBYTE!

was der lrb können wird steht noch in den sternen und intel weiss selbst noch nicht was sie liefern werden. das ding ist noch in entwicklung und die werden einfach einen haufen sachen ausprobieren. derzeit werden sie wohl die 1000ste variante probieren...

DR.ZEISSLER
2009-08-23, 21:12:36
http://www.youtube.com/watch?v=_YWMGuh15nE
4k demo, VIER KILOBYTE!

was der lrb können wird steht noch in den sternen und intel weiss selbst noch nicht was sie liefern werden. das ding ist noch in entwicklung und die werden einfach einen haufen sachen ausprobieren. derzeit werden sie wohl die 1000ste variante probieren...

mit mukke 4K ?!?
warum gibt es kein mac-port ?

Coda
2009-08-23, 21:56:29
Was eine blöde Frage. Weil's auf dem Mac die entsprechend verwendeten Libraries nicht gibt (vor allem D3D und D3DX)

Aber was diese 4K-Soße mit dem Thema zu tun haben soll versteh ich beim besten Willen nicht.

Ist mir auch klar, das das für D3D10 voraussetzung ist, trotz dessen ich einige Zeit nicht hier war...
Dennoch ändert das nichts an dem Zustand, das wir hier nicht zu viel erwarten sollten bzw irgend etwas hypen bzw mehr erwarten sollen als das, was die Spec verlangt.
Von daher, wie so oft: abwarten und Tee rauchen.

Ich erwarte KEINEN D3D11 Chip sehnsüchtig, eher das Gregor H. wieder durchs Bild hüpft...
Realitätsverzerrung? Als ob es bei einem High-End-D3D11-Chip "zu viel erwartet" wäre dass er gescheites AF bietet.

DR.ZEISSLER
2009-08-23, 22:06:55
abgehoben ?

Avalox
2009-08-23, 22:09:49
ich frage mich ob in der demoscene wieder so ein quantensprung gelingt, da mit LRB wohl wieder unbegrenzte möglichkeiten entstehen und die dann ganz kreativ genutzt werden können.
ich bin es echt leid den millionsten-08/15 effekt in aktuellen demos zu sehen, mit wenigen ausnahmen sind die doch stink langweilig, hässlich und ohne innovation.

Fakt wird sein, wer sich auch immer an die direkte Programmierung des Larrabee wagen wird, wird aus diesen mehr und anderes als mit OpenGL und DirectX realisieren können.

Bei den Szene Demos ist es einfach so, dass die die Kollegen aus der Szene technologisch ein wenig und vor allen vom Content sehr deutlich hinter den Millionen schweren Spieleproduktionen hinterher hinken.

Ein sehr interessanter Aspekt ist doch der, dass die meisten Crews der Szenedemos mit OpenSource Gedanken überhaupt nicht anfangen können bzw. wollen, dabei wird i.d.R. eifersüchtig auf den Code geachtet und dieses oftmals als Aushängeschild angesehen. Natürlich bleibt dort die Entwicklung einfach mal zurück. Das ging nur solange gut, wie es noch nicht den konkurrierenden milliardenschweren Industriezweig gab.

Knuddelbearli
2009-08-23, 22:36:46
Alleine die unterstüzung für Linux system wird lustig da sich intel ja streubt irgendwelche offenen formate zu unterstüzen lieber programmieren sie ne konkurenz

Coda
2009-08-23, 22:45:35
Bitte? Es gibt für praktisch sämtliche Intel-Hardware Open-Source-Treiber.

Gast
2009-08-23, 23:45:29
Multisampling wird's auch geben inkl. sparsed grid.
was ist denn ein sparsed grid? </korinthenkack>

Gast
2009-08-24, 03:17:52
Bei den Szene Demos ist es einfach so, dass die die Kollegen aus der Szene technologisch ein wenig und vor allen vom Content sehr deutlich hinter den Millionen schweren Spieleproduktionen hinterher hinken.Milionenschwere Produktionen gibt es nicht gerade wie Sand am Meer. die Ursache dafür könnte aber sein, weil die besten Coder von der Industrie beworben werden.
Was aber immernoch nicht das ist was DR.ZEISSLER eigentlich meinen müßte, denn langweilige, hässliche Demos ohne Innovation stehen und fallen nicht alleine mit der Effektkiste.

Demos sind audiovisuelle Kunstwerke und kein primitiver Shaderwettbewerb. Da hat der Zeissler etwas genausowenig verstanden wie du. Demos sind kein Holywood!

Ein sehr interessanter Aspekt ist doch der, dass die meisten Crews der Szenedemos mit OpenSource Gedanken überhaupt nicht anfangen können bzw. wollen, dabei wird i.d.R. eifersüchtig auf den Code geachtet und dieses oftmals als Aushängeschild angesehen. Natürlich bleibt dort die Entwicklung einfach mal zurück. Das ging nur solange gut, wie es noch nicht den konkurrierenden milliardenschweren Industriezweig gab.Ich hab jetzt Probleme das eine von dem anderen herzuleiten.
Gut hat auch nichts mit 4-5 extra Effekten die man in einem 5min Demo sieht. Welchen Zusammenhang hat das mit Sachen wie Crysis? Keinen? Welche besonderen Effekte hat denn zb. "I am"?

Diese Demodiskussion ist was für den Allerwertesten.

Gast
2009-08-24, 03:31:41
Evtl. sehen wir tatsächlich nie einen x86-Larrabee. Ich wäre nicht sonderlich überrascht.
Nö, man kann x86 ja auch soweit "entmisten", dass es vernünftig wird. Das erste was def. entfernt gehört ist x87 und SSE.

Die Vector-Instructions passen ja soweit schon.
Dann kann man auch gleich soetwas wie PowerPC nehmen ;)
Es stellt sich die Frage, was man überhaupt mit der verkorksten x86-Architektur dort will: http://books.google.com/books?id=Q1zSIarI8xoC&pg=PA91&lpg=PA91&dq=x86+overhead&source=bl&ots=qp2zAQfXxr&sig=arnDAFznBQV50CyQQ4KLXGwdYE0&hl=de&ei=GOuRSsj9MNHK_gaC9I2vAg&sa=X&oi=book_result&ct=result&resnum=1#v=onepage&q=x86%20overhead&f=false

Avalox
2009-08-24, 07:37:22
Was aber immernoch nicht das ist was DR.ZEISSLER eigentlich meinen müßte, denn langweilige, hässliche Demos ohne Innovation stehen

Ich denke diese aktuelle Demo trifft es ganz gut.

http://www.scene.org/search.php?search=AWY-Stereotype


http://www.youtube.com/watch?v=MSW2hCY-QhU

Gast
2009-08-24, 09:54:01
siehe:
Ja - und? Darf ich ihn nicht fragen, ob das seiner Meinung nach so sein sollte oder ein Typo??

Ailuros
2009-08-24, 09:59:25
RV870 braucht mehr Saft als D12U???

Koennte durchaus sein; wieso spielt fuer den Stromverbrauch die benutzte die area irgend eine Rolle selbst heute?

LovesuckZ
2009-08-24, 10:41:43
Die Die-Größe spielt für den Stromverbrauch überhaupt keine Rolle. Einzig die an Anzahl der Transistoren, die benötigte Taktung und Spannung.

Ailuros
2009-08-24, 10:48:41
Die Die-Größe spielt für den Stromverbrauch überhaupt keine Rolle. Einzig die an Anzahl der Transistoren, die benötigte Taktung und Spannung.

Ist alles sowieso relativ; die Packdichte der Transistoren koennte zwischen bestimmten Grenzen sogar noch wichtiger sein als die Anzahl dieser.

dreas
2009-08-24, 11:58:07
Wenn ich das hier alles so lese wirds wohl nicht mehr lange dauern bis Intel auch Netzteile baut.:smile:
Wenn der Chip klein genug gefertigt werden kann, um vom Stromverbrauch her konkurrenzfähig zu sein, wird er wohl technologisch reif für die Tonne sein.

Nakai
2009-08-24, 13:22:26
Wenn ich das hier alles so lese wirds wohl nicht mehr lange dauern bis Intel auch Netzteile baut.:smile:
Wenn der Chip klein genug gefertigt werden kann, um vom Stromverbrauch her konkurrenzfähig zu sein, wird er wohl technologisch reif für die Tonne sein.

Von Larrabee denk ich das nicht. Imo sollte er mindestens für DX11 gerüstet sein.


mfg Nakai

Knuddelbearli
2009-08-24, 14:04:00
Larrabee sollte theoretisch schon für DX20 gerüstet sein da ja alles über Software passiert

zumindest so wie ich das prinzip verstanden habe

=Floi=
2009-08-24, 15:15:17
in der praxis kommen aber dann spezielle einheiten hinzu (tesselator) um solch eine kompatibilität nicht zu gewährleisten. auf der anderen seite hätte dieser auch nicht die power für diese zukünftigen spiele. siehe GF6800, welche auch vom featureset her DX9 kompatibel ist, aber mitlerweile einfach zu langsam ist.

Ailuros
2009-08-24, 15:18:48
in der praxis kommen aber dann spezielle einheiten hinzu (tesselator) um solch eine kompatibilität nicht zu gewährleisten. auf der anderen seite hätte dieser auch nicht die power für diese zukünftigen spiele. siehe GF6800, welche auch vom featureset her DX9 kompatibel ist, aber mitlerweile einfach zu langsam ist.

In der Praxis ist der folgende Algorithmus aber auch eine ausgezeichnete Idee:

http://graphics.cs.lth.se/research/papers/2009/tcu/

Knuddelbearli
2009-08-24, 15:27:14
ja das zu langsam sollte klar sein aber jetzt zB im office bereich habe mom ne GF 6200 drin die reicht 3 mal ( sogar wow geht damit noch halbwegs ) da muss ich aber auf vieel effekte unter W7 verzichten

Coda
2009-08-24, 18:52:21
Dann kann man auch gleich soetwas wie PowerPC nehmen ;)
Zu viel Aufwand. Dafür müsste man wirklich viel ändern. Wenn sie sich für eine ganz neue ISA entscheiden, dann wird's aber sicher auch kein PowerPC ;)

Larrabee sollte theoretisch schon für DX20 gerüstet sein da ja alles über Software passiert

zumindest so wie ich das prinzip verstanden habe
Die TMUs sind immer noch Hardware, und da gibt es auch Verbesserungen bei D3D11.

in der praxis kommen aber dann spezielle einheiten hinzu (tesselator) um solch eine kompatibilität nicht zu gewährleisten. auf der anderen seite hätte dieser auch nicht die power für diese zukünftigen spiele. siehe GF6800, welche auch vom featureset her DX9 kompatibel ist, aber mitlerweile einfach zu langsam ist.
Das macht Larrabee alles in Software.

Der Vergleich ist auch nicht passend. CineFX hatte andere Probleme die von der API unabhängig waren. Alle D3D10-Chips haben einen anderen Aufbau.

Gast
2009-08-24, 19:15:06
Zu viel Aufwand. Dafür müsste man wirklich viel ändern. Wenn sie sich für eine ganz neue ISA entscheiden, dann wird's aber sicher auch kein PowerPC ;)
Vielleicht nicht perfekt aber PowerPC schleppt nicht den ganzen x-86-Overhead mit, der Transistoren ohne Ende kostet. Also definitiv deutlich brauchbarer als x86.

Demogod
2009-08-29, 13:11:59
Dass es mehrere Architekturen gab/gibt, die prinzipiell sauberer/besser waren/sind, steht glaube ich ausser Frage (Alpha/Power/Sparc etc), doch trotzdem wurde (glaube von Coda) schon mehrfach erwähnt, dass die Transistoren zur good-old-x86 Kompatibilität heutzutage weniger als 1% der Die size ausmachen und daher vollkommen vernachlässigbar sind.

Coda
2009-08-29, 15:34:24
Bei einer modernen Out-Of-Order-Architektur ja, aber LRB ist In-Order und ist viel einfacher im Aufbau. Da sollte das deutlich mehr ausmachen.

Gast
2009-08-29, 16:12:13
dass die Transistoren zur good-old-x86 Kompatibilität heutzutage weniger als 1% der Die size ausmachen und daher vollkommen vernachlässigbar sind.

Und weil es "sowenig" ausmacht, gibt es "soviele" (nämlich kein einzigen) x86 SoCs mit Stromverbauch im Milliwattbereich für Handys & Co ... alles klar! ;D
In dem Bereich ist jeder unnötige Transistor zuviel. Und da man dort kein Windows benötigt (zumindest bisherige Geräte, wie Handys), ist dort x86 total Fehl am Platz.
Und der Kram plustert auch ein Larrabee unnötig auf.

=Floi=
2009-08-30, 15:11:34
du kommst von socs auf LRB und kritisierst ihn dann. was denn nun? ;D

LRB passt schon und deren ansatz schließt eben auch eine lücke. mal abwarten wie er sich in der praxis schlägt und was man damit alles sinnvoll machen kann.

Avalox
2009-08-31, 00:14:06
Sehr interessantes Prozessorgeflüster, aus welchen gut hervorgeht, wie sich Intel zum bevorstehenden Schlagabtausch gegen MS positioniert und sich so in eine bessere Verhandlungsposition begibt.

http://www.heise.de/ct/Von-Ausgruendungen-und-Einkaeufen--/prozessorgefluester/144247

Knuddelbearli
2009-08-31, 01:07:40
Intels Interesse, eine Softwareumgebung für Stream, Cuda und Cell zu pflegen, dürfte nicht sehr ausgeprägt sein, stattdessen wird wohl der kommende Grafik- und HPC-Prozessor Larrabee im Mittelpunkt stehen. Und nebenbei entzieht man mit der Herrschaft über RapidMind der Konkurrenz eine interessante Plattform.


gutes beispiel wieso Monopolisten mit fast unbegrenzten mitteln nit gut sind ...

Avalox
2009-08-31, 11:52:09
gutes beispiel wieso Monopolisten mit fast unbegrenzten mitteln nit gut sind ...

Naja. Ist es heute denn unbedingt so anders?
Die momentane Plattformierung wird immer mehr zu einer Behinderung. Wir haben heute einen anderen "Monopolisten" am Lenkrad.
Auf der Strecke bleiben die kleinen Innovativen, dieses tun sie aber heute wie morgen.
Die Frage ist doch, ist die Bewegung gut für den Kunden? Und ich finde, dass diese Bewegung momentan durchaus viele gute Seiten für den Kunden haben könnte. Auf jeden Fall wird in naher Zukunft was passieren, auf keinen Fall wird Intel einen Larrabee als durchschnittlich, bis schlechten DirectX 12 Renderer alter Ausprägung positioniert sehen wollen. Am wahrscheinlichsten ist, dass ein Microsoft, welches die Fälle wegschwimmen sieht, sich Intel nähern wird und so Larrabee (und seine Nachfolger) sehr zentral unterstützt werden.
Ein AMD/ATI, nVidia müssen dann reagieren und auf diesem Spielfeld notgedrungen mitspielen. Dieses wird dann alle einen Schritt in der momentan doch scheinbar festgefahrenen Situation weiter bringen. Den Entwicklern könnten mal wieder ein paar grundlegende Änderungen ins Haus stehen.

StefanV
2009-08-31, 12:19:34
Warum muss M$ sich Intel annähern?!

Schon mal übers Gegenteil nachgedacht?
Also das M$ sich mehr und mehr auf AMDs/nVs Seite schlägt, gegen Intel?!

Die Frage ist doch, ob Microsoft nicht auch so langsam ein Problem in Intel sieht, eben weil sie so Groß sind, von daher würde ich eher davon ausgehen, das M$ ein mehr ein Interesse an einem 'Fairen Wettbewerb' hat, ergo mehr auf NVs und AMDs Seite wäre...

Avalox
2009-08-31, 12:49:11
Warum muss M$ sich Intel annähern?!


Es ist die einzige Option. MS ist ein wirtschaftendes Unternehmen und wird wohl schwerlich den mit über 80% Marktanteil dominierenden Hauptlieferanten und Innovationsträger ihrer Kernplattform die Konfrontation suchen.

AMD ist ein, wohlgemerkt pfiffiger, aber trotzdem ein Nachbauer.
nVidia wird sich über lang eh als Primärplattform vom PC verabschieden und ihr KnowHow mit einem PowerPC Hersteller teilen.

Man darf ja nicht vergessen, dass eine Larrabee Lösung nicht nur anders wäre, es ist dann auch die viel leistungsfähigere Lösung als eine MS Lösung alter Ausprägrung mit einem nVidia und AMD/ATI an Board und solch ein Spiel wäre dann wirklich existenziell. Nein, Intel braucht nur ein paar Argumente um mit sanften Druck für den Larrabee den nötigen Support zu sichern. Dann geht alles so weiter wie gewohnt. MS gibt vor, AMD baut nach und nVidia hat ein Problem.


Die Frage ist doch, ob Microsoft nicht auch so langsam ein Problem in Intel sieht, eben weil sie so Groß sind, von daher würde ich eher davon ausgehen, das M$ ein mehr ein Interesse an einem 'Fairen Wettbewerb' hat, ergo mehr auf NVs und AMDs Seite wäre...

Intel war schon immer groß und MS ist schon immer die Intel Linie gefahren. Damit sind sie groß geworden. Die Frage ist doch vielmehr, braucht Intel solch eins schwaches MS, wie es sich heute zeigt überhaupt noch? Vielmehr wird es voll im Sinne von Intel liegen, dass MS wieder aus der Lethargie erwacht, die Lust an diversen Experimenten vergeht und sich auf den Kern konzentriert, nämlich die Software zu schreiben, welche der Intel Plattform ihre Exklusivität gibt.

StefanV
2009-08-31, 13:10:39
Also, Avalox, bisher hat Intel im Grafikmarkt für Diskrete Karten exakt 0% Anteil und nicht 80%.

Und selbst wenn, warum sollte M$ einen Monopolisten stärken statt versuchen die Konkurenz zu stärken??
Was dann wiederum die eigene Position stärken würde...

Das Intel schon immer Groß war, ist auch nicht wirklich wahr, die haben auch klein angefangen, wie AMD sind sie von ehemaligen Fairchild Mitarbeitern gegründet worden.

Und wie du weißt, ist der Markanteil von M$ Produkten bei Endusern extrem hoch...

Avalox
2009-08-31, 13:29:12
Also, Avalox, bisher hat Intel im Grafikmarkt für Diskrete Karten exakt 0% Anteil und nicht 80%.


Grafikkarte? Es geht bei der ganzen Geschichte um das Ende der Grafikkarte. Das ist doch der Ziel des ganzen Strebens. Der verlorene Processing Sohn wird ins Heim zurück geholt. Die eigenen Kapazitäten produktiviert, die Plattform rationalisiert. Mehrwert.


Und selbst wenn, warum sollte M$ einen Monopolisten stärken statt versuchen die Konkurenz zu stärken??
Was dann wiederum die eigene Position stärken würde...


Es würde überhaupt nicht die Position von MS stärken, es würde die Position von MS erheblich schwächen.
Auf langfristige Experimente mit hohen gesamtheitlichen Risiko hat MS allein aus der Struktur schon keine Lust. MS spielt auf dem Feld, welches ihnen geboten wird, wie alle anderen auch.
Intel ist zudem mitnichten ein Monopolist. Intel will halt nun mitspielen und sie wollen zu ihren eigenen Regeln spielen, dass ist der Larrabee. MS wird sich diesen Interessen beugen, weil sie dabei am besten und zudem gut fahren. Es wird ein bisschen hin und her gehen, AMD wird berücksichtigt werden und am Ende steht eine neue Lösung. Wer dort nicht mithalten kann bleibt auf der Strecke und sieht sich andersweitig um.


Das Intel schon immer Groß war, ist auch nicht wirklich wahr, die haben auch klein angefangen, wie AMD sind sie von ehemaligen Fairchild Mitarbeitern gegründet worden.


Du weißt doch genau, wie ich dieses meine. Intel war schon lange Marktführer, als ein MS gerade gegründet wurde. Die gesamte MS Historie kennt überhaupt keine Phase, wo Intel nicht mit Abstand der wichtigste Lieferant ihrer unterstützten primären Plattform war.

Hinzu kommt, dass Intel momentan sehr stark aufgestellt ist und MS so schwach wie selten agiert. Eine denkbar günstige Zeit für solch gravierende Änderungen.

Knuddelbearli
2009-08-31, 15:12:35
Naja die Gefahr die ich sehe ist die das Intel ne mittelmäßige Plattform bringt sie aber durch Werbung aufkauf von Entwicklern Spenden für Entwickler sie passend zuschneit, was insgesamt dann eher ne Innovationsbremse wird da weder ATI noch NV die Möglichkeit hat was ähnliches wie Intel zu bauen wegen der x86 lizenz


und wegen AMD und nachbauen mom ist es eher so das Intel AMD nachbaut wegen AMD64 bzw Intel64

Ailuros
2009-08-31, 15:28:53
Grafikkarte? Es geht bei der ganzen Geschichte um das Ende der Grafikkarte. Das ist doch der Ziel des ganzen Strebens. Der verlorene Processing Sohn wird ins Heim zurück geholt. Die eigenen Kapazitäten produktiviert, die Plattform rationalisiert. Mehrwert.

Das Ende der Grafikkarte soll mit einer Grafikkarte kommen? :freak:

Avalox
2009-08-31, 15:44:22
Das Ende der Grafikkarte soll mit einer Grafikkarte kommen? :freak:

Nein, es ist keine Grafikkarte. Es ist ein PC in PCIe Format, welcher auf der Steckkarte hat ein Onboard Videoanschluss nutzt.
Dieser PC nutzt das Hostsystem vor allen für I/O. Schon der allererste Larrabee würde einen x86 komp. PC erlauben, welcher nur den Larrabee als Prozessor nutzt.(den so heute natürlich nicht braucht). Das ist der gewaltige Unterschied und er birgt ein gewaltiges Potential.
Über diesen evolutionären Schritt, der zweit Systemkarte im PC, rückt natürlich die Integration in den primären PC einen gewaltigen Schritt voran. Ein Larrabee Konzept erweitert mit einem/zwei/vier Atomkernen, einen zusätzlichen Fastmemory Controller und schwupps steckt dieser im Sockel eines zukünftigen Mainboards.

StefanV
2009-08-31, 15:53:35
Sorry, Avalox, aber du siehst das ganze etwas zu euphorisch, etwas mehr Skepsis von deiner Seite wäre hier nicht unangebracht.

Und ganz ehrlich: Intel kann doch selbst 'ne Schnittstelle für ihr ach so tolles Wunderteil zusammenfriemeln, wozu brauchts dann noch M$?!

Ailuros
2009-08-31, 15:57:04
Nein, es ist keine Grafikkarte. Es ist ein PC in PCIe Format.
Dieser PC nutzt das Hostsystem für I/O. Schon der allererste Larrabee würde einen x86 komp. PC erlauben, welcher nur den Larrabee als Prozessor nutzt. Das ist der gewaltige Unterschied. (den heute so niemand braucht)

Du meinst also LRB in einem System der sowohl CPU als auch GPU Aufgaben aufnimmt? Theoretisch koennte das erste schon moeglich sein, nur bin ich mir nicht so sicher wie grottig die Leistung genau sein wird. Und ich will hoffen dass ich Dich nicht falsch verstanden habe aber ich als Laie glaubte nie ins "jack of all trades, master of none" Konzept.

Über diesen evolutionären Schritt, der zweit Systemkarte im PC, rückt natürlich die Integration dessen einen gewaltigen Schritt voran. Ein Larrabee Konzept erweitert mit einem/zwei/vier Atomkernen, einen zusätzlichen Fastmemory Controller und schwupps steckt dieser im Sockel eines zukünftigen Mainboards.

Unter den heutigen Vorraussetzungen sehe ich nur sehr geringe Chancen fuer zukuenftige Integration (ie in einem zukuenftigen SoC) von LRB. Ausser Intel krempelt LRB in den zukuenftigen Generationen so stark um dass das Resultat nur noch einen gemeinsamen Namen hat.

Avalox
2009-08-31, 16:00:31
Sorry, Avalox, aber du siehst das ganze etwas zu euphorisch, etwas mehr Skepsis von deiner Seite wäre hier nicht unangebracht.


Ich bin nicht euphorisch. Es ist schlicht der Weg.


Und ganz ehrlich: Intel kann doch selbst 'ne Schnittstelle für ihr ach so tolles Wunderteil zusammenfriemeln, wozu brauchts dann noch M$?!

Klar können sie und sie werden diese Option als Damoklesschwert über ein MS kreisen lassen. Wohl wissend der Wirkung, aber Intel will es nicht wirklich. Allerdings wird Intel mit dem Know How auch ein MS unterstützen, weil es ja Partner sind.

MS hat den Marktzugang, die Produkte und den Namen. MS ist komfortabel für Intel, Risiken will auch ein Intel nicht unnötig eingehen, es sind Verbündete. Diese Entwicklung hat ja keinen nachhaltigen Nachteil für MS. Natürlich wird es immer Beharrungskräfte geben, diese gilt es zu überzeugen. Eben mit Nachdruck, alles eine Sache der Motivation.

ShadowXX
2009-08-31, 16:07:12
Nein, es ist keine Grafikkarte. Es ist ein PC in PCIe Format, welcher auf der Steckkarte hat ein Onboard Videoanschluss nutzt.
Dieser PC nutzt das Hostsystem vor allen für I/O. Schon der allererste Larrabee würde einen x86 komp. PC erlauben, welcher nur den Larrabee als Prozessor nutzt.(den so heute natürlich nicht braucht). Das ist der gewaltige Unterschied und er birgt ein gewaltiges Potential.
Über diesen evolutionären Schritt, der zweit Systemkarte im PC, rückt natürlich die Integration in den primären PC einen gewaltigen Schritt voran. Ein Larrabee Konzept erweitert mit einem/zwei/vier Atomkernen, einen zusätzlichen Fastmemory Controller und schwupps steckt dieser im Sockel eines zukünftigen Mainboards.
Ich würde nicht unbedingt davon ausgegen das spätere Larrabee-Versionen noch auf x86 setzen werden;) Ich glaube sowieso das sich da einige Ings inzwischen die Haare raufen was Sie geritten hat x86 zu nehmen (vielleicht wurde es aber auch von oben diktiert).

Und erstmal sollte der erste rauskommen und halbwegs Leistung zeigen bevor wir anfangen Luftschlösser mit nachfolgenden Larrabees bauen.

Davon abgesehen wird in diesem Prozessorgeflüster IMHO vieles übertrieben und wirkt leicht wie aus einer Pressemappe von Intel "inspiriert".

Z.B. wird QT unter Windows relativ wenig verwendet (und ist darum auch kein Argument in die Windows-Richtung, davon abgesehen das es auch nicht weniger Linuxer gibt die gar niocht gut auf QT zu sprechen sind), was wohl auch daran liegt das erst seit Januar 2009 es eine wirklich "umsonst" Lizenz gibt (wobei es lt. unserem Hausanwalt es da immer noch ein paar Stolpersteine zu geben scheint).
Auch mag Intel der größte Compilerbauer der Welt sein.....nur ist auch hier so, das Sie unter Windows sicher weniger oft vertreten Sind als der MS Compiler itself (was auch mit einigen "Eigenarten" des Intel-Compilers zusammenhängt).

Avalox
2009-08-31, 16:12:10
Ic
Z.B. wird QT unter Windows relativ wenig verwendet (und ist darum auch kein Argument in die Windows-Richtung), was wohl auch daran liegt das erst seit Januar 2009 es eine wirklich "umsonst" Lizenz gibt (wobei es lt. unserem Hausanwalt es da immer noch ein paar Stolpersteine zu geben scheint).
Auch mag Intel der größte Compilerbauer der Welt sein.....nur ist auch hier so, das Sie unter Windows sicher weniger oft vertreten Sind als der MS Compiler itself (was auch mit einigen "Eigenarten" des Intel-Compilers zusammenhängt).

Microsoft hat massive Fehler in der Vergangenheit begannen und ganze Trends total verschlafen. MS ist heute verhältnismäßig schwach aufgestellt.

So hat MS grade den kompletten Wettlauf um die mobileren Geräte verloren ohne, dass der Markt es jetzt schon deutlich spüren lassen würde. Deshalb ist die Zusammenarbeit mit Nokia natürlich interessant im Zusammenhang. Hat aber primär mit dem Larrabee nichts zu tun, der Larrabee schlägt sich im Kerngebiet von MS. Dort ist MS gut aufgestellt.
Für Intel geht es bei den mobilen Geräten allerdings um die Wurst und MS stellt sich als schwacher Partner dar, welcher zum ernsten Risiko für Intel in dem Bereich wird.

Ailuros
2009-08-31, 16:35:55
So hat MS grade den kompletten Wettlauf um die mobileren Geräte verloren ohne, dass der Markt es jetzt schon deutlich spüren lassen würde. Deshalb ist die Zusammenarbeit mit Nokia natürlich interessant im Zusammenhang.

Nur ist die Zusammenarbeit mit Nokia um einiges komplizierter als nur diese Erklaerung. Falls es sich tatsaechlich als Anfang um ATOM Z handelt handelt es sich um integrierte GPU IP von IMG. NOKIA hat generell eine Tendenz jetzt schon seit Jahren nicht nur von einer Quelle zu lizenzieren und sie wollen neben Texas Instruments (wo zufaelligerweise NOKIA ihr groesster Kunde ist) auch eine weitere Quelle von Technologie haben. Nokia hat vor Jahren versucht aus dem selben Grund Bitboys IP durch NEC zu lizenzieren, dieses ging dann in ATI's und spaeter in AMD's Haende. Bei solch einem unendlichen Wirrwarr und wenn man wirklich nicht mehr weiss wer zum Teufel fuer eine Lizenz am Ende herstellt und wenn das Ganze noch am Ende an Qualcolmm verkauft wird hat jede NOKIA die Nase voll und geht auf Nummer Sicher in dem man bei Intel einkauft.


Für Intel geht es bei den mobilen Geräten allerdings um die Wurst und MS stellt sich als schwacher Partner dar, welcher zum ernsten Risiko für Intel in dem Bereich wird.

Notebooks und PC IGPs bzw. SoCs enthalten Intel's chipset Technologie und eingebettetes Zeug wird alles mit IMG IP ausgestattet. Es gibt bis jetzt kein einziges glaubwuerdiges Zeichen dass Intel diese Strategie in der absehbaren Zukunft aendern wird.

Ich weiss nichtmal ob es Euch beiden um M$ dem OEM Hersteller geht oder dem sw Giganten. Im ersten Fall lizenzierte M$ Tegra fuer ihr Zune multimedia Geraet welches aber wohl eher gegen Apple iPod und dergleichen konkurrieren wird.

Controller Khan
2009-08-31, 16:39:47
Sehr interessantes Prozessorgeflüster, aus welchen gut hervorgeht, wie sich Intel zum bevorstehenden Schlagabtausch gegen MS positioniert und sich so in eine bessere Verhandlungsposition begibt.

http://www.heise.de/ct/Von-Ausgruendungen-und-Einkaeufen--/prozessorgefluester/144247
Stiller, macht Inquirer nach ??

Intel ist halt paranoid und kauft fuer Kleingeld Firmen.
Anfang der 90er Jahre haben sich Intel/MS deutlich mehr gestritten.
Intel macht mit Hardware Kohle, das wird sich so schnell nicht aendern.

Verglichen zu .Net ist Qt doch ein Nischenprodukt geblieben.

Das Intel, Nokia & Co nicht den Erfolg im Premiumbereich haben, liegt allein an der Software.
Da ist Apple mit Iphone halt fuehrend.

Ailuros
2009-08-31, 16:46:17
Das Intel, Nokia & Co nicht den Erfolg im Premiumbereich haben, liegt allein an der Software.
Da ist Apple mit Iphone halt fuehrend.

Fuer wie lange?

http://www.symbian-freak.com/news/009/08/n900_specifications_beyond_your_wildest_imaginations.htm

Ein weiterer Grund warum sich NOKIA an Intel gewendet haben koennte ist dass Intel mit ihren SGX54x SoCs frueher erscheint als TI. OMAP4 duerfte relativ spaet erscheinen.

BlackBirdSR
2009-08-31, 17:07:44
Ich bin immernoch angetan von der Idee eines Larrabee-Systems.
Auf dem PCB stecken dann Larrabee sowie Video, Audio, LAN und USB Schnittstellen. Das PCB ist handlich verpackt mit einem Lüfter und Netzteil versehen, fertig ist das ganze System. Über das Boot-ROM wird über den LAN-Server gebootet und somit wäre das Ding die ideale mobile Renderfarm ;D

Ich stell mir übrigens die Entscheidung für x86 so vor:
1. LRB soll schnell auf den Markt kommen, daher bestehendes verwenden. x86 ist sehr beständig:tongue:, also LRB auf x86-Basis... (allerdings gings wohl doch nicht so schnell)
UND
2. Auf Befehl von Oben soll x86/x64 in Zukunft in jedem Marktsegment anzufinden sein. Atom ist erst der Anfang.

Controller Khan
2009-08-31, 17:11:06
Fuer wie lange?

http://www.symbian-freak.com/news/009/08/n900_specifications_beyond_your_wildest_imaginations.htm

Wenn die Jungs bei Nokia & Co endlich sich zusammenreissen und eine Apfeldiaet /das Ganze Dau tauglich machen.

Die Hardware, Software ist da, nur die Umsetzung ist eine Katastrophe.
Typisches Ingenieurprodukt: bigger, faster, more of everyting.

Und immernoch Dau untauglich.

Und das Image bleibt einige Zeit so, selbst bei einer sofortigen 180 Grad Wendung.


Eine Handy mit Qt und Unix-Terminal laesst mein Herz hoeher schlagen,
nur die breite Masse wird das nicht interessieren.

Sorry fuer Offtopic Posting.

StefanV
2009-08-31, 17:43:32
Ich bin nicht euphorisch. Es ist schlicht der Weg.
Es ist euphorisch bis ausm Intel PR Propaganda Blatt abgeschrieben.

Und noch mal die Frage an dich:
Warum sollte M$ eine Schnittstelle explizit für Intel entwickeln?!
Zumal du nicht wissen kannst, ob dieses Teil überhaupt zu irgendwas zu gebrauchen sein wird!

M$ hat Intel schon mal 'nen Vogel gezeigt und sie sozusagen 'überredet' AMD64 zu benutzen...

Ailuros
2009-09-01, 06:44:23
Wenn die Jungs bei Nokia & Co endlich sich zusammenreissen und eine Apfeldiaet /das Ganze Dau tauglich machen.

Die Hardware, Software ist da, nur die Umsetzung ist eine Katastrophe.
Typisches Ingenieurprodukt: bigger, faster, more of everyting.

Und immernoch Dau untauglich.

Und das Image bleibt einige Zeit so, selbst bei einer sofortigen 180 Grad Wendung.


Eine Handy mit Qt und Unix-Terminal laesst mein Herz hoeher schlagen,
nur die breite Masse wird das nicht interessieren.

Sorry fuer Offtopic Posting.

So stark OT ist es gar nicht und ich werde auch nicht sagen dass nicht einen Punkt hast. In dem Bereich haben Intel und Nokia eben nicht die Erfahrung (Du kannst es von mir aus auch Philosophie nennen) die Apple hat.

Ailuros
2009-09-01, 07:10:26
Uebrigens ein ziemlich guter Post von Arwin auf B3D zum Thema:

I've learnt a little while ago that Larrabee is basically a GPU, so that's not the reason. The real reason I think for LRB is that it's not just a hardware innovation, but much more a software one. They basically have to write something like Catalyst for it, but completely from scratch.

Apart from that, the demands on a GPU are first of all simply higher, so the drive for improvements are larger, but they are also more specialised towards vector style calculations, which allows for more specialised in-order designs that are much easier to turn into multi-core configurations. We're slowly getting there now in the desktop space, but Windows (and desktop software development in general) has so far not done a great job in providing an environment that can easily benefit from multiple cores. Apple's work on Snow Leopard (Grand Central Dispatch) is interesting in that regard.

http://forum.beyond3d.com/showpost.php?p=1328084&postcount=7

S940
2009-09-01, 10:29:39
Uebrigens ein ziemlich guter Post von Arwin auf B3D zum Thema:
Jo, das klingt interessant. Von dem Grand Central Dispatch (GDC) hör ich zum ersten Mal, Danke dafür :) Hier noch der Wiki Link dazu, falls das andren auch so geht:

http://en.wikipedia.org/wiki/Grand_Central_Dispatch

Die Blöcke erinnern mich irgendwie an VLIW:
Der Compiler überprüft während der Übersetzungszeit eines Programmes, welche Instruktionen parallel ausgeführt werden können. Diese parallelisierbaren Instruktionen werden in Gruppen zusammengefasst und ins Befehlsformat eingetragen.http://de.wikipedia.org/wiki/VLIW

Nur ist GDC jetzt auf OS Ebene, nicht auf Befehlsebene.

ciao

Alex

Gast
2009-09-01, 11:25:31
Jo, das klingt interessant. Von dem Grand Central Dispatch (GDC) hör ich zum ersten Mal, Danke dafür :) Hier noch der Wiki Link dazu, falls das andren auch so geht:

http://en.wikipedia.org/wiki/Grand_Central_Dispatch

Die Blöcke erinnern mich irgendwie an VLIW:
http://de.wikipedia.org/wiki/VLIW

Nur ist GDC jetzt auf OS Ebene, nicht auf Befehlsebene.


http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7505693#post7505693

Coda
2009-09-01, 12:02:31
Jo, das klingt interessant. Von dem Grand Central Dispatch (GDC) hör ich zum ersten Mal, Danke dafür :) Hier noch der Wiki Link dazu, falls das andren auch so geht:

http://en.wikipedia.org/wiki/Grand_Central_Dispatch

Die Blöcke erinnern mich irgendwie an VLIW:
http://de.wikipedia.org/wiki/VLIW

Nur ist GDC jetzt auf OS Ebene, nicht auf Befehlsebene.
Nein. Das ist es eben nicht.

Grand Central ist ein einfacher Thread Pool, wo der Entwickler anmelden darf welche Dinge wie parallel ausgeführt werden dürfen. Der Compiler hilft einem dabei nicht. Das ist auch schon seit Ewigkeiten ein ungelöstes Problem der theoretischen Informatik.

Das was Apple macht gibt's schon ewig. Sie machen mal wieder einen riesen Aufstand um Nichts. Es ist nur ein bisschen schöner verpackt, weil es direkt in Obj-C integriert ist.

Gast
2009-09-01, 12:14:18
Das was Apple macht gibt's schon ewig. Sie machen mal wieder einen riesen Aufstand um Nichts. Es ist nur ein bisschen schöner verpackt, weil es direkt in Obj-C integriert ist.
Nein, zumindest nicht in der Art und Weise. Gerade das "schöner verpackt" macht es doch für den Entwickler angenehmer. Globaler und anwendungsunabhängiger Thread-Pool auf Low-Level-Ebene gibt es sonst nirgends (AFAIK).

the angels are in the details. Yes, the implementation of queues and threads (http://arstechnica.com/apple/reviews/2009/08/mac-os-x-10-6.ars/12#queues-and-threads) has an elegant simplicity, and baking it into the lowest levels of the OS really helps to lower the perceived barrier to entry, but it's the API built around blocks (http://arstechnica.com/apple/reviews/2009/08/mac-os-x-10-6.ars/10#blocks) that makes Grand Central Dispatch so attractive to developers.

Coda
2009-09-01, 12:17:09
Nein, zumindest nicht in der Art und Weise. Gerade das "schöner verpackt" macht es doch für den Entwickler angenehmer. Globaler und anwendungsunabhängiger Thread-Pool auf Low-Level-Ebene gibt es sonst nirgends (AFAIK).
Definiere "anwendungsunabhängig"?

Das ganze ist für massive Parallelisierung genauso ungeeignet wie alle anderen Implementierungen dieses Konzepts.

Und was der große Vorteil sein soll das low-level zu implementieren sehe ich auch nicht.

S940
2009-09-01, 12:24:02
Grand Central ist ein einfacher Thread Pool, wo der Entwickler anmelden darf welche Dinge wie parallel ausgeführt werden dürfen. Der Compiler hilft einem dabei nicht.

Hab ich auch nie behauptet, mein Vergleich bezog sich nur darauf, dass es sich jeweils um eine Gruppierung von Befehlen bzw. Threads handelt. Daß ein Compiler bei Apple nicht hilft ist klar. Steht ja in der Wiki, dass es "nur" eine C Erweiterung ist, die der Entwickler anwenden muss.

@Gast:
Thx 4 Link, sollte mal öfters im Tech Forum lesen :)

ciao

Alex

Coda
2009-09-01, 12:25:25
Hab ich auch nie behauptet, mein Vergleich bezog sich nur darauf, dass es sich jeweils um eine Gruppierung von Befehlen bzw. Threads handelt. Daß ein Compiler bei Apple nicht hilft ist klar. Steht ja in der Wiki, dass es "nur" eine C Erweiterung ist, die der Entwickler anwenden muss.
Das impliziert aber dein Vergleich mit VLIW. Damit kommt der Entwickler nämlich solange er nicht Assembler schreibt gar nicht in Berührung.

S940
2009-09-01, 12:29:46
Das impliziert aber dein Vergleich mit VLIW. Damit kommt der Entwickler nämlich solange er nicht Assembler schreibt gar nicht in Berührung.
Ich habe nicht verglichen, ich hab mich nur "erinnert", weil es sich eben etwas ähnelt. Bei VLIW bündelt der Compiler, bei GDC der Entwickler, beidesmal ein Grüppchen. Das ist ähnlich, aber - wie Du trefflich feststellst - nicht identisch :)

ciao

Alex

Aquaschaf
2009-09-01, 12:32:47
Naja, das als "ähnlich" zu bezeichnen ist schon recht kreativ ;)

Coda
2009-09-01, 12:33:15
Es sind bei GCD aber nicht Gruppen, sondern ein Graph. Man definiert zwischen seriellen Codeteilen die Abhängigkeiten und GCD führt diese dann so parallel wie möglich aus.

S940
2009-09-01, 13:43:59
Es sind bei GCD aber nicht Gruppen, sondern ein Graph.
Heute bist Du aber genau ^^
Ein Graph ist auch nicht mehr als eine Gruppe mit bestimmten Restriktionen ;-)

Ausserdem sollte implizit klar sein, dass - wenn man von "Gruppe" in diesem Zusammenhang spricht - damit im Codebereich immer ein Graph gemeint sein muss. Irgendeine Ordnung muss die "Gruppe" haben, ausser man legts darauf an und programmiert eine Datenstruktur, die einen Zufallsalgo zum regelmäßigen Durchschütteln der Elemente anwendet ^^
Wenn Du ein Beispiel brauchst, schau Dir ein die Instruktionsgruppen bei EPIC an, da gibts schön geordnet Istr2, Instr1, Instr0 in Reihenfolge.

Man definiert zwischen seriellen Codeteilen die Abhängigkeiten und GCD führt diese dann so parallel wie möglich aus.
Womit wir wieder beim Unterschied zu VLIW wären, bei den einzelnen Befehlen macht das dort der Compiler:
Processing instructions in parallel requires three major tasks: (1) checking dependencies between instructions to determine which instructions can be grouped together for parallel execution; (2) ....
http://www.cs.clemson.edu/~mark/464/acmse_epic.pdf

@Aquaschaf:
Naja im Endeffekt kommts auf ILP vs. TLP raus, beidemale gehts um parallele Ausführung, aber eben auf unterschiedlichen Ebenen.

Frage: Könnte ein VLIW Compiler aus Apples TLP Anweisungen irgendwelche Vorteile ziehen ?

ciao

Alex

Controller Khan
2009-09-01, 14:40:06
Das was Apple macht gibt's schon ewig. Sie machen mal wieder einen riesen Aufstand um Nichts. Es ist nur ein bisschen schöner verpackt ,weil es direkt in Obj-C integriert ist.
Apple will die Wald/Wiesen Progger dazu bringen, Threads zu benutzen.
Mehr Ambition steckt nicht dahinter, den Desktop Usern bringt das schon was.
MS hat was aehnliches fuer .Net im Angebot.

KonKorT
2009-09-02, 00:05:09
Hier mal eine Kolumne zu Larrabee, die einen Vergleich zum Itanium herstellt sowie die Marktchancen, technischen Probleme und Perspektiven Larrabees darstellt.

http://www.hardware-infos.com/kolumnen.php?kolumne=15

BlackBirdSR
2009-09-02, 00:20:31
Hier mal eine Kolumne zu Larrabee, die einen Vergleich zum Itanium herstellt sowie die Marktchancen, technischen Probleme und Perspektiven Larrabees darstellt.

http://www.hardware-infos.com/kolumnen.php?kolumne=15

Meine Meinung zu dieser Werbung an die Leser hier:
Spart euch den Klick. Nichts Neues, viele Fehlansichten, sehr krumme Ansichten zu Itanium und viel Bekanntes lang umschrieben.

Aquaschaf
2009-09-02, 00:33:09
@Aquaschaf:
Naja im Endeffekt kommts auf ILP vs. TLP raus, beidemale gehts um parallele Ausführung, aber eben auf unterschiedlichen Ebenen.

Schon, aber ich finde es ist ein recht gewaltiger Unterschied ob die Aufgabe vom Entwickler oder vom Compiler erledigt wird :)

Gipsel
2009-09-02, 01:26:52
Schon, aber ich finde es ist ein recht gewaltiger Unterschied ob die Aufgabe vom Entwickler oder vom Compiler erledigt wird :)
ILP wird meist von der Hardware erschlagen, nur bei bei einigen Designs (VLIW, EPIC) vom Compiler.

StefanV
2009-09-02, 08:32:02
sehr krumme Ansichten zu Itanium und viel Bekanntes lang umschrieben.
Lass mich raten:
Jemand, der sich noch niemals nie nicht mit IA64 beschäftigt hat und das Zeugs ganz super toll findet?
Dabei ist der Itanic nix weiter als 'ne prima Heizung...

Für nähere, nicht allzu schwere Infos bitte nach fefe Itanium Hammer googeln.
Da gibts auch ein ganz nettes Video, mit krassen Tonaussetzern, müsste 19C3 gewesen sein.

Aquaschaf
2009-09-02, 08:38:50
ILP wird meist von der Hardware erschlagen, nur bei bei einigen Designs (VLIW, EPIC) vom Compiler.

Du erzählst mir nichts neues. Das hört man ja in jeder Einsteigervorlesung über Rechnerarchitektur :) EPIC ist auch nur ein schickerer Name für VLIW.

Coda
2009-09-02, 14:20:58
Lass mich raten:
Jemand, der sich noch niemals nie nicht mit IA64 beschäftigt hat und das Zeugs ganz super toll findet?
Dabei ist der Itanic nix weiter als 'ne prima Heizung...
Payne, lass es bitte mit solchen unfassbar bescheuerten Pauschalaussagen um dich zu werfen. Es nervt.

Vor allem labert Fefe da auch echt mal scheiße raus. Von wegen Itaniums schalten die Einheiten nicht ab wenn sie nicht gebraucht werden. Das stimmt so einfach nicht.

Der Typ hat eh manchmal recht komische Ansichten, auch wenn er zweifelsohne von vielen Dingen richtig was versteht.

Gast
2009-09-02, 14:34:04
also unser oracle 10.3er macht hier richtig gut arbeit auf nem rx6600. man kanns ja auch übertreiben mit der kritik.

Coda
2009-09-02, 14:41:30
Vor allem Itanium als Heizung zu bezeichnen und im Zusammenhang vom P4 zu reden ist schon ein starkes Stück.

[fu]121Ah@work
2009-09-02, 15:03:37
Vor allem Itanium als Heizung zu bezeichnen und im Zusammenhang vom P4 zu reden ist schon ein starkes Stück.
jup. der rx6600 ist schon n mordsteil - dagegen sind die alten dl380 G3 mit netburst CPUs ja der reinste dreck. also *zustimm*

BlackBirdSR
2009-09-03, 00:12:59
Lass mich raten:
.

Ich brauche nicht raten: Seit du wieder rumgeisterst kommen eine Menge diese Posts ähnlich wie dieser von dir. Wenn das nicht aufhört, dann gibts die ultimative Bestrafung: Leserechte ohne Schreibrechte. Ich meine das ernst!

=Floi=
2009-09-03, 00:47:47
ziat
Payne, lass es bitte mit solchen unfassbar bescheuerten Pauschalaussagen um dich zu werfen. Es nervt.

dem schließe ich mich an. das post ist für die tonne.

edit
verlinke das video oder sei einfach still. den rotz zu lesen treibt mich geradezu in den wahnsinn, weil ich nicht extra mit so einer miesen beschreibung bei youtube nach dem video suchen will.
geh mal vom gas und denk ein wenig mehr nach, weil es so einfach nicht geht wie du es machst!
setze dein wissen ein wenig brauchbarer und allgemeiner ein und du wirst auch entsprechend respektiert.

StefanV
2009-09-03, 07:58:18
Vor allem labert Fefe da auch echt mal scheiße raus. Von wegen Itaniums schalten die Einheiten nicht ab wenn sie nicht gebraucht werden. Das stimmt so einfach nicht.

Der Typ hat eh manchmal recht komische Ansichten, auch wenn er zweifelsohne von vielen Dingen richtig was versteht
Ah, OK.
Hast du ev. ein anderes Dokument, das sich mit dem Itanic beschäftigt, das deiner Meinung besser ist als das von fefe??
Ich kann mich leider nur auf das beziehen, was ich kenne und das war nunmal nur das von fefe...

Ailuros
2009-09-16, 19:22:37
Vorsicht es kann durchaus ein Bananengeruecht sein aber ich hoerte gerade dass das Ganze storniert wurde und man zurueck zur Kreidetafel rennt.

mapel110
2009-09-16, 19:25:25
Träfe keinen Armen. Intel kann sichs ja leisten.

Die_Allianz
2009-09-16, 19:27:57
zurueck zur Kreidetafel rennt.
Du meinst Reißbrett; oder was hats mit der kreidetafel auf sich?

Coda
2009-09-16, 19:28:25
Vorsicht es kann durchaus ein Bananengeruecht sein aber ich hoerte gerade dass das Ganze storniert wurde und man zurueck zur Kreidetafel rennt.
Oha. Da gäbe es dann aber schon ganz schön viel Publikationen usw. wenn alles jetzt den Bach runter geht. Ich glaube so etwas hat sich noch nichtmal Intel geleistet.

Hat Gelsinger eigentlich bei Larrabee seine Finger im Spiel? ;D

Ailuros
2009-09-16, 19:31:35
Oha. Da gäbe es dann aber schon ganz schön viel Publikationen usw. wenn alles jetzt den Bach runter geht. Ich glaube so etwas hat sich noch nichtmal Intel geleistet.

Hat Gelsinger eigentlich bei Larrabee seine Finger im Spiel? ;D

Keine Ahnung ob Gelsinger etwas damit zu tun hatte. Es wunderte mich schon dass mich jemand zum Thema LRB in letzter Zeit total ignoriert hat und konstant das Thema wechselte. Bestaetigt ist noch gar nichts und ich will auch ernsthaft davor warnen dass es nicht unbedingt stimmen muss.

Ailuros
2009-09-16, 19:32:59
Du meinst Reißbrett; oder was hats mit der kreidetafel auf sich?

Chalkboard design; es ist regelrecht eine Kreidetafel wo die ersten Anteile einer zukuenftigen Architektur aufgekritzelt werden. Tabula rasa oder anders nochmal von Anfang an.

Coda
2009-09-16, 19:35:12
Dann muss ich meinen Besen was den Software-Rasterizer angeht ja evtl. doch nicht essen ;)

Ailuros
2009-09-16, 19:37:50
Dann muss ich meinen Besen was den Software-Rasterizer angeht ja evtl. doch nicht essen ;)

Ich hab schonmal in der Vergangenheit gefragt: angenommen ein sw rasterizer ist doch in etwa auf dem hw rasterizer Nivaeu. Wie bewaeltigt man aber die Effizienz eines stark aufgepumpten rasterizers oder eventuell dual rasterizer units?

Coda
2009-09-16, 20:45:48
Der LRB-Rasterizer ist inheränt parallel mit recht wenig Verschnitt - vor allem nicht bei kleinen Dreiecken. D.h. wenn du 16 Cores hast du auch 16 virtuelle Rasterizer.

Also das ist nicht das Problem von LRB ;)

mapel110
2009-09-17, 04:44:09
http://www.semiaccurate.com/2009/09/16/new-larrabee-silicon-taped-out-weeks-ago/
New Larrabee silicon taped out weeks ago
Plagues of bugs quashed

Ailuros
2009-09-17, 06:14:10
http://www.semiaccurate.com/2009/09/16/new-larrabee-silicon-taped-out-weeks-ago/
New Larrabee silicon taped out weeks ago
Plagues of bugs quashed

Na hoffentlich; ausserdem muss Coda ja auch noch seinen Bessen fressen oder eben nicht ;)

Ailuros
2009-09-17, 15:42:44
Ok hier hat wohl jemand overdramatisiert; keiner will das Ding herstellen weil es ausserhalb der PCI-sig liegt (warum wohl? :rolleyes: ).

Gipsel
2009-09-17, 18:25:36
Ok hier hat wohl jemand overdramatisiert; keiner will das Ding herstellen weil es ausserhalb der PCI-sig liegt (warum wohl? :rolleyes: ).
>300Watt? :o Bei wie vielen Kernen?

Ailuros
2009-09-18, 06:57:44
>300Watt? :o Bei wie vielen Kernen?

Die Stornierungs-These war wohl bogus da es nur von einer Seite kam; aber das mit dem PCI-sig Zeug sieht eher nach der Wahrheit aus da schon 3 zuverlaessige Quellen zusagten. Leistung liegt irgendwo unter 5850.

mboeller
2009-09-18, 08:03:48
Die Stornierungs-These war wohl bogus da es nur von einer Seite kam; aber das mit dem PCI-sig Zeug sieht eher nach der Wahrheit aus da schon 3 zuverlaessige Quellen zusagten. Leistung liegt irgendwo unter 5850.

In Spielen, oder bei GPGPU?

>300Watt => es könnten 32 (~10Watt/Core) oder gar 48 Kerne (~7Watt/Core) sein, je nachdem wie gut sie den Verbrauch der SIMD-Units in den Griff bekommen haben.

Ailuros
2009-09-18, 12:25:32
In Spielen, oder bei GPGPU?

Natuerlich in 3D.

>300Watt => es könnten 32 (~10Watt/Core) oder gar 48 Kerne (~7Watt/Core) sein, je nachdem wie gut sie den Verbrauch der SIMD-Units in den Griff bekommen haben.

48? Um Himmel's Willen... :eek:

Uebrigens wie war es nochmal dass Intel demnaechst LRB in SoCs einbauen wird? :freak:

Gast
2009-09-18, 17:44:16
Uebrigens wie war es nochmal dass Intel demnaechst LRB in SoCs einbauen wird? :freak:
IMHO spricht da nichts gegen. ein einzelner lrb core dürfte in etwa auf demselben niveau liegen wie die bewährte intel chipsatz grafik.

Avalox
2009-09-18, 18:40:51
3 zuverlaessige Quellen zusagten. Leistung liegt irgendwo unter 5850.


Es ist eine andere, viel flexiblere Leistung. Dass der Larrabee allein in vergleichbarer Funktionen auf dem Niveau der Marktbegleiter sein wird hat ja niemand ernsthaft erwartet.
Allerdings ermöglicht der Larrabee doch einiges mehr und dieses "mehr" wird in die Schlacht geworfen und fokussiert werden.

So nebenbei scheint der Larrabee auch als erster Grafikprozessor preemptives Multitasking zu erlauben.

Ailuros
2009-09-18, 19:41:49
IMHO spricht da nichts gegen. ein einzelner lrb core dürfte in etwa auf demselben niveau liegen wie die bewährte intel chipsatz grafik.

Wie sieht denn der Stromverbrauch auf einer Intel IGP heutzutage genau aus und bei welcher Frequenz genau?

Es ist eine andere, viel flexiblere Leistung. Dass der Larrabee allein in vergleichbarer Funktionen auf dem Niveau der Marktbegleiter sein wird hat ja niemand ernsthaft erwartet.
Allerdings ermöglicht der Larrabee doch einiges mehr und dieses "mehr" wird in die Schlacht geworfen und fokussiert werden.

So nebenbei scheint der Larrabee auch als erster Grafikprozessor preemptives Multitasking zu erlauben.

Intel kann von mir aus endlos zum Fenster hinauswerfen fuer ihr merkwuerdiges Technologie-Experiment, aber langfristig sieht es eher danach aus dass sie aus ihren eigenen bisherigen Fehlern lernen muessen damit jeglicher zukuenftiger LRB ueberhaupt eine Zukunft hat. Bis zum Punkt wo Intel wirklich komplett ausgebuegelt hat kann sich einiges im GPU Land aendern.

Normalerweise muessten die Vor- den Nachteilen ueberwiegen; wenn einige Hersteller (Konsolen-Hersteller als erste) die eine Tuer nach der anderen zuknallen heisst es wohl das es eben nicht so ist.

Avalox
2009-09-18, 21:50:40
Normalerweise muessten die Vor- den Nachteilen ueberwiegen; wenn einige Hersteller (Konsolen-Hersteller als erste) die eine Tuer nach der anderen zuknallen heisst es wohl das es eben nicht so ist.

Na, wenn man sich allein die nächste ATI GPU ansieht, dann fragt man sich wie den die Rendering-Leistung überhaupt sinnvoll eingesetzt werden soll?
Diese Grafikkarten sind so schnell, dass kein Spiel sinnvoll diese nutzen kann. So wird die Rechenleistung in Frames umgesetzt, welche das Display nicht anzeigen kann und allein die Stromrechnung nach oben treiben.
Ich denke, das Potential der GPU schreit geradezu immer lauter, für nicht Grafikanwendungen Verwendung zu finden. Dort wird der flexibelste den Schnitt machen, selbst wenn dieser potentiell langsamer ist, so ist dieser doch weit voraus, wenn dieser seine nicht sinnvoll konventionell einsetzbaren Rechenleistung andersweitig möglichst umfassend einbringen kann. Dort hat der Larrabee deutliche Vorteile vor seinen momentanen Wettbewerbern.

Zum mal mit dem Larrabee auch noch ein weiterer Effekt eintreten könnte. Wenn der Larrabee tatsächlich einen eigenen Renderpfad bekommt, dann ist der jetztige Larrabee tatsächlich die einzige Implementierung dieses Pfades.
Es ist weder auf Schwachleister im Pfad, noch auf Kompatibilitätsprobleme Rücksicht zu nehmen und damit die Rechenleistung eh viel gezielter und umfassender umsetzbar.

=Floi=
2009-09-18, 21:57:18
wenn die fps anstehen, dann braucht die gpu auch nicht mehr strom!
wenn du die leistung nicht nützen kannst, dann ist das nicht unser problem. die leistung kann man noch immer relativ problemlos in BQ verwandeln. von euren prophezeiten szenarien sind wir noch meilenweit entfernt...

Coda
2009-09-18, 22:07:01
Na, wenn man sich allein die nächste ATI GPU ansieht, dann fragt man sich wie den die Rendering-Leistung überhaupt sinnvoll eingesetzt werden soll?
Dafür reicht schon ein Crysis/Crysis Warhead in 1920x1200 4xAA bei einer einzigen Karte. Und nicht jeder will sich mit Multi-GPU rumschlagen.

Avalox
2009-09-18, 22:18:15
wenn die fps anstehen, dann braucht die gpu auch nicht mehr strom!


Es gibt doch nur zwei Möglichkeiten.
Erste Möglichkeit ist, man spielt mit begrenzten FPS, dann ist immer wenn die Begrenzung in Kraft tritt die Grafikkarte nicht ausgelastet und damit in der Situation schlicht unnötig,
oder die Grafikkarte rendert unbegrenzt munter drauf los, dann werden allerdings durchaus fertige Frames weggeschmissen und damit sinnlos Strom verbraucht.



wenn du die leistung nicht nützen kannst, dann ist das nicht unser problem. die leistung kann man noch immer relativ problemlos in BQ verwandeln.

Im Standbild mit 10 Fach Zoom und Mouseover Direktvergleich vielleicht.

Das beste Beispiel ist doch das vermutlich vorhandene RGSSAA bei den neueren ATI Karten. Es glaubt doch niemand ernsthaft, dass ATI nun die Qualitätsoffensive startet. Lange Benchmark Balken sind viel wichtiger, allerdings können dieses nun auch absurd lang werden. Deshalb wird RGSSAA geboten, nicht weil es notwendig ist, sondern weil es nun durch extremen nicht sinnvoller zu verwendenden Leistungsüberschuss erst möglich wird, ohne sich ein funktionales Bein selbst zu stellen.

dust
2009-09-18, 22:29:16
das problem sind schlecht skalierende games...

Avalox
2009-09-18, 22:33:04
das problem sind schlecht skalierende games...

Ja. Klar sind sie das Problem. Aber diese wird es weiterhin geben, ganz im Gegenteil, die Spiele der Zukunft werden im Verhältnis noch viel schlechter skalieren als heute.
Ganz einfach, weil die Schere immer weiter auseinander klappt. Die Toplösungen von morgen entfernen sich immer weiter von der installierten Basis und werden somit immer schlechter ausgenutzt.

Ausser beim Larrabee mit einem nativen erweiterten Rendering Pfad + Content und Effekt. Der Larrabee ist neu, damit ist die installierte Basis natürlich gleich der Toplösung und somit eine potentielle Ausnutzung des Pfades natürlich dann gegeben. Das ist der "Spielkonsolen Effekt". Wer soll dieses "Extra" bezahlen? Intel!

MR2
2009-09-18, 23:06:43
Weniger als HD5850?

Es hieß doch schon länger GTX285 Niveau...
Der Markt ist schon für Nvidia und ATI zu klein, da will sich Intel noch breit machen? Auch wenn ihr mich steinigt, hoffentlich wird das ein Schuß in den Ofen! Meine Meinung...

ShadowXX
2009-09-18, 23:48:35
Ausser beim Larrabee mit einem nativen erweiterten Rendering Pfad + Content und Effekt. Der Larrabee ist neu, damit ist die installierte Basis natürlich gleich der Toplösung und somit eine potentielle Ausnutzung des Pfades natürlich dann gegeben. Das ist der "Spielkonsolen Effekt". Wer soll dieses "Extra" bezahlen? Intel!
Ich glaube kaum das Intel in jeden potentiellen Blockbuster 5-6 Millionen für einen eigenen Larrabee-Pfad investiert.

Du überschätzt IHMO auch die Möglichkeiten von dem Ding.

Aquaschaf
2009-09-19, 00:05:42
Das ist der "Spielkonsolen Effekt". Wer soll dieses "Extra" bezahlen? Intel!

Mit dem winzigen Unterschied dass Spielkonsolen auch eine nennenswerte install base haben. Und wenn Larrabee tatsächlich ein 300W-Monster wird bei dafür sehr mäßiger Performance, dann sehe ich ihn ungefähr so gut positioniert wie die dedizierten PhysX-Beschleuniger-Karten.

Abgesehen davon: wenn bei der Grafik so langsam eine Sättigung eintritt, wieso sollte sich gerade dann jemand die Mühe machen für eine Nische einen signifikant anderen Renderpfad zu schreiben? Spätestens das Featureset von DX11 ist ein kleinster gemeinsamer Nenner der groß genug ist um so etwas sehr unattraktiv zu machen.

Ich lasse mich gerne überraschen. Aber mitlerweile bin ich der Ansicht dass Larrabee weder als GPU noch als paralleler Koprozessor eine Offenbarung sein wird.

dust
2009-09-19, 00:05:54
Ja. Klar sind sie das Problem. Aber diese wird es weiterhin geben, ganz im Gegenteil, die Spiele der Zukunft werden im Verhältnis noch viel schlechter skalieren als heute.
Ganz einfach, weil die Schere immer weiter auseinander klappt. Die Toplösungen von morgen entfernen sich immer weiter von der installierten Basis und werden somit immer schlechter ausgenutzt.

Ausser beim Larrabee mit einem nativen erweiterten Rendering Pfad + Content und Effekt. Der Larrabee ist neu, damit ist die installierte Basis natürlich gleich der Toplösung und somit eine potentielle Ausnutzung des Pfades natürlich dann gegeben. Das ist der "Spielkonsolen Effekt". Wer soll dieses "Extra" bezahlen? Intel!
das glaube ich eben nicht. ein grosser teil der spiele produzenten wird weiter klassisch produzieren, insbesondere die grossen firmen. ein paar kleinere innovative firmen werden neue pfade gehen, zum teil müssen. je besser ein spiel skaliert, sprich aus gegebener hardware herausholt, desto mehr potentielle kunden. auf der super duper multi gpu hardware von morgen schaut es dann einfach besser aus als auf der uralt oder handheld hardware. einen fps bereich angeben, unter 30 fps geht alles in fps auf kosten der qualität um ein flüssiges spielen zu ermöglichen und über 60 fps geht alles in die qualität.

http://store.steampowered.com/hwsurvey
sind april daten. wer dx10 verlangt muss auf 71% kunden verzichten, weil die leute nicht das entsprechende system haben. wenn valve ein neues half life herausbringt müssen sie auch alte hardware unterstützen oder auf 71% einnahmen verzichten.

und in zeiten der wirtschaftskrise die erst am anfang ist mit steigenden arbeitslosenzahlen, brauchen die spieleproduzenten jeden käufer, egal ob der schnelle oder langsame hardware hat. es sind viele frühere grosse namen in der spiele branche eingegangen, weitere werden entweder lernen und überleben oder folgen...

Ailuros
2009-09-19, 08:39:30
Na, wenn man sich allein die nächste ATI GPU ansieht, dann fragt man sich wie den die Rendering-Leistung überhaupt sinnvoll eingesetzt werden soll?
Diese Grafikkarten sind so schnell, dass kein Spiel sinnvoll diese nutzen kann. So wird die Rechenleistung in Frames umgesetzt, welche das Display nicht anzeigen kann und allein die Stromrechnung nach oben treiben.

Von Stromrechnung bei LRB sollten wir wohl nicht reden.

Ich denke, das Potential der GPU schreit geradezu immer lauter, für nicht Grafikanwendungen Verwendung zu finden. Dort wird der flexibelste den Schnitt machen, selbst wenn dieser potentiell langsamer ist, so ist dieser doch weit voraus, wenn dieser seine nicht sinnvoll konventionell einsetzbaren Rechenleistung andersweitig möglichst umfassend einbringen kann. Dort hat der Larrabee deutliche Vorteile vor seinen momentanen Wettbewerbern.

Zum mal mit dem Larrabee auch noch ein weiterer Effekt eintreten könnte. Wenn der Larrabee tatsächlich einen eigenen Renderpfad bekommt, dann ist der jetztige Larrabee tatsächlich die einzige Implementierung dieses Pfades.
Es ist weder auf Schwachleister im Pfad, noch auf Kompatibilitätsprobleme Rücksicht zu nehmen und damit die Rechenleistung eh viel gezielter und umfassender umsetzbar.

LRB wenn immer es ankommt wird sich nicht nur gegen Radeons messen muessen und natuerlich auch nicht nur in 3D.

Wenn jetzt jegliche Vorteile einen gesunden Unterschied machen sollen braucht man erstmal kaufbare hw und nicht den Marketing-Weihrauch den wir schon seit Jahren auf powerpoint slides lesen koennen und die Entwickler erstmal ueberzeugen. In der Zwischenzeit kapituliert NV nach wie vor die Profi-Maerkte und ihr CUDA ist bald bei ihrer dritten Generation.

http://www.brightsideofnews.com/news/2009/9/18/pat-gelsinger-left-intel-because-of-larrabee-fiasco.aspx

Es gibt zwar mehr als nur einen Fehler in dem Artikel (Beispiel wenn Intel tatsaechlich erst in 2011 veroeffentlich dann werden sie wohl nicht so bloed sein und immer noch 45nm benutzen...), aber irgendwo zwischen den Fehlern und Uebertreibungen liegt auch die Wahrheit. Bei der siebten A Revision erreichte man gerade noch etwas unter GTX280 Leistung was die maximale Leistung betrifft und die hw bugs die sie nach SA in der Zwischenzeit beseitigt haben sollen gaben mit der letzten A Revision bis zu 40x niedrigere Leistung in extremen Faellen. Natuerlich wird das ganze ausgebuegelt irgendwann, aber bis es soweit kommt, man vielleicht auf einen kleineren Herstellungsprozess umsetzt reden wir dann auch nicht mehr von einem GF 380 Vergleich. Die letztere ist locker 2x Mal so schnell in 3D mit vergleichbarem Stromverbrauch zu heutigen GPUs und ein imposanter Faktor weiter vorne als GT200 in allem GPGPU (siehe auch DP).

Ausser beim Larrabee mit einem nativen erweiterten Rendering Pfad + Content und Effekt. Der Larrabee ist neu, damit ist die installierte Basis natürlich gleich der Toplösung und somit eine potentielle Ausnutzung des Pfades natürlich dann gegeben. Das ist der "Spielkonsolen Effekt". Wer soll dieses "Extra" bezahlen? Intel!

Dieses Extra bezahlt Intel schon seit Jahren und mit einer Rechnung die staendigt waechst was aber uns nicht unbedingt betrifft. Die brennende Frage ist wer einkaufen bzw herstellen soll.

Von welchem Spielkonsolen-Effekt reden wir denn ueberhaupt? Die Konsolen-Hersteller haben alle schon seit einiger Zeit nein gesagt weil sie fuer die Leistung die sie haben wollen der insgesamte Geraet-Verbrauch um zich Male erhoeht haette und wir reden hier nicht ueber 2x oder 3x Mal Faktoren.

Avalox
2009-09-19, 11:23:31
Ich glaube kaum das Intel in jeden potentiellen Blockbuster 5-6 Millionen für einen eigenen Larrabee-Pfad investiert.


Das ist ja gar nicht nötig. Es bedarf ausschließlich eines initialen Engagement.
Sobald ein ersichtlicher Mehrwert, zu eine entsprechende Marktverbreitung führt, kann es sich eh kein Hersteller mehr erlauben diesen Weg nicht zu gehen.



Du überschätzt IHMO auch die Möglichkeiten von dem Ding.

Die absoluten Möglichkeiten des "Dings" sind gar nicht der entscheidende Faktor. Die Möglichkeiten müssen lediglich hinreichend sein.

Der Punkt ist es, dass der Larrabee neu und anders ist und damit zusätzliche Möglichkeiten bietet.

Das man nicht überschätzen kann, ist Intel selbst. Für Intel ist der Larrabee der Befreiungsschlag, welcher mittelfristig das GPU Dilemma vom Markt tilgen soll und die Processingkapazität wieder zentralisieren soll.
Dieses wird ein vorrangiges Ziel von Intel sein und entsprechend wird solch ein Ziel mit Nachdruck behandelt werden. Das sollte man nicht unterschätzen.

Der entscheidende Schritt wird es für Intel sein, mit Druck auf Microsoft zu arbeiten, dass alle Vorteile des Larrabee durch Microsoft unterstützt werden, denn auf dem niedrigeren Niveau der heutigen GPUs wird sich der Larrabee nicht positionieren können.
Dieser Druck auf Microsoft wird mit einer entsprechenden alternativen Kulisse am nachhaltigsten aufgebaut. Intel braucht schlicht eine glaubwürdige Alternative, bzw. Ergänzung zum DirectX.
Diese wird es geben und native Larrabee Programmierung erlauben.

Vor kurzen hat MS die Unterstützung von preemptives Multitasking der GPU angekündigt. Allerdings haben ATI und nVidia gar keine GPU in nächster Zeit, welche dieses unterstützt.

Man wird schlicht auf Signale achten müssen.

Auf keinen Fall wird sich Intel auf einen Auseinandersetzung auf niedrigen Niveau einlassen. Der Larrabee hat das Potential den gesamten Markt umzukrempeln und das wird dieser auch tun, den dahinter steht Intel mit einem konkreten Ziel.


, zum teil müssen. je besser ein spiel skaliert, sprich aus gegebener hardware herausholt, desto mehr potentielle kunden. auf der super duper multi gpu hardware von morgen schaut es dann einfach besser aus als auf der uralt oder handheld hardware.

Das wäre heute ja schon möglich. Es ist schlicht nicht gewollt. Kein Mensch investiert in Produkte, welche in irgend einer unbestimmten Zukunft mal besser aussehen könnten. Es ist schon nicht gewollt, da diese alten Produkte, dann sogar in einem kanibalisierenden Marktwettbewerb zu neuen Produkten stehen würden. Die "automatische Veraltung" ist ein Design Feature und kein ungewollte Nebenerscheinung.


Von Stromrechnung bei LRB sollten wir wohl nicht reden.


Ohne nichts, gibt es nichts. Es zählt allein die Funktion. Der Stromverbrauch muss hinreichend, also handhabbar sein. Denn dann steht "Funktion mit hohen Stromverbraucht", neben "keine Funktion mit mittleren Stromverbrauch".



LRB wenn immer es ankommt wird sich nicht nur gegen Radeons messen muessen und natuerlich auch nicht nur in 3D.

Wenn jetzt jegliche Vorteile einen gesunden Unterschied machen sollen braucht man erstmal kaufbare hw und nicht den Marketing-Weihrauch den wir schon seit Jahren auf powerpoint slides lesen koennen und die Entwickler erstmal ueberzeugen. In der Zwischenzeit kapituliert NV nach wie vor die Profi-Maerkte und ihr CUDA ist bald bei ihrer dritten Generation.

Für nVidia geht es in diesem Spiel tatsächlich um die Wurst, sprich um die Zukunft im PC Markt.
nVidia wird langfristig die momentane Position nicht halten können und ggf. komplett aus dem PC Markt verschwinden. Deshalb sollte man annehmen, dass die Anstrengungen von nVidia am größten sein sollten, wenn der Larrabee auf dem Markt erscheint.

Cuda hat versagt. Das Spiel Cuda ist vorbei, die Chance wurde nicht genutzt. Das muss man heute so einfach feststellen.

Gast
2009-09-19, 13:03:59
... da ist aber jemand schwer beeindruckt von intels powerpoint slides ^^

nüchtern betrachtet liegt die existenzberechtigung einer x86 manycore cpu noch unter der der netburst architektur. intel meint mal wieder, dem rest der welt beweisen zu müssen, dass sie alles was sie wollen auch gegen jede vernunft durchdrücken können. wundervoll. ich liebe dieses monsanto der halbleiterbranche :D

Gipsel
2009-09-19, 13:33:20
[...] reden wir dann auch nicht mehr von einem GF 380 Vergleich. Die letztere ist locker 2x Mal so schnell in 3D mit vergleichbarem Stromverbrauch zu heutigen GPUs und ein imposanter Faktor weiter vorne als GT200 in allem GPGPU (siehe auch DP).
Das mit der 3D-Leistung glaube und erwarte ich auch. Aber zum zweiten Punkt noch eine kleine Anmerkung.
Du weißt ja, daß meiner Meinung nach der GPGPU-Vorsprung von nv seit RV700 hauptsächlich auf der Software-Seite liegt. Insofern würde ich es glatt bestreiten, daß die GT200-Hardware momentan bei GPGPU überhaupt klar vorne liegt. Sicher lassen sich Beispiele dafür finden, wo ein GT200 schneller als RV770 ist. Aber bei den bisher 2 Projekten, in die ich involviert war (ich gebe zu, das Sample ist klein), ist eine ATI jeweils deutlich schneller.

Okay, eins nutzt exzessiv DP, da ist der (wirklich extreme, sprich Faktor ~5) Vorsprung nicht verwunderlich. Aber das zweite benutzt Integer-Arithmetik, ziemlich branchigen Code (der läuft auch innerhalb einer Wavefront/Warp auseinander) und doch einiges an Speicherbandbreite (HD4770 oder HD4850 sind z.b. hart an der Grenze, HD4650 mit DDR2 deutlich limitiert) mit praktisch zufälligem Zugriffsmuster. Eigentlich hätte ich nv sehr konkurrenzfähig gesehen (kleinere Branch-Granularität, SFUs können für Integer-Multiplikationen genutzt werden, 512Bit-Speicher-Interface, Füllung der Slots bei ATIs nur seehr mittelprächtig, da wenig ILP im Code), trotzdem liegt eine HD4870 ~50% vor einer GTX285. Und das sind die Zahlen mit Compiler-generiertem Code (ist zumindest bei ATI oft nicht ganz so dolle, bei nv wegen der skalaren Shader nicht ganz so kritisch).

Insofern muß GT300 dann erstmal zeigen, wieviel er zu leisten im Stande ist, auch (oder gerade) bei DP. Denn es ist vielleicht etwas untergegangen, aber RV870 hat auch ein paar Änderungen an den ALUs, um dort nicht nur für mehr Performance zu sorgen, sondern auch bei den Features etwas aufzuholen (FMA). Die offizielle DP-Peakleistung hat sich zwar gegenüber RV790 exakt verdoppelt, bei realem Code dürfte die Steigerung aber größer ausfallen, wenn man nicht nur Matrix-Multiplikationen macht ;)

Aquaschaf
2009-09-19, 14:12:50
Ohne nichts, gibt es nichts. Es zählt allein die Funktion. Der Stromverbrauch muss hinreichend, also handhabbar sein. Denn dann steht "Funktion mit hohen Stromverbraucht", neben "keine Funktion mit mittleren Stromverbrauch".

So ist es eben nicht. Was parallele Algorithmen angeht kann man auf ATI/NVidia das selbe machen wie auf Larrabee. Je nach Aufgabe ist eine Architektur effizienter als die andere, aber es ist nicht einmal klar ob Larrabee dort überhaupt insgesamt im Vorteil ist.

Coda
2009-09-19, 14:15:46
Wieso gehen eigentlich alle davon aus, dass Larrabee so unglaublich toll schnell bei GPGPU-Anwendungen sein wird?

Avalox
2009-09-19, 14:41:37
Wieso gehen eigentlich alle davon aus, dass Larrabee so unglaublich toll schnell bei GPGPU-Anwendungen sein wird?

Nicht unglaublich toll schnell in Spezialfällen, allerdings deutlich flexibler in der Verwendbarkeit.
Der Larrabee hat deutlich mehr mit einer CPU gemein, als seine Wettbewerber. Zudem ist seine Speicheranbindung deutlich eleganter und somit die Systemintegration im Zusammenspiel mit der CPU umfassender. Das sind Vorteile. Ein Vergleich in "klassischen" GPGPU Anwendungen ist dort nicht sinnvoll. Der Larrabee führt die GPU viel weiter an das System heran und ermöglicht komplexere und flexiblere Nutzung.
Es ist ein konzeptioneller Schritt nach vorne. Was nutzt Rechenleistung, wenn diese nicht sinnvoll verwendbar ist?
Der Wettbewerb den der Larrabee sich stellt ist systemimmanent, dort ist die GPU nicht losgelöst zu betrachten, sondern das gesamte System aus Hauptspeicher, CPU und Grafikkarte mit GPU. Dort können die Lösungen dann eben doch wieder unglaublich toll schnell sein.

Gipsel
2009-09-19, 14:45:49
Wieso gehen eigentlich alle davon aus, dass Larrabee so unglaublich toll schnell bei GPGPU-Anwendungen sein wird?
Meine Antwort geht etwas in die Richtung wie Aquaschafs Anmerkung. Bei embarassingly parallelen Workloads wird Larrabee üblicherweise gar keinen Vorteil haben, eher sogar Nachteile. Larrabee wird aber tendenziell mehr Algorithmen halbwegs performant ausführen können als *jetzige* GPUs.

Gipsel
2009-09-19, 14:47:39
Was nutzt Rechenleistung, wenn diese nicht sinnvoll verwendbar ist?
Was nutzen überlegende Konzepte, wenn am Ende keine Rechenleistung dahintersteht? ;)

S940
2009-09-19, 14:55:36
Wieso gehen eigentlich alle davon aus, dass Larrabee so unglaublich toll schnell bei GPGPU-Anwendungen sein wird?
Weil die Meisten - wenn überhaupt - nur ein bisschen Ahnung von x86 CPUs haben, und sich dort die 512bit Register plus "revolutionäre" AVX Befehle und 4x SMT samt ~32 Kerne verdammt gut anhören ....

Avalox
2009-09-19, 15:08:43
Was nutzen überlegende Konzepte, wenn am Ende keine Rechenleistung dahintersteht? ;)

Ja genau.

Es offenbart genau den Punkt, um den es geht. Der Larrabee ist anders.

Der Kernfrage ist, wird es Software für den Larrebee geben oder nicht?

Wenn es Software für den Larrabee geben wird, so wird keine GPU ihre Rechenleistung adäquat verwenden können und diese notgedrungen verpuffen lassen.
Wird es keine Larrabee Software geben, so wird der Larrabee auf den beschränkten Feld der GPUs antreten und entsprechend langsamer sein.

Der Kern ist die Unterstützung der konzeptionellen tiefergreifenden Einbindung in das System. Entweder mit erweiterten Grafik- oder gar generellen Funktionen.

Intel kann es sich nicht leisten den Larrabee in einem vom Funktionsumfang von ATI/nVidia geprägten DirectX zu verbrennen. Wir werden dort entweder eine Näherung von MS an die Intel Ansprüche sehen, oder einen beeindruckenden Alleingang von Intel erleben. MS wird sich Intel beugen, weil sie in diesem Spiel viel mehr zu verlieren, als zu gewinnen haben.

Coda
2009-09-19, 15:22:14
Nicht unglaublich toll schnell in Spezialfällen, allerdings deutlich flexibler in der Verwendbarkeit.
Der Larrabee hat deutlich mehr mit einer CPU gemein, als seine Wettbewerber. Zudem ist seine Speicheranbindung deutlich eleganter und somit die Systemintegration im Zusammenspiel mit der CPU umfassender. Das sind Vorteile. Ein Vergleich in "klassischen" GPGPU Anwendungen ist dort nicht sinnvoll. Der Larrabee führt die GPU viel weiter an das System heran und ermöglicht komplexere und flexiblere Nutzung.
Es ist ein konzeptioneller Schritt nach vorne. Was nutzt Rechenleistung, wenn diese nicht sinnvoll verwendbar ist?
Der Wettbewerb den der Larrabee sich stellt ist systemimmanent, dort ist die GPU nicht losgelöst zu betrachten, sondern das gesamte System aus Hauptspeicher, CPU und Grafikkarte mit GPU. Dort können die Lösungen dann eben doch wieder unglaublich toll schnell sein.
Du hörst dich an wie ein Marketing-Sprecher von Intel.

Das allermeiste was als GPGPU auf LRB laufen wird ist DirectCompute oder OpenCL. Es ist utopisch anzunehmen, dass viele Softwareanbieter abseits von Nischenlösungen direkt auf LRB programmieren. Und die "Flexibilität" ist so eine Sache. Man könnte zwar auch seriellen Code auf LRB laufen lassen, aber es nützt einem nicht.

Weil die Meisten - wenn überhaupt - nur ein bisschen Ahnung von x86 CPUs haben, und sich dort die 512bit Register plus "revolutionäre" AVX Befehle und 4x SMT samt ~32 Kerne verdammt gut anhören ....
Und was bringt mir das Wissen über x86 wenn ich sowieso in einer Hochsprache programmiere? Auch GPUs haben Vektor-ALUs, das ist nichts neues.

Meine Antwort geht etwas in die Richtung wie Aquaschafs Anmerkung. Bei embarassingly parallelen Workloads wird Larrabee üblicherweise gar keinen Vorteil haben, eher sogar Nachteile. Larrabee wird aber tendenziell mehr Algorithmen halbwegs performant ausführen können als *jetzige* GPUs.
Ich bin da sehr skeptisch. Im Endeffekt ist es das gleiche in grün, da man wenn man halbwegs gute Leistung haben will sowieso die Vektor-ALUs bemühen muss, und wo ist dann noch der große Vorteil ggü. einer GPU?

Avalox
2009-09-19, 15:42:04
Und die "Flexibilität" ist so eine Sache. Man könnte zwar auch seriellen Code auf LRB laufen lassen, aber es nützt einem nicht.


Es geht doch gar nicht um seriellen Code, es geht um umfassenden Code. Cache Coherent, preemptives Multitasking usw., usw. Man kann schlicht den Larrabee mit umfassenderen Aufgaben betrauen. Natürlich macht als Teilaspekt dort ein serieller Code durchaus einen Sinn, wenn dieser eine Teilanwendung bedient, welche ansonsten nur aufwendig im Zusammenspiel mit der CPU zu realisieren wäre.


Man muss doch auch einfach mal die Perspektive von Intel betrachten um die Motivation des Produktes zu erkennen.

Natürlich möchte Intel eine konkurrenzfähige GPU im Programm haben. Dieses doch aber nicht der GPU allein gestellt wegen.

Kann Intel den Larrabee ordentlich am Markt platzieren, so werden über kurz oder lang ein zwei x86 Kerne des Larrabee erweitert und dieser in den CPU Sockel wandern. Dann bietet man ein System an, wo eine teure Grafikkarte nicht mehr nötig ist. Das ist ein grandioser Mehrwert. Intel muss dieses zwangsläufig ins Auge fassen, weil es ansonsten ein Marktbegleiter zuerst tun wird.
Ziel der Larrabee Linie kann es nur sein, die komplexe GPU aus dem System zu entfernen. Das wird sich Intel einiges kosten lassen.

Coda
2009-09-19, 15:49:54
Es geht doch gar nicht um seriellen Code, es geht um umfassenden Code. Cache Coherent, preemptives Multitasking usw., usw.
Cache-Kohärenz gewährleistet eine GPU für ihre Streamprocessoren auch. Und was das Problem mit "umfassendem Code" sein soll versteh ich auch nicht. Es gibt keine Programmlängenlimitierung mehr seit D3D10.

Multitasking wird GT300 evtl. auch schon unterstützen. Das ist nichts was man nicht in Zukunft auch in die GPUs integrieren könnte. Genauso wie virtuellen Speicher. Das "usw. usw." könntest du durchaus noch etwas ausführen.

Natürlich macht als Teilaspekt dort ein serieller Code durchaus einen Sinn, wenn dieser eine Teilanwendung bedient, welche ansonsten nur aufwendig im Zusammenspiel mit der CPU zu realisieren wäre.
He? Zusammenhang?

Gast
2009-09-19, 15:58:11
[QUOTE=Avalox;7542799Kann Intel den Larrabee ordentlich am Markt platzieren, so werden über kurz oder lang ein zwei x86 Kerne des Larrabee erweitert und dieser in den CPU Sockel wandern.[/QUOTE]
*lach*
könnte mir schon vorstellen dass intel das so passen würde, beim austausch der grafik"karte" auch gleich ne neue cpu kaufen zu müssen ... :D
aber wer würde so dumm sein?!?

=Floi=
2009-09-19, 16:31:19
zitat
so werden über kurz oder lang ein zwei x86 Kerne des Larrabee erweitert und dieser in den CPU Sockel wandern. Dann bietet man ein System an, wo eine teure Grafikkarte nicht mehr nötig ist. Das ist ein grandioser Mehrwert.

das ist komplett utopisch. gpus haben in ca. 3 monaten 2,5gflop und du kommst mit einer in die cpu integrierten GPU die villeicht mal 100mflop stemmt. vergiss diese idee einfach. selbst eine 4850gpu für ~80€ ist hier nicht zu teuer.

Gipsel
2009-09-19, 18:22:27
Das allermeiste was als GPGPU auf LRB laufen wird ist DirectCompute oder OpenCL. Es ist utopisch anzunehmen, dass viele Softwareanbieter abseits von Nischenlösungen direkt auf LRB programmieren.
Genauso sehe ich das auch. Es wird ein Problem für Intel, extra für Larrabee irgendwas außerhalb von OpenCL oder DX-CS durchzusetzen. Oder warum sollten mit einem Mal alle auf Intels Ct setzen?
Larrabee mag ja von der Hardware um einiges flexibler sein, als man es von GPUs bisher gewohnt ist, aber wie nutzt man das und wie vergleicht es sich mit den GPUs in einem Jahr?
Cache-Kohärenz gewährleistet eine GPU für ihre Streamprocessoren auch.
Aber nur für die L1 innerhalb eines SIMDs bzw. eines TPCs. Nicht global für alle Caches wie Larrabee. Aber inzwischen gibt es ja auch schon den GlobalDataShare bei ATIs. Es ist ja nicht so, als wenn man keine Daten zwischen verschiedenen SIMDs austauschen könnte (oder über den RAM gehen muß). Muß man nur explizit synchronisieren und es wird nicht implizit von der Hardware gewährleistet ;)

Gipsel
2009-09-19, 18:30:33
das ist komplett utopisch. gpus haben in ca. 3 monaten 2,5gflop und du kommst mit einer in die cpu integrierten GPU die villeicht mal 100mflop stemmt. vergiss diese idee einfach. selbst eine 4850gpu für ~80€ ist hier nicht zu teuer.
Kleine Anmerkung, ein 780G-Chipsatz von ATI schafft schon 40 GFlops. Von neueren Modellen braucht man da noch nicht mal anfangen ;)

Avalox
2009-09-19, 18:57:00
zitat
das ist komplett utopisch. gpus haben in ca. 3 monaten 2,5gflop und du kommst mit einer in die cpu integrierten GPU die villeicht mal 100mflop stemmt. vergiss diese idee einfach. selbst eine 4850gpu für ~80€ ist hier nicht zu teuer.


Es geht allein um das aufschliessen dieser Leistungsreserve, nicht um Rechenleistung selbst. Der Larrabee ist keine GPU, es ist eine CPU einhergehend mit höherer Programmierbarkeit und flexibler Auslegung
Das ist der Unterschied. Schon heute lässt sich die hohe, spezialisierte Rechenleistung moderner GPU nicht mehr wirklich sinnvoll nutzen.


. Es wird ein Problem für Intel, extra für Larrabee irgendwas außerhalb von OpenCL oder DX-CS durchzusetzen.

Ich sehe dieses nicht als nachhaltiges Problem, weil es tatsächlich ausschließlich eine monetäre Herausforderung ist und es wird sich zeigen, wie viel Wert der Einstieg Intel sein wird.

Schon allein im ersten Whitepaper zum Larrabee befinden sich zahlreiche Beispiele zur Erweiterung der DX und OpenGL Rendering Pipeline Software des Larrabee, zur Erweiterung mit individuellen Ergänzungen.
Es ist völlig klar, dass Intel mit dem Larrabee nicht die Absicht hat, sich auf das Niveau der Marktbegleiter herab zulassen, sondern die gewaltigen Stärken der Flexibilität auszuspielen gedenkt.

Man sollte ein MS auch nicht als Faktor unterschätzen. Natürlich werden Larrabee spezifische Anwendungen MS nicht gefallen, wenn diese an ihrer Einflussphäre vorbei geschehen. Durchaus wird es sehr wahrscheinlich, dass ein MS dort Intel sehr entgegen kommen wird. Entsprechende Erweiterungen, welche technologisch ausschließlich, bzw. effektiv nur durch den Larrabee bedient werden können sind ziemlich wahrscheinlich. Aber auch deren Benutzung wird einen Intel erstmal Geld kosten.



Multitasking wird GT300 evtl. auch schon unterstützen. Das ist nichts was man nicht in Zukunft auch in die GPUs integrieren könnte. Genauso wie virtuellen Speicher. Das "usw. usw." könntest du durchaus noch etwas ausführen.

Das nVidia reagiert ist natürlich ebenso vorhersehbar. Ich denke nicht, dass der GT300 preemtives Multitasking unterstützen wird.
Ausserdem muss natürlich ein nVidia mit einem neuen Produkt jedes mal die Historie der installierten Basis überwinden.
Zudem in letzter Konsequenz die Programmierung selbst stehen wird und dieses bedeutet bei nVidia nun mal CUDA.

Für nVidia geht es schlicht um die Wurst. Für nVidia steht die Zukunft auf dem PC Markt grundlegend auf dem Spiel.

dust
2009-09-19, 19:43:02
niemand ausser intel will properitäre lösungen. die frage ist, wie gut die software, die ich verwende, von intel unterstützt wird. ich glaube nicht, dass intel die ganze software, die von vektorisierung profitieren, auf den lrb umschreiben wird. wir reden immerhin von tausenden anwendungen die umgeschrieben werden müssten. wenn dann werden die richtung einer offenen api gehen damit es möglichst überall läuft und nicht richtung möglichst geschlossen und nur von einem hersteller, bei dem man nicht sicher sein kann wie lange er den lrb produziert und weiterentwickelt und bei dem man sich von vielleicht besseren lösungen selbst ausschliesst.

ich glaube der zug geht richtung opencl und intel wird schauen müssen es möglichst gut zu unterstützen.

StefanV
2009-09-19, 20:13:07
ich glaube der zug geht richtung opencl und intel wird schauen müssen es möglichst gut zu unterstützen.Sehe ich ähnlich, auch das Cuda auf lange Sicht aussterben wird, wie auch AMDs Stream, hier wird man vollständig auf die neuen D3D Compute Shader oder aber OpenCL setzen, aber auf keinen Fall auf irgendwas proprietäres von einem Hersteller, der 0% Marktdurchdringung hat.

nVidia hat den VOrteil, das man (noch?) den Markt der Professionellen Lösungen dominiert, entsprechend wird auch einiges auf CUDA portiert.

Aber warum sollte ich eine Software für ein Produkt schreiben, das es a) noch gar nicht gibt und b) dessen Verbreitung 0 ist und c) von einem Hersteller, der auf diesem Markt bisher noch nicht tätig war (bzw eher einen schlechten Ruf hat)??

=Floi=
2009-09-19, 20:54:25
zitat
Schon heute lässt sich die hohe, spezialisierte Rechenleistung moderner GPU nicht mehr wirklich sinnvoll nutzen.

vergiss es einfach... ;D
das problem was du meinst liegt eher an der programmierung und weniger an den gpus.

S940
2009-09-19, 21:44:18
Und was bringt mir das Wissen über x86 wenn ich sowieso in einer Hochsprache programmiere? Auch GPUs haben Vektor-ALUs, das ist nichts neues.Ach Du meintest mit "alle" die Programmierer ? Da hab ich Dich falsch verstanden, dachte Du bezogst das auf die grobe Masse der Computerbegeisterten mit dem üblichen Halbwissen ^^
Das Vektor ALUs bei GPUs nichts Neues sind ist klar, aber das wissen die meisten Leute halt nicht. Die hören nur 512bit und denken sich "boah goil" 8mal schneller als 64 bit ^^

ciao

Alex

|MatMan|
2009-09-19, 23:02:19
Sehe ich ähnlich, auch das Cuda auf lange Sicht aussterben wird, wie auch AMDs Stream, hier wird man vollständig auf die neuen D3D Compute Shader oder aber OpenCL setzen, aber auf keinen Fall auf irgendwas proprietäres von einem Hersteller, der 0% Marktdurchdringung hat.

nVidia hat den VOrteil, das man (noch?) den Markt der Professionellen Lösungen dominiert, entsprechend wird auch einiges auf CUDA portiert.

Ich denke nicht, dass CUDA so schnell aussterben wird. Es wird sicherlich im Consumer Markt wegen OpenCL und DX Compute stark an Bedeutung verlieren, was ja auch sehr gut für den Verbraucher ist.

Aber im professionellen/wissenschaftlichen Bereich wird es IMO noch einige Zeit erhalten bleiben, da der Vorsprung der Entwicklungsumgebung einfach zu groß ist. CUDA wird ständig weiterentwickelt, es gibt inzwischen vollständigen BLAS Support (wenn auch kostenpflichtig), fft libraries, eine Menge an Programmiererfahrung und vieles an open source code, ... . Falls Intel da gleich überholen möchte, müßten sie sich schon ziemlich strecken auf Software Seite...

Coda
2009-09-20, 01:25:03
Ich denke nicht, dass der GT300 preemtives Multitasking unterstützen wird.
Mir sagt schon dieses dauernde "preemtiv", dass du nicht wirklich verstehst um was es hier geht. Das ist nämlich Sache des Betriebssystem.

Und doch, ich bin mir relativ sicher, dass GT300 Multitasking unterstützen wird, da das essentiell für Tesla ist.

Avalox
2009-09-20, 01:36:03
Mir sagt schon dieses dauernde "preemtiv", dass du nicht wirklich verstehst um was es hier geht. Das ist nämlich Sache des Betriebssystem.


Was? Ne. Die Hardware muss preemtive Multitasking unterstützen, virtuelle Speicherverwaltung mit Speicherschutz (eine MMU), Interrupt für den Scheduler.


Und doch, ich bin mir relativ sicher, dass GT300 Multitasking unterstützen wird, da das essentiell für Tesla ist.

Das kann sein. Kann dann wie bisher mittels kooperatives Multitasking realisiert sein und durch das OS gesteuert werden. ATI/nVidia haben ja vor Jahren angekündigt GPUs für Multitasking zu rüsten, wird also sicherlich irgendwann kommen. Trotzdem habe ich MS in den Ohren, dass der Larrabee die erste GPU sein soll, welche preemtive Multitasking unterstützt.

Gipsel
2009-09-20, 03:47:29
Trotzdem habe ich MS in den Ohren, dass der Larrabee die erste GPU sein soll, welche preemptive Multitasking unterstützt.
Woher will MS das wissen? Das OS (also Windows) hat doch gar keinen direkten Zugriff darauf. Das läuft alles über den Treiber. Ich denke kaum, daß die Threads auf den GPUs demnächst von Scheduler des Betriebssystems verwaltet werden. Der Treiber ist das Betriebssystem der GPU. Von diesem kann über geeignete Schnittstellen (in CUDA, über eine OpenCL-Erweiterung oder sonstwie) diese Funktionalität natürlich konfigurierbar dem Programmierer zur Verfügung gestellt werden, da hat MS erstmal genau gar nichts mit zu schaffen.

Gut, auf Larrabee könnten sie ein Win booten ;)

Avalox
2009-09-20, 04:03:39
Ich denke kaum, daß die Threads auf den GPUs demnächst von Scheduler des Betriebssystems verwaltet werden.

Doch, genau dieses wird Bestandteil des MS WDDM 2.1.
Die Umsetzung seitens MS hängt ja momentan nur, weil nVidia und ATI eben genau bisher nicht preemtive Multitasking auf ihren GPUs unterstützen. Mit dem Larrabee wird es sich ändern.

Ailuros
2009-09-20, 08:03:58
Das mit der 3D-Leistung glaube und erwarte ich auch. Aber zum zweiten Punkt noch eine kleine Anmerkung.
Du weißt ja, daß meiner Meinung nach der GPGPU-Vorsprung von nv seit RV700 hauptsächlich auf der Software-Seite liegt. Insofern würde ich es glatt bestreiten, daß die GT200-Hardware momentan bei GPGPU überhaupt klar vorne liegt. Sicher lassen sich Beispiele dafür finden, wo ein GT200 schneller als RV770 ist. Aber bei den bisher 2 Projekten, in die ich involviert war (ich gebe zu, das Sample ist klein), ist eine ATI jeweils deutlich schneller.

Okay, eins nutzt exzessiv DP, da ist der (wirklich extreme, sprich Faktor ~5) Vorsprung nicht verwunderlich. Aber das zweite benutzt Integer-Arithmetik, ziemlich branchigen Code (der läuft auch innerhalb einer Wavefront/Warp auseinander) und doch einiges an Speicherbandbreite (HD4770 oder HD4850 sind z.b. hart an der Grenze, HD4650 mit DDR2 deutlich limitiert) mit praktisch zufälligem Zugriffsmuster. Eigentlich hätte ich nv sehr konkurrenzfähig gesehen (kleinere Branch-Granularität, SFUs können für Integer-Multiplikationen genutzt werden, 512Bit-Speicher-Interface, Füllung der Slots bei ATIs nur seehr mittelprächtig, da wenig ILP im Code), trotzdem liegt eine HD4870 ~50% vor einer GTX285. Und das sind die Zahlen mit Compiler-generiertem Code (ist zumindest bei ATI oft nicht ganz so dolle, bei nv wegen der skalaren Shader nicht ganz so kritisch).

Insofern muß GT300 dann erstmal zeigen, wieviel er zu leisten im Stande ist, auch (oder gerade) bei DP. Denn es ist vielleicht etwas untergegangen, aber RV870 hat auch ein paar Änderungen an den ALUs, um dort nicht nur für mehr Performance zu sorgen, sondern auch bei den Features etwas aufzuholen (FMA). Die offizielle DP-Peakleistung hat sich zwar gegenüber RV790 exakt verdoppelt, bei realem Code dürfte die Steigerung aber größer ausfallen, wenn man nicht nur Matrix-Multiplikationen macht ;)

Froehliche Spekulationen erwaehnen ja eine ueber 7x Mal Steigerung fuer DP bei der naechsten Generation. Angenommen es stimmt kann ich mir NICHT vorstellen dass so eine Steigerung nur von dedizierten Einheiten kommen koennte (sonst verplempert man nahezu die Haelfte der die area auf D12U fuer DP Einheiten), sondern stellte mir als Laie vor dass sie um die Kompatibilitaet zu GT200's DP Einheiten erhalten eine gleiche Anzahl an DP Einheiten pro cluster haben und dass ALUs eben diesmal sowohl ueber SP und DP faehig sind. Hiermit behaelt man die Funktionalitaet fuer extravagante Praezisionsfaell vereinfacht und erhoeht auch insgesamt die DP Leistung mit primitiverem Zeug wie es die Konkurrenz ja auch weiterhin unterstuetzt.

Und ja das Ganze gehoert leider nicht in diesen Thread, aber es gibt schon guten Grund warum NV weiterhin intensiv auf der GPGPU trommelt. Es wird einige angenehmen Ueberraschungen geben fuer diesen Bereich wie zum Beispiel nahezu MIMD Effizienz in manchen Faellen und um einiges bessere Effizienz mit OoO. And don't ask me to elaborate just yet.

-----------------------------

Zurueck zum Thema:

Falls jemand doch noch LRB boards herstellen wird, kann es sein dass wir etwas von dem Ding in 2010 sehen. Anlass ueber das Thema ein bisschen herumzubuddeln war der Post hier:

http://forum.beyond3d.com/showpost.php?p=1334739&postcount=342

Doch, genau dieses wird Bestandteil des MS WDDM 2.1.
Die Umsetzung seitens MS hängt ja momentan nur, weil nVidia und ATI eben genau bisher nicht preemtive Multitasking auf ihren GPUs unterstützen. Mit dem Larrabee wird es sich ändern.

Wenn er endlich ankommt. Denn momentan reden wir nach vor ueber powerpoint slides und vaporware.

Angenommen Charlie's Zeug stimmt: http://www.semiaccurate.com/2009/09/16/new-larrabee-silicon-taped-out-weeks-ago/ (muss nicht stimmen) und es handelt sich momentan um B0 Silizium dann reden wir lediglich ueber den ersten erfolgreichen tape out. Intel hat offensichtlich erstmal nicht die TSMC 40G yield Probleme mit ihrem 45nm Herstellungsprozess, ergo funkelt man schon ueber 1 Jahr damit rum die bisheringen hw bugs zu entfernen.

Es bestehen wohl eher Chancen dass WDDM 2.1 frueher erscheint als LRB selber.

Aquaschaf
2009-09-20, 13:53:59
MS wird sich Intel beugen, weil sie in diesem Spiel viel mehr zu verlieren, als zu gewinnen haben.

Huh? Was hat Microsoft zu verlieren?

Aber nur für die L1 innerhalb eines SIMDs bzw. eines TPCs. Nicht global für alle Caches wie Larrabee. Aber inzwischen gibt es ja auch schon den GlobalDataShare bei ATIs. Es ist ja nicht so, als wenn man keine Daten zwischen verschiedenen SIMDs austauschen könnte (oder über den RAM gehen muß). Muß man nur explizit synchronisieren und es wird nicht implizit von der Hardware gewährleistet ;)

Globale Cache-Kohärenz ist bei so einer Architektu überhaupt nicht zweckmäßig, denke ich. Dadurch dass im Normalfall keine Synchronisation zwischen den Prozessoren stattfinden muss hat man ja überhaupt erst die schöne Skalierbarkeit.

Avalox
2009-09-20, 14:16:18
Es bestehen wohl eher Chancen dass WDDM 2.1 frueher erscheint als LRB selber.

Bisher gibt es allerdings keine GPUs welche preemptive Multitasking unterstützen.
Mal sehen, in welcher Reihenfolge dieses nun auf den Markt kommen wird. Ob erst der Larrabee oder erst WDDM 2.1. Das es kommen wird ist ja abzusehen.

Huh? Was hat Microsoft zu verlieren?


Na, bei Streitereien besteht immer die Möglichkeit zu verlieren. So ist es auch in diesem Fall.

Natürlich profitiert heute MS durch die MS geprägte Plattformierung ungemein. Jegliche Bestrebung, welche gegen diese Plattformierung laufen, schaden MS.

Andreas Stiller c't Prozessorgeflüster 19/09

"Da kann es Microsoft langsam angst und bange werden: Betriebssysteme hier, Compiler und Entwicklungsplattformen da – Intel positioniert sich zunehmend gegen die Redmonder."

Was hat MS denn zu verlieren, wenn man Intel begehren nachgibt? Es besteht die sehr konkrete Möglichkeit, dass nVidia sich Mittelfristig aus dem PC Geschäft verabschieden wird.

Rein vom Konzept dürfte der Larrabee eh sehr in eine MS Philosophie passen.


Globale Cache-Kohärenz ist bei so einer Architektu überhaupt nicht zweckmäßig, denke ich. Dadurch dass im Normalfall keine Synchronisation zwischen den Prozessoren stattfinden muss hat man ja überhaupt erst die schöne Skalierbarkeit.

Cache Kohärenz ist doch absolut entscheidend für die überwiegende Anzahl von Anwendungen. Es kann überhaupt kein Nachteil sein. Schlicht die typische Anwendung der GPU benötigt diese nicht. Für CGPU Anwendungen wird diese allerdings notwendig werden. (Wie auch entsprechende Multitasking Fähigkeiten). Haben beides die ATI/nVidia GPUs der nächsten Generation nicht (und noch einiges mehr können sie nicht).

Aquaschaf
2009-09-20, 14:32:07
Na, bei Streitereien besteht immer die Möglichkeit zu verlieren. So ist es auch in diesem Fall.

Was für Streitereien? Und von der Standardisierung profitiert nicht bloß Microsoft, sondern die ganze Branche. Selbst wenn es da spezielle Erweiterungen für Larrabee gäbe, dann besteht trotzdem eine sehr gute Chance dass sie kein Schwein einsetzen wird.

Avalox
2009-09-20, 14:40:48
Was für Streitereien? Und von der Standardisierung profitiert nicht bloß Microsoft, sondern die ganze Branche. Selbst wenn es da spezielle Erweiterungen für Larrabee gäbe, dann besteht trotzdem eine sehr gute Chance dass sie kein Schwein einsetzen wird.

Es ist ein MS Standard. Die Branche profitiert, da MS Betriebssysteme eben weit verbreitet sind. Allerdings steht ein Standard immer gegen Innovationen und dort profitiert nicht die Branche.

Intel hat und tut es immer noch, eben nVidia direkt auf die Füße treten.
Gestern stand in einem Artikel - Intel hat nVidia den Krieg erklärt. - Das ist plakativ, aber durchaus zutreffend.
nVidia ist allerdings einer der Hauptträger des MS Standards. Natürlich wird Druck auf MS ausgeübt werden, von beiden Seiten. Es ist ein Mitspieler aufgetaucht, der sein Stück vom Kuchen haben möchte. Das geht zwangsläufig zu Lasten der jetzt Beteiligten. Vermutlich wird es vor allen zu Lasten von nVidia gehen und dort wird MS früher oder später als Herr des Standards Partei ergreifen müssen, um den größeren Schaden von sich abzuwenden. Intel kann eine GPU bauen, aber nVidia keinen Larrabee. Das ist der Unterschied.

=Floi=
2009-09-20, 14:53:21
warum sollte das nv nicht tun können?

Aquaschaf
2009-09-20, 14:53:24
Es ist ein MS Standard. Die Brache profitiert, da MS Betriebssysteme eben weit verbreitet sind. Allerdings steht ein Standard immer gegen Innovationen und dort profitiert nicht die Branche.

Innerhalb des Standards ist jede Menge Raum für Innovationen. Die Branche ist auch nicht die Branche der Videospielgrafik, sondern der Videospiele. Ein Standard wie DirectX erspart sehr viel Arbeit. Das läßt mehr Resourcen frei für Innovationen.

Intel kann eine GPU bauen, aber nVidia keinen Larrabee. Das ist der Unterschied.

Wie kommst du darauf? Wenn man x86 ausklammert - was legitim ist, da es überhaupt keine Rolle spielt in diesem Fall - ist es wahrscheinlich eher umgekehrt. Alleine was Patente angeht stehen wahrscheinlich viel mehr Intel im Wege, die verhindern würden dass sie eine wettbewerbsfähige GPU bauen könnten.

Avalox
2009-09-20, 14:56:34
Innerhalb des Standards ist jede Menge Raum für Innovationen. Die Branche ist auch nicht die Branche der Videospielgrafik, sondern der Videospiele. Ein Standard wie DirectX erspart sehr viel Arbeit. Das läßt mehr Resourcen frei für Innovationen.


Das ist kein Argument. Natürlich würde sich die Branche noch viel mehr freuen, wenn es nur eine GPU am Markt gäbe und diesen Zustand kommt man mit dem Larrabee doch schon sehr nahe.
Die GPU wird zur Software. Das wird die Branche lieben.

warum sollte das nv nicht tun können?

Weil nVidia keinen Zugang zu einer x86 Lizenz hat.

Und bevor jetzt die Frage kommt, "warum es x86 sein muss?"

Weil die cGPU mittelfristig in den Prozessorsockel wandern wird und dort benötigt man eine x86 komp. CPU.

Coda
2009-09-20, 15:00:52
Was? Ne. Die Hardware muss preemtive Multitasking unterstützen, virtuelle Speicherverwaltung mit Speicherschutz (eine MMU), Interrupt für den Scheduler.
Preemtives Multitasking setzt noch lange keinen Speicherschutz voraus. Den Timer-Interrupt braucht man auch nur, wenn man wirklich ein OS auf der GPU laufen lassen will. Ob LRB das so macht im 3D-Betrieb weiß ich gar nicht.

Es kann auch einfach der Scheduler darauf ausgelegt sein mehere Contexte zu unterstützen.

Avalox
2009-09-20, 15:04:05
Preemtives Multitasking setzt noch lange keinen Speicherschutz voraus. Man kann das Multitasking auch in Hardware machen ganz ohne OS.

Du brauchst zumindest einen entsprechenden Interrupt vom System.

Das wird aber jetzt diskussionsmäßig krümelig, denn für ordentliches Multitasking brauchst du natürlich eine MMU und dieses sinnvoller Weise mit Speicherschutz. Alles andere taugt nichts.

MS hat vor Jahren schon erklärt, GPU preemptive Multitasking erst mit einer MMU in der Grafikkarte zu unterstützen. Das geschieht ja nicht ohne Grund.

Sisaya
2009-09-20, 15:04:58
Das ist kein Argument. Natürlich würde sich die Branche noch viel mehr freuen, wenn es nur eine GPU am Markt gäbe und diesen Zustand kommt man mit dem Larrabee doch schon sehr nahe.
Die GPU wird zur Software. Das wird die Branche lieben.


Äh bitte was?

Avalox
2009-09-20, 15:10:46
Äh bitte was?


Die Spielebranche würde sich über eine definierte Plattform mehr freuen, als über die heutige Situation. Denn es verringert Risiken und Risiko ist Geld.
Natürlich wäre der Branche lieber, wenn es nur eine Konsole am Markt gäbe. Kurzfristig gedacht, wohlgemerkt.

Und zu Teil zwei.

Die Rendering Pipeline des Larrabee ist reine Software.
Software, welche in zukünftigen Evolutionsstufen in das OS wandern könnte und somit für ein nahezu identisches und flexibleres Verhalten auf unterschiedlicher Hardware sorgen wird.
Dieser Zustand kommt dem Ideal der Software Branche viel näher, als ein DirektX heute.

Gast
2009-09-20, 15:13:41
Preemtives Multitasking setzt noch lange keinen Speicherschutz voraus.
jeder der mal einen amiga sein eigen nannte, kann das bestätigen ^^

im übrigen lässt das zeug, was avalox hier ablässt nur einen schluss zu: er arbeitet wirklich im intel marketing. dagegen sind die ergüsse eines daniel pohl ja schon fast von höchster wissenschaftlicher seriosität geprägt.
da bleibt nur, sich aus der "diskussion" auszuklinken und viel spaß mit netburst 2.0 zu wünschen *g*

Sisaya
2009-09-20, 15:15:44
Ich meine her, wie du darauf kommst, daß der Larrabee zu über 90% in Spiele PCs anzutreffen sein wird

Avalox
2009-09-20, 15:22:13
Ich meine her, wie du darauf kommst, daß der Larrabee zu über 90% in Spiele PCs anzutreffen sein wird

Das habe ich nicht geschrieben.

Ich habe geschrieben, dass der Larrabee die Rendering Pipline abstrahiert und diese Abstraktion, eben die Software dann identisch ist. Egal, welche GPU sich dann im System befindet. So wie heute die CPU im PC.
Das ist doch grade der Vorteil. Es muss nicht zu 90% der Larrabee sein um, dass der Spieleentwickler zu 90% mit sehr ähnlichen Render Pipelines zu tun hat.

Kurzum, wird der Software Branche solche Lösung noch sehr viel mehr entgegen kommen, als die momentane Situation.

Sisaya
2009-09-20, 15:27:59
Klar hast du das geschrieben

Das ist kein Argument. Natürlich würde sich die Branche noch viel mehr freuen, wenn es nur eine GPU am Markt gäbe und diesen Zustand kommt man mit dem Larrabee doch schon sehr nahe.
Die GPU wird zur Software. Das wird die Branche lieben.