PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Larrabee (der Spekulationsthread)


Seiten : [1] 2 3 4 5 6 7 8 9

AnarchX
2007-06-07, 17:30:07
Siggraph Paper zu Larrabee (http://softwarecommunity.intel.com/articles/eng/3803.htm)

August 2008 - Intels mit ersten Details:
Intel details future 'Larrabee' graphics chip (http://news.cnet.com/8301-13924_3-10005391-64.html)

Intel's Larrabee Architecture Disclosure: A Calculated First Move @ Anand (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3367)

Larrabee: Samples in Late 08, Products in 2H09/1H10 (http://www.beyond3d.com/content/news/565)

When Doug Freedman asked Paul Otellini about Larrabee during yesterday's conference call, we didn't think much would come out of it. But boy were we wrong: Otellini gave an incredibly to-the-point update on the project's timeframe. So rather than try to summarize, we'll just quote what Otellini had to say here.

Larrabee first silicon should be late this year in terms of samples and we’ll start playing with it and sampling it to developers and I still think we are on track for a product in late ’09, 2010 timeframe.

Computex 2007: Intel planning to enter discrete graphics card market in 2008 (http://www.digitimes.com/mobos/a20070606VL207.html)

Sources from multiple graphics card vendors have confirmed that Intel has approached them to lay down plans to enter the discrete graphics card market for desktop PCs. The new products from Intel would be positioned as direct competitors to AMD's ATI Radeon and Nvidia's GeForce series of cards.

At this stage all plans are still rather vague, according to the sources, with Intel scheduled to deliver a more complete roadmap and specifications in the fourth quarter of this year. However, according to most of the sources, Intel will aim for the mid-range market in the initial stages with pricing targeted around US$300. In the current market, graphics cards at the high-end are priced at around US$800.
[...]


Und dann vielleicht noch schneller als alles was die Konkurrenz bieten kann? :biggrin:

Weitere Infos zu Larrabee:

Thread zu den ersten Gerüchten, dass Intel den Schritt in den diskreten Grafikmarkt wagt:
Intel bestätigt diskrete GPUs! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345216&highlight=Larrabee)

PCB?
http://img70.imageshack.us/img70/9137/larabeeqc8.png
Block-Schaltbild?
http://img70.imageshack.us/img70/3035/larrabee1202fdeam2.png
http://www.tgdaily.com/content/view/32282/137/

Larrabee's Eckdaten:
http://www.directupload.com/files/jmfwmkhymomjgz0yzgyt.png

Larrabee-Roadmap?
http://img407.imageshack.us/img407/3429/kaigai36403le18c3bz6.jpg
http://pc.watch.impress.co.jp/docs/2007/0611/kaigai364.htm

Larrabee to be made in Intel’s FABs (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2469&Itemid=34)

Larrabee to capture 20+ percent discrete in 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2470&Itemid=34)

Larrablee, Intel's discrete graphic is challenging (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2658&Itemid=1)

Besätigung? @ IDF Fall 2007 (http://www.golem.de/0709/54858.html)
Weder bestätigte Intel die durch entfleuchte Entwicklungsdokumente schon bekannten 16 In-Order-Cores von Larrabee, noch erklärte Otellini den ersten Einsatzzweck des neuen Chips genauer. Das erledigte später Pat Gelsinger in einem Roundtable-Gespräch: "Wenn man im Grafikgeschäft ist, liefert man auch Treiber für OpenGL und DirectX. Punkt."

http://download.intel.com/technology/itj/2007/v11i3/vol11-iss03.pdf
http://img517.imageshack.us/img517/5416/larrabeenewestyr6.png

SavageX
2007-06-07, 18:32:43
Dieser Spatz zwitschert was von "mid-range market".

deekey777
2007-06-07, 19:37:41
Dieser Spatz zwitschert was von "mid-range market".
300 US-Dollar sind stark gehobene Mittelklasse/untere Oberklasse.
Vielleicht kommen jetzt die Zeiten, wo es keine Highend-Grafikkarten geben wird, wie wir sie kennen.
Intel weiß, wo man Geld verdienen kann, und das kann man nicht mit Grafikkarten machen, die bis zu 800 US-Dollar kosten.

Die gelbe Eule
2007-06-07, 19:37:59
Erstmal ein ordentliches Treiberteam, weil S3 war auch potent, hatte und hat aber miese Treiber. Zweite Hälfte 2008 haben wir bereits G100 oder sogar G110 und auch R700/750. Was heute Highend ist, muss Intel dann als Mainstream sauber hinbekommen, wird nicht leicht ...

bluey
2007-06-07, 20:41:06
Schade... hab eher auf lowend Karten gehofft.

AnarchX
2007-06-07, 20:57:37
300 US-Dollar sind stark gehobene Mittelklasse/untere Oberklasse.
Vielleicht kommen jetzt die Zeiten, wo es keine Highend-Grafikkarten geben wird, wie wir sie kennen.
Intel weiß, wo man Geld verdienen kann, und das kann man nicht mit Grafikkarten machen, die bis zu 800 US-Dollar kosten.

Imo ist $300 ein Preis, wo man sowohl Enthusiasten als auch Performance-User, die sonst nicht soviel ausgeben würden, mit einer entsprechenden Leistung locken könnte.

Man darf ja nicht vergessen, dass Intel wohl die GPUs selbst fertigen wird und somit hier einen Vorteil gegenüber AMD und NV hat, wenn sie nicht gerade Mist bauen.

Zweite Hälfte 2008 haben wir bereits G100 oder sogar G110 und auch R700/750. Was heute Highend ist, muss Intel dann als Mainstream sauber hinbekommen, wird nicht leicht ...

Aber die Intel Karte soll nach aktuellen Planungen doch schon im (frühen) Q2 kommen, womit man durchaus auf die school-back-sales abzielen könnte und ich bezweifele jedenfalls bei NV, die G9x-Midrange im Frühjahrbringen, dass da sobald eine HighEnd-Karte folgt.

Und wer sagt, dass Intel bei einem Erfolg nicht noch weitere SKUs in der Hinterhand hat. ;)

Imo darf man Intel nicht unterschätzen, sie haben bestimmt doch lange auf diesen Moment hingearbeitet und wollen sich bestimmt nicht nochmal die Blöße wie mit dem i740 geben.

Die gelbe Eule
2007-06-07, 20:57:43
Das wird NVidia übernehmen, ich glaube schon das die beiden hier irgendwann zusammenarbeiten, es wäre auf jedenfall der Todesstoß für AMD/ATi.
Man weiß auch nicht was man für 300$ alles bekommt und wie Intel Mainstream definiert. Multicore GPUs mit der doppelten bis dreifachen Leistung einer GTX, da sagt keiner nein.

Gast
2007-06-07, 21:07:14
Man weiß auch nicht was man für 300$ alles bekommt und wie Intel Mainstream definiert. Multicore GPUs mit der doppelten bis dreifachen Leistung einer GTX, da sagt keiner nein.
Da war wohl der Wunsch Vater des Gedankens gewesen. :)

=Floi=
2007-06-07, 21:26:51
1. hat intel auch jetzt schon produkte die weit über 300$ kosten deshalb verstehe ich da dk777 nicht ganz

2. soll die karte "nur" 1TF für den anfang bekommen (und das wird sicherlich das teurere topmodell sein)
was auf augenhöhe zumindest mit NV sein sollte und kurz von dem g100

reunion
2007-06-07, 22:00:53
Das wird NVidia übernehmen, ich glaube schon das die beiden hier irgendwann zusammenarbeiten, es wäre auf jedenfall der Todesstoß für AMD/ATi.


Und das würdest du toll finden, nicht wahr?

Man darf ja nicht vergessen, dass Intel wohl die GPUs selbst fertigen wird und somit hier einen Vorteil gegenüber AMD und NV hat, wenn sie nicht gerade Mist bauen.


Und das sollte man nicht unterschätzen. Intel hat die modernsten Fertigungshallen der Welt, und der Vorteil ist bei GPUs noch viel gravierender als bei CPUs, wo man die Leistung nicht beliebig parallelisieren kann. Trotzdem bleibt abzuwarten, ob es Intel tatsächlich gelingt, "aus dem Stand" eine Konkurrenzfähige GPU zu zaubern.

trollkopf
2007-06-07, 22:05:58
ich dachte potente grafikkarten zu entwickeln erfordert jahrelange erfahrung ?

Gast
2007-06-07, 22:13:03
ich dachte potente grafikkarten zu entwickeln erfordert jahrelange erfahrung ?


intel hat ja jahrelang erfahrung mit mießen grafikchips ;)

laser114
2007-06-07, 22:18:58
ich dachte potente grafikkarten zu entwickeln erfordert jahrelange erfahrung ?

Erfahrung definiert sich aber auch über Angestellt, solche kann man einstellen. Patente kann man meist auch kaufen, wenn man genug Geld hat. Schon haben wir die Erfahrung. ;)

AnarchX
2007-06-07, 23:42:54
Da war wohl der Wunsch Vater des Gedankens gewesen. :)

Wer weiß... ;D

Immerhin soll die 32nm HighEnd-Variante für 2009 16mal so schnell wie der G80 (http://www.vr-zone.com/?i=4605) sein.

(del)
2007-06-08, 01:51:13
Erstmal ein ordentliches Treiberteam, weil S3 war auch potent, hatte und hat aber miese Treiber. Zweite Hälfte 2008 haben wir bereits G100 oder sogar G110 und auch R700/750. Was heute Highend ist, muss Intel dann als Mainstream sauber hinbekommen, wird nicht leicht ...
Mal vom X3000 abgesehen, hat Intel mit seiner Treiberpolitik nie wirklich Unmut produziert. Es kommen annähernd regelmäßig aktuelle Treiber rau. Gut, das CP sieht optisch halt wenig ansprechend für Gamer aus. Ansonsten wird durch die Treiber i.d.R. alles aus der Hardware rausgeholt, was geht. Bis inkl. dem GMA950 wird das relativ deutlich.

Schrotti
2007-06-08, 02:05:37
intel hat ja jahrelang erfahrung mit mießen grafikchips ;)

Aha und deshalb ist Intel wohl auch Marktführer oder?

Gast
2007-06-08, 10:01:43
Ich hoffe hier auf eine Graka mit der Kyro Technologie die Intel übrigens lizensiert hat ;)

Zeit wäre es mal wieder das was neues auf dem Markt auftaucht und mit der Kyro Technolie gäbe es bestimmt ne schöne karte!

Gaestle
2007-06-08, 10:43:24
Ich hoffe hier auf eine Graka mit der Kyro Technologie die Intel übrigens lizensiert hat ;)

Zeit wäre es mal wieder das was neues auf dem Markt auftaucht und mit der Kyro Technolie gäbe es bestimmt ne schöne karte!

Die Frage habe ich mir auch gestellt:

Hat das was mit IMGTech zu tun?

Aber das wurde ja auch schon hier diskutiert:

http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345216&highlight=PowerVR

Hier wurde IMGTech - HW nicht ausgeschlossen.

HOT
2007-06-08, 10:57:56
Erstmal ein ordentliches Treiberteam, weil S3 war auch potent, hatte und hat aber miese Treiber. Zweite Hälfte 2008 haben wir bereits G100 oder sogar G110 und auch R700/750. Was heute Highend ist, muss Intel dann als Mainstream sauber hinbekommen, wird nicht leicht ...
Das stimmt so einfach nicht. Die Treiber von S3 sind natürlich alles andere als perfekt, so schlimm sind sie dennoch nicht. Die Hardware hatte nunmal Ecken und Kanten, das war das grössere Problem - und natürlich das beschränkte Budget von VIA für diese Sache.
Den G100 kannst du vor Ende 2008 sicher nicht erwarten. Intel will vorher auf den Markt mit Larabree.

robbitop
2007-06-08, 11:02:17
Aha und deshalb ist Intel wohl auch Marktführer oder?
Wegen ihren so "tollen" IGPs sind sie es jedenfalls nicht. Sie erfuellen die Checklist und die GMAs sind halt bei den hochvolumigen Chipsets "mit dabei".

Bezueglich der Fertigung muss ich einen Einwand einlegen. Die besten Fabs (derzeit gibts nur eine 45 nm Fab) werden natuerlich fuer die CPUs verwendet, da dort die Margen nunmal am hoechsten sind.
Ausserdem hat eine GPU stark differierende Charakteristika von einer CPU. Man muesste also erstmal entsprechnde Prozesse dafuer schaffen und optimieren.

Ich gehe davon aus, dass die Technologie der GPUs aus dem Hause IMG stammt. Sieht mir danach aus, als haette man SGX Derivate in Massen in diese GPU gestopft und diese an ein SI und einen L2 gekoppelt.

Gast
2007-06-08, 11:48:18
Es kommen annähernd regelmäßig aktuelle Treiber rau. Gut, das CP sieht optisch halt wenig ansprechend für Gamer aus.


die aber allesamt schrott sind und damit mein ich nicht leistung oder optik sondern kompatibilität.

vor allem der OGL-teil ist schlimm, da kannst du froh sein wenn eine software überhaupt startet.

(del)
2007-06-08, 12:45:18
So schlimm finde ich den OGL Part jetzt gar nicht mal. Spiele auf Quake3 Engine laufen i.d.R. ordentlich. Neuere OGL Spiele haben häufig Probleme mit Intel, das stimmt. Da muss man allerdings auch sehen, das diese neueren Spiele niemals anständig laufen würden, selbst wenn der Treiber 1a wäre.

AnarchX
2007-06-08, 13:12:23
Ich gehe davon aus, dass die Technologie der GPUs aus dem Hause IMG stammt. Sieht mir danach aus, als haette man SGX Derivate in Massen in diese GPU gestopft und diese an ein SI und einen L2 gekoppelt.

Könnte man nicht einfach mit IMGs Hilfe die eigene TBDR-Technologie auf ein vernünftiges Niveau gebracht haben?

Mal sehen, was da auf uns zukommt, ein TBDR mit 1-2GHz wäre sicherlich nicht ganz ohne.

robbitop
2007-06-08, 18:20:09
Könnte man nicht einfach mit IMGs Hilfe die eigene TBDR-Technologie auf ein vernünftiges Niveau gebracht haben?

Mal sehen, was da auf uns zukommt, ein TBDR mit 1-2GHz wäre sicherlich nicht ganz ohne.
Man selbst hat ja nur die paar Jungs von Real3D. IMG hat in dem Bereich viel mehr Know How und Manpower.

AnarchX
2007-06-08, 19:27:08
Man selbst hat ja nur die paar Jungs von Real3D. IMG hat in dem Bereich viel mehr Know How und Manpower.

3DLabs Leute hatte man sich doch auch noch vor einiger Zeit geholt.

SavageX
2007-06-08, 21:09:22
Als Linux-Mensch würde ich den Einstieg Intels in den Grafikkartenmarkt erstmal begrüßen - die haben wenigstens den Dreh raus, wie man auf vernünftige Weise mit der Open Source Gemeinde umgeht. Eine vernünftige Karte mit open source Treibern (die auch dann noch funktionieren, wenn sich Nvidia und AMD/ATI dazu entschließen, ihre alten Karten aus dem Treiber zu schmeißen...) klingt erstmal sehr lecker.

Natürlich kommen bei mir zeitgleich Bauchschmerzen auf, da ich es nicht gewohnt bin, dem größtem Pferd weiteren Hafer ins Maul zu werfen.

malle
2007-06-08, 22:51:22
Wenn die intel Graka das leistet, was eine heutige GF8800GTX kann und dafür nur halbsoviel Leistungsaufnahme hat, dann wäre das sicherlich endlich mal ein Fortschritt.

robbitop
2007-06-09, 01:04:14
3DLabs Leute hatte man sich doch auch noch vor einiger Zeit geholt.
Die meisten 3DLabs Leute sind zu NV und ATI uebergewandert. Zumal die 3DLabs Leute kaum Erfahrungen im Bereich TBDR haben.

AnarchX
2007-06-09, 09:02:18
Die meisten 3DLabs Leute sind zu NV und ATI uebergewandert. Zumal die 3DLabs Leute kaum Erfahrungen im Bereich TBDR haben.

Aber trotzdem wird man wohl das ursprüngliche Team um einige fähige Leute erweitert haben. Ailuros meinte jedenfalls, dass die aktuellen Daten nicht unbedingt nach IMG aussähen.

Die 3DLabs-Leute könnten eigentlich doch bei einer Multichip-Lösung doch ziemlich hilfreich sein, da sie hier doch Erfahrung haben?

Auf jeden Fall wird es spannend und vielleicht sickert bis zum Q4(Roadmaps) noch etwas mehr durch.

btw.

Fuad hat auch noch etwas zum Thema beizutragen:
Larrabee made by 3Dlabs and ATI engineers (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1397&Itemid=34)

Gast
2007-06-09, 11:52:12
Als Linux-Mensch würde ich den Einstieg Intels in den Grafikkartenmarkt erstmal begrüßen - die haben wenigstens den Dreh raus, wie man auf vernünftige Weise mit der Open Source Gemeinde umgeht.Ich vermute mal, dass es mit den Open-Source-Treibern Geschichte ist, wenn Intel eine konkurrenzfähige Grafikkarte bringt. ;)

up¦²
2007-06-09, 13:35:50
Intel got most of the 3Dlabs engineers and there got a lot ATI engineers that are more than happy to come over and get a juicy salary.

People at ATI are scared now and some of them are going over to Intel and we are mainly talking about the engineering force.

So the Larrabee is made mainly by a huge force of 3Dlabs engineers and some of the ATI chaps, but we still can see some driver problems.
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1397&Itemid=1

Wäre eventuell eine Erklärung für das Chaos bei Ati: ist da etwa ein Braintrain Richtung Intel abgefahren?
Paar fähige Leute reichen oft schon für "unersätzlich" :|

Grivel
2007-06-10, 12:45:37
also ich würde Intel irgendwie begrüßen :) wären es 3 "echte" Firmen die Grafikkarten zur Verfügung stellen :)
mehr Auswahl-> mehr Preiskampf -> besser für User ...
nachteil ist nur das es dann so in Richtung Imperium AMD vs Imperium Intel geht ... und Nvidia so alleinstehend bleibt :D - ne neue Firma wäre auch ma was tolles ^^ als ATI schliesslich 2002 den ersten echten an Angriff auf Nvidia seit dem Ende von 3DFx startete - haben ja auch massig Leute auf ATI vertraut ... und wurden net enttäuscht^^

edit.: up² - der News glaub ich net ... erstens hat der Typ die News über die gefälschten Benchmarks von den neuen AMD CPUs online gestellt, 2tens hat er scho gesagt EPoX ist tot ...ohja das sehen wir auch ... keine Website online - keine News auf der chinesischen Website.. keine Support Antworten (das war ironie^^) und jetzt sowas bla blubb der Typ macht rufmord bis sonstwohin und verwertet jeden Satz den er hört zu ner News ... der Typ passt perfekt zur Bildzeitung... (die treffen unter 1000 Informationen auch mal 2-3 richtige...)

=Floi=
2007-06-10, 13:05:30
ich fände es nicht schlecht wenn die ati leute bei intel nun mehr gehalt und ein größeres budget für forschungen bekommen würden
denn so wird auch deren (gute) arbeit gewürdigt

Gast
2007-06-10, 17:46:59
Das stimmt so einfach nicht. Die Treiber von S3 sind natürlich alles andere als perfekt, so schlimm sind sie dennoch nicht. Die Hardware hatte nunmal Ecken und Kanten, das war das grössere Problem - und natürlich das beschränkte Budget von VIA für diese Sache.
Den G100 kannst du vor Ende 2008 sicher nicht erwarten. Intel will vorher auf den Markt mit Larabree.

Die Treiber für die S25/S27-Serie sind inzwischen sogar recht gut find ich... Und sie werden mit jedem neuen Chip (von Anfang an) besser.

Schwarzmetaller
2007-06-10, 18:04:28
Ähemn, Intel-Grakas gabs schonmal...ist schon paar Jahre her, das gute alte i740-Chipset. war eigentlich ein interessanter Versuch, den Low/Midrange-Bereich zu beleben

(del)
2007-06-11, 01:09:38
Jo, sind genauso schnell verschwunden wie sie gekommen sind. Waren Rohrkrepierer erster Güte. Intel hat das erkannt und danach nur noch auf der Integratedschiene gefahren. Wenn Intel dieses Schicksal ein zweites mal vermeiden möchte, muss es dieses mal also besser werden.

Ailuros
2007-06-11, 11:01:27
Erstmal ein ordentliches Treiberteam, weil S3 war auch potent, hatte und hat aber miese Treiber. Zweite Hälfte 2008 haben wir bereits G100 oder sogar G110 und auch R700/750. Was heute Highend ist, muss Intel dann als Mainstream sauber hinbekommen, wird nicht leicht ...

G100 ist NV's "D3D11" GPU :|

HOT
2007-06-11, 11:11:17
G100 ist NV's "D3D11" GPU :|
Wohl eher D3D10.1...

HOT
2007-06-11, 11:13:28
Jo, sind genauso schnell verschwunden wie sie gekommen sind. Waren Rohrkrepierer erster Güte. Intel hat das erkannt und danach nur noch auf der Integratedschiene gefahren. Wenn Intel dieses Schicksal ein zweites mal vermeiden möchte, muss es dieses mal also besser werden.
Das war zu der Zeit, wo auch S3 (bis dato grösster Grafikchiphersteller) und Number Nine das Handtuch warfen... Wer die falschen Konzepte verfolgte flog aus dem Markt, so auch Intel.

Ailuros
2007-06-11, 11:14:25
Könnte man nicht einfach mit IMGs Hilfe die eigene TBDR-Technologie auf ein vernünftiges Niveau gebracht haben?

Mal rein hypothetisch: seit wann ist es moeglich einen IP core zu kaufen und dann davon Anteile fuer eine Eigenentwicklung verwenden? Ich wuerde mir auf jeden Fall vorstellen das so etwas erstmal nicht rechtlich moeglich ist und wenn es vorkommen sollte IMG eine Unmenge an Summen von Patent-Anklagen einkassieren koennte.

Ailuros
2007-06-11, 11:15:19
Wohl eher D3D10.1...

H1 2008 afaik.

Ailuros
2007-06-11, 11:23:27
Aber trotzdem wird man wohl das ursprüngliche Team um einige fähige Leute erweitert haben. Ailuros meinte jedenfalls, dass die aktuellen Daten nicht unbedingt nach IMG aussähen.

Die 3DLabs-Leute könnten eigentlich doch bei einer Multichip-Lösung doch ziemlich hilfreich sein, da sie hier doch Erfahrung haben?

Auf jeden Fall wird es spannend und vielleicht sickert bis zum Q4(Roadmaps) noch etwas mehr durch.

btw.

Fuad hat auch noch etwas zum Thema beizutragen:
Larrabee made by 3Dlabs and ATI engineers (http://www.fudzilla.com/index.php?option=com_content&task=view&id=1397&Itemid=34)

Um ganz ehrlich zu sein hab ich mich mit dem Thema schon seit einer Ewigkeit nicht mehr beschaeftigt. Wer auf Patentensuche gehen will gibt es irgendwo ein gut verstecktes Patent von IMG wie man mehr als einen core unter Serie5 skalieren kann.

Von dem abgesehen sagt mir mein "Instikt" dass Serie5 zwar skalare Einheiten hat, aber an so extravagante Frequenzen faellt es mir schwer zu glauben, ausser es gibt hier auch domain clocks seit neuestem a la G80, was mir auch nicht besonders wahrscheinlich klingt.

Bis jetzt waren bei allen PVR Designs die Frequenz zwischen core und Speicher gleich, weil es einfacher und billiger war. Ich will zwar nichts ausschliessen aber die hohe Frequenzen klingen mir persoenlich eher nach einem eigenen Intel Dingsbums.

HOT
2007-06-11, 11:25:02
Mal rein hypothetisch: seit wann ist es moeglich einen IP core zu kaufen und dann davon Anteile fuer eine Eigenentwicklung verwenden? Ich wuerde mir auf jeden Fall vorstellen das so etwas erstmal nicht rechtlich moeglich ist und wenn es vorkommen sollte IMG eine Unmenge an Summen von Patent-Anklagen einkassieren koennte.
Vielleicht hat man ja nicht Teile vom IP verwendet, sondern viele ganze parallel geschaltet und in Silizium gegossen... Larabree sieht verdammt danach aus.

Ailuros
2007-06-11, 11:30:00
Vielleicht hat man ja nicht Teile vom IP verwendet, sondern viele ganze parallel geschaltet und in Silizium gegossen... Larabree sieht verdammt danach aus.

Da frage ich mich aber wieso Larabee danach aussehen soll, denn ich sehe momentan nichts dergleichen.

Gaestle
2007-06-11, 12:26:33
Kann es sein, dass Larabee was anderes ist, als das 300$-Ding um was es hier geht? Das Ding hier soll doch 2008 kommen und Larabee erst 2009 ...
Vielleicht hat das Ding hier eben keine 2GHz?

HOT
2007-06-11, 13:01:40
Die Grafikkerne sollen 2008 kommen, die integrierte CPU/GPU 2009.

robbitop
2007-06-11, 16:46:29
Intel hat eigene Patente hinsichtlich eines TBDRs. Allerdings haben die laengst nicht so viel Know How dazu wie IMG.

(del)
2007-06-11, 18:43:11
Intel hat eigene Patente hinsichtlich eines TBDRs. Allerdings haben die laengst nicht so viel Know How dazu wie IMG.
Nochmal auf Deutsch bitte.

Bin kein Fachmann aber möchte gerne die Diskussion verfolgen können.

AnarchX
2007-06-11, 18:59:40
TBDR = Tile based (http://en.wikipedia.org/wiki/Tiled_rendering) deffered Renderer.

Ein GPU-Konzept, welches durchaus sehr effizient mit seinen Resourcen umgeht und den imo größten Erfolg bisher in den IMG(PowerVR)-Produkten hatte.

Die letzten Intel IGPs sind auch TBDR, aber da scheint es an einigen Stellen doch sehr zu happern, weshalb man wohl bei IMG einkaufen ging.

edit:
Hier auch noch 3DC-Artikel dazu:
http://www.3dcenter.org/artikel/kyro/technik.php

Gast
2007-06-11, 20:08:20
Die letzten Intel IGPs sind auch TBDR, aber da scheint es an einigen Stellen doch sehr zu happern, weshalb man wohl bei IMG einkaufen ging.


das wäre mir neu.

Ailuros
2007-06-11, 22:27:59
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1400&Itemid=1

Hmmmm.....:|

robbitop
2007-06-11, 22:32:26
das wäre mir neu.
Es gab 3x IGP Generationen von Intel die ein TBDR waren. Extreme Graphics 1 und 2 und die GMA9xx. Allerdings mit einem bloeden Flaschenhals beim Trianglebinning.

AnarchX
2007-06-11, 23:03:28
http://www.fudzilla.com/index.php?option=com_content&task=view&id=1400&Itemid=1

Hmmmm.....:|

Was soll daran so besonders sein?

Imo werden wohl Fusion und die entsprechenden Nehalem-IGP-CPUs doch den normalen CPU-Linien entsprechen mit dem Unterschied, dass halt noch IGP sich auf dem Package befindet oder man halt die IGP anflanscht.
Und warum sollte diese dann im CPU-Takt takten? Clock-Domains gab es ja schon bei Netburst.

Ailuros
2007-06-11, 23:18:10
Was soll daran so besonders sein?

Imo werden wohl Fusion und die entsprechenden Nehalem-IGP-CPUs doch den normalen CPU-Linien entsprechen mit dem Unterschied, dass halt noch IGP sich auf dem Package befindet oder man halt die IGP anflanscht.
Und warum sollte diese dann im CPU-Takt takten? Clock-Domains gab es ja schon bei Netburst.

Nur ein Gedanke dass die extremen Frequenzen nicht unbedingt fuer alle Larabee Projekte gelten koennten.

Ailuros
2007-06-11, 23:22:18
Allerdings mit einem bloeden Flaschenhals beim Trianglebinning.

Wenn man diesen Flaschenhals beseitigt haette, waere das Resultat auch nicht besonders besser gewesen.

robbitop
2007-06-12, 08:54:00
Wenn man diesen Flaschenhals beseitigt haette, waere das Resultat auch nicht besonders besser gewesen.
Mangels eines entsprechenden Simulators und entsprechender Bibliotheken kann ich das weder verneinen noch bejahen. Ich vermute aber aehnliches.

paul.muad.dib
2007-06-12, 14:59:42
Seit ihr sicher, dass sich die Karte an Spieler richtet? Vielleicht ist es eher ein Chip für alle möglichen parallelisierbaren Berechnungen, der auch ein wenig 3D kann?

Ailuros
2007-06-13, 06:12:11
Seit ihr sicher, dass sich die Karte an Spieler richtet? Vielleicht ist es eher ein Chip für alle möglichen parallelisierbaren Berechnungen, der auch ein wenig 3D kann?

Sicher ist sich keiner. Ich denke die meissten von uns hoffen einfach dass Intel einer "wenn schon denn schon" Logik gefolgt hat.

StefanV
2007-06-13, 06:51:24
Seit ihr sicher, dass sich die Karte an Spieler richtet? Vielleicht ist es eher ein Chip für alle möglichen parallelisierbaren Berechnungen, der auch ein wenig 3D kann?
naja. bei einem 'Grafikchip' mit einem x86 Frontend weiß man nie so wirklich was da drin steckt :ugly:

Marc-
2007-06-13, 08:32:27
Das wird NVidia übernehmen, ich glaube schon das die beiden hier irgendwann zusammenarbeiten, es wäre auf jedenfall der Todesstoß für AMD/ATi.
Man weiß auch nicht was man für 300$ alles bekommt und wie Intel Mainstream definiert. Multicore GPUs mit der doppelten bis dreifachen Leistung einer GTX, da sagt keiner nein.
ich denke eher das es, wenn ueberhaupt, der todesstoss fuer nvidia wird, zumindest wird es ihre marktposition sehr schwaechen. Denn sowohl intel als auch AMD haben fuer ihre loesungen jeweils die passende (und angepasste?) peripherie (cpus, chipsets...) gleich dabei... inwiefern NV in zukunft noch relevant chipsets entwickeln wird (fuer wen? fuer amd? fuer intel?) vor allem im highend/midrange bereich bleibt abzuwarten. Denn Intel hat es zumindest bisher in aller regel verstanden den Highend und midrange bereich weitestgehend selbst abzudecken und nur lowcost loesungen ueber via/sis abzuwickeln... entweder NV setzt weiter massiv auf die AMD schiene... oder sie werden es in zukunft sehr viel schwerer haben...einfach auch deshalb weil sie intel wenig zu bieten haben, was sie fuer intel attraktiv macht. Sei es eine uebernahme oder enge kooperation. AMD brauchte ati, weil sie keine grafiksparte hatten, nicht die entsprechenden mitarbeiter, nicht die entsprechenden patente und know how. Intel hat all dies selbst und benoetigt NV in sofern nicht.

Die gelbe Eule
2007-06-13, 09:54:21
Intel hat doch den Desktopmarkt im Sturm genommen und ist als Hautsponsor im eSport sehr aktiv. Spieler und Enthusiasten werden zuerst profitieren.

Gast
2007-06-13, 10:32:13
ich denke eher das es, wenn ueberhaupt, der todesstoss fuer nvidia wird, zumindest wird es ihre marktposition sehr schwaechen. Denn sowohl intel als auch AMD haben fuer ihre loesungen jeweils die passende (und angepasste?) peripherie (cpus, chipsets...) gleich dabei... inwiefern NV in zukunft noch relevant chipsets entwickeln wird (fuer wen? fuer amd? fuer intel?) vor allem im highend/midrange bereich bleibt abzuwarten.

*hust* Eine "Highend" GPU Entwickelt man nicht ebenso nebenbei oder kauft ein paar Lizenzen/Patente ein. Entweder man kauft direkt einen speziellen Hersteller wie AMD es gemacht hat oder man baut eine eigene Entwicklungsabteilung auf, die erstmal sich einarbeitet (Jahre).
Man sitzt ja im DX-1x Gremium sicher zusammen und dort werden die Features/Techniken für die Zukunft festgelegt. Wie das nun in Hardware implementiert wird ist ja jedermans eigene Suppe.
Das ganze dann aber "performant" für Spieler und Rechenzentren zu bauen ist eine andere Geschichte.

Entweder wird die Midragen GPU von Intel sich in Spielen mit einem Refresh der GF8600/HD2600 Karten messen können, oder es wird sie keiner kaufen-
300$ Sind auch ein hochgestecktes Ziel, das sogar eher in die Range einer 8800GTS heranreicht, also Leistung des unteren Highend.
Dann kommt noch die Fertigung der GPU hinzu, neue Fabrik oder eine bestehende komplett Umrüsten für die GPU Produktion. Denn es gilt nicht einfach mal 200Mio Transistoren als Cache + ein bissl Logik zusammenzuschalten.
500+Mio Transistoren die viel Logik enthalten + Bugfixing usw. Die IGPs die Intel bisher produziert hat sind ja nicht wirklich mit einem Highend GPU Monster wie dem G80 zu vergleichen...

Nur weil Intel sich vornimmt eine GPU zu bauen heist das noch lange nicht das die im Markt ankommt und einen der beiden Big Player (Med+Highend) niedermacht.

paul.muad.dib
2007-06-13, 11:05:45
ich denke eher das es, wenn ueberhaupt, der todesstoss fuer nvidia wird, zumindest wird es ihre marktposition sehr schwaechen. Denn sowohl intel als auch AMD haben fuer ihre loesungen jeweils die passende (und angepasste?) peripherie (cpus, chipsets...) gleich dabei... inwiefern NV in zukunft noch relevant chipsets entwickeln wird (fuer wen? fuer amd? fuer intel?) vor allem im highend/midrange bereich bleibt abzuwarten. Denn Intel hat es zumindest bisher in aller regel verstanden den Highend und midrange bereich weitestgehend selbst abzudecken und nur lowcost loesungen ueber via/sis abzuwickeln... entweder NV setzt weiter massiv auf die AMD schiene... oder sie werden es in zukunft sehr viel schwerer haben...einfach auch deshalb weil sie intel wenig zu bieten haben, was sie fuer intel attraktiv macht. Sei es eine uebernahme oder enge kooperation. AMD brauchte ati, weil sie keine grafiksparte hatten, nicht die entsprechenden mitarbeiter, nicht die entsprechenden patente und know how. Intel hat all dies selbst und benoetigt NV in sofern nicht.

Ich sehe nicht, wo der Todesstoß für Nvidia ist - im Gegenteil haben sie sogar einen Vorteil, weil sie beide Plattformen bedienen. AMD hat sich ganz klar zu einer offenen Plattform bekannt und auch für Intelwird NV weiterhin Chipsätze herstellen. Btw. stelt NV mit Abstand die meisten Chipsätze für AMD her, daran auch auch die Übernahme von Ati nicht geändert. Die Ati Chips können von der Featureliste nicht ganz mithalten.
In Punkto Grakas muss sich Intel erst mal beweisen. Und sie werden nicht hergehen und nur Intel Grakas für ihre Plattform zulassen. Wenn die tatsächlich Spieler Karte bauen wollen und hier 2008 tatsächlich eine Karte haben, die mit den Konkurenzkarten, die dann im im 300€ Segment sind, mithalten kann, was ich beides bezweifle, dann werden sie halt ein paar Marktanteile gewinnen. Aber um die Martkdominanz von NV und Ati zu brechen, müssen sie erst ein paar Generationen eine komplette Produktpalette anbieten.

Ich sehe irgendwie bei Larrabee das Problem, dass das Teil zu wenig auf Grafik spezialisiert sein könnte und damit seine Rechenkraft nicht effizient auf die Straße bringt.

Marc-
2007-06-13, 11:10:11
*hust* Eine "Highend" GPU Entwickelt man nicht ebenso nebenbei oder kauft ein paar Lizenzen/Patente ein. Entweder man kauft direkt einen speziellen Hersteller wie AMD es gemacht hat oder man baut eine eigene Entwicklungsabteilung auf, die erstmal sich einarbeitet (Jahre).
Man sitzt ja im DX-1x Gremium sicher zusammen und dort werden die Features/Techniken für die Zukunft festgelegt. Wie das nun in Hardware implementiert wird ist ja jedermans eigene Suppe.
Das ganze dann aber "performant" für Spieler und Rechenzentren zu bauen ist eine andere Geschichte.

Entweder wird die Midragen GPU von Intel sich in Spielen mit einem Refresh der GF8600/HD2600 Karten messen können, oder es wird sie keiner kaufen-
300$ Sind auch ein hochgestecktes Ziel, das sogar eher in die Range einer 8800GTS heranreicht, also Leistung des unteren Highend.
Dann kommt noch die Fertigung der GPU hinzu, neue Fabrik oder eine bestehende komplett Umrüsten für die GPU Produktion. Denn es gilt nicht einfach mal 200Mio Transistoren als Cache + ein bissl Logik zusammenzuschalten.
500+Mio Transistoren die viel Logik enthalten + Bugfixing usw. Die IGPs die Intel bisher produziert hat sind ja nicht wirklich mit einem Highend GPU Monster wie dem G80 zu vergleichen...

Nur weil Intel sich vornimmt eine GPU zu bauen heist das noch lange nicht das die im Markt ankommt und einen der beiden Big Player (Med+Highend) niedermacht.

Vielleicht habe ich mich missverstaendlich ausgedrueckt: mit den chipsets (highend) meinte ich mobochipsets.
Zum anderen: wenn einer das knowhow hat, graka neu zu entwickeln dann sicher intel. Zum einen bauen sie schon sehr lange (integrierte) grafikchips, zum anderen haben sie die finanziellen, personellen und technischen mittel.
Und vom technischen her, sind die IGPs von intel sehr wohl mit aktuellen highend gpus zu vergleichen, warum auch nicht? Das problem ist in aller regel bei der entwicklung weniger das entwickeln selbst, sondern das ausloten und anpassen an das technisch machbare und kostentechnisch realisierbare. Das ist der entscheidende aspekt... und da steht intel nv mit sicherheit um nichts nach... im gegenteil. Zum anderen...keiner von uns weiss wie lange intel bereits intern daran entwickelt... insofern ist das nicht von relevanz.
Und eines hat intel in jedem fall... die entsprechende marktposition und marktdurchdringung um selbst bei geringfuegig schlechteren werten gegenspielern wie nv das leben sehr sehr schwer zu machen. Denn das geschaeft wird nicht mit uns retail kaeufern gemacht... jedenfalls nicht das geschaeft mit der eine firma ueberlebt.

Marc-
2007-06-13, 11:11:49
Ich sehe nicht, wo der Todesstoß für Nvidia ist - im Gegenteil haben sie sogar einen Vorteil, weil sie beide Plattformen bedienen. AMD hat sich ganz klar zu einer offenen Plattform bekannt und auch für Intelwird NV weiterhin Chipsätze herstellen. Btw. stelt NV mit Abstand die meisten Chipsätze für AMD her, daran auch auch die Übernahme von Ati nicht geändert. Die Ati Chips können von der Featureliste nicht ganz mithalten.
In Punkto Grakas muss sich Intel erst mal beweisen. Und sie werden nicht hergehen und nur Intel Grakas für ihre Plattform zulassen. Wenn die tatsächlich Spieler Karte bauen wollen und hier 2008 tatsächlich eine Karte haben, die mit den Konkurenzkarten, die dann im im 300€ Segment sind, mithalten kann, was ich beides bezweifle, dann werden sie halt ein paar Marktanteile gewinnen. Aber um die Martkdominanz von NV und Ati zu brechen, müssen sie erst ein paar Generationen eine komplette Produktpalette anbieten.

Ich sehe irgendwie bei Larrabee das Problem, dass das Teil zu wenig auf Grafik spezialisiert sein könnte und damit seine Rechenkraft nicht effizient auf die Straße bringt.

wieviel neue highendchipsets hat nv denn nach der Ati uebernahme fuer AMD angekuendigt bzw rausgebracht? nenn mir mal welche...

Ailuros
2007-06-13, 13:14:37
*hust* Eine "Highend" GPU Entwickelt man nicht ebenso nebenbei oder kauft ein paar Lizenzen/Patente ein. Entweder man kauft direkt einen speziellen Hersteller wie AMD es gemacht hat oder man baut eine eigene Entwicklungsabteilung auf, die erstmal sich einarbeitet (Jahre).

So ist es.

paul.muad.dib
2007-06-13, 13:16:50
Sie sind mit dem N-force 500 doch gut am Markt und müssen ja nicht ständig was neues herausbringen. Sie haben genauso viele Generationen wie AMd am Markt:

Nforce4 - Xpress 200/3200
Nforce5 - AMD 690

Und Nforce590 SLI ist High-Endiger als jeder AMD Chipsatz. Denke mal, sie werden für AM2+ wieder was Neues bringen, momentan muss AMD erst mal nachziehen und vor allem mal die SB600 ablösen.

Ailuros
2007-06-13, 13:43:06
Ich sehe irgendwie bei Larrabee das Problem, dass das Teil zu wenig auf Grafik spezialisiert sein könnte und damit seine Rechenkraft nicht effizient auf die Straße bringt.

Das ist mir auch klar. Hier kommt es aber darauf an auf was genau Intel langfristig zielt. Momentan klingt mir das Ganze nach irgend einem fuer den Profi-Markt spezialisierten 3D-Dingsbums das aber fuer gaming quasi nutzlos ist. Von Intel wuerde mir so was so oder so keine besonderen Eindruck machen, denn gute Mathe-Einheiten koennen sie mit Sicherheit entwickeln.

Ob es dann noch parallel etwas spezialisiert fuer gaming geben koennte steht noch offen. Ich glaube es zwar erst wenn ich es sehe, aber die ca. 20Mio $ die Intel fuer Lizenzen und durch den Aktienkauf bei IMG insgesamt investiert hat, klingt mir etwas zu hoch wenn relevantes IP nur in UMPCs oder aehnlichen Kleinkram am Ende einfliessen soll.

Ich behalte jedoch meine Vorbehaltungen, da ich zu oft mit Hoffnungen betreffend IMG in der Vergangenheit auf die Nase gefallen bin. Auf jeden Fall falls es je low-end bzw. mainstream GPUs auf SGX/Eurasia basierend geben sollte, waeren wohl Deine Zweifel nicht so hoch oder?

HOT
2007-06-13, 13:53:56
Sie sind mit dem N-force 500 doch gut am Markt und müssen ja nicht ständig was neues herausbringen. Sie haben genauso viele Generationen wie AMd am Markt:

Nforce4 - Xpress 200/3200
Nforce5 - AMD 690

Und Nforce590 SLI ist High-Endiger als jeder AMD Chipsatz. Denke mal, sie werden für AM2+ wieder was Neues bringen, momentan muss AMD erst mal nachziehen und vor allem mal die SB600 ablösen.
Nforce4, 5 und 6 sind zusammen nur eine Generation, die übergreifend aus denselben Chips besteht (z.B. CK04 Chips für NF500, oder MCP51+C51 sowie sogar MCP62 Chips für NF4xx, MCP55 für NF5xx und NF680). Erst der NForce7 wird eine neue einläuten, da er das komplette Lineup erneuert (Komplett auf PCIe 2.0 Implemetation mit stromsparender Technik und konsequente HT3 Anwendung auf AMD und Intel Systemen). Der RS690 ist das Gegenstück zum MCP62 bzw. C51+MCP51, also NForce4xx. Der Xpress200 war technisch vor der NF4-6 Generation angesiedelt (kein Wunder so als erstes Kind von ATI), die Xpress1600 und 3200CF Systeme schon mitten drin (dank ULi).

Und ich finde, es besteht kaum Handlungsbedarf bei der SB600. Sie bietet Platz für genausoviele Geräte wie die Intel SBs und hat auch sonst ähnliche Technik. NV hat da traditionell mehr zu bieten.

Gast
2007-06-13, 15:25:26
Vielleicht habe ich mich missverstaendlich ausgedrueckt: mit den chipsets (highend) meinte ich mobochipsets.
Zum anderen: wenn einer das knowhow hat, graka neu zu entwickeln dann sicher intel. Zum einen bauen sie schon sehr lange (integrierte) grafikchips, zum anderen haben sie die finanziellen, personellen und technischen mittel.


Denk mal daran was für eine Käuferschicht das Midrange Segment darstellt, in diesem Thread geht es ja nicht um irgend eine furz IGP die Vista darstellen muss sondern um eine Spiele Graka bzw. CAD Beschleuniger der 300 Dollar kosten soll.

Und da fehlt Intel auf einem Gebiet eine rießiges Gebiet an Erfahrung, Kompatibilität zu Spielen. Intel kauft mal hier mal da ein "Runs best on P4/Core2Duo" Video in Spiele rein, aber quasi jedes Spiel was heute Entwickelt wird "brauch" den Support beider GPU Hersteller, es gibt soviele Probleme mit Shadern und Schatten...
Da muss Intel erstmal klotzen bevor sie jemals eine GPU, wenn sie denn Performant ist, an den Mann bringen.

Marc-
2007-06-13, 16:18:05
Und da fehlt Intel auf einem Gebiet eine rießiges Gebiet an Erfahrung, Kompatibilität zu Spielen. Intel kauft mal hier mal da ein "Runs best on P4/Core2Duo" Video in Spiele rein, aber quasi jedes Spiel was heute Entwickelt wird "brauch" den Support beider GPU Hersteller, es gibt soviele Probleme mit Shadern und Schatten...
Da muss Intel erstmal klotzen bevor sie jemals eine GPU, wenn sie denn Performant ist, an den Mann bringen.

Ich glaube du verstehst immer noch nicht. Ich redete von Mobo chipsaetzen in diesem zusammenhang... und da hat intel wohl immer fuer die eigenen cpus die nonplusultra platinen kreirt und eher das lowcost seqment via oder sis etc ueberlassen. Ich denke das wird sich eher ausweiten als abschwaechen mit der politik die intel momentan faehrt. Und da wirds dann eben fuer nv in beiden bereichen eng... grakas und mobochipsets... es sei denn man arbeitet weiter auch fuer die amd plattform. wobei auch dies widerum davon abhaengig ist wie weit sie von intel bzw amd unterstuetzt werden mit patentnutzungsrechten und lizenzen... denn ohne diese kann nv weder chipsets fuer intel, noch fuer amd fertigen. Insofern koennten beide nv gehoerig gesundschrumpfen lassen, wenn sie es denn wollten.

robbitop
2007-06-13, 17:23:20
Ob es dann noch parallel etwas spezialisiert fuer gaming geben koennte steht noch offen. Ich glaube es zwar erst wenn ich es sehe, aber die ca. 20Mio $ die Intel fuer Lizenzen und durch den Aktienkauf bei IMG insgesamt investiert hat, klingt mir etwas zu hoch wenn relevantes IP nur in UMPCs oder aehnlichen Kleinkram am Ende einfliessen soll.

Ich behalte jedoch meine Vorbehaltungen, da ich zu oft mit Hoffnungen betreffend IMG in der Vergangenheit auf die Nase gefallen bin. Auf jeden Fall falls es je low-end bzw. mainstream GPUs auf SGX/Eurasia basierend geben sollte, waeren wohl Deine Zweifel nicht so hoch oder?
Koennte sowas schon im Menlow Projekt von Intel enthalten sein? Das Ding laeuft doch naechstes Jahr an.
Dort passt ein SGX jedenfalls besser rein als in so eine Larrabee Karte (IMO).

HOT
2007-06-13, 18:03:12
Ich glaube du verstehst immer noch nicht. Ich redete von Mobo chipsaetzen in diesem zusammenhang... und da hat intel wohl immer fuer die eigenen cpus die nonplusultra platinen kreirt und eher das lowcost seqment via oder sis etc ueberlassen. Ich denke das wird sich eher ausweiten als abschwaechen mit der politik die intel momentan faehrt. Und da wirds dann eben fuer nv in beiden bereichen eng... grakas und mobochipsets... es sei denn man arbeitet weiter auch fuer die amd plattform. wobei auch dies widerum davon abhaengig ist wie weit sie von intel bzw amd unterstuetzt werden mit patentnutzungsrechten und lizenzen... denn ohne diese kann nv weder chipsets fuer intel, noch fuer amd fertigen. Insofern koennten beide nv gehoerig gesundschrumpfen lassen, wenn sie es denn wollten.
NV wird mit der neuen MCP7x Generation für Intel Systeme diese Einladung mit Freude annehmen, so wie jetzt schon die meisten AMD OEM Systeme mit NForce4xx Systeme ausgestattet sind.
Schwierig wirds für NV halt nur, wenn die IGPs in die CPU kommen, weil da hat NV dann nichts mehr zu Melden im OEM Geschäft, jedenfalls nicht, was IGPs angeht.

loewe
2007-06-13, 20:10:35
Koennte sowas schon im Menlow Projekt von Intel enthalten sein? Das Ding laeuft doch naechstes Jahr an.

Ich bin sicher das Menlow einen SGX Core enthält.
Dort passt ein SGX jedenfalls besser rein als in so eine Larrabee Karte (IMO).
Was weißt Du über SGX, um das beurteilen zu können? ;)

robbitop
2007-06-13, 20:21:38
Was weißt Du über SGX, um das beurteilen zu können? ;)
Die Frage sollte lieber anders heissen: Was weiss ich zum Thema "Effektive Anbindung mehrer GPUs an einen Speichercontroller" ;)

pmcm
2007-06-13, 20:41:48
Intel weiß, wo man Geld verdienen kann, und das kann man nicht mit Grafikkarten machen, die bis zu 800 US-Dollar kosten.

Im High-End Bereich geht es den Herstellern sicherlich nicht darum unmengen an Geld zu verdienen sondern es geht um Prestige und Markenpräsenz - wer hat den größten, dicksten und längsten! Um im unteren und mittlereich Bereich einen guten Absatz an Grafikkarten erzielen zu können muss man zeigen, dass man stets State-of-the-Art und der Konkurrenz immer einen Schritt voraus ist.

Intel an sich hat bereits einen sehr guten Namen und ich denke, dass sie nun zunächst versuchen werden sich allein über den guten Ruf einen sicheren Platz in der Mittel- bis Lower-Highend Klasse zu sichern - wie auch immer es ausgehn wird es belebt den Markt... nVidia und AMD/ATI stehn ja bislang ausser Konkurrenz (Onboard-Grafik mal ausgenommen).

Gast
2007-06-14, 11:00:38
Ich glaube du verstehst immer noch nicht. Ich redete von Mobo chipsaetzen in diesem zusammenhang... und da hat intel wohl immer fuer die eigenen cpus die nonplusultra platinen kreirt und eher das lowcost seqment via oder sis etc ueberlassen. Ich denke das wird sich eher ausweiten als abschwaechen mit der politik die intel momentan faehrt. Und da wirds dann eben fuer nv in beiden bereichen eng... grakas und mobochipsets...

Du redest also nur vom Chipsatz Markt, nun der wird nicht so der große Anteil bei nV haben, evtl. kann da ein Blick in die aktuelle Bilanz helfen. Da sind eher keine Probleme in finanzieller Hinsicht zu erwarten.
Aber warum es jetzt bei Grakas eng werden soll versteh ich immer noch net.

Vieleicht sollte man auch die Zukünftige Größe des PC Markets nicht außer acht lassen, der Schrumpft ja nicht sondern wächst. Glaube kaum das AMD und Intel alleine genug Chipsätze für ihre Platformen überhaupt produzieren können und das rießen Spektrum an Bedürfnissen der einzelnen Hersteller abzudecken. SIS und VIA machen ja auch ihr Geschäft, und für die siehts es evtl. schwärzer aus als für nV.

loewe
2007-06-14, 14:43:48
Die Frage sollte lieber anders heissen: Was weiss ich zum Thema "Effektive Anbindung mehrer GPUs an einen Speichercontroller" ;)
Ok, davon verstehe ich wirklich nicht viel, aber Du studierst ja so ein Zeug!? :)
Aber, vielleicht besteht dieses Problem überhaupt nicht? Was spricht dagegen, dass jeder Grafikcore seinen eigenen Grafikspeicher hat, wenn es dann mehrere sein sollen?

HOT
2007-06-14, 15:10:23
16 SGX Kerne mit hohem Takt mit je einem 32Bit Interface... hmmm... klingt komisch

robbitop
2007-06-14, 16:56:13
Was spricht dagegen, dass jeder Grafikcore seinen eigenen Grafikspeicher hat, wenn es dann mehrere sein sollen?
Nunja es gibt IMO 2 grundlegende Ansaetze:

1.)Jeder Chip hat einen eigenen Speichercontroller und somit eigenen Speicher
2.)alle zusammen nutzen einen Speichercontroller

Variante 1 hat den Nachteil, dass Texturen redundant im Speicher gehalten werden muessen. Auch sind Render-to-Texture Effekte oft problematisch. Ergo inkompatibel und verschwenderisch.

Variante 2 waere da schon kompatibler. Allerdings muesste man dann Texturecaches koppeln, und eine Bustopologie nutzen die diese riesen Daten auch hin und herschaufeln kann. Das sind mehrere hunderte GiB/sek. Gut, wenn die Dinger alle in einem DIE (nicht Package) sind, waere das noch moeglich.
Kommen wir aber zum naechsten Problem: Der Verteilung der Geometrie.
Hier koennte man den (sagen wir mal 16) SGX Cores je 1/16 der Kacheln auf dem Bild zu geben. Dafuer braeuchte man dann wieder zusaetzliche externe Logik und ausserdem waere das oftmals nicht gut ausbalanciert (vom Betrag der jeweiligen notwenidgen Arbeit).

So einfach ist es nicht komplette GPUs zu einer einzelnen zu verschweissen. Viel einfacher und effizienter (weniger Redundanz) waere es, lediglich den Teil der Recheneinheiten zu skalieren und nur ein einziges Front-End zu implementieren. Also so, wie man es seit Jahren im GPU Markt macht um zw High End und Low Cost zu skalieren.

HOT
2007-06-14, 17:49:15
Dann stellt sich doch eigentlich nur die Frage, ob SGX eine solche Flexibilität in der Hardwareimplementierung erlaubt.

Ailuros
2007-06-14, 20:46:14
Koennte sowas schon im Menlow Projekt von Intel enthalten sein? Das Ding laeuft doch naechstes Jahr an.
Dort passt ein SGX jedenfalls besser rein als in so eine Larrabee Karte (IMO).

Wie gesagt ich hab mich in letzter Zeit nicht mehr viel mit dem Zeug beschaeftigt. Was ich mit Sicherheit weiss und schaetze dass es sich nichts daran geaendert hat, ist dass der kleinste SGX core zumindest SM3.0 erreicht und dass sie ausserhalb von SGX fuer Kleinkram nie vorhatten selbst Prototypen zu bauen, was wohl auf reinen IP Verkauf fuer alles andere deutet.

Was jetzt den PDA/mobile Markt betrifft werden hier zwischen dem kleinsten und groessten SGX (ebenso wie auf MBX) diverse Einheiten skaliert; wie es von da ab weitergehen soll selbst nur in Theorie keine Ahnung.

Das ganze Zeug mit dem multi-core Quark kann ich selber irgendwie nicht ganz gut als Laie verdauen. Ich erinnere dass auch Falanx mal in einem HardOCP Interview auf aehliches deutete, dass Intel und AMD offensichtlich auch langfristig aehnliches planen. Ob dann das Resultat fuer mehr als CP/GPGPU Dingsbumse bzw. IGP-Ersatz tauglich ist bezweifle ich.

Fuer eine reine GPU die sich auch wirklich im mainstream Markt behaupten kann, erwarte ich auch eher eine Skalierung der Einheiten. IMG hat es geschafft in wenig Zeit die Serie5 GPU nach unten zu skalieren; gibt es einen Kaeufer fuer potentielleres Zeug reicht theoretisch auch nur reines IP.

loewe
2007-06-14, 20:54:30
Ok, wir sprengen hier zwar ein wenig das Thema, es geht ja eigentlich um Intels neue Grafik, aber zumindest bei einigen von uns wird ja vermutet, dass PowerVR da die Finger im Spiel haben könnte.

@Robbitop
Danke das hab ich soweit verstanden, war aber in etwa auch klar. :)

So einfach ist es nicht komplette GPUs zu einer einzelnen zu verschweissen. Viel einfacher und effizienter (weniger Redundanz) waere es, lediglich den Teil der Recheneinheiten zu skalieren und nur ein einziges Front-End zu implementieren. Also so, wie man es seit Jahren im GPU Markt macht um zw High End und Low Cost zu skalieren.
Genau letzteres tut natürlich auch PowerVR mit SGX.
Wenn wir uns einmal dieses Bild hier ansehen:
http://www.mitrax.de/data/files/bilder/sgx.gif
Ein Core, so wie sie es verstehen wollen, besteht aus diesem hier gezeigten teil, enthält dabei aber nur einen thread scheduler und eine multi threaded execution unit (MTEU). Diesem wird dan grundsätzlich eine HSR Einheit zugeordnet, welche mit 16x16 Pixel Tiles arbeitet. Sie sagen dieses System ist "well balanced"!
Der im Vertex Data Master(VDM) versteckte Tile Accelerator (TA) nutzt natürlich für alle Geometrieberechnungen genauso die ALU(s) der MTEU, wie der VDM sie nutzt für das Texturieren, Blending, Fogging und den alpha Test. Für spezielle Operationen beim Texturing ist der MTEU natürlich noch eine fixed-function Einheit zugeordnet und zwar jeder MTEU jeweils eine Einheit!
Dieses System stellt den kleinsten SGX Core dar, gut für 1 MPixel/sec je MHz Takt. Da im VDM klein gehalten, ist ja so nur für mobile Geräte, aber nur gut für 10KTris/sec je MHz.

Unter Multicore verstehen sie jetzt die hier dargestellte Verknüpfung mehrerer MTEUs bei gleichzeitiger Anpassung von VDM und HSR-Einheit. Speziell die HSR-Einheit wird für jede weitere MTEU um eine Einheit erweitert, sprich bei 2 MTEUs hab wir eine Tile-Größe von 32x16 (KYRO läßt grüßen) usw. bis 16 MTEUs bei 64x64 Pixel für die Tile-Größe. Es werden also "nur" 16 "Pipelines" in einen Chip aufgenommen und das wird aus welchen Gründen auch immer "MultiCore" genannt. Hier ist wohl erst einmal Schluss. Sicher wird hier auch der VDM weiter mit angepasst, ist aber alles wie auch bei anderen machbar.

Wenn du jetzt noch weiter scalieren willst kommen wirklich mehrere Chips ins Spiel. Das ist bei PowerVR auch nicht so "schlimm", wir haben ja Macro-Tilling. Es sollte recht einfach sein über den Treiber zu erreichen, dass jeder Chip eben nur die Daten behandelt die auch mit seinem Macro-Tile zu tun haben. Jeder Chip bekommt seinen eigenen Speicher mit schneller Anbindung und sollten sie doch mal Daten austauschen müssen, kann eigentlich nicht passieren, Macro-tiles sind unter einander unabhängig, kann man sie ja anderweitig verknüpfen. BTW, da war vor kurzem so ein Bild in Umlauf, wo so etwas dargestellt war, hatte aber nichts mit PowerVR zu tun. :)

robbitop
2007-06-14, 21:05:27
Ja nur mehrere ganze Chips zu verbinden birgt wieder o.g. Nachteile.

AnarchX
2007-08-16, 12:16:40
Neue Gerüchte zu Intels Angriff auf den dedizierten GraKa-Markt:

Larrabee to be made in Intel’s FABs (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2469&Itemid=34)
We learned that Intel plans to make its Larrabee graphic cards in its own FABs. This will give Intel an edge as the prices of these chips will be better than TSMCs and if the yields are good such a chip / card could end up with very competitive prices. [...]

Larrabee to capture 20+ percent discrete in 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2470&Itemid=34)
Our very informative sources believe that Intel can captured anywhere between 20 to 30 percent of all discrete graphic shipment in 2008. Following our report here, we learned that Intel can sell its graphic to most of the graphic players and most of the Taiwanese companies will go for Intel as this would be a long term strategy move.

Anarchy-HWLUXX
2007-08-16, 12:24:29
A ganz klein wenig größenwahnsinnig die Zahlen ...

AnarchX
2007-08-16, 12:31:00
A ganz klein wenig größenwahnsinnig die Zahlen ...

Passt aber ganz ins Bild zu einem anderen Gerücht, dass die 2009er Variante von Larrabee schon 16mal so schnell (http://www.vr-zone.com/?i=4605) wie der G80 sein soll. ;D

Time will tell...

btw.
Hab mal Post #1 noch etwas um die anderen Infos ergänzt...

Endorphine
2007-08-16, 15:13:23
Ich weiß ja nicht, was ihr denkt, aber ich kann mir beim derzeitigen Desaster in Intels IGP-Entwicklungsabteilung keinesfalls vorstellen, dass Intel in der Lage ist, bis nächstes Jahr etwas konkurrenzfähiges zu einer aktuellen High-End Radeon oder GeForce auf die Beine zu stellen.

Intel bekommt es nicht mal hin, für den IGP G965 versprochene Features wie D3D10 oder gar überhaupt erstmal Hardware T&L mit Performance-Gewinn abzuliefern. Der GMA X3500 im G35 verzögerte sich erst wieder und wurde dann verschämt klammheimlich ohne Marketinggerassel auf den Markt gebracht. D3D10-Treiber für den X3500/G35 sollen irgendwann 2008 kommen. :|

Wenn Intel nicht klammheimlich die Hälfte der Ingenieure von ATI und NV abgeworben und ein Patentaustauschabkommen mit ATI/NV abgeschlossen hat sehe ich irgendwie keine realistische Chance, dass es schon 2008 GeForce/Radeon-Konkurrenten oberhalb des absoluten low-end Segmentes von Intel geben wird.

Die aktuellen IGP 3D-Beschleuniger von Intel liefern ja noch nicht mal die Features, mit denen sie angekündigt wurden. Die Treiberentwicklung ist unglaublich zäh und überzieht ihren Zeitplan regelmäßig.

Wo sollen die tollen Intel-Wundergrafikkarten herkommen und wer bei Intel soll sie entwickeln?

Gast
2007-08-16, 21:56:28
Vielleicht will Intel es auch gar nicht hinbekommen. Wozu sollten sie für eine IGP einen super Treiber entwickeln, der dann auf Workstations zum Einsatz kommt?

Womöglich will Intel die normalen Gamer gar nicht als Zielgruppe haben oder verströstet sie aus eigenem Interesse auf die richtigen Standalone Lösungen. Wäre eine mir durchaus vorstellbare Möglichkeit. Schließlich kostet diese Entwicklung Geld und warum so unnötig viel darin investieren, wenn man sowieso schon 90% des Marktes problemlos abdeckt?

Sollten deren Lösungen am Ende einschlagen wie eine Bombe, dann hat sich meine Theorie bestätigt. Ich halte es für durchaus wahrscheinlich, wir werden sehen.

Das Auge
2007-08-17, 01:51:44
Könnte ja auch sein, daß die derzeitigen bzw. schon seit längerer Zeit existierenden Probleme von intel-IGP´s genau damit zusammenhängen. Sprich die Resourcen für die IGP´s sind einfach nicht da, weil fleissig dieses neue 300$-Dings entwickelt wird ;)

Ich betrachte den Markteintritt von Intel im Midrange bis High-End Sektor bei Consumergrafikkarten eher skeptisch. Möglicherweise, wenn die Ingenieure ihre Hausaufgaben gemacht haben, mag das Teil bei aktuellen Titeln gar nicht so schlecht abschneiden. Aber was ist mit der Abwärtskompatibilität? Da sah´s allgemein schon immer mau aus bei Intel.

Das war z.B. _der_ Grund für mich bei meinem XP-Sys weiterhin auf nv (G71) zu setzen, damit läuft nämlich so gut wie alles. Ich bin eben Freak, Perfektionist und Sammler zugleich und habe auf meinem Rechner Spieleperlen von 1997 (teils auch noch älter) bis heute und die müssen alle fehlerfrei laufen. Mit dem G71 und ein wenig Gefummel tun sie das auch.

Andererseits ist mit DX10 (und der Vista Zwangsverdongelung) mal wieder ein Wendepunkt erreicht. Daher werde ich auch nicht mehr aufrüsten, sondern statt des nächsten Upgrades einen komplett neuen Rechner hinstellen, auf dem dann halt nur noch die neuen Sachen laufen werden. Aber das nur so nebenbei.

Intel muß jedenfalls im Retail-Markt erstmal beweisen, daß sie was drauf haben. Man darf gespannt sein ;)

(del)
2007-08-18, 04:56:44
@Endorphine
Ich denke das ist eine 'Lernwiese' und die Vorbereitung um AMD/ATI und NV zu trotzen. Nur eben nicht wirklich bei der Darstellung von Quake5, sondern weil Intels Rechenboliden in vielen Bereichen von Systemen wie "Tesla" mächtig bedroht werden können.

AMD hat sich eingedeckt. Intel hat da weder etwas nennenswertes im Petto noch gibt es etwas gleichwertiges zu kaufen. Sie müßen also selbst ran. Echte Grafikchips werden nur Synergien dieser Entwicklung. Und reicht um das zu halten was Intel momentan inne hält doppelt und dreifach.

Wenn AMD auf K10-Sockel auch 'abgespeckte' R600 stecken kann und brauchbare Entwicklerwerkzeuge liefert, dann kann man damit 'vorm Zug' so manche Berechnungen um zweistellige Faktoren beschleunigen. Das hat spätestens seit Folding@Home riesen Potenzial.

Gast
2007-08-20, 00:41:18
"Dass der Startschuss für den G35 gefallen ist, erfährt man eher beiläufig, denn es hat weniger einen Knall noch irgendeine Ankündigung gegeben. Heimlich, still und leise hat der Halbleiterriese die Datenblätter auf seiner Webseite platziert. Dafür, dass es sich um den weltweit ersten Chipsatz mit einer integrierten DirectX-10-Grafikeinheit handelt, der entsprechende Werbung verdient hätte, misst Intel mit seiner Informationspolitik diesem Produkt eher die Bedeutung eines umgefallenen Sacks Reis bei."

schreibt die computerbase.

Für mich klingt das stark danach, als ob Intel kein großes Interesse daran hat, das Marketing zu nutzen um den G35 bekannt zu machen.

Eventuell doch ein Zeichen, das man sich stark auf die neuen Highend Lösungen konzentriert!?

laser114
2007-08-20, 00:47:00
Für mich klingt das stark danach, als ob Intel kein großes Interesse daran hat, das Marketing zu nutzen um den G35 bekannt zu machen.

Warum siehst du in den nachfolgenden Zeilen, wirklich was neues bringt der nicht. ;)
Wobei das wiederum ein Zeichen dafür sein könnte, das Ingenieure woanders beschäftigt sind.

Hydrogen_Snake
2007-08-20, 10:23:41
Computex 2007: Intel planning to enter discrete graphics card market in 2008 (http://www.digitimes.com/mobos/a20070606VL207.html)



Und dann vielleicht noch schneller als alles was die Konkurrenz bieten kann? :biggrin:

Weitere Infos zu Larrabee:

Thread zu den ersten Gerüchten, dass Intel den Schritt in den diskreten Grafikmarkt wagt:
Intel bestätigt diskrete GPUs! (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=345216&highlight=Larrabee)

PCB?
http://img70.imageshack.us/img70/9137/larabeeqc8.png
Block-Schaltbild?
http://img70.imageshack.us/img70/3035/larrabee1202fdeam2.png
http://www.tgdaily.com/content/view/32282/137/

Larrabee's Eckdaten:
http://www.directupload.com/files/jmfwmkhymomjgz0yzgyt.png

Larrabee-Roadmap?
http://img407.imageshack.us/img407/3429/kaigai36403le18c3bz6.jpg
http://pc.watch.impress.co.jp/docs/2007/0611/kaigai364.htm

Larrabee to be made in Intel’s FABs (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2469&Itemid=34)

Larrabee to capture 20+ percent discrete in 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2470&Itemid=34)

was das? Hardware-Software-Rasterizer? mit einem C2Q?

Gast
2007-08-21, 10:12:51
Wenn man http://www.heise.de/newsticker/meldung/94619 in Betracht zieht, braucht Intel dann überhaupt 'ne leistungsfähige GPU für 3d?

Denn so wie's in dem Artikel steht ist ein Multicore-CPU Setup mit ner Raytracing-Engine den bisherigen Grakas eh schon überlegen, also einfach dicke CPUs machen, Raytracing pushen und nvidia/ATI sind dann eh egal, oder seh ich das falsch?

Ne integrierte Grafiklösung müsste dann nur fähig sein nicht-raytracing Spiele halbwegs vernünftig darzustellen.

Cinsir
2007-08-21, 10:25:36
Das Raytracing hört sich sehr sehr gut an, fast zu gut, mal schauen was 2009 daraus wird ;)

AnarchX
2007-08-21, 10:31:32
Naja, Intel ist zwar ein Raytracing-Verfechter, aber bis das sich wirklich durchsetzt gehen noch einige Jahre ins Land bzw. lohnt es sich auch dann erst dafür entsprechende Hardware zu bringen.

Wenn Larrabee 2008 als Consumer-GraKa kommt wird es ganz klar ein Rasterizer sein.

Und Raytracing ist bei weitem nicht der heilige Grahl -> SuFu.

Ailuros
2007-08-21, 12:57:38
Intel bekommt es nicht mal hin, für den IGP G965 versprochene Features wie D3D10 oder gar überhaupt erstmal Hardware T&L mit Performance-Gewinn abzuliefern. Der GMA X3500 im G35 verzögerte sich erst wieder und wurde dann verschämt klammheimlich ohne Marketinggerassel auf den Markt gebracht. D3D10-Treiber für den X3500/G35 sollen irgendwann 2008 kommen. :|

Wenn ich mich nicht irre braucht man fuer D3D10 auch eine minimale Leistung X. Demzufolge steckt IMHLO der eigentliche Grund dahinter dass die bestimmte IGP cores noch keine D3D10 Treiber haben und ich will auch ernsthaft bezweifeln dass es je welche dafuer geben wird.

Wenn Intel nicht klammheimlich die Hälfte der Ingenieure von ATI und NV abgeworben und ein Patentaustauschabkommen mit ATI/NV abgeschlossen hat sehe ich irgendwie keine realistische Chance, dass es schon 2008 GeForce/Radeon-Konkurrenten oberhalb des absoluten low-end Segmentes von Intel geben wird.

...oder sie bauen irgendwelche Dingsbumse selber basierend auf IMG IP. Das heisst wohl momentan immer noch gar nichts, aber ich kann bis jetzt immer noch nicht verstehen warum Intel so viele Lizenzen fuer SGX eingekauft hat und dazu noch ueber 10Mio$ in IMG investiert hat.

Die aktuellen IGP 3D-Beschleuniger von Intel liefern ja noch nicht mal die Features, mit denen sie angekündigt wurden. Die Treiberentwicklung ist unglaublich zäh und überzieht ihren Zeitplan regelmäßig.

Da meine Antwort fuer den ersten Paragraphen nicht ganz aus der Luft gegriffen ist und mir ein kleiner Vogel relevantes zugezwitschert hat, haengt es wohl kaum am Treiber-Entwicklungs-Team ;)

Ailuros
2007-08-21, 13:09:00
Larrabee to capture 20+ percent discrete in 2008 (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2470&Itemid=34)

Selbst wenn davon noch etwas in 2008 kommen sollte, dann muesste eine mehr als gesunde Verfuegbarkeit schon in Q1 geben und Intel muesste dann noch wie verrueckt verkaufen.

Es handelt sich zwar um Intel mit einer bombastischen Marketing-Maschine, aber selbst mit einer wirklich guten Mainstream GPU waere es nahezu unmoeglich von Tag auf Nacht ein so hohes Prozentual zu erreichen.

Selbst Intel wird sich in diesem Markt erstmal etablieren muessen (welcher Depp wuerde denn sagen wir mal eine =/>200$ GPU kaufen wenn man nichtmal weiss wie zuverlaessig die Treiber sind?) und vor Q4 2008 (was sowieso auch ziemlich optimistisch ist) werden wir von dem Ding wohl nichts sehen.

Cliff notes: pure bullshit

Demirug
2007-08-21, 13:11:57
Wenn ich mich nicht irre braucht man fuer D3D10 auch eine minimale Leistung X. Demzufolge steckt IMHLO der eigentliche Grund dahinter dass die bestimmte IGP cores noch keine D3D10 Treiber haben und ich will auch ernsthaft bezweifeln dass es je welche dafuer geben wird.

Ich habe die WHQL Testsuite gerade nicht zur Hand aber IIRC sind da keine Performance Tests drin. Man darf nur nicht den Timeout triggern aber so langsam sollte nicht mal ein IGP sein.

AnarchX
2007-08-21, 13:21:58
Selbst wenn davon noch etwas in 2008 kommen sollte, dann muesste eine mehr als gesunde Verfuegbarkeit schon in Q1 geben und Intel muesste dann noch wie verrueckt verkaufen. [...]


Man müsste sich halt so positieren:
- vernünftige Treiber
- Larrabee-High-End: 4fache G80 Performance -> $300
- Larrabee-Mainstream: 2fache G80 Performance -> $150
- Larrabee-Entry: G80 Performance -> $75

Die Zahlen passen doch durchaus zur Prognose, dass Larrabee 2009 schon 16mal so schnell wie der G80 sein soll... ;D

Anarchy-HWLUXX
2007-08-21, 13:37:53
Man müsste sich halt so positieren:
- vernünftige Treiber
- Larrabee-High-End: 4fache G80 Performance -> $300
- Larrabee-Mainstream: 2fache G80 Performance -> $150
- Larrabee-Entry: G80 Performance -> $75

Die Zahlen passen doch durchaus zur Prognose, dass Larrabee 2009 schon 16mal so schnell wie der G80 sein soll... ;D


Träum weiter ...

AnarchX
2007-08-21, 13:53:33
Natürlich ist das Spinnerei, aber wir sind ja hier noch im Speku und es ging darum zu klären wie Intel diese Marktanteile erreichen könnte.

Was wohl ein 200mm² Chip in 45nm @1GHz+ auf PowerVR SGX Basis so erreichen könnte? :D

PowerVR SGX - Product family
------------------------------------------

Family Members
PowerVR SGX core architecture is fully scaleable and the Wireless Graphics Accelerator family includes 3 variants: SGX510, SGX520, SGX530 with sizes ranging from less than 2mm2 to 8mm2 in a 90nm process.

Performance
Maximum effective pixel fillrate performance from 200Mpix/sec to 1200Mpix/sec @ 200MHz with even higher Z and stencil fill rate and polygon throughput from 2Mpoly/sec to 13.5Mpoly/sec @ 200MHz. Performance depends on core and configuration selected.

Power
PowerVR SGX cores are built on a foundation of unique patent-protected technologies that deliver class-leading performance while keeping power dissipation to a minimum. In addition, sophisticated clock gating power management techniques ensure the lowest active and standby power consumption.

http://www.imgtec.com/PowerVR/Products/Graphics/SGX/index.asp?Page=3

seahawk
2007-08-21, 14:14:21
Kein DX10, keien Virdeofunktionen, etc. pp.

UMd IMg hat leider schon lange keinen echten Desktop-PC.-Chip mehr gemacht und Intel auch nicht. Larabee mag 16 shcneller sein als G80, nur sicher nicht als Gaming-Grafikkarte.

loewe
2007-08-21, 16:53:44
Kein DX10, keien Virdeofunktionen, etc. pp.


Wegen DX10 würde ich mir keine Gedanken machen, wenn sie es brauchen werden sie es haben. ;)

Video processing for free, with the real-time programmable architecture providing extensive accelerated functions support for multi-standard video decode and encode.
http://www.imgtec.com/PowerVR/Products/Graphics/SGX/index.asp?Page=2

Aber erst einmal abwarten, ob das alles überhaupt etwas mit SGX zu tun hat. :)

Ailuros
2007-08-25, 06:23:55
Man müsste sich halt so positieren:
- vernünftige Treiber
- Larrabee-High-End: 4fache G80 Performance -> $300
- Larrabee-Mainstream: 2fache G80 Performance -> $150
- Larrabee-Entry: G80 Performance -> $75

Die Zahlen passen doch durchaus zur Prognose, dass Larrabee 2009 schon 16mal so schnell wie der G80 sein soll... ;D

Anfang 2008 mit einer GPU die 4xG80 bringen sollte und das fuer nur $300? Traeum tatsaechlich weiter.

Wie gesagt so frueh kommt das Zeug nicht an, aber was Sinn machen koennte und auch moeglich waere, waere eine $150 GPU die bis zu 2x so schnell ist wie G96. Sie muesste aber jetzt schon verdammt nahe vor dem tapeout liegen....

Nochmal 20% vom discrete GPU Markt in 2008? :|

Ailuros
2007-08-25, 06:30:32
Kein DX10, keien Virdeofunktionen, etc. pp.

Technologisch gesehen liegt Serie5 zumindest auf R600 Niveau und dabei hab ich ehrlich keine Ahnung wie programmierbar genau das Tesselations-Dingsbums auf R600 wirklich ist. AMD behauptet starrhart dass es fuer D3D11 keine Aenderungen geben wird.

Dass man fuer Kleinkram wie handhelds oder Handys nicht mehr als SM3.0 braucht (und dass es auch keinen Sinn macht) sollte klar sein. SGX wird offiziell als >SM3.0 bzw. >OGL2.0 / >OGL_ES2.0 designiert. Um wieviel hoeher steht natuerlich nirgends drin.

Was jetzt Videofunktionen betrifft, NEC hat wohl keine Bananen lizenziert:

http://www.imgtec.com/News/Release/index.asp?ID=677

UMd IMg hat leider schon lange keinen echten Desktop-PC.-Chip mehr gemacht und Intel auch nicht. Larabee mag 16 shcneller sein als G80, nur sicher nicht als Gaming-Grafikkarte.

Das stimmt tatsaechlich; hier waere es aber ausschliesslich Intel's Aufgabe so ein Projekt vom IP auf's Silizium Niveau zu bringen.

AnarchX
2007-08-25, 14:34:34
Larrablee, Intel's discrete graphic is challenging (http://www.fudzilla.com/index.php?option=com_content&task=view&id=2658&Itemid=1)
Games Convention 07: The source close to company believes
We had a chance to hear that Larrabee Intel discrete graphic might end up with some driver issues. This is something that we already heard and wrote before about, but this time from someone close to Intel. The source confirmed that Intel expects some driver issues and that entering the descrete graphic market will be a challenging move.

Intel is working hard to launch Larrabee in 2008 and we hope to see at least a glimps or a presentation of what Intel can do in this market.

A source describes driver as the most challenging thing about this project and Intel hopes to get this thing done.

After the demo that we’ve seen at the Games Convention in Leipzig we would not be surprised if the Larrabee ends up capable doing even some ray tracing. Only the time and leaks will tell.


Wohl eher doch nix von IMGTec. ;)

Naja, im Endeffekt wird es wohl doch auf einen Raytracer hinauslaufen, der auch OGL und D3D beherrscht, fragt sich nur wie gut.
Auf Raytracing könnte sich vielleicht auch der Vergleich beziehen, dass hier Larrabee 16mal schneller sein soll als G80.

AnarchX
2007-08-27, 10:43:46
Mal eine genauere/aktuellere Version des Larrabee-Blockschaltbild aus Post #1:
http://www.directupload.com/files/ely0yxtyt3zmgfidmzro.png

http://download.intel.com/technology/itj/2007/v11i3/vol11-iss03.pdf

Ailuros
2007-08-29, 10:11:26
SGX duerfte IMHLO skalare und keine vector Einheiten haben; das haelt aber rein hypothetisch Intel nicht davon auf ein CP/GPU-Dingsbums fuer GPGPU zu verkaufen und eine andere GPU getrennt zu entwickeln.

Natuerlich klingt dieses weniger wahrscheinlicher und komplizierter, aber mit dem Dingsda oben bezweifle ich dass Intel gaming tatsaechlich ernst nehmen koennte.

Ailuros
2007-08-30, 21:42:43
Kein DX10, keien Virdeofunktionen, etc. pp.



Kleines update: http://www.khronos.org/developers/library/2007_siggraph_bof_opengles/OpenGL%20ES%20BOF%20Demos%20Aug97.pdf

;)

AnarchX
2007-08-30, 21:59:21
Stellt sich die Frage, ob man wirklich zwei ähnliche Chips parallel enwickeln würde, imo sieht es ja eher so aus, dass Intel am liebsten Rasterizing samt Rasterizer in den nächsten Jahren "unter der Erde" sehen würde, um dann im Raytracing ihr Know-How ausspielen zu können.

Ich denke eher, dass die SGX-Lizenz für die UMPC-Plattform Menlow (SoC) und deren Nachfolger verwendet wird, denn hier scheint es bei Intel zu happern, wenn man sich die 28W TDP vom G35 (http://www.computerbase.de/news/hardware/chipsaetze/intel/2007/august/intel_g35-chipsatz/) anschaut.

Aber natürlich wäre es spannend wenn Intel für letzeres hier im Bild seine Fertigungsanlagen zur Verfügung stellen würde:
http://img403.imageshack.us/img403/7231/1123007615ptckmorr3n110sf4.jpg
http://www.hardocp.com/article.html?art=ODAy

btw.
Die neue Erkenntnis über SGXs Fähigkeiten hat natürlich einen eigenen Thread erhalten:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5801295#post5801295

Ailuros
2007-08-30, 23:13:31
Uhhhm was zum Henker hat Mali/Falanx mit PowerVR/SGX zu tun?

Falanx wurde von ARM aufgekauft und ich hab bis jetzt noch nichts von einer nennenswerten Lizenz von denen gehoert oder gelesen.

Wieso sollte Intel jetzt auch noch in ARM Geld reinschmeissen, wenn sie schon fuer >4 Eurasia Lizenzen Geld ausgegeben haben und in IMG direkt investiert haben?

Das Potential des Mali mag auf Papier ja gut aussehen, aber wenn ARM nicht ernsthaft die Resourcen fuer die Falanx-Sparte aufgepumpt hat in der Zwischenzeit, bleibt solches Material nur Marketing-Geblubber. Mit ~40 Kerlen kann man nicht besonders viel auf die Beine stellen; so gross ist nur das Treiber-Team bei PowerVR.

AnarchX
2007-08-30, 23:17:26
Ups... Ich dachte das wäre der SGX unter einem anderen Namen(Lizenz)? Liest sich jedenfalls ziemlich ähnlich. :redface:

Ailuros
2007-08-30, 23:32:03
Ups... Ich dachte das wäre der SGX unter einem anderen Namen(Lizenz)? Liest sich jedenfalls ziemlich ähnlich. :redface:

Mali/Falanx duerfte irgendwo im =/>SM3.0 Bereich liegen, ausser sie haben irgendwelche Asse im Aermel die sie gut verstecken. Wie dem auch sei Mali ist ein tile based/early-Z Dingsbums und kann selbst in seiner kleinsten Form (durch 4 cycli) bis zu 16xMSAA erreichen, was aber auch dann ganz heftig auf die Fuellrate einschlaegt.

Ein "traditioneller" TBDR wie der PowerVR ist er im Grunde nicht.

ARM hatte durch die MBX Aera einen Vertrag mit IMG und die letztere lizenzierte durch ARM an grosse Semis. Als aber die letzteren langsam gleich zur Quelle (sprich IMG) fuer Lizenzen wendete, brach das obrige Buendnis auf und ARM kaufte sich Falanx in der Hoffnung dass sie dadurch auch irgendeine Lizenz fuer einen PDA/mobile core gewinnen koennten. Bis jetzt "vermarkten" sie zwangsweise immer noch MBX. Das Ding wurde sogar in "kluge" Tank-Maschinen in Tankstellen eingebaut und nein es ist kein Witz.

Falanx hat es irgendwie geschafft Kyle von HardOCP an die Leine zu ziehen; nun ja der letztere blamiert sich ja gerne viel zu oft.

IMG's Einstellung zum Thema ist dass sie nur Einzelheiten ueber ihr Zeug veroeffentlichen (und so karg wie moeglich) dass man jeglichem moechtegern "Konkurrenten" auch jederzeit den Wind aus den Segeln ziehen kann.

AnarchX
2007-09-19, 08:53:17
http://img206.imageshack.us/img206/8382/20070919bb8f40c70a1f37cum3.png
http://img206.imageshack.us/img206/9124/20070919e3b0a6e3a892d0fac3.png

Oder ist das nur IGP-Zeug?

robbitop
2007-09-19, 09:08:33
Sieht nach einem D3D10 Chip aus. Aber kein TBDR. Dann nutzt man PowerVR wohl wirklich nur fuer die Menlow-Plattform.

AnarchX
2007-09-19, 09:30:40
Sieht nach einem D3D10 Chip aus. Aber kein TBDR. Dann nutzt man PowerVR wohl wirklich nur fuer die Menlow-Plattform.

Und nach GMA X3x00 sieht es nicht aus?

edit:
Scheint wohl doch nur Intel D3D10.1 IGP zu sein...

robbitop
2007-09-19, 09:46:33
Welche D3D10 GPU das ist, weiss ich nicht. Ist aus dem Diagramm nicht ersichtlich.

Gortha
2007-09-19, 11:12:54
intel hat ja jahrelang erfahrung mit mießen grafikchips ;)

Intel hat in den letzten Jahren ohne ende Know-How gekauft in Form von Experten.

micki
2007-09-19, 11:20:23
...aber mit dem Dingsda oben bezweifle ich dass Intel gaming tatsaechlich ernst nehmen koennte.
denk ich mir auch, schon bei SSE war das so, dass sie das voll aufs gaming beworben haben und es nur in ganz seltenen faellen von nutzen war und eigentlich auf wissenschaftlicher bzw HPC dinge auszielte. wozu sonst die ganzen Double befehle und optimierungen fuer komplexe zahlen aber kein bisschen dotprodukt optimierung? (sogar das horizontal accumulate zZ suckt).

larrabee wuerde ich vom marketing her auf gaming, in realitaet aber als HPC cpu ansehen. schon alleine das bild da unten, alles gpu spezifische als gruenes kaestchen mit "fixedfunction" zusammengefasst... oder ist damit nur ein memorycontroller gemeint?

XtraLarge
2007-09-19, 12:50:07
Oder ist das nur IGP-Zeug?

Wie dem auch sei. Aber gerade der Punkt "Dynamic Power Management" ist etwas, dass wir bei aktuellem Highend wohl alle schmerzlich vermissen. Wollen wir hoffen, dass diese Technik auch in evtl. erscheinenden Grafikkarten eingesetzt wird. Wird Zeit, dass sowas mal in Hardware kommt.

Hvoralek
2007-09-19, 15:06:35
Inzwischen ist zumindest offiziell, dass Larrabee auch als GPU eingesetzt werden soll (http://www.golem.de/0709/54858.html).

Ailuros
2007-09-19, 15:18:32
Inzwischen ist zumindest offiziell, dass Larrabee auch als GPU eingesetzt werden soll (http://www.golem.de/0709/54858.html).

Kommt auch ganz darauf an was man mit "GPU" genau meint. "Ich kann auch Grafik fuer GPGPU anwenden" hat schon einen Abstand "ich kann auch anstaendig aktuelle Spiele spielen".

turboschlumpf
2007-09-19, 16:41:40
Die Aussage Pat Gelsingers aus obiger Meldung ist imho eindeutig.
Das erledigte später Pat Gelsinger in einem Roundtable-Gespräch: "Wenn man im Grafikgeschäft ist, liefert man auch Treiber für OpenGL und DirectX. Punkt.", erklärte der Leiter der Digital-Enterprise-Abteilung auf eine Frage von Golem.de.

AnarchX
2007-09-20, 19:05:11
http://img206.imageshack.us/img206/8382/20070919bb8f40c70a1f37cum3.png
http://img206.imageshack.us/img206/9124/20070919e3b0a6e3a892d0fac3.png

Oder ist das nur IGP-Zeug?

Doch nur IGP-Zeug:
http://www.computerbase.de/news/hardware/grafikkarten/2007/september/idf_integrierte_grafik_10x/

Gaestle
2007-09-20, 22:34:53
Doch nur IGP-Zeug:
http://www.computerbase.de/news/hardware/grafikkarten/2007/september/idf_integrierte_grafik_10x/


Für den Highend-Markt hat Intel mit Larrabee zudem auch eine externe Grafikkarte in der Entwicklung, die Ende 2008 erstmals der Öffentlichkeit präsentiert werden soll.


Hm.

Ailuros
2007-09-20, 22:55:36
Hm.

Wenn dann hoffentlich keine Eigenentwicklung *grins*.

Ailuros
2007-09-21, 10:15:20
Ganz nebenbei ich sah gerade dass irgendwann IMG die Daten in ihrem SGX pdf bereichert hat.

"High end" SGX555 (fuer PCs, aber man sollte stets bedenken dass das Zeug eher fuer SoCs gedacht ist) soll unter 65nm nur karge 20,3mm^2 einnehmen. Bei 200MHz (was ausserordentlich mager ist fuer 65nm) geben sie 4.0 GPixels/s und 100M Polys/s an.

Uebersetzt heisst das IMHLO 8 (fastTri) TMUs * 200MHz * 2.5 Overdraw.

Zum Vergleich G86 wird auf 80nm auf ca. 115mm^2 eingeschaetzt.

AnarchX
2007-09-21, 10:24:35
Und was ist der Grund warum diese Über-Technologie nicht für Desktopkarten bzw. Chipset-IGPs verwendet wird?

Ailuros
2007-09-21, 10:55:26
Und was ist der Grund warum diese Über-Technologie nicht für Desktopkarten bzw. Chipset-IGPs verwendet wird?

http://forum.beyond3d.com/showthread.php?t=41212

AnarchX
2007-09-21, 21:15:20
http://forum.beyond3d.com/showthread.php?t=41212

Aber im Endeffekt auch wieder nur (Small-)Mobile-Zeug, wie bisher.

Warum findet sich niemanden der z.B. einfachmal einen doppelten SGX555@65nm mit vielleicht mehr als 200MHz und halt dem anderen nötigen IO-Zeug verbaut.

Das dürfte dann in <80mm² resultieren, einer Low-End-typischen Die-Size, aber mit einer doch sehr konkurrenzfähigen(?) Leistung.

Immerhin entwickeln IHVs wie S3 sogar PC-GraKas, die ich von der Technologie schwächer als IMGTec einschätzen würde. Oder liege ich hier falsch?


Was als High-Performance-Grafik plant, hat ja offensichtlich auch nichts mit IMGTec zu tun...

robbitop
2007-09-21, 22:07:35
Das SGX Design ist nunmal fuer Mobile konzipiert. Fuer ein grosses Desktopdesign ist's IMO nicht so einfach skalierbar.

Ailuros
2007-09-21, 23:18:51
Aber im Endeffekt auch wieder nur (Small-)Mobile-Zeug, wie bisher.

Warum findet sich niemanden der z.B. einfachmal einen doppelten SGX555@65nm mit vielleicht mehr als 200MHz und halt dem anderen nötigen IO-Zeug verbaut.

Das dürfte dann in <80mm² resultieren, einer Low-End-typischen Die-Size, aber mit einer doch sehr konkurrenzfähigen(?) Leistung.

Immerhin entwickeln IHVs wie S3 sogar PC-GraKas, die ich von der Technologie schwächer als IMGTec einschätzen würde. Oder liege ich hier falsch?


Was als High-Performance-Grafik plant, hat ja offensichtlich auch nichts mit IMGTec zu tun...

Selbst SGX555 ist als SoC gedacht. 200MHz werden schon bei 90nm erreicht und die Zahlen dienen eigentlich nur zur Illustrierung einer relativen Leistung.

Die roadmap von IMG geht nur bis 2008. Es haengt ausschliesslich von Intel ab, was sie mit dem Zeug genau anstellen werden. Hat Intel Interesse an einem hoeheren Modell als dieses 555 Dingsbums, koennen sie es anfragen und nein man braucht nicht 2 solcher Dinger zusammenschleussen; man kann sowohl ALUs als auch TMUs/ROPs weiterhin skalieren und die Realisierung liegt ja sowieso in Intel's Haenden.

Die brennende Frage bleibt ob Intel mit Larabee Grafik Ernst genug nimmt, oder ob es sich eben nur um GPGPU Zeug (hauptsaechlich) handelt. Da sich Intel in der Vergangenheit schon mal die Finger verbrannt hat mit dem oeden 740, glaube ich eher dass sie erstmal vielleicht einen kleinen Zehen ins Tiefwasser tauchen und je nach Erfolg oder Misserfolg ihre zukuenftigen Plaene definieren.

Ailuros
2007-09-21, 23:38:05
Das SGX Design ist nunmal fuer Mobile konzipiert. Fuer ein grosses Desktopdesign ist's IMO nicht so einfach skalierbar.

Wenn Intel wirklich eine GPU fuer die Zukunft plant und aus irgendwelchen Gruenden ihr eigenes Zeug nicht so gut fuer Spiele sein sollte, muessen sie eigentlich nur den Geldbeutel etwas weiter aufreissen und einen weiteren IP Design beantragen.

IMG hat durchaus nicht die Resourcen sich mit sowas zu beschaeftigen, aber Intel dann schon. Sie bekommen ja praktisch dann nur das IP in die Hand und bauen so ein Ding selber.

Es bleibt aber dabei dass die gesamte Larabee Geschichte immer noch viel zu nebelhaft ist.

robbitop
2007-09-21, 23:43:10
Ich denke, PVR wird man weiterhin fuer das nutzen, was sie am besten koennen: den mobilen Kram. Falls man in den ressourcenfressenden GPU Markt einsteigt, wird man die "grossen" GPUs selbst bauen wollen. Die Anzeichen, dass sie ein grosses Team ausgehoben haben und noch dabei sind, es zu vermehren haeufen sich zu stark, als dass man sich nur auf Lizenzen eines mittelstaendigen Unternehmens in UK stuetzen wuerde.

robbitop
2007-09-21, 23:47:13
IMG hat durchaus nicht die Resourcen sich mit sowas zu beschaeftigen, aber Intel dann schon. Sie bekommen ja praktisch dann nur das IP in die Hand und bauen so ein Ding selber.

Es bleibt aber dabei dass die gesamte Larabee Geschichte immer noch viel zu nebelhaft ist.
Das waere moeglich. Intel hat die Chance, von Anfang an TBDRs zu bauen. Man hat ja quasi keine Altlasten. Alle GPUs bis hin zum GMA950 sind sogar TBDRs. Ich schaetze aber, man wird die "dicken Dinger" komplett selbst bauen.
Mittlerweile hat man das alte Real3D Team, die 3DLabs Teams, einige ATI Leute und natuerlich frisch rekrutierte Leute (und es werden immer mehr).
Wer weiss, vieleicht holt man ja noch ein paar besonders gute, wertvolle chaps von IMG ueber den Teich in das Team.

davidzo
2007-09-21, 23:50:27
Und was ist der Grund warum diese Über-Technologie nicht für Desktopkarten bzw. Chipset-IGPs verwendet wird?

Naja Über-technologie ist vielleicht etwas übertrieben. aktuelle Highendengines arbeiten mittlerweile schon relativ effizient, da dürfte der Unterschied geringer ausfallen als früher.

IMGtech hat früher versucht weitere Desktopchips auf den markt zu bringen, aber ihnen hat niemand die designs abgekauft bzw. der letzte Partner ist abgesprungen. IMGtech ist schließlich nur eine IP-Company. Das heißt man braucht jemanden der die Chips fertigt, einen Boardhersteller, man muss die Dinger irgendwie in den Channel bekommen und schließlich muss auch noch irgendjemand Treiber dafür schreiben. das alles ist für IMGtech viel zu groß, zumal TSMC und Co es sich nicht mit ihren besten Kunden verderben wollen und die Boardhersteller und Channelpartner erst recht nicht. IMGtech konzentriert sich also lieber auf kleinere leichtere und schnellere Entwicklungen die sich schneller verkaufen lassen. Ein Dekstopchip wie der Kyro 3 der dann am Chippartner scheitert und du bist schon fast aus dem Rennen, da hängt einfach zuviel Risiko dran.
Vor allem, wie will man mal eben in ein paar Monaten x-Jahre Treiberentwicklung für den PC aufholen? PC treiber sind wahnsinnig komplex, das kann für kleine Firmen Jahre dauern simple features zugänglich zu machen, siehe XGI oder S3 und die hatten immerhin eine gute Vorlaufzeit, Boardpartner und Channelpartner.

Ich hätte es lieber gesehen wenn Intel geld in IMGtech gepumt hätte für ein leistungstärkeres IP design anstatt da selber etwas aufzubauen. Einen aufgebohrten SGX 555 mit vielen pipelines mit threading, caches und nem intelligenten speicherinterface sowie deutlich mehr taktoptimiert hätte ich gerne gesehen. Und dieses gefasel von lauter kleinen x86 Cores klingt mir auch zu sehr nach Prozessorspezialisten die jetzt plötzlich bestimmen wollen wie der Hase im Grafikbusiness läuft. Klingt nach ner suboptimalen Lösung, gefällt mir nicht.

Ailuros
2007-09-21, 23:58:00
Ich denke, PVR wird man weiterhin fuer das nutzen, was sie am besten koennen: den mobilen Kram. Falls man in den ressourcenfressenden GPU Markt einsteigt, wird man die "grossen" GPUs selbst bauen wollen. Die Anzeichen, dass sie ein grosses Team ausgehoben haben und noch dabei sind, es zu vermehren haeufen sich zu stark, als dass man sich nur auf Lizenzen eines mittelstaendigen Unternehmens in UK stuetzen wuerde.

Ich bin mir fast sicher dass IMG keinesfalls vorhat mehr als IP fuer die gesamte Eurasia Familie zu entwickeln.

Keine Ahnung was Du mit dem "grossen Team" genau meinst; alleine die diverse MBX und SGX Varianten, mehrere Platformen und diverse APIs zu unterstuetzen kostet schon ziemlich viel an Resourcen selbst fuer eine IP Firma.

Ailuros
2007-09-22, 00:02:58
Das waere moeglich. Intel hat die Chance, von Anfang an TBDRs zu bauen. Man hat ja quasi keine Altlasten. Alle GPUs bis hin zum GMA950 sind sogar TBDRs. Ich schaetze aber, man wird die "dicken Dinger" komplett selbst bauen.

Es gibt so manchen Unterschied zwischen Intel's und PowerVR Designs. Genauso wie es gute und schlechte IMRs geben kann, gibt es wohl auch gute und beschissene TBDRs.

Mittlerweile hat man das alte Real3D Team, die 3DLabs Teams, einige ATI Leute und natuerlich frisch rekrutierte Leute (und es werden immer mehr).
Wer weiss, vieleicht holt man ja noch ein paar besonders gute, wertvolle chaps von IMG ueber den Teich in das Team.

Nicht dass ich wuesste. Im Gegensatz schau Dir mal die Anzahl der offenen Positionen fuer PowerVR an:

http://www.imgtec.com/Careers/index.asp

robbitop
2007-09-22, 00:05:53
IMG schreibt ihre Treiber selbst. TSMC fertigt ausschliesslich, die haben mit Boardherstellern wenig zu tun. Technisch gesehen fehlt IMG ggu NV oder ATI nur wenig. Das Floorplanning und das Tapeout machen sie nicht selbst (koennten sie aber). Hauptsaechlich fehlt ihnen das Kapital fuer die Produktion bei TSMC und natuerlich um das Risiko abzudecken. Ein Kaeufer waere nicht viel mehr als ein Geldgeber, der noch ein paar Schnuere in Richtung Distribution zieht.

robbitop
2007-09-22, 00:08:58
Ich bin mir fast sicher dass IMG keinesfalls vorhat mehr als IP fuer die gesamte Eurasia Familie zu entwickeln.

Keine Ahnung was Du mit dem "grossen Team" genau meinst; alleine die diverse MBX und SGX Varianten, mehrere Platformen und diverse APIs zu unterstuetzen kostet schon ziemlich viel an Resourcen selbst fuer eine IP Firma.
Ich gehe davon aus, dass Intel grosse GPUs komplett selbst entwickelt.
Jedes Team fuer ihren Zweck. Ich weiss, dass mehrere hundert Ingenieure bei IMG beschaeftigt sind fuer Eurasia. Fuer ein Mobile und ein Desktop Projekt zusammen wuerde es jedoch auch PVR an R&D fehlen.
Die Intel Grafikabteilung bemisst mittlerweile ebenfalls einige hundert Leute. Fudo hatte mal was von 800 oder 900 geschrieben (ca 1/2 von den grossen IHVs). Das ist ggue zB S3 (mit ca 350 Ingenieuren) schon eine Hausnummer. Wenn all das stimmt, meinen die es bei Intel ziemlich ernst mit der Grafiknummer.

Ailuros
2007-09-22, 00:14:22
Ich hätte es lieber gesehen wenn Intel geld in IMGtech gepumt hätte für ein leistungstärkeres IP design anstatt da selber etwas aufzubauen. Einen aufgebohrten SGX 555 mit vielen pipelines mit threading, caches und nem intelligenten speicherinterface sowie deutlich mehr taktoptimiert hätte ich gerne gesehen. Und dieses gefasel von lauter kleinen x86 Cores klingt mir auch zu sehr nach Prozessorspezialisten die jetzt plötzlich bestimmen wollen wie der Hase im Grafikbusiness läuft. Klingt nach ner suboptimalen Lösung, gefällt mir nicht.

SGX Modelle ausserhalb von den PDA/mobile Desings wurden ja dank Intel's Moneten erstmal entwickelt.

Ein SGX555 als Anteil eines SoCs von Intel duerfte um einiges schneller und mit um einiges besseres IQ ankommen als jeglicher bisherige Intel IGP. Bis jetzt wahren PowerVR's Leistungsangaben was Geometrie-Leistung betrifft stets so Wahrheitsnahe wie moeglich. Bei theoretischen 400MHz waeren es demzufolge schon 200M Polys/s und so viel schafft nicht mal eine 7600GT in Echtzeit. Fuer heutige Verhaeltnisse klingt es schon ziemlich viel; die Frage ist aber dann wann die hypothetische Integrierung eines SGX555 auch wirklich stattfinden sollte.

robbitop
2007-09-22, 00:17:06
Der SGX555 ist allerdings nur ein hochskalierer 535 oder? Ich kann mir nicht vorstellen, dass man ein SoC Design ungeschoren unlimitiert aufblasen kann.

Ailuros
2007-09-22, 00:27:31
Ich gehe davon aus, dass Intel grosse GPUs komplett selbst entwickelt.
Jedes Team fuer ihren Zweck. Ich weiss, dass mehrere hundert Ingenieure bei IMG beschaeftigt sind fuer Eurasia. Fuer ein Mobile und ein Desktop Projekt zusammen wuerde es jedoch auch PVR an R&D fehlen.
Die Intel Grafikabteilung bemisst mittlerweile ebenfalls einige hundert Leute. Fudo hatte mal was von 800 oder 900 geschrieben (ca 1/2 von den grossen IHVs). Das ist ggue zB S3 (mit ca 350 Ingenieuren) schon eine Hausnummer. Wenn all das stimmt, meinen die es bei Intel ziemlich ernst mit der Grafiknummer.

Fudo zaehlt woemoeglich alle Familien-Mitglieder vom Larabee-Team mit LOL. Glaubt doch nicht so leicht jeden Mist ueberhaupt nicht von dem Kerl ;)

Und nochmal es haengt davon ab was Intel genau vorhat und wieviel sie fuer IP und royalties langfristig investieren moechten.

IMG schreibt ihre Treiber selbst. TSMC fertigt ausschliesslich, die haben mit Boardherstellern wenig zu tun. Technisch gesehen fehlt IMG ggu NV oder ATI nur wenig. Das Floorplanning und das Tapeout machen sie nicht selbst (koennten sie aber). Hauptsaechlich fehlt ihnen das Kapital fuer die Produktion bei TSMC und natuerlich um das Risiko abzudecken. Ein Kaeufer waere nicht viel mehr als ein Geldgeber, der noch ein paar Schnuere in Richtung Distribution zieht.

Nochmal nach dem Series5/Desktop Flop hiess es dass der Desing abgeschlachtet wird fuer Kleinkram (minimal SM3.0 fuers kleinste Modell) und dass nichts mehr selber gebaut wird; es wird nur IP verkauft.

Was Du im Hinterkopf behalten solltest, ist dass Intel mehr als oefters Schnappsideen hatte fuer alles was Grafik betrifft. Den PDA/mobile Markt wollten sie tatsaechlich nur mit MMX Mist bedienen, sind aber durch den Lauf der Zeit aufgewacht und haben damals als erste MBX lizenziert. Dabei ist Intel's 2700G womoeglich der schwaechste SoC ueberhaupt im Vergleich zu allen anderen die MBX eingebaut haben. Eine CPU mit hohere Frequenz aber keine FPU und ein einfacher MBX Lite ohne VGP, wobei hier eine der wenigen Ausnahemen ist. Die Mehrzahl hat den VGP schon mitlizenziert.

Ganz nebenbei hat Freescale fuer OGL_ES2.0 den neuen Imageon von AMD lizenziert. Freescale war eigentlich einer der IMG Partner die MBX lizenziert hatten. AMD ist momentan die einzige Firma die mit dem "Xenos-Enkel" IMG Konkurrenz bieten koennte. IMG will aber weiterwachsen und die PowerVR Abteilung verkauft auch die Mehrzahl deren IPs insgesamt ;)

robbitop
2007-09-22, 00:30:29
Die Imagenon ist tatsaechlich mit C1 verwandt?

Ich glaube jedenfalls nicht, dass PVR die Desktop GPUs entwickeln soll. Larrabee ist z.B. keine Entwicklung von PVR, (AFAIK)

Ailuros
2007-09-22, 00:36:35
Der SGX555 ist allerdings nur ein hochskalierer 535 oder? Ich kann mir nicht vorstellen, dass man ein SoC Design ungeschoren unlimitiert aufblasen kann.

Oder eine Reduktion/Neuauflage der Series5 GPU. Je nach Perspektive kann man sagen dass sie von oben nach unten oder von unten nach oben skaliert haben. Ist aber auch ziemlich wurscht.

Das einzige was ich hier behaupte, ist dass wenn Intel es wuenschen wuerde und genug Moneten zuschiessen wuerde, waere selbst eine Desktop GPU IP Entwicklung kein Problem fuer IMG. Wieso sollte es unmoeglich sein wenn die notwendigen Resourcen vorhanden waeren, eine GPU zu entwickeln?

Feature-maessig fehlt dem Design wohl nichts selbst fuer D3D10.1 und womoeglich noch einiges mehr. IMG wuerde nie mehr eine GPU selber entwickeln und diese dann in ihren Hintern stecken weil sie niemand kauft. Ich spiele lediglich mit dem Gedanken was waere wenn Intel fuer so ein Ding die Unkosten tragen wuerde.

robbitop
2007-09-22, 00:42:59
Aus einer paar hundert Millionen Transistoren GPU skalliert man nicht mal eben keine paar Millionen GPU (also eine Skalierung von mal eben Faktor 100). Umgekehrt auch nicht. Da wird man schon enorme Anstrengungen unternommen haben.

Natuerlich koennte PVR auch eine Desktop GPU entwickeln. Ich bezweifle jedoch, dass sie eine mobile und eine Desktoparchitektur simulatan handlen koennten, geschweige denn mit den extrem flotten Produktzyklen in diesem Markt mithalten koennten. Hinter den NV und ATI Entwicklungen stecken ja jeweils schon Faktor 5 an Ingenieuren (wenn nicht mehr). Ich denke hier setzt man dann lieber auf Arbeitsteilung. Ein anderer Grund dafuer koennten auch Royalities sein, die sich bei den hohen Stueckzahlen von IGPs und/oder diskreter GPUs niederschlagen.

Ailuros
2007-09-22, 00:45:41
Die Imagenon ist tatsaechlich mit C1 verwandt?

Ja wieso? Im kleinsten Format erwarte ich nicht mehr als SM3.0 wie beim SGX; bleibt abzusehen wie weit sonst das Featureset geht.

Ich glaube jedenfalls nicht, dass PVR die Desktop GPUs entwickeln soll. Larrabee ist z.B. keine Entwicklung von PVR, (AFAIK)

Larrabee ist ein Projekt-name und keine bestimmte CP/GPU oder (GP)GPU Bezeichnung. Wieso sollte Menlow bzw. Moorestown nicht auch zur Larabee-Familie gehoeren?

The PowerVR division is looking for compiler and tool chain developers to work on tools for a cutting edge parallel graphics/GPGPU architecture.

http://www.imgtec.com/Careers/Vacancies/Details/index.asp?ID=85

robbitop
2007-09-22, 00:52:44
Weil Menlow eine Mobile Plattform fuer UMPCs und Cellphones ist. Larrabee ist laut Aussagen von Intel auf dem IDF ein Grafikprojekt. Sicher ist's ansonsten vermutlich noch ein GPGPU Projekt. Ich sehe den Zusammenhang zwischen Menlow (PVR Technik) und Larrabee (3DLabs/Intel Technik) nicht.

Ailuros
2007-09-22, 01:09:14
Aus einer paar hundert Millionen Transistoren GPU skalliert man nicht mal eben keine paar Millionen GPU (also eine Skalierung von mal eben Faktor 100). Umgekehrt auch nicht. Da wird man schon enorme Anstrengungen unternommen haben.

Serie5 wurde in 2004 storniert als Projekt und Intel lizenzierte SGX am 17.05.2005.

http://www.imgtec.com/news/Release/index.asp?ID=409

Das soll jetzt nicht heissen dass die SGX Entwicklung nicht frueher als in 2004 begonnen hat, aber unendliche Jahre hat es wohl auch nicht gedauert.

Natuerlich koennte PVR auch eine Desktop GPU entwickeln. Ich bezweifle jedoch, dass sie eine mobile und eine Desktoparchitektur simulatan handlen koennten, geschweige denn mit den extrem flotten Produktzyklen in diesem Markt mithalten koennten.

Wie flott sind denn Intel's Entwicklungs-zyklen ueberhaupt, ganz zu schweigen was deren Treiber-Entwicklung bis jetzt betrifft? Fuer das was ich schaetze dass Intel im Hinterkopf hat, sieht es nicht nach einer direkten Konfrontation auf allen Fronten mit NVIDIA/AMD aus. Eher in der Mehrzahl Billigscheiss ob integriert oder nicht.

Ausser man glaubt natuerlich die AMD bzw. Intel Fusion/Larabee Maerchen fuer angebliche "high end graphics".

Hinter den NV und ATI Entwicklungen stecken ja jeweils schon Faktor 5 an Ingenieuren (wenn nicht mehr). Ich denke hier setzt man dann lieber auf Arbeitsteilung. Ein anderer Grund dafuer koennten auch Royalities sein, die sich bei den hohen Stueckzahlen von IGPs und/oder diskreter GPUs niederschlagen.

Wo verkauft denn NVIDIA und AMD in letzter Zeit IP dass ich es verpasst habe? Selbst der neue Imageon ist afaik eine Chip-Entwicklung seitens AMD was aber eher sub-optimal IMHO fuer den PDA/mobile Markt ist.

Ich stelle mal eine andere Frage: wie lange wuerde NVIDIA als Beispiel brauchen nur IP fuer eine GPU zu entwickeln und fuer was genau braeuchten sie im Fall von ausschliesslicher IP Entwicklung eine solche Unmenge von Angestellten?

Larabee soll ja nach Dir errr tschuldigung Fudo aus >800 Angestellten bestehen. Selbst wenn es nur die Haelfte dieser sein sollten, ist die Anzahl gross genug fuer den Anfang fuer potentiellere Grafik-Projekte seitens Intel.

Ailuros
2007-09-22, 01:14:46
Weil Menlow eine Mobile Plattform fuer UMPCs und Cellphones ist. Larrabee ist laut Aussagen von Intel auf dem IDF ein Grafikprojekt. Sicher ist's ansonsten vermutlich noch ein GPGPU Projekt. Ich sehe den Zusammenhang zwischen Menlow (PVR Technik) und Larrabee (3DLabs/Intel Technik) nicht.

Und wo steht genau dass Menlow nicht zu Larabee gehoert? Oder bin ich der einzige der einen integrierten Grafik-chip in Menlow sieht? Menlow wird von Intel gefertigt und vermarktet.

robbitop
2007-09-22, 01:26:34
Serie5 wurde in 2004 storniert als Projekt und Intel lizenzierte SGX am 17.05.2005.

http://www.imgtec.com/news/Release/index.asp?ID=409

Das soll jetzt nicht heissen dass die SGX Entwicklung nicht frueher als in 2004 begonnen hat, aber unendliche Jahre hat es wohl auch nicht gedauert.

Dennoch wars keine reine Skalierung.


Wie flott sind denn Intel's Entwicklungs-zyklen ueberhaupt, ganz zu schweigen was deren Treiber-Entwicklung bis jetzt betrifft? Fuer das was ich schaetze dass Intel im Hinterkopf hat, sieht es nicht nach einer direkten Konfrontation auf allen Fronten mit NVIDIA/AMD aus. Eher in der Mehrzahl Billigscheiss ob integriert oder nicht.
Abwarten. Intel scheint die Sache Schritt fuer Schritt (langfristig) aufzubauen. Man muss in ein paar Jahren sehen, was und ob was draus wird. Moneten dazu haette Intel allemale.


Wo verkauft denn NVIDIA und AMD in letzter Zeit IP dass ich es verpasst habe? Selbst der neue Imageon ist afaik eine Chip-Entwicklung seitens AMD was aber eher sub-optimal IMHO fuer den PDA/mobile Markt ist.
ATI hat mit dem C1 IP verkauft.
Letzten Endes fehlt zu einem kompletten Chip lediglich noch der Floorplanning und das Tapeout. Also nur das letzte Bisschen. Das ist vor allem eine Frage des Kapitals. So viel R&D bindet das im Gegensatz zum Verilog-Design nicht.


Ich stelle mal eine andere Frage: wie lange wuerde NVIDIA als Beispiel brauchen nur IP fuer eine GPU zu entwickeln und fuer was genau braeuchten sie im Fall von ausschliesslicher IP Entwicklung eine solche Unmenge von Angestellten?
Genausolange. Nur dass du noch ca 3-5 Monate fuer Tapeouts, Produktion und Vertrieb draufrechnen musst. Dafuer gibts natuerlich eigene Leute. Die Entwicklerteams sind dann aber schon lange wieder am naechsten Design dran.
Man braucht viele Leute fuer die Verwaltung eines solchen Kapitalaktes, fuer den Vertrieb, fuers PR und fuer die Buchhaltung. Hier braucht man bei einem reinen IP Unternehmen deutlich weniger.

Jedoch so komplexe GPU Designs mit einem Produktlebenszyklus von ca 9 Monaten benoetigt von der reinen Ingenieuranzahl einen ganzen Batzen (den IMG meiner Meinung nach nicht hat). Ein IP-Modell ist aufgrund der Verzoegerungen der Time-to-Market sowieso unguenstig fuer den Desktopmarkt. Hier muss alles eng zusammenlaufen.

Larabee soll ja nach Dir errr tschuldigung Fudo aus >800 Angestellten bestehen. Selbst wenn es nur die Haelfte dieser sein sollten, ist die Anzahl gross genug fuer den Anfang fuer potentiellere Grafik-Projekte seitens Intel.
Nunja da sie beide 3DLabs-Teams haben und das alte Real3D Team habe ich schon mal mindestens rund 400 Leute auf dem Zettel. Das sind noch keine 800. Aber von ATI sollen einige dazugekommen sein und einige wurden halt rekrutiert. Sagen wir es sind 400-500 Ingenieure. Immerhin reicht das schon fuer 1 halbwechs gutes Team..eher 1,5. Wer weiss, wie es in 2, 3, 4 oder 5 Jahren aussieht? Intel hat das Geld. Ich weiss nicht mit Sicherheit, ob sie ernsthaft in den Grafikmarkt wollen oder ob sie bloss GPGPU Zeugs machen wollen. Wenn sie es wollen wuerden, koennten sie es jedenfalls.

robbitop
2007-09-22, 01:27:13
Und wo steht genau dass Menlow nicht zu Larabee gehoert? Oder bin ich der einzige der einen integrierten Grafik-chip in Menlow sieht? Menlow wird von Intel gefertigt und vermarktet.
Jaha, nur was hat Larrabee damit zu tun? Das eine ist PVR-IP das andere ist ex-3DLabs. Ok die Gemeinsamkeit liegt in der Fertigung von Intel.

Ailuros
2007-09-22, 02:03:44
Dennoch wars keine reine Skalierung.

Nach unten schon.


ATI hat mit dem C1 IP verkauft.

"Hat" ist absolut korrekt. Und wie lange genau brauchten sie das Ding zu entwickeln hm?

Letzten Endes fehlt zu einem kompletten Chip lediglich noch der Floorplanning und das Tapeout. Also nur das letzte Bisschen. Das ist vor allem eine Frage des Kapitals. So viel R&D bindet das im Gegensatz zum Verilog-Design nicht.

Eine sehr grobe Unterschaetzung. Als ob das was man als "tapeout" versteht nur ein einziger Prozess ist, stets alles nach Plan lauft und man bei mehreren tapeouts keine besonderen Resourcen braucht. Was kostet denn Deiner Meinung nach genau ein einziges tapeout heutzutage?

Genausolange. Nur dass du noch ca 3-5 Monate fuer Tapeouts, Produktion und Vertrieb draufrechnen musst. Dafuer gibts natuerlich eigene Leute. Die Entwicklerteams sind dann aber schon lange wieder am naechsten Design dran.

Ach so schnell geht das Ganze Deiner Meinung nach ab? 3-5 Monate fuer Tapeouts in welcher Dimension genau?

Man braucht viele Leute fuer die Verwaltung eines solchen Kapitalaktes, fuer den Vertrieb, fuers PR und fuer die Buchhaltung. Hier braucht man bei einem reinen IP Unternehmen deutlich weniger.

Das stimmt.

Jedoch so komplexe GPU Designs mit einem Produktlebenszyklus von ca 9 Monaten benoetigt von der reinen Ingenieuranzahl einen ganzen Batzen (den IMG meiner Meinung nach nicht hat).

9 Monate fuer Refreshes aber nicht fuer jegliche Generation. Was braeuchte denn Intel rein hypothetisch zusaetzliches fuer einen theoretischen Refresh von IMG, wenn sie angenommen nur mit der Taktrate nach oben skalieren wuerden. Bei der Hypothese baut ja sowieso Intel den ganzsen Schnickschnack.

Um es endlich auf eine logische Basis zu bringen, IMG haette nie und nimmer selber die SGX Modelle ausserhalb vom PDA/mobile Markt entwickelt. Fuer all das Zeug darueber dass Intel braucht (z.B. SGX545, 555 usw.) hat Intel einen gesunden Batzen an Aktien von IMG (sprich Zuschussgelder) aufgekauft.

Damit Du es endlich schnallst, meine These macht nur Sinn wenn Intel eine hohe Summe fuer IMG's Verhaeltnisse in IMG als weiteren Zuschuss investieren wuerde.

Ein IP-Modell ist aufgrund der Verzoegerungen der Time-to-Market sowieso unguenstig fuer den Desktopmarkt. Hier muss alles eng zusammenlaufen.

Dann frag ich mich natuerlich sofort warum Intel so bloed (?) ist und nicht in ihren eigenen Mist in UMPCs/laptops usw. integriert sondern zu IP greift. Irgend eine anstaendige Erklaerung muesste es ja dafuer geben; Du sagst ja selber dass sie von klein auf anfangen moechten.

Time to market kann fuer jeden Markt angepasst werden. Der oede Mythos dass time to market laenger dauert mit IP koennte davon enstanden sein, dass es z.B. sehr lange dauerte MBX in SoCs zu integrieren. Nur hat der PDA/mobile Market rein zufaellig einen =/>2-jaehrigen Produkt-Zyklus, weil eben die Mehrzahl der Verbraucher ein high end Handy oder PDA im Durchschnitt so lange behaelt.


Nunja da sie beide 3DLabs-Teams haben und das alte Real3D Team habe ich schon mal mindestens rund 400 Leute auf dem Zettel. Das sind noch keine 800. Aber von ATI sollen einige dazugekommen sein und einige wurden halt rekrutiert. Sagen wir es sind 400-500 Ingenieure.

Nur hat leider dass zu sehr hochgelobte 3DLabs Team auch keine besondere Erfahrung was desktop-GPUs, gaming und relevante Treiber betrifft. Natuerlich wird das Larabee Zeug auch fuer etwas gaming taugen, aber wenn man beide Augen zudrueckt kann man mit bekloppten settings auch auf einer heutigen Intel IGP spielen.

Intel hat das Geld. Ich weiss nicht mit Sicherheit, ob sie ernsthaft in den Grafikmarkt wollen oder ob sie bloss GPGPU Zeugs machen wollen. Wenn sie es wollen wuerden, koennten sie es jedenfalls.

Und das genau ist mein Punkt ueber diese zu lange Debatte; nochmal wenn ihr eigenes Zeug nichts besonderes fuer gaming taugen sollte, muessten sie es schon seit einiger Zeit wissen. Moechten sie jetzt tatsaechlich auch im gaming Markt etwas mit AMD/NVIDIA konkurrieren, koennen sie stets auch zu IMG's IP greifen.

Dass Intel eine Unzahl von Resourcen hat, wird wohl kein halbwegs logischer Mensch bezweifeln koennen. Der Haken hier ist ob Intel wirklich und ernsthaft am gaming Markt interessiert ist. Ich rate eher nein und ich spiele hier nur mit den Moeglichkeiten mit meinen Gedanken die Intel zur Verfuegung hat.

Uebrigens ganz nebenbei noch etwas Fudo Gelaber:

Intel has some big plans with graphics and it will fight AMD in every single field, Nvidia is also considered as serious competition. Intel will even challenge AMD and Nvidia in the mobile market especially in late 2008 or 2009.

http://www.fudzilla.com/index.php?option=com_content&task=view&id=3203&Itemid=1

What sets Moorestown apart from previous processors is the fact that it combines CPU, GPU and memory controller functions into one chip. Essentially, this is the same intention that AMD has with its Fusion program. AMD's Fusion also encompasses mobile devices as well as desktops. It is only a matter of time before we see the same idea from Intel in the desktop space being applied to devices such as thin clients and budget PCs.

http://www.dailytech.com/Article.aspx?newsid=7167

Ich lese wohl offensichtlich diverse newsblurb von links nach rechts dass ich was anderes verstehe. Menlow und Moorestown not part of Larabee my ass :P

Gast
2007-09-22, 05:00:49
Moorestown mit Grafik hört sich interessant an, allerdings soll der ja erst 2009/2010 und dann auch nur in 45nm kommen. Außerdem nur 50% schnellere Grafik als Menlow, und das nach fast 2 Jahren? Sehr enttäuschend!

Ailuros
2007-09-22, 08:56:58
Moorestown mit Grafik hört sich interessant an, allerdings soll der ja erst 2009/2010 und dann auch nur in 45nm kommen. Außerdem nur 50% schnellere Grafik als Menlow, und das nach fast 2 Jahren? Sehr enttäuschend!

Menlow ist nach Intel's Graph fuer Q2' 2008 projeziert und fuer Moorestown wird nur 2009 erwaehnt.

AnarchX
2007-09-22, 08:59:53
Moorestown mit Grafik hört sich interessant an, allerdings soll der ja erst 2009/2010 und dann auch nur in 45nm kommen. Außerdem nur 50% schnellere Grafik als Menlow, und das nach fast 2 Jahren? Sehr enttäuschend!

Schau mal auf die angestrebte Akkuleistung, das ist nämlich hier der entscheidende Punkt. ;)

robbitop
2007-09-22, 11:17:31
Nach unten schon.
Gerade nach unten ist es schwer.




"Hat" ist absolut korrekt. Und wie lange genau brauchten sie das Ding zu entwickeln hm?
Rund 3 Jahre AFAIR.



Eine sehr grobe Unterschaetzung. Als ob das was man als "tapeout" versteht nur ein einziger Prozess ist, stets alles nach Plan lauft und man bei mehreren tapeouts keine besonderen Resourcen braucht. Was kostet denn Deiner Meinung nach genau ein einziges tapeout heutzutage?
Ein paar Millionen Dollar.
Man benoetigt schon Zeit und Personal dafuer. Aber nicht (oder kaum noch) die eigentlichen Designteams.
Klar, bei nem komplexen Design wir z.B. G80 kann das auch mal 1 Jahr dauern.
Aber in der Zeitspanne, hat das G80 Team sich schon wieder einem neuen Projekt gewidmet.



Ach so schnell geht das Ganze Deiner Meinung nach ab? 3-5 Monate fuer Tapeouts in welcher Dimension genau?
Midrange und Lowcost, wenn der Prozess bekannt ist und auch schon eine GPU aus der Familie bereits in diesem produziert wurde.




9 Monate fuer Refreshes aber nicht fuer jegliche Generation. Was braeuchte denn Intel rein hypothetisch zusaetzliches fuer einen theoretischen Refresh von IMG, wenn sie angenommen nur mit der Taktrate nach oben skalieren wuerden. Bei der Hypothese baut ja sowieso Intel den ganzsen Schnickschnack.
Du unterschaetzt IMHO die Arbeit an solchen Designs.

Um es endlich auf eine logische Basis zu bringen, IMG haette nie und nimmer selber die SGX Modelle ausserhalb vom PDA/mobile Markt entwickelt. Fuer all das Zeug darueber dass Intel braucht (z.B. SGX545, 555 usw.) hat Intel einen gesunden Batzen an Aktien von IMG (sprich Zuschussgelder) aufgekauft.
Naja die Dinger reichen dennoch gerade mal fuer eine IGP und fuer Menlow. Oder siehst du SGX555 in anderen geplanten Produkten?

Damit Du es endlich schnallst, meine These macht nur Sinn wenn Intel eine hohe Summe fuer IMG's Verhaeltnisse in IMG als weiteren Zuschuss investieren wuerde.
Es liegt nicht am "schnallen", unsere Ansichten differieren (wie fast immer ^^) einfach nur ein wenig. ;)



Dann frag ich mich natuerlich sofort warum Intel so bloed (?) ist und nicht in ihren eigenen Mist in UMPCs/laptops usw. integriert sondern zu IP greift. Irgend eine anstaendige Erklaerung muesste es ja dafuer geben; Du sagst ja selber dass sie von klein auf anfangen moechten.
IGPs machen sie seit Jahren ja selbst. Aber gerade so hocheffiziente Dinger zu bauen, die in PDA aehnlichen Geraeten laufen ist gar nicht so einfach. Da hat IMG weltweit einfach das beste Know How. Ausserdem ist die Time-to-marktet bei den PDAs und UMPCs nicht so arg, da die Produktlebenszyken fuer mobiles 3D viel gelassener sind. ;)

Ich gehe davon aus, dass IMG mobile macht und Intel GPUs. (sofern sie das denn wollen)

Time to market kann fuer jeden Markt angepasst werden. Der oede Mythos dass time to market laenger dauert mit IP koennte davon enstanden sein, dass es z.B. sehr lange dauerte MBX in SoCs zu integrieren. Nur hat der PDA/mobile Market rein zufaellig einen =/>2-jaehrigen Produkt-Zyklus, weil eben die Mehrzahl der Verbraucher ein high end Handy oder PDA im Durchschnitt so lange behaelt.
Sicher kann man da (besonders als Intel) etwas dran drehen. Aber nicht so, als waere es im eigenen Unternehmen. Unternehmesgrenzen zu ueberschreiten killt den Informationsfluss gewaltig. Grundlegendes Wissen im Bereich Controlling.





Nur hat leider dass zu sehr hochgelobte 3DLabs Team auch keine besondere Erfahrung was desktop-GPUs, gaming und relevante Treiber betrifft. Natuerlich wird das Larabee Zeug auch fuer etwas gaming taugen, aber wenn man beide Augen zudrueckt kann man mit bekloppten settings auch auf einer heutigen Intel IGP spielen.
Mein GMA950 im Subnotebook rennt mit bisher allen probierten Spielen. Alles bis zur Far Cry Aera rennt sogar fluessig. So schlecht sind die Treiber nicht.
Natuerlich ist das 3DLabsteam mit noch wenig KnowHow zu Spiele Grafikkarten gesegnet. Aber sie sind ja nicht zu bloed dafuer. Das ist alles eine Designentscheidung. Hinzu kommen nach und nach noch Leute. Sogar gute ATI Leute sind da. Am Ende des Tages braucht Intel die Leute mittelfristig nuz zu vermehren und ein paar sehr gute Senior Engineers von ATI oder NV, die so ein Projekt leiten wuerden. Theoretisch ist das ueber Jahre gesehen machbar. Ob sie das wollen, steht hingegen in den Sternen. vieleicht wollen sie ja gar nicht in den diskreten GPU Bereich! In dem Falle reichen die Leute, die sie haben ja aus, um HPC Karten und GPGPU Karten zu bauen.
Grundlos sind die Leute jedenfalls nicht da.



Und das genau ist mein Punkt ueber diese zu lange Debatte; nochmal wenn ihr eigenes Zeug nichts besonderes fuer gaming taugen sollte, muessten sie es schon seit einiger Zeit wissen. Moechten sie jetzt tatsaechlich auch im gaming Markt etwas mit AMD/NVIDIA konkurrieren, koennen sie stets auch zu IMG's IP greifen.
Das koennten sie. Aber sie wollen ja auch noch Mobilen Kram. Beides gleichzeitig packt IMG IMO nicht. Ausserdem wuerden sie mittelfristig einen so R&D Lastigen Kampf mit nicht mehr als IMG IP nicht gewinnen koennen.


Dass Intel eine Unzahl von Resourcen hat, wird wohl kein halbwegs logischer Mensch bezweifeln koennen. Der Haken hier ist ob Intel wirklich und ernsthaft am gaming Markt interessiert ist. Ich rate eher nein und ich spiele hier nur mit den Moeglichkeiten mit meinen Gedanken die Intel zur Verfuegung hat.
Wie oben angedeutet, kann das sehr gut sein. Das wuerde einiger meiner Gedanken, wie ich selbst sagte, natuerlich obsoltet machen.

Uebrigens ganz nebenbei noch etwas Fudo Gelaber:


Intel has some big plans with graphics and it will fight AMD in every single field, Nvidia is also considered as serious competition. Intel will evenchallenge AMD and Nvidia in the mobile market especially in late 2008 or 2009.
Das schliesst diskrete Grafik nicht aus.



http://www.dailytech.com/Article.aspx?newsid=7167

Ich lese wohl offensichtlich diverse newsblurb von links nach rechts dass ich was anderes verstehe. Menlow und Moorestown not part of Larabee my ass :P
Don't get to cocky ;)
Wo steht, dass Menlow zu Larabee gehoert. In deinem Zitat steht's nicht.

Ailuros
2007-09-22, 14:56:10
Gerade nach unten ist es schwer.

Sie haben's aber trotzdem in relativ kurzer Zeit geschafft.

Rund 3 Jahre AFAIR.

Um einiges weniger.

Ein paar Millionen Dollar.

5 im billigsten Fall und man kommt NIE mit nur einem tapeout davon.

Man benoetigt schon Zeit und Personal dafuer. Aber nicht (oder kaum noch) die eigentlichen Designteams.
Klar, bei nem komplexen Design wir z.B. G80 kann das auch mal 1 Jahr dauern.
Aber in der Zeitspanne, hat das G80 Team sich schon wieder einem neuen Projekt gewidmet.

NVIDIA und ATI haben erstmal diverse Design-teams fuer verschiedene Architekturen auf der roadmap. Pro Projekt duerften nicht mehr als 100 engineers jeweils arbeiten (wobei die Anzahl natuerlich verdammt hoch ist im Vergleich zu anderen Faellen).

Midrange und Lowcost, wenn der Prozess bekannt ist und auch schon eine GPU aus der Familie bereits in diesem produziert wurde.

Unter 6 Monaten kommt man heutzutage schwer davon.

Du unterschaetzt IMHO die Arbeit an solchen Designs.

Ich lass mich gerne eines besseren belehren da Du Dich ja anscheinend so ausgezeichnet mit IP auskennst.

Naja die Dinger reichen dennoch gerade mal fuer eine IGP und fuer Menlow. Oder siehst du SGX555 in anderen geplanten Produkten?

555 ist erstmal nicht Menlow und zweitens braucht man fuer UMPC Mist keine 8 TMUs.


IGPs machen sie seit Jahren ja selbst. Aber gerade so hocheffiziente Dinger zu bauen, die in PDA aehnlichen Geraeten laufen ist gar nicht so einfach. Da hat IMG weltweit einfach das beste Know How.

Und IMG hatte genau wieviel Erfahrung mit Kleinformat Geraeten bis zum MBX bzw. SGX? Was genau hat denn IMG bis zum MBX entwickelt?

Nach Dir selber hat ja Intel einen Haufen ex-3DLabs Kerle oder weiss der Geier was noch angeschleppt, ergo sind X/Y/Z engineers was wert wenn es gerade im einem Punkt zufaellig passt und in anderen Faellen eben nicht.

Ausserdem ist die Time-to-marktet bei den PDAs und UMPCs nicht so arg, da die Produktlebenszyken fuer mobiles 3D viel gelassener sind. ;)

Dann schau Dir mal die SGX roadmap und dessen timeline ein klein bisschen vorsichtiger an.

Ich gehe davon aus, dass IMG mobile macht und Intel GPUs. (sofern sie das denn wollen)

Weil Intel eben das "tolle" know-how fuer GPUs ueberhaupt hat? Natuerlich ist die obrige These am wahrscheinlichsten, aber es aendert trotzdem nichts an der Tatsache dass wenn Intel beauftragt und analog bezahlt IMG dann auch liefern wird. Der Punkt ist hier eher dass Du Dich drehst und wendest wie es gerade passt.

Ergo fuer PDAs hat Intel kein know-how, aber fuer GPUs durchaus LOL :D

Der Grund warum Intel IMHLO nicht zu IMG IP fuer GPUs greifen wuerde ist eher damit sie am Ende nicht allzu viele royalties bezahlen muessen.

Sicher kann man da (besonders als Intel) etwas dran drehen. Aber nicht so, als waere es im eigenen Unternehmen. Unternehmesgrenzen zu ueberschreiten killt den Informationsfluss gewaltig. Grundlegendes Wissen im Bereich Controlling.

Ich glaube erst dass Intel dem 9-10 monatigen Refresh-zyklus von AMD/NVIDIA folgen wird wenn ich es sehe. Ob Eigenentwicklung oder nicht ist hier schnurz.

Und ganz nebenbei jegliche Verzoegerung was PowerVR GPUs der Vergangenheit betrifft, lagen ausschliesslich in NECs bzw. ST Micro's Haenden.

Mein GMA950 im Subnotebook rennt mit bisher allen probierten Spielen. Alles bis zur Far Cry Aera rennt sogar fluessig. So schlecht sind die Treiber nicht.

Aber trotzdem meilenweit entfernt von dem was AMD/NVIDIA's Treiberteams zustande bringen. Mit welcher Frequenz erscheinen denn neue Intel Treiber ueberhaupt? Ach entschuldige da mit dem Mist sowieso nicht viele spielen, schert es auch keinen besonders.

Natuerlich ist das 3DLabsteam mit noch wenig KnowHow zu Spiele Grafikkarten gesegnet. Aber sie sind ja nicht zu bloed dafuer. Das ist alles eine Designentscheidung. Hinzu kommen nach und nach noch Leute. Sogar gute ATI Leute sind da.

Die wirklichen ATI Talente sind bei AMD geblieben; so viel bin ich noch zustande zu wissen. Was den Rest betrifft, zeigt es mir lediglich dass Intel eher irgend GPGPU Dingsbums im Hinterkopf hat und dass das Resultat nicht allzu viel fuer games taugen wird.

Am Ende des Tages braucht Intel die Leute mittelfristig nuz zu vermehren und ein paar sehr gute Senior Engineers von ATI oder NV, die so ein Projekt leiten wuerden. Theoretisch ist das ueber Jahre gesehen machbar. Ob sie das wollen, steht hingegen in den Sternen. vieleicht wollen sie ja gar nicht in den diskreten GPU Bereich! In dem Falle reichen die Leute, die sie haben ja aus, um HPC Karten und GPGPU Karten zu bauen.
Grundlos sind die Leute jedenfalls nicht da.

Grundlos sind sie sicher nicht da. Da wo ich mich vielleicht krumm lachen koennte ist wenn eine Loesung mit einer "high end" SGX Variante nur noch einen relativ geringen Abstand in Spielen haben wird im Vergleich zu den Teraflops "Monstern" mit denen momentan herumgewedelt wird.

Gib mir zumindest eine halbwegs logische Erklaerung wo es nach den bisher verfuegbaren (kargen) Daten aussieht dass das was Intel unter Entwicklung hat, etwas anstaendiges fuer Spiele taugen wuerde. Ich kann mir schwer vorstellen dass Intel mit so leichtem Gewissen in den GPU Markt wagen wird. Bei ihren IGPs haben sie immer noch die Entschuldigung dass sich kein Schwein ueber Grafik-leistung bei diesen schert.

Das koennten sie. Aber sie wollen ja auch noch Mobilen Kram. Beides gleichzeitig packt IMG IMO nicht.

Vor nicht allzu vielen Jahren entwickelte IMG nur einen oder zwei chips pro Jahr. Als sie etwas spaeter ueber ein Ziel von ca. 30 SoCs in forecasts sprachen, lachten einige. Das naechste Ziel ist ueber 50 pro Jahr. Es haengt eher vom finanziellen Zustand von IMG in der Zukunft und ihrem zukuenftigen Zuwachs ab was und wieviel sie genau verkraften koennten.

Ausserdem wuerden sie mittelfristig einen so R&D Lastigen Kampf mit nicht mehr als IMG IP nicht gewinnen koennen.

Tja bleibt aber immer noch die Frage warum Intel nicht ihr eigenes Zeug entwickeln sollte fuer GPGPU Zeug, IMG IP fuer mobilen Kram und noch ein kleines "Testrennen" mit einer mainstream GPU auf IMG IP basierend.

Fassen wir mal zusammen: nach Dir ist es schwerer von oben nach unten zu skalieren, wobei aber der Weg von einem 555 zu einer mainstream GPU nicht allzu lang ist. Mobiler Mist wurde von IMG lizenziert weil sie das "know-how" haben und aber fuer eine mainstream GPU auf reinem IP Level krepiert dann IMG weil man Unmengen an Resourcen fuer so ein Dingsbums brauchen wuerde.

Don't get to cocky ;)
Wo steht, dass Menlow zu Larabee gehoert. In deinem Zitat steht's nicht.

Eben Null Beweis von der einen Seite ist genauso nutzlos wie nichtmal eine einzige Indizie von Deiner Seite. Und wenn ich schon "cocky" klingen soll: ich behaupte dass Menlow und Moorestown die ersten Versuche aus dem Larabee Projekt sein werden.

robbitop
2007-09-22, 15:11:01
hehe wir drehen uns schoen im Kreis.
Ich stimme dir durchaus zu, dass Intel derzeit nicht viel an GPU R&D/Know How hat. Wenn Intel das aendern will, tun sies. Wenn nicht dann nicht. Es ist immerhin eine Moeglichkeit, die auf der Hand liegt. Oder nicht? :)

Zu MBX/SGX: Irgendwann faengt jeder eben mal an (PVR). Experten sind nicht einfach vom Himmel gefallen. Ich gehe davon aus, dass ein TBDR gerade in Bereichen, wo die Ressourcen (DIE Space, Bandbreite, TDP) eine exzelente Grundlage bilden. Das ist ein deutliches Plus fuer PVR ggue allen anderen IHVs im mobilen Segment.

Sicher koennte Intel auch PVR durch Gelder aufblasen, so dass diese sich immer mehr Leute leisten koennen. Aber vom Aspekt des Controllings wuerde ich (wenn ich sowas vorhaette und ich Intel waere) lieber die Bude uebernehmen, um die Firmenstrukturen viel enger zu gestalten. Nur so kann man richtig zeitnah zusammen arbeiten.

Zu SGX555: ich denke, dass das Teil als IGP oder vieleicht sogar in Intels Fusion Pendant kommen wird. Ansonsten reicht es 2008/09 vieleicht nur noch fuer diskrete Low-Cost Grafik.

Interessant waere, wenn Intel eine Spielkonsole entwickeln wollen wuerde. Mit Menlow/Silverthrone haette man die ideale HW fuer was portables und mit dem 45 nm Core 2 und vieleicht einer anderen PVR GPU ebenfalls etwas sehr passendes fuer das Wohnzimmer.
Vorteile: es ist eigene IP (Fremd-IP ist ja noch teurer, wegen externer Gewinnspanne) und kostet Intel selbst nicht so viel und man hat die beste HL-Fertigung der Welt und koennte die Kosten schoen runterdruecken. Aber Intel ist wohl nicht verspielt genug.

Gmax
2007-09-22, 16:09:04
Sorry, ich kann mir schwer vorstellen, daß Intel nicht auf die zumindest von der Theorie her überlegene Architektur von ImTec zurückgreift. Gerade im High End Sektor halte ich das für einen Fehler.

Ailuros
2007-09-23, 16:08:11
hehe wir drehen uns schoen im Kreis.
Ich stimme dir durchaus zu, dass Intel derzeit nicht viel an GPU R&D/Know How hat. Wenn Intel das aendern will, tun sies. Wenn nicht dann nicht. Es ist immerhin eine Moeglichkeit, die auf der Hand liegt. Oder nicht? :)

Sicher. Alle Moeglichkeiten stehen offen. An der einzigen Stelle wo wir nicht uebereinstimmen ist dass nach Dir IMG es nicht schaffen wuerde. Und ich behaupte hingegen steinhart dass wenn INTEL investieren wuerde, wuerde es auch klappen. Das einzige was IMG fehlt sind Resourcen.



Zu MBX/SGX: Irgendwann faengt jeder eben mal an (PVR). Experten sind nicht einfach vom Himmel gefallen. Ich gehe davon aus, dass ein TBDR gerade in Bereichen, wo die Ressourcen (DIE Space, Bandbreite, TDP) eine exzelente Grundlage bilden. Das ist ein deutliches Plus fuer PVR ggue allen anderen IHVs im mobilen Segment.

*zwitscher floet* haette aber Intel auch selber machen koennen oder? Sie haben ja auch einen "TBDR" *evilgrins*

Folgendes Dilemma: Intel ist es seit einiger Zeit bewusst dass sie sich endlich ernsthaft mit jeglicher Form von Grafik beschaeftigen sollen. Mit dem Resourcen-Aufwand den Intel aufweisen kann, steht in von diesem Aspekt praktisch nichts im weg; selbst wenn es sich ueber einige Jahre zieht.

Ironischerweise kommt der erste grosse Schub seitens Intel mit IMG IP gerade wenn Larabee loslegen soll. Wieso klappt es im einen Fall und soll im anderen Fall nicht klappen? Intel hat bewusst SGX lizenziert eben wegen seinen Vorteilen und sie sind auch schoen bloed wenn sie keine standalone GPU auf Serie5 basierend in der absehbaren Zukunft veroeffentlichen.

Leg Dir die von Dir oben erwaehnten Vorteile nochmal vor und sag mir wie eine mainstream GPU aussehen wuerde im standalone Markt mit sehr konkurrenzfaehigen Leistung, einem Featureset dem diesmal nichts fehlt und brauchbares AA selbst mit einer relativ geringen Menge an Bandbreite und Speichermenge, an den sich normalerweise heutige IMRs verdrosseln.

Sicher koennte Intel auch PVR durch Gelder aufblasen, so dass diese sich immer mehr Leute leisten koennen.

75 mehr Personal seitdem die Intel Deals ins Laufen gebracht wurden und es gibt staendig Anfrage fuer Personal und fuer Stellen die nicht unbedingt nur mit mobilem Mist verbunden ist (siehe links in vorigen posts).

Aber vom Aspekt des Controllings wuerde ich (wenn ich sowas vorhaette und ich Intel waere) lieber die Bude uebernehmen, um die Firmenstrukturen viel enger zu gestalten. Nur so kann man richtig zeitnah zusammen arbeiten.

Falls IMG darauf eingehen wuerde, wuerde es vielleicht auch klappen. Aber eine Firma die gerade einen so grossen Aufschwung erlebt wird wohl schwer so bloed sein und sich aufsaugen lassen. Wann werden denn die meisten Firmen aufgesagt? Wenn's bergab oder bergauf geht hm? ;)

zu SGX555: ich denke, dass das Teil als IGP oder vieleicht sogar in Intels Fusion Pendant kommen wird. Ansonsten reicht es 2008/09 vieleicht nur noch fuer diskrete Low-Cost Grafik.

Haengt von der finalen Taktrate unter 45nm ab und der bis jetzt unbekannten Anzahl an skalaren :P ALUs und natuerlich dessen genauen Faehigkeiten.

Interessant waere, wenn Intel eine Spielkonsole entwickeln wollen wuerde. Mit Menlow/Silverthrone haette man die ideale HW fuer was portables und mit dem 45 nm Core 2 und vieleicht einer anderen PVR GPU ebenfalls etwas sehr passendes fuer das Wohnzimmer.
Vorteile: es ist eigene IP (Fremd-IP ist ja noch teurer, wegen externer Gewinnspanne) und kostet Intel selbst nicht so viel und man hat die beste HL-Fertigung der Welt und koennte die Kosten schoen runterdruecken. Aber Intel ist wohl nicht verspielt genug.

Sammy hat sich leider zu feige gezeigt in diesem Bereich und man kann es auch irgendwo verstehen dass fuer so eine Firma das Risiko zu gross ist.

Der gesamten Ironie zuliebe: SONY kuendigte ein "Playstation-Handy" an und liess bei der Vorstellung PowerVR demos laufen. Warum nicht die "ultra-tolle" Playstation 2 oder sogar 3 Technologie benutzt wird, ist wohl so in etwa eine aehnliche merkwuerdige Frage oder? ;)

Gast
2007-09-23, 20:12:28
75 mehr Personal seitdem die Intel Deals ins Laufen gebracht wurden und es gibt staendig Anfrage fuer Personal und fuer Stellen die nicht unbedingt nur mit mobilem Mist verbunden ist (siehe links in vorigen posts).



Schaut wirklich so aus, als ob sie nicht nur im Mobile-Bereich Leute brauchen. Oder gibt es ein Handy mit VISTA? :

Vista Driver Design Engineer: http://www.imgtec.com/Careers/Vacancies/Details/index.asp?ID=87

D3D Driver Design Engineer: http://www.imgtec.com/Careers/Vacancies/Details/index.asp?ID=88

Beide Positionen brauchen sie für ihre PowerVR Truppe!


grüsse

Manfred

Meta
2007-09-23, 22:07:06
Hi,

wäre eigentlich nicht eine Spielekonsole perfekt für den Raytracingeinstieg?

Sagen wir Intel&Microsoft bauen eine neue XBox auf Raytracing Basis. Da hätte man dann spuper Voraussetzungen was das Henne-Ei Problem beim PC vernichten würde.

Was meint ihr?

Meta

Ailuros
2007-09-24, 06:39:39
Hi,

wäre eigentlich nicht eine Spielekonsole perfekt für den Raytracingeinstieg?

Sagen wir Intel&Microsoft bauen eine neue XBox auf Raytracing Basis. Da hätte man dann spuper Voraussetzungen was das Henne-Ei Problem beim PC vernichten würde.

Was meint ihr?

Meta

Jeglicher Uebergang (egal ob nur ein Anteil an raytracing in der weniger absehbaren Zukunft benutzt wird) dauert Jahre.

IMHO wenn wir raytracing Faehigkeiten in jeglichem Spiele-relevanten Markt sehen werden, dann anfangs nur auf begrenzter Basis damit sich jegliche Entwickler langsam damit beschaeftigen koennen.

Microsoft setzte sich bis jetzt jedesmal mit den meisten Grafik IHVs in Kontakt und fragt fuer einen Vorschlag an; derjenige der insgesamt am besten aussieht, gewinnt dann auch den Vertrag. Intel hat wohl hier eher einen sehr langen Weg bis sie in Sachen Grafik AMD oder NVIDIA uebertreffen koennen.

Zu guter letzt HW sollte sich zu guter letzt dem anpassen was sich die Spiele-Entwickler eigentlich wuenschen. Gab es irgend einen generellen Aufschrei von der ISV Seite fuer raytracing dass ich es verpasst habe?

Ailuros
2007-09-24, 06:47:27
Schaut wirklich so aus, als ob sie nicht nur im Mobile-Bereich Leute brauchen. Oder gibt es ein Handy mit VISTA? :

Vista Driver Design Engineer: http://www.imgtec.com/Careers/Vacancies/Details/index.asp?ID=87

D3D Driver Design Engineer: http://www.imgtec.com/Careers/Vacancies/Details/index.asp?ID=88

Beide Positionen brauchen sie für ihre PowerVR Truppe!


grüsse

Manfred

Schau Dir die zwei Compiler engineer Positionen an:

The PowerVR division is looking for compiler and tool chain developers to work on tools for a cutting edge parallel graphics/GPGPU architecture.

Ich lass mal das "cutting edge" den Bach runterlaufen. Aber "parallel graphics/GPGPU architecture". IMG wirbt ja fett mit dem "single compiler for all" Zeug; einen Compiler fuer SGX duerfte es schon noch geben oder? Man braucht also mehr Personal hier und fuer Anwendungen die erstmal gar nichts mit mobilem Zeug zu tun haben. Oder gibt es hier irgendeine merkwuerdige Not GPGPU Zeug auf zukuenftigen Handys bzw. PDAs zu haben?

Meta
2007-09-24, 07:49:13
Jeglicher Uebergang (egal ob nur ein Anteil an raytracing in der weniger absehbaren Zukunft benutzt wird) dauert Jahre.

IMHO wenn wir raytracing Faehigkeiten in jeglichem Spiele-relevanten Markt sehen werden, dann anfangs nur auf begrenzter Basis damit sich jegliche Entwickler langsam damit beschaeftigen koennen.

Microsoft setzte sich bis jetzt jedesmal mit den meisten Grafik IHVs in Kontakt und fragt fuer einen Vorschlag an; derjenige der insgesamt am besten aussieht, gewinnt dann auch den Vertrag. Intel hat wohl hier eher einen sehr langen Weg bis sie in Sachen Grafik AMD oder NVIDIA uebertreffen koennen.

Zu guter letzt HW sollte sich zu guter letzt dem anpassen was sich die Spiele-Entwickler eigentlich wuenschen. Gab es irgend einen generellen Aufschrei von der ISV Seite fuer raytracing dass ich es verpasst habe?

Stimmt, ich weiß nicht, was die Spielehersteller dazu sagen, oder wie schwierig das im Vergleich zu entwickeln ist.

Doch denke ich mir die erste Raytracing Konsole zu haben und damit zu preisen, dass das die gleiche Technik wie Animationsfilme ist und die "Zukunft".... also allein marketingtechnisch wär das Klasse.

Zudem wäre man allen anderen voraus, wenn sich Raytracing doch durchsetzt.

Spannend wäre das Ganze schon, oder?

Meta

micki
2007-09-24, 08:34:17
Stimmt, ich weiß nicht, was die Spielehersteller dazu sagen, oder wie schwierig das im Vergleich zu entwickeln ist.

Doch denke ich mir die erste Raytracing Konsole zu haben und damit zu preisen, dass das die gleiche Technik wie Animationsfilme ist und die "Zukunft".... also allein marketingtechnisch wär das Klasse.

Zudem wäre man allen anderen voraus, wenn sich Raytracing doch durchsetzt.

Spannend wäre das Ganze schon, oder?

Meta
raytracing ist nur ein buzword. die die es nutzen koennten, nutzen es nicht, stattdessen normale rasterizer, aus gutem grund.
die die keine ahnung haben werden von ein paar leuten zum hypen gebracht, und das mit irgendwelchen 'gefilterten' aussagen.

z.b. das mit steigendem polycount raytracing besser/schneller waere -> kaum ein spiel ist noch polycount limitiert, viel eher ist das problem dass zuviele drawcalls vorhanden sind wegen sehr vielen dynamischen objekten -> schwaeche von raytracing

raytracing ist schoen, weil es so simpel ist und gleichzeitig so extrem viele optimierung und bastelmoeglichkeiten bietet und als belohnung des ganzen kann man echt schoene bilder erhalten. es ist schach fuer programmierer. klar sagt dann jeder der das macht es waere das coolste ever, und dann zeigt man ein paar bildchen... hype.


und ebenso klar wird es seitens intel raytracer fuer larabe geben, alleine schon deswegen weil sowas nicht auf normalen grakas laufen kann. und klar werden die ganzen gamerzeitschriften ihre groupies aufklaeren dass es 'the next thing' ist. bis dann jemand Quake5, Crysis2, UT4 zeigt, das auf normalen grakas laeuft und niemand mehr fuer 5jahre ueber raytracing kreischt... wie alle jahre wieder.

up¦²
2007-10-30, 23:51:39
Bissel sehr technisch/analytisch, aber immerhin: Intel ist nah dran!
Of more interest to the entire conference was Jerry’s comment that there were no remaining technical issues and that Intel was ready to commercialize their 3D integration technology as soon as the product groups decided which product to insert the technology into. He felt the most likely candidates would be workstations and/or HPC’s.
http://www.semiconductor.net/blog/200000420.html#1530016553

nomadhunter
2007-10-31, 00:52:40
So wie ich den Artikel verstehe, hat das aber nicht das Geringste mit 3D-Rendering zu tun, sondern nur mit dreidimensionalen Schaltungsdesigns. :rolleyes:

EDIT: @micki: Als reinen Hype würde ich Raytracing nicht bezeichnen. Im Nicht-Echtzeit-Bereich verwendet ja nicht umsonst fast jeder Raytracing und der einzige Unterschied zwischen Echtzeit- und Nicht-Echtzeit-Rendering ist der, dass bei Nicht-Echtzeit-Rendering mehr Zeit vorhanden ist und man sich damit mehr Berechnungen pro Bild leisten kann. Genau dieses mehr an Berechnungen wird in nicht all zu langer Zeit aber auch im Echtzeit-Bereich kein Problem mehr sein. Wenn also im Nicht-Echtzeit-Bereich heute weitestgehend auf Raytracing gesetzt wird, dann ist doch davon auszugehen, dass das auf kurz oder lang im Echtzeit-Bereich genauso sein wird. Außer natürlich bis dahin wurde ein noch besseres Renderingsystem entwickelt.

up¦²
2007-10-31, 01:09:23
nomadhunter, stimmt, sorry...

AnarchX
2007-10-31, 01:12:02
EDIT: @micki: Als reinen Hype würde ich Raytracing nicht bezeichnen. Im Nicht-Echtzeit-Bereich verwendet ja nicht umsonst fast jeder Raytracing und der einzige Unterschied zwischen Echtzeit- und Nicht-Echtzeit-Rendering ist der, dass bei Nicht-Echtzeit-Rendering mehr Zeit vorhanden ist und man sich damit mehr Berechnungen pro Bild leisten kann. Genau dieses mehr an Berechnungen wird in nicht all zu langer Zeit aber auch im Echtzeit-Bereich kein Problem mehr sein. Wenn also im Nicht-Echtzeit-Bereich heute weitestgehend auf Raytracing gesetzt wird, dann ist doch davon auszugehen, dass das auf kurz oder lang im Echtzeit-Bereich genauso sein wird. Außer natürlich bis dahin wurde ein noch besseres Renderingsystem entwickelt.
AFAIK wird doch im Offline-Rendering auch vermehrt Rasterizing eingesetzt und RT nur wo es notwendig ist? (z.B. Pixar soll in Cars erstmals RT eingesetzt haben)

Coda
2007-10-31, 01:13:25
Ist auch so.

Alles vor Cars von Pixar war vollständig rasterisiert und in Cars auch nur die Autoreflexionen per Raytracing. Bei Ratatouille haben sie ein Raytracing ähnliches Verfahren für softere Reflexionen benützt aber für's Grundrendering wohl auch noch Reyes, also Rasterisierung.

GeneralHanno
2007-11-27, 16:33:59
intel kauft neoptica:

http://www.pcgameshardware.de/?article_id=622649

Felensis
2007-11-29, 11:49:47
Kommt nun eine Intel-Graka, weiß da jemand schon was?

Gast
2007-11-29, 12:57:19
Ist auch so.

Alles vor Cars von Pixar war vollständig rasterisiert und in Cars auch nur die Autoreflexionen per Raytracing. Bei Ratatouille haben sie ein Raytracing ähnliches Verfahren für softere Reflexionen benützt aber für's Grundrendering wohl auch noch Reyes, also Rasterisierung.
Warum brauchen die dann so enorme Rechenkapazität, wenn die das doch nur in einem so "simplen" Verfahren Rendern? Oo

AnarchX
2007-11-29, 13:48:40
Warum brauchen die dann so enorme Rechenkapazität, wenn die das doch nur in einem so "simplen" Verfahren Rendern? Oo

Schonmal die Effekte eines solchen Film mit aktueller Real-Time-Grafik verglichen? ;)
Ansonsten setzt ja Pixar auch noch brachiales FSAA ein...

Gast
2007-11-30, 11:50:11
Warum brauchen die dann so enorme Rechenkapazität, wenn die das doch nur in einem so "simplen" Verfahren Rendern? OoWeil du auch bei simplen Verfahren viel Aufwand treiben kannst. Zum einen setz Pixar auf zwei Dreieck pro Pixel, zum anderen haben sie ein sehr hohes FAAA bei irgendwas um 3200*2000 pixeln.
Reines Pixelsetzen ist dabei echt das unwichtigste. Schau dir mal die Filme an, du wirst NIRGENS eine Polygonkante finden, wo etwas rund sein soll, weil sie ohne ende tesselierte Patches haben. All die high-end Renderings haben sie bis vor kurzem ohne Raytracing und ohne Radiosity hinbekommen. Wie? Dank Artist-controll sieht es so aus. Realismus ist oft kontraproduktiv. Es soll gut aussehen, nicht real.

Ailuros
2007-12-01, 06:15:52
Weil du auch bei simplen Verfahren viel Aufwand treiben kannst. Zum einen setz Pixar auf zwei Dreieck pro Pixel, zum anderen haben sie ein sehr hohes FAAA bei irgendwas um 3200*2000 pixeln.

Was die Aufloesung betrifft hab ich zwar keine Ahnung aber es ist bis zu 64x Supersampling fuer AA und temporales AA.
Sie haben den Algorithmus auch schon seit Jahren patentiert.

Reines Pixelsetzen ist dabei echt das unwichtigste. Schau dir mal die Filme an, du wirst NIRGENS eine Polygonkante finden, wo etwas rund sein soll, weil sie ohne ende tesselierte Patches haben. All die high-end Renderings haben sie bis vor kurzem ohne Raytracing und ohne Radiosity hinbekommen. Wie? Dank Artist-controll sieht es so aus. Realismus ist oft kontraproduktiv. Es soll gut aussehen, nicht real.

Jemand der mir ins Herz spricht ;)

Gast
2007-12-08, 04:25:04
1.) Dass die IGP Lösungen von Intel Mist sind, stimmt. Das sagt aber nicht viel aus, weil damit keine Spieler angesprochen werden, sondern Firmen, die Bürorechner brauchen und da ist es völlig egal, wie gut der Support für Spiele ist. Das ist dort sogar kontraproduktiv. Natürlich sollen doch ein paar 3D Effekte unterstützt werden z.B. wegen Vista, aber im Prinzip geht es nur darum, dass man ein Bild auf den Bildschirm bekommt. Deshalb bringt es auch nichts, dass man sich um die Qualität der D3D10 Treiber kümmert. Das ist nur verlorene Zeit, da jeder privat sowieso eine richtige Grafikkarte kauft.

2.) Man kann Mobile Chips absolut nicht mit Desktopkarten vergleichen. Da gibt es 2 komplett andere Richtungen. Bei Mobile Karten geht es um Performance/Watt und bei Desktopkarten um Performance/mm^2. Ob die Karte jetzt 50, 100 oder 200 Watt braucht, interessiert die meisten Kunden sowieso nicht wirklich.

3.) Intel geht es nicht darum, eine schnelle Grafikkarte zu bauen und im Gamermarkt mitzumischen. Die wollen eine Karte bauen, die für alles schnell ist, eben GPGPU und da versuchen sie einmal die Verbreitung zu pushen, indem sie die Karte als Grafikkarte vermarkten und so billig hinausschießen, dass viele Leute sie kaufen. In einem zweiten Schritt, wird dann eine Menge der Software auch auf diese Karten zurückgreifen. Die Physik Engine wird denke ich der erste Teil sein. Als nächstes wahrscheinlich Video Encoding. Eine Version von x264, die auf dem Larrabee läuft, wird ein großer Erfolg. AMD/ATI hat da ja auch schon eine Version dafür zur Verfügung gestellt, aber das hat sich nie wirklich durchgesetzt, weil die Shader aktueller Grafikkarten einfach nicht vielfältig genug sein. Beim Larrabee wird ein C/C++ Compiler mitgeliefert, wodurch es auch für den durchschnittlichen Programmierer möglich wird, Software dafür zu schreiben und in ein paar Jahren wird die CPU überhaupt nur mehr nicht rechenintensive Arbeiten übernehmen. Das Endstadium wird dann sein, dass das aktuelle Design komplett abgelöst wird und der Larrabee sich als CPU durchsetzt. Momtentane CPUs haben ja das Problem, dass man ziemlich ansteht. Beim Takt ist nicht mehr viel drin, Cache drauf stopfen ohne Ende bringt auch nichts, mehr als 2 Kerne braucht auch fast keiner wirklich im Desktopbereich, aber weil man halt Platz am DIE hat, werden Quad Cores rausgebracht, aber 8 Kerne bringen sich dann schon wieder nichts mehr.

nomadhunter
2007-12-08, 11:23:04
Momtentane CPUs haben ja das Problem, dass man ziemlich ansteht. Beim Takt ist nicht mehr viel drin, Cache drauf stopfen ohne Ende bringt auch nichts, mehr als 2 Kerne braucht auch fast keiner wirklich im Desktopbereich, aber weil man halt Platz am DIE hat, werden Quad Cores rausgebracht, aber 8 Kerne bringen sich dann schon wieder nichts mehr.
Das ist Unsinn. Entweder lassen sich Desktopanwendungen ordentlich parallelisieren, dann können sie einen Octa-/Hexa-Core genauso ausnutzen wie Larrabee, oder sie lassen sich nicht ordentlich parallelisieren, dann bringt dir Larrabee genau so wenig wie ein Multi-Core.

Gast
2007-12-08, 17:59:19
1.) Der Nachteil ist, dass wenn man bei einer CPU etwas parallelisieren will, dann braucht man einen gewöhnlichen Thread, so wie ihn das Betriebssystem unterstützt und das ist relativ langsam. Ein Threadwechsel, Erzeugung etc. ist ungefähr ich Bereich von 10µs angesiedelt, also schon 30K CPU-Zyklen, was bei mehreren Kernen relativ lange ist. Damit kann man nicht viel parallelisieren. Beim Larrabee handelt es sich nicht um eine gewöhnliche CPU, die vom Betriebssystem unterstützt wird, sondern um eine Recheneinheit, wo man nur einen Treiber bzw. einen ordentlichen Compiler nachschießen muss und dann kann man auf viel kleineren Ebenen parallelisieren, wie bei Grafikkarten.

2.) Weiters hat man noch den Nachteil des Betriebssystems. Vista ist auf maximal 2 CPUs optimiert und das ist Stand 2006. Bis das nächste OS rauskommt, das wirklich auf mehrere CPUs optimiert ist, dauert es mindestens 5 Jahre, da hier ein großer Eingriff in den Kernel notwendig ist und nicht wie bei Vista nur eine grafische Oberfläche drauf geklatscht werden muss. Dann noch 2-3 Jahre, bis es wirklich flächendeckend im Einsatz ist. Dann haben wir schon 2014, also 8 Jahre nach der Entwicklung des ersten Quad Cores. Linux ist auch keine Alternative. Das hat zwar aus historischen Gründen eine sehr gute Multicore Optimierung, aber es ist halt Open Source. Das hat manche Vorteile, aber eben auch Nachteile. Einer davon ist, dass keiner in der Lage ist, schon längst anstehende Änderungen durchzuführen, wie endlich einmal die Command Line zu kübeln, wie es MS mit der DOS Umgebung in XP gemacht hat, aber dann wäre man nicht mehr kompatibel zum Rest. Ansonsten ist man immer noch zum größten Teil in den 80er Jahren unterwegs, wo man einfach in irgendwelchen Config Files herumgepfuscht hat. Zusätzlich ist der Wartungsaufwand für größere Linux Software enorm, wenn man eine ordentliche Qualität hinbekommen möchte, da man hunderte Versionen hat, die man testen muss. Man sieht ja alleine, welche Probleme es schon beim Umstieg von XP auf Vista gegeben hat. Bei M$ wird aber über die OEMs gleich einmal eine große Menge an Betatestern generiert und der erfahrene User hat 1-2 Jahre nach dem Release schon jede Software Vista kompatibel. Bei Linux kümmert sich keiner, wenn irgendwer irgendwo eine neue Version raus bringt. Deshalb bleibt man auch immer mehr oder weniger am alten Stand.

nomadhunter
2007-12-08, 18:47:07
Wenn du alles auf einer GPGPU laufen lassen willst, brauchst du aber auch wieder ein Betriebssystem mit Thread-Scheduler u.s.w. Da ist absolut kein Unterschied zur CPU. Mag sein, dass heutige Betriebssysteme eher auf wenige schnelle Cores ausgelegt sind, aber im Zuge der zunehmenden Parallelisierung der CPUs werden auch die Betriebssysteme immer stärker in Richtung viele schwache Cores optimiert werden.

Meiner Meinung nach wird es deswegen nicht wirklich zu einer Ablösung der CPUs durch GPGPUs kommen sondern zu einem Zusammenwachsen. In einigen Jahren wird kein all zu großer Unterschied zwischen CPU und GPGPU mehr sein.

Demirug
2008-01-07, 22:14:33
Jetzt hat sich Intel Tom Forsyth geholt. DirectX MVP und einer der letzten von denen die sich mit Software rasterizer für x86 beschäftigt haben.

robbitop
2008-01-07, 22:45:09
Softwarerasterizing ist gewiss nicht so effizient (auch wenn mit vielen x86ern) wie ein spezialisierter Rasterizer.

Demirug
2008-01-07, 22:59:28
Softwarerasterizing ist gewiss nicht so effizient (auch wenn mit vielen x86ern) wie ein spezialisierter Rasterizer.

Wenn man Larrabee aber als Grafikkarte einsetzten will kommt man um einen entsprechenden Software rasterizer nicht herum.

AnarchX
2008-01-07, 22:59:30
Langfristig soll es ja nach Intels Meinung eh auf Raytracing hinauslaufen.
Da wird man Rasterizing nur soweit unterstützen wie nötig.

Wieviel mehr Resourcen würde man denn benötigen um z.B. G80 via SW-Rasterizing zu erreichen?

Gast
2008-01-08, 09:33:35
Langfristig soll es ja nach Intels Meinung eh auf Raytracing hinauslaufen.
Da wird man Rasterizing nur soweit unterstützen wie nötig.

Wieviel mehr Resourcen würde man denn benötigen um z.B. G80 via SW-Rasterizing zu erreichen?
Mit den richtigen Algorithmen bekommst du die G80 rasterizer-Leistung auf nem Quadcore locker hin. Deswegen gibt es kaum ein gerede über den rasterizer Teil, verglichen mit VS, GS und PS ist das heutzutage kaum Kritisch.

robbitop
2008-01-08, 09:37:12
Wenn man Larrabee aber als Grafikkarte einsetzten will kommt man um einen entsprechenden Software rasterizer nicht herum.
In dem Falle glaube ich kaum, dass sie als Rasterizer konkurrenzfähig sein wird.

Mit den richtigen Algorithmen bekommst du die G80 rasterizer-Leistung auf nem Quadcore locker hin. Deswegen gibt es kaum ein gerede über den rasterizer Teil, verglichen mit VS, GS und PS ist das heutzutage kaum Kritisch.

Und vor allem Texturfilterung. Das alles sollte man lieber nicht softwareseitig von x86ern erledigen lassen.

AnarchX
2008-01-08, 09:51:26
Darum gibt es ja auch auf den Larrabee-Schemen immernoch einen FF-Block. Da wird wohl Intel eher den Schritt gehen und gewisse Dinge über die ALUs laufen lassen, was langfristig NV und AMD auch machen werden bzw. AMD heute schon machen musste, auf Grund eines Designbugs.

aim
2008-01-08, 10:26:16
Puh... als Laie komm ich hier garnicht mehr mit....
Bringt Intel denn nun eine konkurenzfähige (gamer) Grafikkarte?

Exxtreme
2008-01-08, 10:33:44
Puh... als Laie komm ich hier garnicht mehr mit....
Bringt Intel denn nun eine konkurenzfähige (gamer) Grafikkarte?
Kurz- und mittelfristig sehr unwahrscheinlich, IMHO.

Ailuros
2008-01-08, 11:07:48
Darum gibt es ja auch auf den Larrabee-Schemen immernoch einen FF-Block. Da wird wohl Intel eher den Schritt gehen und gewisse Dinge über die ALUs laufen lassen, was langfristig NV und AMD auch machen werden bzw. AMD heute schon machen musste, auf Grund eines Designbugs.

Was hat den AA resolve mit Textur-Filterung genau gemeinsam?

Ailuros
2008-01-08, 11:16:56
Langfristig soll es ja nach Intels Meinung eh auf Raytracing hinauslaufen.
Da wird man Rasterizing nur soweit unterstützen wie nötig.

Wieviel mehr Resourcen würde man denn benötigen um z.B. G80 via SW-Rasterizing zu erreichen?

Intel's Marketing-Geblubber spricht von einem quasi Krieg auf der SW Ebene. Ich will ernsthaft bezweifeln dass sich erfahrene Entwickler zu irgend einer verkorksten Loesung ueberreden lassen. Was Intel ansichtlich nicht schnallen kann oder will, ist dass sich die Entwicklung von GPUs dem anpassen sollte was Entwickler eigentlich brauchen und nicht anders rum.

Anstatt sich auf das eher alberne Marketing-Gewaesch von Intel einzulassen waere es eher angesprochener unabhaengige Entwickler zu befragen, was sie davon halten.

Gast
2008-01-08, 14:53:53
Und vor allem Texturfilterung. Das alles sollte man lieber nicht softwareseitig von x86ern erledigen lassen.wird wohl so halb halb laufen. auf jedenfall muss die formatumwandlung der standard formate hardwaremaessig passieren. (dxt,fp16 etc). die perspektivische korrektur kann in software passieren (ist ja eh der fall fuer alle anderen interpolatoren falls man einen software rasterizer hat) und zwischen den samples zu interpolieren koennte intel je nachdem in software machen oder hardware nutzen.
wenn es ein Lerp befehl geben sollte, waere es vielleicht garnicht so schlimm in software zu filter, sogar vielleicht von vorteil. weil du sonst die pipeline stallst wenn sie auf die texture wartet. wenn du das in software machst, kann die cpu eventuell andere befehle nebenbei mit verarbeiten.

DerGast
2008-01-08, 15:11:32
Anstatt sich auf das eher alberne Marketing-Gewaesch von Intel einzulassen waere es eher angesprochener unabhaengige Entwickler zu befragen, was sie davon halten.
Naja, entweder weiss man es als entwickler garnicht was intel vor hat, oder man darf seine meinung nicht sagen;)

Aber intel wird sein ding durchziehen. schau dir nur mal SSE an, jeder entwickler lacht darueber (mit einem weinendem auge), weil es bisher nie das meistgewuenschte feature gab, ein dot product (ja, jetzt ab sse4).
SSE wird viel weniger benutzt als wir entwickler es gerne wollen wuerden, weil du davon nur einen vorteil hast wenn du einen teil explizit darauf optimierst. einfach nur eine mathlib zu schreiben und zu nutzen bringt dir gegenueber der fpu so ziemlich 0 im alltag (und der meinung sind andere entwickler auch).
Wofuer SSE wirklich da ist, sind Wissenschaftliche berechnungen, z.B. fuer komplexe zahlen wie sie bei sehr vielen simulationen benutzt werden.
trotzdem ist es eine Multimediaextension *hahaha*

so ist es beim Larrabee vermutlich auch. es wird als supergeile graphikkarte angeprisen, ausgelegt aber als server-coprozessor-karte. wenn die Serverkarten frueher als die konsumerproducts rauskommen, waere es absolut nicht verwunderlich.

Intel braucht nunmal die masse um die karte preiswert zu bekommen. wie aber auch bei CPUs wird das wahre geschaeft im servermarkt gemacht wo man die selbe hardware zum 10x preis verkaufen kann (dafuer in kleinerer menge). gegenueber firmen wie z.b. SUN hat intel dann ne riesen Marge. sie verkaufen eine 500euro cpu als xeon fuer 5000. Sun hat keine massen cpu fuer 500 und muss ihre server CPU trotzdem fuer 5000 verkaufen.
NV versucht das mit ihren Quadro genau so, mit 2000euro fuer eine 8800GT mit 256MB (gibt es z.b. bei Dells workstations)


das ist meiner meinung nach auch das schlauste was intel machen kann. mit ein bisschen marketing und ein paar bunten raytracer bildern wird intel sich ein paar leute catchen die ihr marketing in der masse weitertragen.


meine meinung.

Exxtreme
2008-01-08, 15:28:14
Also ich glaube nicht, daß Intel in absehbarer Zeit was Brauchbares abliefert. Problem ist halt, die Hardware alleine ist nicht alles. Treiber sind nicht minder wichtig. Und das wird sehr lange dauern bis Intel an AMD/Nvidia aufgeschlossen hat. Alleine die Shadercompiler, Shaderreplacement und solche Scherze. Zukaufen können sie das Knowhow auch nicht so ohne Weiteres denn ausser AMD und Nvidia hat dieses keiner so richtig. Sie müssten also schon sehr viele Leute aus diesen Firmen abwerben.

Also 2008 halte ich kaum machbar für etwas Brauchbares. Und wenn etwas rauskommt dann schätze ich das vorerst als Rohrkrepierer ein.

Gast
2008-01-08, 15:53:20
Intel hat doch compiler, sogar sehr gute fuer ihre CPUs.

robbitop
2008-01-08, 16:33:31
wenn es ein Lerp befehl geben sollte, waere es vielleicht garnicht so schlimm in software zu filter, sogar vielleicht von vorteil. weil du sonst die pipeline stallst wenn sie auf die texture wartet. wenn du das in software machst, kann die cpu eventuell andere befehle nebenbei mit verarbeiten.
LERP in Software. Das kostet u.U eine zweistellige Anzahl an Takten.
Das Stalling-Problem ist doch seit der Entkopplung der Einheiten und dem Dispatcher vorbei. Threads die warten, werden schlafen gelegt und solange dann andere abgearbeitet.

Vieleicht ist das Konzept nicht grottig. Aber ich kann mir nur schwer vorstellen, dass das an die Effizienz einer dedizierten GPU Struktur heran kommt. Softwarelösungen kosten immer.

Gast
2008-01-08, 20:08:18
LERP in Software. Das kostet u.U eine zweistellige Anzahl an Takten.wenn es ein lerp befehl gebe, waere es eine assembler instruktion und somit in hardware.


Das Stalling-Problem ist doch seit der Entkopplung der Einheiten und dem Dispatcher vorbei. Threads die warten, werden schlafen gelegt und solange dann andere abgearbeitet.was dispatcht der dispatcher wenn alle threads auf die texturen warten?


Vieleicht ist das Konzept nicht grottig. Aber ich kann mir nur schwer vorstellen, dass das an die Effizienz einer dedizierten GPU Struktur heran kommt. Softwarelösungen kosten immer.
Das trifft heute nicht mehr ganz so zu. fest verdrahtete hardware war in zeiten von vorteil, bei denen man noch darum kaempfte ueberhaupt genug polys auf den schirm zu rendern.
Heute ist, wie schon gesagt, eher shader und bandbreite das limitierende. Eine softwareloesung muss nicht schlechter sein, sie kann sogar besser sein, denn waehrend die G80 hardware mal shader und mal trisetup limitiert sein kann, sollte bei einer softwareloesung die auslastung besser sein.
Zudem sollte man auf keinen fall vergessen, dass intel den anderen firmen in sachen fertigung mindestens so voraus ist, wie ein hard-verdrahteter rasterizer dem software rasterizer voraus ist.
Ich denke intel koennte gleich beim ersten schlag recht gut dastehen. (immerhin koennen relativ kleine firmen auch ab und zu nen low bzw midend chip auf den markt werfen).

robbitop
2008-01-08, 20:30:33
was dispatcht der dispatcher wenn alle threads auf die texturen warten?

Wie oft kommt das vor? Ich gehe davon aus, dass es nicht so oft vorkommt. So hätte das Konzept wenig Sinn. Gerade mit wachsender ALU:TEX Ratio wird dieser Faktor immer unwichtiger.



Das trifft heute nicht mehr ganz so zu. fest verdrahtete hardware war in zeiten von vorteil, bei denen man noch darum kaempfte ueberhaupt genug polys auf den schirm zu rendern.
Heute ist, wie schon gesagt, eher shader und bandbreite das limitierende. Eine softwareloesung muss nicht schlechter sein, sie kann sogar besser sein, denn waehrend die G80 hardware mal shader und mal trisetup limitiert sein kann, sollte bei einer softwareloesung die auslastung besser sein.
Zudem sollte man auf keinen fall vergessen, dass intel den anderen firmen in sachen fertigung mindestens so voraus ist, wie ein hard-verdrahteter rasterizer dem software rasterizer voraus ist.
Ich denke intel koennte gleich beim ersten schlag recht gut dastehen. (immerhin koennen relativ kleine firmen auch ab und zu nen low bzw midend chip auf den markt werfen).
Trisetuplimitiert? Wann denn das?

Ailuros
2008-01-09, 09:21:25
Zudem sollte man auf keinen fall vergessen, dass intel den anderen firmen in sachen fertigung mindestens so voraus ist, wie ein hard-verdrahteter rasterizer dem software rasterizer voraus ist.

Erstens ist der Vergleich so verrueckt uebertrieben dass es nicht mehr schoen ist und zweitens hat man bei einer echten GPU andere Kopfschmerzen als bei einer CPU.

Ich denke intel koennte gleich beim ersten schlag recht gut dastehen. (immerhin koennen relativ kleine firmen auch ab und zu nen low bzw midend chip auf den markt werfen).

Wenn ich mich nicht irre kommen die ersten PDA/mobile/UMPCs cores die auf IMG IP basieren auf 65nm. IMG bzw. PowerVR ist eine dieser kleinen Firmen und ich frage mich immer noch wieso Intel das Zeug nicht selber herstellt. Einen angeblichen D3D10 IGP haben sie ja schon; bleibt fuer mich eher die Frage warum sie das Dingsbums nicht einfach in die oben erwaehnten Kleinkram-Maerkte reduziert hat.

Microsoft sollte IMHLO noch strenger werden was API Komplianz betrifft; jeglicher IHV sollte den Komplianz Siegel nur dann bekommen wenn alle HW Vorraussetzungen getroffen wurden und ein voll operativer Treiber der alle Vorraussetzungen freisetzt beigelegt wird. Somit koennten sich IHVs wie Intel nicht auf die eine oder andere Art entgehen, wo immer moeglich zu sparen.

Die Geschichte mit dem PDA/mobile Markt war ja sowieso lachhaft; anfangs hatte Intel vor den Markt nur mit MXM zu bedienen, aber als sie sahen dass sie keine Chance bestehen werden, wurde der erste MBX lizenziert. Im Vergleich zu OMAP2 ist Intel's 2700G ein langweiliger Schwaechling. Erstens weil die CPU nur mit hoher Frequenz aber ohne FPU ausgestattet wurde und zweitens weil man erst nachtraeglich einsah dass man die (optionale) VGP-Geometrie Einheit doch noch braucht.

Was jetzt die Textur-Filterung betrifft, ob Intel jetzt vorhat das Ganze durch SW oder HW zu realisieren ist mir persoenlich gleichgueltig; ich will nur keine grottenscheussliche Filterung ala Volari oder sogar das abscheuliche AF des seligen 3DLabs sehen. Wir sind Gott sei Dank was die Grafik betrifft so weit dass man fuer Erfolge in diesem Markt eine gesunde Kombination von Bildqualitaet und Geschwindigkeit braucht. Fuer mich persoenlich gibt es viel zu viel dass Intel in ihrer gesamten Design-Philosophie aendern muss damit sie ueberhaupt etwas im mainstream GPU Markt landen koennten. Zumindest PowerVR ist einer der kleinen IHVs die ihre maessigen Erfolge der Vergangenheit u.a. der Effizienz ihrer cores und der gleichzeitigen Bildqualitaet erringt haben (siehe Dreamcast, Kyro, MBX usw.).

Im Profi-Markt kann Intel durchaus einiges anstellen; hier macht auch die Einstellung einer gesunden Menge von 3DLabs engineers absolut Sinn und natuerlich auch den anderen Herren die erst kuerzlich bekannt wurden. Die absolute Mehrzahl dieser haben ihre groesste Erfahrung was den SW bzw. GPGPU Bereich betrifft.

Ailuros
2008-01-09, 09:36:16
Trisetuplimitiert? Wann denn das?

Ich sag es nochmal IMG gibt fuer SGX550 afaik bis zu 4.0GPixels/s (w/ overdraw) und 100M Polys/s bei 200MHz und <50% shader load an. Bei einem core der normalerweise 1 Tri/clock erreichen koennte, gibt man hier eine eher realistischere Leistung an. Nimmt man jetzt einen aehnlichen Fall wo Fuellrate und Geometrie zur gleichen Zeit gemessen wird, ist es eigentlich weniger wichtig ob R6x0 1 Tri/clock vs. G80 1Tri/2 clocks erreicht wenn am anderen Ende ein vergleichbares Resultat herauskommt.

Bei einer Loesung fuer den Profi-Markt waere die Fuellrate im Vergleich zur Geometrie sowieso zweitrangig. Und man wird wohl auch keine Resourcen verschwenden was die Bildqualitaet bei jeglicher Filterung betrifft. Intel wird mit Larabee IMHLO schon fett im Profi-Markt kassieren, aber danach dann eher die Sintflut.

Ailuros
2008-01-09, 10:03:11
Naja, entweder weiss man es als entwickler garnicht was intel vor hat, oder man darf seine meinung nicht sagen;)

Das letztere hab ich in letzter Zeit schon so oft gehoert, dass es mir uebel wird. Wenn Intel wirklich langfristig die bessere Loesung hat, wird sich dieses auch zeigen und ich denke dass jeglicher Entwickler die Erfahrung und Intelligenz hat selber zu entscheiden welche die bessere Loesung am Ende ist.

Aber intel wird sein ding durchziehen. schau dir nur mal SSE an, jeder entwickler lacht darueber (mit einem weinendem auge), weil es bisher nie das meistgewuenschte feature gab, ein dot product (ja, jetzt ab sse4).
SSE wird viel weniger benutzt als wir entwickler es gerne wollen wuerden, weil du davon nur einen vorteil hast wenn du einen teil explizit darauf optimierst. einfach nur eine mathlib zu schreiben und zu nutzen bringt dir gegenueber der fpu so ziemlich 0 im alltag (und der meinung sind andere entwickler auch).
Wofuer SSE wirklich da ist, sind Wissenschaftliche berechnungen, z.B. fuer komplexe zahlen wie sie bei sehr vielen simulationen benutzt werden.
trotzdem ist es eine Multimediaextension *hahaha*

Multimedia-extension my a** LOL. Was aber MM-Quark betrifft koennte Larabee durchaus etwas anrichten.

Intel braucht nunmal die masse um die karte preiswert zu bekommen. wie aber auch bei CPUs wird das wahre geschaeft im servermarkt gemacht wo man die selbe hardware zum 10x preis verkaufen kann (dafuer in kleinerer menge). gegenueber firmen wie z.b. SUN hat intel dann ne riesen Marge. sie verkaufen eine 500euro cpu als xeon fuer 5000. Sun hat keine massen cpu fuer 500 und muss ihre server CPU trotzdem fuer 5000 verkaufen.
NV versucht das mit ihren Quadro genau so, mit 2000euro fuer eine 8800GT mit 256MB (gibt es z.b. bei Dells workstations)

Als vor sehr langer Zeit Jon Peddie research mal erwaehnte dass man sich nicht wundern sollte dass irgendwann in der Zukunft Intel mit NVIDIA direkter konkurrieren koennte (und auch anders rum eventuell) lachten einige.

Ein Profi der nicht unbedingt alle Quadro features braucht und nicht eine Unmenge fuer die GPU bezahlen will, kann eventuell auch eine stinknormale GPU schnappen und das Ding via Rivatuner umschalten. Alleine aus dem Grund koennte Larabee als mainstream-wasauchimmer schon Sinn machen.


das ist meiner meinung nach auch das schlauste was intel machen kann. mit ein bisschen marketing und ein paar bunten raytracer bildern wird intel sich ein paar leute catchen die ihr marketing in der masse weitertragen.


meine meinung.

Es gibt auch nichts dagegen einzuwenden; der Ausstieg von 3DLabs vom Profi-Markt verschenkte ja quasi den gesamten high end Profi-Markt an NVIDIA. AMD's Plaene was absolute high end GPUs betrifft ist momentan etwas ungewiss und Peddie schlug damals in der vorerwaehnten Praesentation vor dass sich ATI wohl eher auf den mainstream/low end Bereich des Profi-Markts langfristig konzentrieren koennte. Peddie's damalige Angabe (ob es wohl nur Spekulation war?) was Intel und den Profi-Markt betrifft war fuer den Anfang nur auf den low-end Bereich des Profi-Markts begrenzt. Kann natuerlich durchaus sein dass Intel's Plaene seither gewachsen sind, aber persoenlich klingt es mir logischer wenn ein IHV von klein anfaengt und sich je nach Erfolg dementsprechend in der Zukunft aufbaut. Konkurrenz in diesem Markt ist wohl auch durchaus wuenschenswert; gleiches gilt natuerlich auch fuer den mainstream GPU Markt nur muss eben Intel hier einen ziemlich fetten Batzen investieren bis sie ueberhaupt zu etwas kommen.

Die Mehrzahl der Versuche der letzten Jahre die von grossen Semiconductor Herstellern finanziell unterstuetzt wurden, scheiterten eben weil die letzteren die Unkosten bis zum ersten wirklichen Erfolg nicht richtig eingeschaetzt hatten. Dazu gehoeren Beispiele wie NEC, ST Micro, SiS usw.

Gast
2008-01-09, 10:09:43
Wie oft kommt das vor? Ich gehe davon aus, dass es nicht so oft vorkommt. So hätte das Konzept wenig Sinn. Gerade mit wachsender ALU:TEX Ratio wird dieser Faktor immer unwichtiger.
1. der ALU:Tex ratio waechst um einiges schneller als die software es verlangt
2. wir sprechen hier ueber den larrabee der nicht wie eine GPU unmengen von threads am laufen hat, sodass die latenz eines texturesamplers irrelevant wird. wenn die tex-einheit arbeitet, steht der rest der cpu. da kann die cpu genau so gut selbst einige berechnungen vom texturesampler uebernehmen, dann kann dieser naemlich schon die anderen cores bedienen.



Trisetuplimitiert? Wann denn das?kommt durchaus vor, z.b. wenn shader gewechselt werden, was macht der rest der riesen pixel-pipeline? gammeln.
was macht die pixelpipeline wenn ein z-only pass gemacht wird? gammeln.
beim G80 hat man natuerlich unified shader, also kein gammeln? vermutlich doch noch wenn alle shadereinheiten eine Tri-setup einheit fuellen und selbst nur ne matrix*vec operation durchfuehren muessen.

Ein softwarerasterizer hat das Problem nicht. das Programm lastet die cpu immer voll aus (sofern nicht von aussen etwas bremmst wie z.b. ram access).

Gast
2008-01-09, 10:25:36
Das letztere hab ich in letzter Zeit schon so oft gehoert, dass es mir uebel wird. Wenn Intel wirklich langfristig die bessere Loesung hat, wird sich dieses auch zeigen und ich denke dass jeglicher Entwickler die Erfahrung und Intelligenz hat selber zu entscheiden welche die bessere Loesung am Ende ist.ja, nur wirkt da das marketing sicher auch mit ;);)



Es gibt auch nichts dagegen einzuwenden; der Ausstieg von 3DLabs vom Profi-Markt verschenkte ja quasi den gesamten high end Profi-Markt an NVIDIA. AMD's Plaene was absolute high end GPUs betrifft ist momentan etwas ungewiss und Peddie schlug damals in der vorerwaehnten Praesentation vor dass sich ATI wohl eher auf den mainstream/low end Bereich des Profi-Markts langfristig konzentrieren koennte. Peddie's damalige Angabe (ob es wohl nur Spekulation war?) was Intel und den Profi-Markt betrifft war fuer den Anfang nur auf den low-end Bereich des Profi-Markts begrenzt. Kann natuerlich durchaus sein dass Intel's Plaene seither gewachsen sind, aber persoenlich klingt es mir logischer wenn ein IHV von klein anfaengt und sich je nach Erfolg dementsprechend in der Zukunft aufbaut. Konkurrenz in diesem Markt ist wohl auch durchaus wuenschenswert; gleiches gilt natuerlich auch fuer den mainstream GPU Markt nur muss eben Intel hier einen ziemlich fetten Batzen investieren bis sie ueberhaupt zu etwas kommen.

Die Mehrzahl der Versuche der letzten Jahre die von grossen Semiconductor Herstellern finanziell unterstuetzt wurden, scheiterten eben weil die letzteren die Unkosten bis zum ersten wirklichen Erfolg nicht richtig eingeschaetzt hatten. Dazu gehoeren Beispiele wie NEC, ST Micro, SiS usw.

Intel wird keine GPU wie NV machen. wie es also vom markt und besonders von den entwicklern angenommen wird, wird ueber den erfolg entscheiden. Ich denke um entwickler anzulocken muss intel super-hyper-highend bieten. zumindestens muss deren karte etwas "gutes" so gut und schnell koennen wie keine GPU. und ich meine damit absolut nicht raytracing, das ist so nuetzlich wie ein sudoku-solver.
Ich denke das gute wird eher die programmierbarkeit sein. jeder entwickler kann x86 programmieren(falls sie das zulassen). dazu keine OOO-cores, sondern gut berechenbare in-order cores. das ganze stabil wie eine konsole ohne ein dummes OS das peaks generiert weil ICQ im hintergrund blinken muss.
dieses Quality of services ist was ich und viele andere echt vermissen. wenn der larrabee das bieten kann, koennte er ne spassige Spielwiese sein.
Ich denke sowas wie Voxelspace engines und all die alten techs werden dann wieder auferstehen.
aber nur wenn intel genug leistung bietet, und ich glaube auch Intel weiss, dass man nur mit dem Image der highend karten den mainstream befuettern kann (nicht anders laeuft es mit der ExtreemEdition)

Radeonator
2008-01-09, 10:33:32
Hmmm, eine wichtige Frage wurde ausser acht gelassen: Intel hat sich als unfähig erwiesen, Treiber zu basteln, die ihre HW richtig ansprechen. Features wurden teilweise erst Monate bis Jahre nach erscheinen im treiber angesprochen...wie also, wird es bei einem komplexen Multicore Produkt werden...

Ailuros
2008-01-09, 10:38:20
Hmmm, eine wichtige Frage wurde ausser acht gelassen: Intel hat sich als unfähig erwiesen, Treiber zu basteln, die ihre HW richtig ansprechen. Features wurden teilweise erst Monate bis Jahre nach erscheinen im treiber angesprochen...wie also, wird es bei einem komplexen Multicore Produkt werden...

Es gibt bis jetzt unbestaetigte Geruechte (die sich in letzter Zeit immer mehr anhaeufen) dass ein voller D3D10 Treiber vielleicht die D3D10 Komplianz sprengen koennte. Ich weiss wie verrueckt das Ganze klingt, aber ich wuerde Intel schon einen solchen stunt zutrauen.

Ailuros
2008-01-09, 10:57:49
kommt durchaus vor, z.b. wenn shader gewechselt werden, was macht der rest der riesen pixel-pipeline? gammeln.
was macht die pixelpipeline wenn ein z-only pass gemacht wird? gammeln.
beim G80 hat man natuerlich unified shader, also kein gammeln? vermutlich doch noch wenn alle shadereinheiten eine Tri-setup einheit fuellen und selbst nur ne matrix*vec operation durchfuehren muessen.

Ein softwarerasterizer hat das Problem nicht. das Programm lastet die cpu immer voll aus (sofern nicht von aussen etwas bremmst wie z.b. ram access).

Es gibt auch Architekturen wo Geometrie und rasterising total entkoppelt sind. Komischerweise hat aber auch diese Architektur zusaetzliche "Co-Prozessoren" zum USC fuer tiling, pixels und texturing. Ein TBDR; Intel hat ja auch versucht mit DR herumzuspielen, aber das zone-rendering Zeug war wohl die uebelste Realisierung ueberhaupt LOL.

Es gibt genug verfuegbare Loesungen um Einheiten vom "herumgammeln" abzuhalten. Beispiel:

In the event of a condition with the potential to cause a stall cycle, e.g., a cache miss, META automatically starts executing the next thread. There are times when a specific thread must run, and to support that, META provides a number of features including cache line locking and cache pre-fetching to control memory stalls & data address pre-issue to avoid pipeline delays. Metagence calls their threading variant superthreading. All threads operate in a parallel/overlapped manner with no context switching overheads, increasing utilization of shared ALU and cache/memory resources.

Ailuros
2008-01-09, 11:10:14
Intel wird keine GPU wie NV machen. wie es also vom markt und besonders von den entwicklern angenommen wird, wird ueber den erfolg entscheiden. Ich denke um entwickler anzulocken muss intel super-hyper-highend bieten. zumindestens muss deren karte etwas "gutes" so gut und schnell koennen wie keine GPU. und ich meine damit absolut nicht raytracing, das ist so nuetzlich wie ein sudoku-solver.

Etwas "gutes" ausserhalb raytracing dass keine GPU momentan kann, kann ich mir leider sehr schwer fuer Larabee vorstellen.

Ich denke das gute wird eher die programmierbarkeit sein. jeder entwickler kann x86 programmieren(falls sie das zulassen). dazu keine OOO-cores, sondern gut berechenbare in-order cores. das ganze stabil wie eine konsole ohne ein dummes OS das peaks generiert weil ICQ im hintergrund blinken muss.
dieses Quality of services ist was ich und viele andere echt vermissen. wenn der larrabee das bieten kann, koennte er ne spassige Spielwiese sein.
Ich denke sowas wie Voxelspace engines und all die alten techs werden dann wieder auferstehen.

Eine bessere Programmierbarkeit koennte ich Larabee schon zutrauen.

aber nur wenn intel genug leistung bietet, und ich glaube auch Intel weiss, dass man nur mit dem Image der highend karten den mainstream befuettern kann (nicht anders laeuft es mit der ExtreemEdition)

Nur ist eben das Risiko enorm gleich von ganz oben anzufangen; natuerlich hat Intel eine Unmenge an Resourcen, aber ein langfristiger Erfolg ist auch nicht unbedingt garantiert.

AnarchX
2008-01-09, 11:50:26
The SuperSecretProject is of course Larrabee, and while it's been amusing seeing people on the intertubes discuss how sucky we'll be at conventional rendering, I'm happy to report that this is not even remotely accurate. Also inaccurate is the perception that the "big boys are finally here" - they've been here all along, just keeping quiet and taking care of business.
http://home.comcast.net/~tom_forsyth/blog.wiki.html

;)

Gast
2008-01-09, 14:22:47
Es gibt genug verfuegbare Loesungen um Einheiten vom "herumgammeln" abzuhalten. Beispiel:
das ist ja nur nochmals das selbe, wenn ein thread stallt, wird ein weiterer thread genommen und abgearbeitet. das geht auf GPUs gut wo es sehr viel mehr threads als abarbeitungsunits gibt. geht auch einigermassen gut bei der SUN cpu mit 8 threads per core.
aber soweit ich sehe wird der larrabee nicht so gemacht sein. dort wird die cpu einfach nichts tun bis die daten da sind. ein speicherzugriff kann 300zyklen kosten. ich wuerde sagen die sampler sollten deswegen so kurz von der latenz sein wie moeglich und da kann man den core ein wenig arbeit uebernehmen lassen.
ich denke mir auch dass intel da sicher tausende von simulationen durchfahren wird bevor sie sich entscheiden ab welcher stelle die cpu die sampler entlasten.

Gast
2008-01-09, 14:27:03
Etwas "gutes" ausserhalb raytracing dass keine GPU momentan kann, kann ich mir leider sehr schwer fuer Larabee vorstellen.
kann ich mir sehr sehr einfach vorstellen. z.b. performant random framebuffer access. wuenschen sich viele, ist aber (zumindestens D3D10) nicht moeglich.



Nur ist eben das Risiko enorm gleich von ganz oben anzufangen; natuerlich hat Intel eine Unmenge an Resourcen, aber ein langfristiger Erfolg ist auch nicht unbedingt garantiert.
wenn jemand das wueste sollte er unbedingt aktien kaufen *Hehe*. intel weiss das natuerlich auch nicht, aber sie investieren gerade wie die bloeden damit das was wird. sie koennen es sich einfach nicht leisten AMD (fusion) den markt zu ueberlassen.

Ailuros
2008-01-10, 06:18:19
http://home.comcast.net/~tom_forsyth/blog.wiki.html

;)

Eine Biographie von Forsythe und seiner bisherigen Arbeit wuerde helfen, denn ich halte von dem Zeug persoenlich nicht allzu viel sorry.

Ailuros
2008-01-10, 08:20:30
kann ich mir sehr sehr einfach vorstellen. z.b. performant random framebuffer access. wuenschen sich viele, ist aber (zumindestens D3D10) nicht moeglich.

Es wurde auch viel aus D3D10 gestrichen:

Der Tesselator z.B.:
http://www.beyond3d.com/content/articles/14/4
..oder framebuffer access (nur PS):
http://www.beyond3d.com/content/articles/14/6

Fuer programmierbare Tesselation bin ich mir so sicher wie ich sein kann dass das Zeug in D3D11 schon festgenagelt ist; ob es jetzt Sachen wie random framebuffer access und order independent transparency geschafft haben weiss ich nicht. Beide letzteren sind ein Kopfschmerz fuer typische IMRs afaik; jedoch hat Intel bis jetzt weder einen anstaendigen IMR noch einen anstaendigen TBDR bis jetzt bauen koennen.


wenn jemand das wueste sollte er unbedingt aktien kaufen *Hehe*. intel weiss das natuerlich auch nicht, aber sie investieren gerade wie die bloeden damit das was wird. sie koennen es sich einfach nicht leisten AMD (fusion) den markt zu ueberlassen.

Fusion klingt fuer mich -egal wie stark AMD darueber trommelt oder trommeln wird- im besten Fall eine Loesung die low-end Grafik HW wie IGPs oder sogar low-end GPUs quasi abloesen koennte.

Selbst aber die Herren muessen sich anstrengen denn selbst fuer IGPs ab 2009 wird es nicht bei nur 4 TMUs bzw. 4 ROPs bleiben.

Ailuros
2008-01-10, 08:33:19
das ist ja nur nochmals das selbe, wenn ein thread stallt, wird ein weiterer thread genommen und abgearbeitet. das geht auf GPUs gut wo es sehr viel mehr threads als abarbeitungsunits gibt. geht auch einigermassen gut bei der SUN cpu mit 8 threads per core.

META ist ein single core chip der mehrere GPP/DSP cores ersetzt. Verdammt vereinfacht ist es eine quasi Auschlachtung aus dem USC der SGX GPU. Durch die diversen Optimierungen nennen sie ja auch ihr Zeug superthreading (marketing-gefusel) und nicht multithreading.

aber soweit ich sehe wird der larrabee nicht so gemacht sein. dort wird die cpu einfach nichts tun bis die daten da sind. ein speicherzugriff kann 300zyklen kosten. ich wuerde sagen die sampler sollten deswegen so kurz von der latenz sein wie moeglich und da kann man den core ein wenig arbeit uebernehmen lassen.
ich denke mir auch dass intel da sicher tausende von simulationen durchfahren wird bevor sie sich entscheiden ab welcher stelle die cpu die sampler entlasten.

GPU vendors strengen sich auch jegliche Latenz so weit wie moeglich zu minimalisieren. Bis jetzt hoere ich aber nur generell ein paar verstreute Einzelheiten die sich hauptsaechlich auf den arithmetischen Bereich konzentrieren.

Ich traue mich schon gar nicht ueber den Bereich ausserhalb der jeglichen USC ALUs zu fragen und schon gar nicht ueber Einzelheiten die die Bildqualitaet betreffen.

StefanV
2008-01-10, 16:52:47
Fusion klingt fuer mich -egal wie stark AMD darueber trommelt oder trommeln wird- im besten Fall eine Loesung die low-end Grafik HW wie IGPs oder sogar low-end GPUs quasi abloesen koennte.

Selbst aber die Herren muessen sich anstrengen denn selbst fuer IGPs ab 2009 wird es nicht bei nur 4 TMUs bzw. 4 ROPs bleiben.
Oder halt eine entsprechende Physik/KI Engine, wenn denn eine dedizite GraKa drin sitzen tut.

Ailuros
2008-01-11, 06:25:55
Oder halt eine entsprechende Physik/KI Engine, wenn denn eine dedizite GraKa drin sitzen tut.

Man koennte sehr vieles damit anrichten wenn man eine GPU in der CPU integriert hat; u.a. kann das Ding dann auch 2D betreiben und wenn es noch eine GPU im System gibt kann diese schlapp machen und Strom sparen.

Ich erlaube mir mal ein bisschen mit Forsythe's neuesten Aussagen zu spielen....er sagte dass alle denken dass sie mit conventional rendering schlecht sein werden, was aber nicht der Fall sein wird. Schoen aber sehr viele "aber" sehe ich hier nicht eher doch wohl ein HW rasterizer.

Das goldigste ist dass es angeblich sooo viele Moeglichkeiten mit dem Ding gibt dass sie nicht wissen mit was sie anfangen sollen. Erstens wurde das Ding zeitlich verlegt und zweitens heisst das Ganze fuer mich dass man immer noch nach einer Indentitaet fuer das Dingsbums sucht und der erste Versuch einfach zum kotzen miserabel war.

AnarchX
2008-01-16, 14:03:23
Larrabee: Samples in Late 08, Products in 2H09/1H10 (http://www.beyond3d.com/content/news/565)

When Doug Freedman asked Paul Otellini about Larrabee during yesterday's conference call, we didn't think much would come out of it. But boy were we wrong: Otellini gave an incredibly to-the-point update on the project's timeframe. So rather than try to summarize, we'll just quote what Otellini had to say here.

Larrabee first silicon should be late this year in terms of samples and we’ll start playing with it and sampling it to developers and I still think we are on track for a product in late ’09, 2010 timeframe.

Gmax
2008-01-16, 14:13:24
http://www2.picfront.org/picture/Wvk2dPZav3d/img/pvrroadmap07.jpg (http://www.picfront.org/d/Wvk2dPZav3d/pvrroadmap07.jpg)

Mit SGX545 haben wir dann wieder eine PowerVR Grafik im PC Bereich und SGX545 ist D3D10.1 kompatibel. Wir werden auf jeden Fall versuchen an so ein Gerät heran zu kommen, endlich mal wieder eine PowerVR Grafik zum Testen und es sollte dort ja auch normale PC Software laufen können.

http://www.mitrax.de/

So wie es aussieht, wird bei intel nichts von ImgTec drinnen sein, oder?

Gaestle
2008-01-16, 14:29:31
http://www2.picfront.org/picture/Wvk2dPZav3d/img/pvrroadmap07.jpg (http://www.picfront.org/d/Wvk2dPZav3d/pvrroadmap07.jpg)



http://www.mitrax.de/

So wie es aussieht, wird bei intel nichts von ImgTec drinnen sein, oder?

Mitrax ist i.d.R. sehr optimistisch und es ist nicht gesagt, dass wir vom SGX545 tatsächlich irgendein Zipfelchen als separate PVR-Hardware sehen. Ich bin da skeptisch, würde mich aber freuen, wenn ich falsch liege.

ilPatrino
2008-01-16, 14:47:51
Es gibt bis jetzt unbestaetigte Geruechte (die sich in letzter Zeit immer mehr anhaeufen) dass ein voller D3D10 Treiber vielleicht die D3D10 Komplianz sprengen koennte. Ich weiss wie verrueckt das Ganze klingt, aber ich wuerde Intel schon einen solchen stunt zutrauen.

könntest du dazu bitte ein paar worte mehr verlieren?

Exxtreme
2008-01-16, 15:36:38
Intel hat doch compiler, sogar sehr gute fuer ihre CPUs.
CPU != GPU

Und Intel ist nicht wirklich für gute und stabile Treiber bekannt. Und nein, .INF-Dateien sind keine Treiber. :D

loewe
2008-01-16, 18:58:42
Mitrax ist i.d.R. sehr optimistisch und es ist nicht gesagt, dass wir vom SGX545 tatsächlich irgendein Zipfelchen als separate PVR-Hardware sehen. Ich bin da skeptisch, würde mich aber freuen, wenn ich falsch liege.

Optimistisch, sicher! ;)
Zu keinem Zeitpunkt wurde erwähnt oder angedeutet, dass es separate PVR-Hardware auf SGX Basis geben könnte. Ich rechne genau genommen bei Serie5 überhaupt nicht damit.

Einfach alles lesen was da steht!

BTW, sollte es auf SGX Basis etwas bei intel geben, werden die Treiber aber schon werden, die macht dann ja PowerVR. :)

Ailuros
2008-01-17, 08:22:19
könntest du dazu bitte ein paar worte mehr verlieren?

Es spricht sich lediglich hinter den Kulissen herum dass sich Intel drueckt einen D3D10 Treiber zu veroeffentlichen damit sie den D3D10 Siegel nicht verlieren. Ich kann mir schwer vorstellen, dass die HW nicht vollstaendig 10 kompliant ist, denn M$ hat wohl schon spezifische Testmassnahmen um jegliche HW fuer die Komplianz nachzupruefen.

Falls aber tatsaechlich etwas an der obrigen merkwuerdigen These liegen sollte, dann wird es so langsam Zeit dass M$ noch strenger mit IHVs wird. Intel hatte bis jetzt die bloede Angewohnheit sich wo immer moeglich zu druecken um diverse Features zu implementieren; ihre angebliche D3D9.0 HW haette IMHLO die Komplianz auch nicht verdient. Die vorige Generation ihrer IGPs hatte ja nur SM2.0 PS, aber keinen Schimmer an VS oder jeglicher anderer Geometrie-Einheit.

Ailuros
2008-01-17, 08:26:37
Mitrax ist i.d.R. sehr optimistisch und es ist nicht gesagt, dass wir vom SGX545 tatsächlich irgendein Zipfelchen als separate PVR-Hardware sehen. Ich bin da skeptisch, würde mich aber freuen, wenn ich falsch liege.

Fuer budget Schlepptops waere das Ding eigentlich optimal; minimaler Stromverbrauch und so lange man eher Multimedia Schnickschnack braucht kann man mit so einem Ding auch nicht falsch liegen.

So langsam kommen ja auch um einiges billigere Schlepptops auf den Markt; kleiner und kompakter als die normalen Dinger.

StefanV
2008-01-17, 08:32:32
Naja, bei den IGPs muss Intel aber gehörig nachlegen, sonst verlieren sie bald den Markt der preisgünstigen Notizbücher komplett...

Naja, mal abwarten und Tee rauchen, wie dieser Larabee oder wie das Teil heißen wird, sein wird...
Ich befürchte fast, das es 'nen Griff ins Klo wird, schlimmer als i740...

Ailuros
2008-01-17, 08:39:55
Optimistisch, sicher! ;)
Zu keinem Zeitpunkt wurde erwähnt oder angedeutet, dass es separate PVR-Hardware auf SGX Basis geben könnte. Ich rechne genau genommen bei Serie5 überhaupt nicht damit.

Einfach alles lesen was da steht!

BTW, sollte es auf SGX Basis etwas bei intel geben, werden die Treiber aber schon werden, die macht dann ja PowerVR. :)

Es gab nur ein einfaches "ja" auf meine Frage in dem letzten Interview ob sie Plaene haben wieder den PC-Bereich anzusprechen. PC kann vieles bedeuten u.a. auch Klein-Formate.

Auf Serie6 bin ich besonders neugierig; das dumme ist dass ich mir momentan bei bestem Willen nicht vorstellen kann wie es im Vergleich zu Serie5 aussehen koennte.

AnarchX
2008-01-17, 08:41:29
Die vorige Generation ihrer IGPs hatte ja nur SM2.0 PS, aber keinen Schimmer an VS oder jeglicher anderer Geometrie-Einheit.
VS wurden doch auch bei ATis, SiSs und VIAs DX9-IGPs via CPU emuliert.


Ich befürchte fast, das es 'nen Griff ins Klo wird, schlimmer als i740...
Larrabee ist aber nicht nur eine Consumer-GraKa und der Vergleich mit Low-End i740, welche laut Intel fast nichts in der Produktion gekostet haben soll, ist auch etwas weit hergeholt.

StefanV
2008-01-17, 08:55:04
VS wurden doch auch bei ATis, SiSs und VIAs DX9-IGPs via CPU emuliert.

Bis zum RS480, der hat AFAIR schon 'ne TnL Einheit, der RS690 auf jeden Fall!

Larrabee ist aber nicht nur eine Consumer-GraKa und der Vergleich mit Low-End i740, welche laut Intel fast nichts in der Produktion gekostet haben soll, ist auch etwas weit hergeholt.
Nur vergisst du, das der Markt abseits des Consumermarktes klein bis nicht vorhanden ist, so ein Teil kostet nicht gerad wenig, die Kosten kann man ohne End-User kaum bis garnicht reinholen.

Ganz ab davon sind AMD und nVidia nicht schelcht aufgestellt, ich denke nicht, das Intel auch nur den Hauch einer Chance hat...

AnarchX
2008-01-17, 09:04:49
Bis zum RS480, der hat AFAIR schon 'ne TnL Einheit, der RS690 auf jeden Fall!
Nein, beide emulieren die VS über die CPU, bei RS690 gab es Verwirrungen darüber, da manche ihn als 2PP/2VS interpretierten, aber er ist 4PP/0VS (http://www.beyond3d.com/content/articles/11/).


Ganz ab davon sind AMD und nVidia nicht schelcht aufgestellt, ich denke nicht, das Intel auch nur den Hauch einer Chance hat...
Das wird sich zeigen müssen, aber Larrabee ist nunmal mehr als das Produkt einer kleinen GPU-Schmiede in die man mal etwas investiert hat. ;)

Ailuros
2008-01-17, 09:27:47
VS wurden doch auch bei ATis, SiSs und VIAs DX9-IGPs via CPU emuliert.

Wie sicher bist Du ueber ATI's IGPs? Selbst ihre DX8.1 IGPs (RS300/9100) hatten PS/VS1.4 mit dem man etwas mehr als nur UT2k4 und mit besserer Leistung und Bildqualitaet als auf den GMA9x0 Dingsbumsen spielen konnte.

Die Grundfilterung auf GMA9x0 war uebrigens genauso beschissen das auf den Volaris vorhanden war und Spiele-Kompatibilitaet generell miserabel.

Mit dem X200 von ATI (wohl eher die 128M Version) konnte man die Mehrzahl der damals verfuegbaren Spiele mit low settings problemslos spielen.

SAZAN
2008-01-17, 09:43:38
hab alles recht locker diagonal überlesen..ne kleine frage bitte nicht motzen sonder kurz und bündig antworten ,wenn es nix ausmacht^^..

Wird die Intel Graka der 8800gt ebenbürdig? Ich bin zurzeit noch am überlegen ob ich meine 7800gt in die rente schicken soll..oder doch noch etwas warte..was preis leistung betrifft

mfg

AnarchX
2008-01-17, 09:56:40
Wie sicher bist Du ueber ATI's IGPs? Selbst ihre DX8.1 IGPs (RS300/9100) hatten PS/VS1.4 mit dem man etwas mehr als nur UT2k4 und mit besserer Leistung und Bildqualitaet als auf den GMA9x0 Dingsbumsen spielen konnte.

Die Grundfilterung auf GMA9x0 war uebrigens genauso beschissen das auf den Volaris vorhanden war und Spiele-Kompatibilitaet generell miserabel.

Mit dem X200 von ATI (wohl eher die 128M Version) konnte man die Mehrzahl der damals verfuegbaren Spiele mit low settings problemslos spielen.

Wohlmöglich hat ATi einfach eine bessere Implementierung für SW-VS bzw. muss dass Design auch entsprechend darauf ausgelegt sein.

Aber auch RS300 hatte keine VS:
http://forum.beyond3d.com/showpost.php?p=158494&postcount=1


Wird die Intel Graka der 8800gt ebenbürdig? Ich bin zurzeit noch am überlegen ob ich meine 7800gt in die rente schicken soll..oder doch noch etwas warte..was preis leistung betrifft
Da sie Ende 2009/Anfang 2010 kommt, sollte sie schon eine 88GT übertreffen. ;D

Sentionline
2008-01-17, 10:05:57
Mal schauen ob die AGP Sparte auch bedient wird. Aber da Intel genetisch genauso genetisch veranlagt ist wie Nvidia, braucht man die Frage wohl eigentlich nicht in den Raum werfen...

mfg

Völlig oT, hier hat der AGP-Kreuzzug erst recht nichts zu suchen. 3. gelbe und damit rote Karte.

<anddill>

Ailuros
2008-01-17, 10:12:38
Wohlmöglich hat ATi einfach eine bessere Implementierung für SW-VS bzw. muss dass Design auch entsprechend darauf ausgelegt sein.

Aber auch RS300 hatte keine VS:
http://forum.beyond3d.com/showpost.php?p=158494&postcount=1

Oder Intel hatte nichtmal SW/T&L-VS Unterstuetzung in ihren Treibern. So oder so hat sich bei Intel bis jetzt nichts besonderes mit dem D3D10 Dingsda geaendert.

Da sie Ende 2009/Anfang 2010 kommt, sollte sie schon eine 88GT übertreffen. ;D

In einem von Intel entwickelten spezialisierten techdemo auf jeden Fall ;D

***edit: uebrigens

http://www.beyond3d.com/content/news/565

So it'd be little more than a prototype, which makes sense: it'll likely take quite some time for both game and GPGPU developers to get used to the architecture and programming model. At least this proves Intel isn't being ridiculously overly confident in terms of software adoption if we're interpreting that right, and that they're willing to make this a long-term investment.

AnarchX
2008-01-17, 10:51:54
In einem von Intel entwickelten spezialisierten techdemo auf jeden Fall ;D
Naja, Performance von vor 2 Jahren, was dann wohl etwa oberes Low-End bedeutet, sollte man doch schon schlagen können, auch in Real-Word-Apps.

Zudem denke ich doch schon, dass Larrabee dem schon jetzt ähnelt, was NV und ATi in diesem Zeitraum am Markt haben werden.

Ailuros
2008-01-17, 11:16:16
Naja, Performance von vor 2 Jahren, was dann wohl etwa oberes Low-End bedeutet, sollte man doch schon schlagen können, auch in Real-Word-Apps.

Wie oben erwaehnt schaetze ich fuer oberes low-end zwischen 12-16 TMUs; bis zu den 56 einer 8800GT ist der Weg noch ziemlich lang. Welche high end GPU der Vergangenheit schlaegt denn genau der heutige schnellste IGP oder low-end GPU? Ausser Du glaubst wirklich Intel hat einen Zauberstab.

Zudem denke ich doch schon, dass Larrabee dem schon jetzt ähnelt, was NV und ATi in diesem Zeitraum am Markt haben werden.

Um Gottes Willen nicht sowohl fuer NVIDIA als auch fuer ATI. Ausser die bisherigen Larabee Diagramme haben nicht das geringste mit dem wahren Projekt zu tun; eher unwahrscheinlich wenn man Intel's Marketing-Gewaesch ueber das SW Feld verfolgt hat. Zuerst haette das erste Dingsbums Ende 2008/Anfang 2009 kommen sollen; dann versetzte man das Ganze um ca. 1 Jahr und trommelte ueber SW-Quark und heutzutage ist man sich auch nicht mehr so sicher dass die Entwickler so leicht mitmachen werden.

Nochmals es geht nicht darum jegliche Entwickler fuer die eine oder andere Loesung zu "ueberreden" so wie es Intel praesentieren wird; die Entwickler werden schon die bessere Loesung fuer jegliche zukuenftige Projekte waehlen. Anstatt darauf zu beruhen dass ein "Krieg" auf der SW-Ebene ausreichen koennte, sollte sich Intel lieber darauf konzentrieren einen Krieg auf HW Ebene auszufuehren.

malle
2008-01-17, 12:30:38
Wenn Intel etwas im Graka Markt will dann eine CPUGPU Hybrid.
Besonders für mobile Geräte wo es auf jedes Watt an kommt.
Auch um seine OnBoard Chipsätze weiter zu halten, wird es wohl dahin Ableger geben.

Ailuros
2008-01-17, 12:52:32
Wenn Intel etwas im Graka Markt will dann eine CPUGPU Hybrid.
Besonders für mobile Geräte wo es auf jedes Watt an kommt.
Auch um seine OnBoard Chipsätze weiter zu halten, wird es wohl dahin Ableger geben.

Mobiler Kleinkram wird durch Imagination's SGX IP bedient. Intel hat das Zeug schon seit einer Ewigkeit lizenziert und hat auch in IMG investiert.

Gast
2008-01-18, 12:39:07
http://www.golem.de/0801/57114.html

Gast
2008-01-18, 13:19:20
Ne dritte Macht im Highend Bereich würde sich sehr positiv auswirken.
Es wird einfach zu wenig Power geboten für derzeitige Preise

darkvader
2008-01-18, 14:43:02
Ohne unken zu wollen - derzeit bräuchten wir erstmal eine zweite "Macht" - ATi ist doch derzeit eher ein Mitspieler wenn man sich die Zahlen anschaut.....

malle
2008-01-18, 22:12:30
Wie Otellini auf die Frage eines Analysten erklärte, erwartet Intel das "first silicon" zu Larrabee erst Ende des Jahres 2008. Daraus sollen dann Muster werden, die an "Entwickler" gehen, so Otellini - gemeint sind damit offenbar Spiele-Entwickler; das Referenz-Design für Grafikkarten entwirft in der Regel der Hersteller des Chips. Ende 2009 oder Anfang 2010 rechnet der Intel-CEO dann mit ersten Produkten auf Basis von Larrabee.
http://www.golem.de/0801/57114.html

Damit ist klar... Intel will HighEnd.

dargo
2008-01-19, 00:09:25
Es wird einfach zu wenig Power geboten für derzeitige Preise
Du findest also 250€ für eine G8800GTS (G92) immer noch zu viel? Seltsame Vorstellung vom P/L Verhältnis.

Wishnu
2008-01-19, 05:06:54
Du findest also 250€ für eine G8800GTS (G92) immer noch zu viel? Seltsame Vorstellung vom P/L Verhältnis.

Wo ist die denn zu dem Preis lieferbar?

Gast
2008-01-19, 09:01:25
Hier zum Bleistift: http://geizhals.at/eu/a301729.html

Gast
2008-01-19, 10:41:15
ja definitiv zu viel wenn man sich die preise der 8800er serie zur markteinführung ende 2006 anschaut.

Ailuros
2008-01-19, 11:07:50
ja definitiv zu viel wenn man sich die preise der 8800er serie zur markteinführung ende 2006 anschaut.

Ich hab am 14.11.2006 die 8800GTX fuer rund um die 650 euros erhalten. Der Leistungsunterschied einer GTS512 zur ersten ist insgesamt gering und ich kann schwer einsehen was gerade daran ueberteuert sein soll.

Geschenkt bekommt man high end Leistung selbst nach einem Jahr nicht.