PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Larrabee (der Spekulationsthread)


Seiten : 1 2 3 4 [5] 6 7 8 9

Gaestle
2009-04-15, 12:28:34
Bleibt natürlich die Frage, was er als Mainstream definiert.
Anfang 2010 könnte man darunter den Bereich von RV740/GT215 bis RV870Pro verstehen.



Vermutlich wird Anfang 2010 (upper)Mainstream in etwa die Leistung des derzeitigen (Single-Chip)High-End liefern.

Milchmädchenrechnung:
Nächstes High-End wird ca. 2x aktuelles (Single-Chip)High-End haben,
davon etwa zwei Drittel für dann (upper)Mainstream.

Ich denke, RV740 fällt da nicht mehr rein.

AnarchX
2009-04-15, 12:34:24
Vermutlich wird Anfang 2010 (upper)Mainstream in etwa die Leistung des derzeitigen (Single-Chip)High-End liefern.

Milchmädchenrechnung:
Nächstes High-End wird ca. 2x aktuelles (Single-Chip)High-End haben,
davon etwa zwei Drittel für dann (upper)Mainstream.

Ich denke, RV740 fällt da nicht mehr rein.
Rein statistisch sollte es im April 2010 2-mal die Leistung einer GTX260/4870 für 150€ geben:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7199286#post7199286

Das könnte schon schwer für Intel mit LRB zu erreichen sein, wenn man die Andeutung von Ailuros betrachtet und auf Basis der aktuellen Daten von Intel eine möglich LRB-SKU sich vorstellt. Zu diesem Zeitpunkt sollte man wohl doch schon mit der Umstellung auf 32nm begonnen haben.

Gaestle
2009-04-15, 17:13:59
Ja, dann eben so.
Ich will darauf hinaus, dass dann (Q1/2010) RV740 und G215 schon zum low-End gehören dürften. LRB sollte bei Erscheinen (wenn man an der von mboeller zitierten Aussage bleibt) mindestens aktuelles (SC-)High-End erreichen (nach Deiner Rechnung sogar noch deutlich mehr), um dann noch als Mainstream zu zählen.

AnarchX
2009-04-15, 17:37:07
Ist eben eine Frage der Definition:
Low-End imo eher die Karte <50€, mit DDR2 oder 64-Bit MC bzw. beidem. Mainstream, also Karte für die breite Masse und dem Durchschnitts-PC ist dann doch eher der Bereich von diesen 50€ bis knapp über 100€, wo bis Anfang 2010 noch RV740 und GT215 hineinfallen werden.
Knapp darüber positioniert sich dann eben RV870Pro (bzw. schon ein 32nm Ableger) und ein GT300-Derivat, was dann doch eher der Performance-Bereich ist.

Gaestle
2009-04-15, 17:55:15
Hmmm.

Okay, Definitionsfrage. Nach althergebrachter Sortierung wäre Low-End bei mir 50-100€. Alles drunter ist für mein Verständnis Lowest end (fast analog zu IGP). Mainstream wäre nach dieser Klassifikation bei mir 130-180€ und Performance 180-300€.

Aber in der aktuellen Situation nach dem Preiskampf muss man sich - denke ich - von einer Klassifizierung nach Preisen lösen. Nach meinem Empfinden bekommt man heute Permance-Leistung zu Mainstream-Preisen (RV770 / 260GTX), während man Mainstream-Leistung zu Low-End-Preisen bekommt. High-End-Leistung gibt's zu Performance-Preisen.

Ums vielleicht nochmal deutlicher zu machen: Meine vorangegangenen Beiträge sollten nicht nach Preisen klassifizieren, sondern nach einer relativen Einordnung nach Leistung, wobei das Maximale (egal von welchem IHV, solange es sich wie ein Single-Chip-Design verhält - dieses Verhalten kann z.B. auch mit mehreren Cores auf einem Die oder so realisiert werden) dann High-End ist.
Performance hat ca. 80% Leistung von High-End
Mainstream hat ca. 60%
Low-End steht bei 40%
und Lowest-End bei 20%

Oder so. Das ist alles nicht in Stein gemeißelt und ein paar Schwankungen +/- 10-15% wird es immer geben. Das sollte nur meine grobe Klassifikation verdeutlichen.

Zugegebenermaßen gibt es in dieser Klassifikation keinen echten Platz für X2-Lösungen, das wäre dann vielleicht "Uber-High-End" (TM ;) ). Aber für mich (tief in meinem Inneren) zählen X2-Lösungen nicht wirklich, solange es bei manchen Titeln keine entsprechende Leistungssteigerung gibt, weil SLi oder CF nicht richtig funktionieren oder Mikroruckkler auftreten. Deswegen auch der Einschub mit dem Multicore-Design, welches sich wie ein Single-Chip-Design VERHÄLT (das würde für mich dann wieder zählen). Was für ein Durcheinander.

AnarchX
2009-04-18, 20:50:42
Bei Intel gibt es nun wohl auch ein Foto mit Gelsinger der einen Larrabee-Wafer hält:
http://download.intel.com/pressroom/kits/events/idfspr_2009/PatSpeech2.JPG

Ailuros
2009-04-19, 10:33:03
http://www.xbitlabs.com/news/video/display/20090415234037_Intel_Demos_Wafer_with_Larrabee_Chips_Promises_Graphics_Cards_in_ Early_2010.html

AnarchX
2009-04-19, 10:47:54
Fragt sich wie viele Cores diese High-End-Version hat.
In dem Siggraph-Paper sagt man ja dass 10 zu LRB ähnliche Cores genau soviel Platz benötigen wie ein Conroe (also 147mm²@ 65nm), dazu kommt natürlich noch der TMU-Block und der On-Die-MC.

Ailuros
2009-04-20, 09:45:16
Fragt sich wie viele Cores diese High-End-Version hat.
In dem Siggraph-Paper sagt man ja dass 10 zu LRB ähnliche Cores genau soviel Platz benötigen wie ein Conroe (also 147mm²@ 65nm), dazu kommt natürlich noch der TMU-Block und der On-Die-MC.


Kann sein dass der =/>1 TFLOP chip als erster antanzt. Auf der Basis kann man schon rueckwaerts spekulieren.

turboschlumpf
2009-04-20, 21:29:49
So langsam liegen die Puzzlestücke zu Larrabee alle auf dem Tisch, sie müssen nur noch richtig zusammengesetzt werden.

• 'first discrete graphics products in late 2009 or early 2010'
• 'volume introduction early next year'
• 'produced either using 32 nm or 45 nm process technology'
• 'many derivatives over time'
• der auf dem IDF gezeigte Wafer ist eine 'extreme version'
• extreme version < 700 mm² (allerdings ist unklar ob der Wafer noch in 45 nm oder schon in 32 nm gefertigt wurde)
• wahrscheinlich sind Versionen unter anderem mit 24, 32 und 48? (extreme version?) Cores
• Taktfrequenz ziemlich sicher irgendwo zwischen 1.000 und 3.000 MHz

reunion
2009-04-20, 21:33:02
• extreme version < 700 mm² (allerdings ist unklar ob der Wafer noch in 45 nm oder schon in 32 nm gefertigt wurde)


Ist es nicht, da eine 32nm Wafer mit solchen Chips zurzeit Utopie ist.

Undertaker
2009-04-20, 21:39:45
Hmm, prozesstechnisch könnte das für Intel zum Jahreswechsel durchaus möglich sein... Denn viel einfacher dürfte die Produktion des 6-Kern Westmere in diesem Zeitraum auch nicht sein.

AffenJack
2009-04-20, 21:48:32
ähemm, westmere ist max. 250mm² groß und davon sind vll 150mm2 logik und rest cache, 600mm² mit deutlich mehr logikanteil ist da ne ganz andere sache.

reunion
2009-04-20, 21:49:44
Und Minimum 50% Cache. Außerdem kommt Westmere auch erst 2010.

Undertaker
2009-04-20, 21:57:31
Wohl irgendwann zum Jahreswechsel, eine EE evntl. sogar noch dieses Jahr - wegen ein paar Wochen braucht man sich ja nicht zu streiten. Rein prinzipiell besteht ein Chip wie der Larrabee doch aus vielen Kernen mit recht geringer Komplexität, im Gegensatz zu einer CPU - insofern würde ich die Schwierigkeit nicht an der reinen Diefläche festmachen.

reunion
2009-04-20, 22:06:18
Westmere kommt im H1/2010, das kann auch im Juni sein.

turboschlumpf
2009-04-20, 22:12:38
Ist es nicht, da eine 32nm Wafer mit solchen Chips zurzeit Utopie ist.
Bei Chips die nicht funktionieren müssen hätte es auch ein 32-nm-Wafer sein können. Aber da die Chips für das Debugging gedacht sind muss ich dir zustimmen.

Umso besser für Intel. Dann sind in 32 nm durchaus 64 Cores denkbar.

Undertaker
2009-04-20, 22:13:47
Westmere kommt im H1/2010, das kann auch im Juni sein.

Quartal 4/09 geht er laut Intel in Produktion, in den letzten Jahren hat dies beispielsweise bei Penryn oder Nehalem noch zu mehr oder weniger problemloser Verfügbarkeit noch im selben Jahr gereicht.
Der Prozess scheint zumindest definitiv fertig und imho könnte ihn auch bei Larrabee zum Einsatz bringen - die Frage ist, ob man dies aus verschiedensten Gründen (z.B. den anfangs geringen Produktionskapazitäten in einem neuen Prozess) auch wirklich will...

reunion
2009-04-20, 22:16:30
Im Q4/2009 ist laut Intel 32nm gerade mal "production ready":
http://www.computerbase.de/bildstrecke/24600/7/
Das kann viel heißen.

Eine Larrabee-Wafer in 32nm mit derart großen Dice im Q1 ist vollkommen utopisch.

turboschlumpf
2009-04-20, 22:20:02
So langsam liegen die Puzzlestücke zu Larrabee alle auf dem Tisch, sie müssen nur noch richtig zusammengesetzt werden.

• 'first discrete graphics products in late 2009 or early 2010'
• 'volume introduction early next year'
• 'produced either using 32 nm or 45 nm process technology'
• 'many derivatives over time'
• der auf dem IDF gezeigte Wafer ist eine 'extreme version'
• extreme version < 700 mm² (allerdings ist unklar ob der Wafer noch in 45 nm oder schon in 32 nm gefertigt wurde)
• wahrscheinlich sind Versionen unter anderem mit 24, 32 und 48? (extreme version?) Cores
• Taktfrequenz ziemlich sicher irgendwo zwischen 1.000 und 3.000 MHz


Die Frage ist jetzt halt: Wann kommt welche Version (Anzahl Cores + Taktrate) in welchem Fertigungsprozess?

• Extreme-Version mit 48 Cores in 45 nm Ende 2009 (< 700 mm²)
• Volumen-Versionen mit ≤ 32 Cores in 32 nm Anfang 2010 ( < 250 mm²)
• Extreme-Refresh mit 64 Cores in 32 nm Mitte 2010 ( < 500 mm²)

Das wäre zumindest schlüssig. [Anm.: selbstverständlich alles nur Spekulation]

Undertaker
2009-04-20, 22:25:04
Im Q4/2009 ist laut Intel 32nm gerade mal "production ready":
http://www.computerbase.de/bildstrecke/24600/7/
Das kann viel heißen.

Eine Larrabee-Wafer in 32nm mit derart großen Dice im Q1 ist vollkommen utopisch.

Was kann man denn an "produktion ready" groß anders verstehen, als das der Prozess reif für die Produktion ist? :confused: Letztlich wurde wohl nur die Priorität der 32nm Fertigung auf den Clarkdale verschoben... Und nochmal, die Komplexität vieler vergleichsweise simplerer Kerne relativiert die große Chipfläche deutlich... Dazu wie Turboschlumpf schreibt möglicherweise auch eine Trennung, je nach dem um welches Modell mit wie vielen Kernen es sich handelt. Lassen wir aus "early 2010" dann vielleicht auch noch März oder später werden, würde ich sogar sehr sicher mit 32nm rechnen. Aber warten wir es ab ;)

reunion
2009-04-20, 22:28:12
Was kann man denn an "produktion ready" groß anders verstehen, als das der Prozess reif für die Produktion ist? :confused: Letztlich wurde wohl nur die Priorität der 32nm Fertigung auf den Clarkdale verschoben...

Production ready für was? Für hochkomplexe Chips oder nur für simple Tests?


Und nochmal, die Komplexität vieler vergleichsweise simplerer Kerne relativiert die Große Chipfläche deutlich...

Das ist kompletter BS, sorry.


Lassen wir aus "early 2010" dann vielleicht auch noch März oder später werden, würde ich sogar sehr sicher mit 32nm rechnen. Aber warten wir es ab ;)

Intel will das Ding wie erst kürzlich gesagt noch 2009 bringen. Man hat sich allerdings eine Hintertür offen gelassen ja.

AffenJack
2009-04-20, 22:31:00
nein, sie relativiert die chipfläche nicht wirklich. gt200 hat auch 240 simple steamprozessoren und die anderen einheiten sind auch immer vielfach, müsste dann doch noch leichter zu produzieren sein. So leicht ists das aber nicht. cache ist zu großen teilen redundant. Bei Logik ist das weniger der Fall und da isses egal obs kleine cores oder was auch immer ist.

Undertaker
2009-04-20, 22:34:59
Das ist kompletter BS, sorry.


Das ist kein BS sondern Fakt. Die Frage die du stellen kannst wäre maximal, ob es ausreichend relativiert. Dazu der Punkt, das man womöglich das größte High-End Modell von der kleineren Fertigung ausschließt.

reunion
2009-04-20, 22:39:19
nein, sie relativiert die chipfläche nicht wirklich. gt200 hat auch 240 simple steamprozessoren und die anderen einheiten sind auch immer vielfach, müsste dann doch noch leichter zu produzieren sein. So leicht ists das aber nicht. cache ist zu großen teilen redundant. Bei Logik ist das weniger der Fall und da isses egal obs kleine cores oder was auch immer ist.

Es ist vollkommen egal wenn man nicht ganze Kerne redundant auslegt. Denn wenn ich in einem dieser "simplen Kerne" einen Fehler habe kann ich sonst trotzdem das gesamte Die wegschmeißen. Der Verschnitt am Rand nimmt mit der Die-Größe natürlich auch erheblich zu, und auch hier nutzen mir "simple Kerne" genau gar nichts. Wie du schon selbst sagst besteht jeder aktuelle Streamprozessor aus Hunderten identischen Kernen, das macht die Fertigung aber kein Stück einfacher.

reunion
2009-04-20, 22:41:44
Das ist kein BS sondern Fakt. Die Frage die du stellen kannst wäre maximal, ob es ausreichend relativiert. Dazu der Punkt, das man womöglich das größte High-End Modell von der kleineren Fertigung ausschließt.

Nenne mir nur einen Grund warum das so sein sollte. Wie die Waffer belichtet wird ist völlig gleichgültig. Es geht ganz einfach darum das bei einem hohen Logikanteil die Yieldraten aus bekannten Gründen sinken. Ebenso natürlich wie bei großen Dice.

Undertaker
2009-04-20, 22:46:30
Du sagst es schon, die vielfache Parallelität ist der Knackpunkt... Wie war das noch mit den Gerüchten, der RV770 hätte in Wirklichkeit 900 SPs? In diesem Fall wohl eine Falschmeldung, aber die Aussage ist klar. Bei einer Quadcore-CPU muss bei einem Defekt im Logikteil im schlimmsten Fall ein voller Kern deaktiviert werden, bei einer GPU mit zigfacher Parallelität fällt das kaum nennenswert ins Gewicht.

turboschlumpf
2009-04-20, 22:53:35
Die Aussagen 'first products in late 2009 or early 2010' und 'volume introduction early next year' sind nicht das selbe!

Der Wafer der die Extreme-Version (ich spekuliere mal auf 48 Cores) zeigt, wurde ziemlich sicher in 45 nm hergestellt. Da liegt es selbstverständlich nahe, dass diese Extreme-Version (= 'first products') auch zur Markteinführung in 45 nm hergestellt wird. Und das würde eine Markteinführung noch in 'late 2009' ermöglichen.

Die Volumen-Versionen (= 'volume introduction') könnten etwas später starten und dann direkt in 32 nm hergestellt werden. Bei geschätzt nur 250 mm² bei 32 Cores ist das durchaus realistisch.

Die Frage ist jetzt halt: Wann kommt welche Version (Anzahl Cores + Taktrate) in welchem Fertigungsprozess?

• Extreme-Version mit 48 Cores in 45 nm Ende 2009 (< 700 mm²)
• Volumen-Versionen mit ≤ 32 Cores in 32 nm Anfang 2010 ( < 250 mm²)
• Extreme-Refresh mit 64 Cores in 32 nm Mitte 2010 ( < 500 mm²)

Das wäre zumindest schlüssig. [Anm.: selbstverständlich alles nur Spekulation]

turboschlumpf
2009-04-20, 23:25:20
Denkt ihr 2 GHz sind für Larrabee realistisch?


Cores 1 GHz 2 GHz 3 GHz

8 0,3 TFLOPS 0,5 TFLOPS 0,8 TFLOPS
16 0,5 TFLOPS 1,0 TFLOPS 1,5 TFLOPS
24 0,8 TFLOPS 1,5 TFLOPS 2,3 TFLOPS
32 1,0 TFLOPS 2,0 TFLOPS 3,0 TFLOPS
40 1,3 TFLOPS 2,5 TFLOPS 3,8 TFLOPS
48 1,5 TFLOPS 3,0 TFLOPS 4,5 TFLOPS
56 1,8 TFLOPS 3,5 TFLOPS 5,3 TFLOPS
64 2,0 TFLOPS 4,0 TFLOPS 6,0 TFLOPS

Coda
2009-04-21, 04:28:24
Wie war das noch mit den Gerüchten, der RV770 hätte in Wirklichkeit 900 SPs?
Das ist kein Gerücht.

Sefegiru
2009-04-21, 12:48:36
Eben, die die da über sind sozusagen backUp für kaputte bzw es ist so eingeplant das nicht 100% funktionieren man aber immer noch die in der Spec geschriebene Anzahl hat.

Ailuros
2009-04-21, 18:27:01
Denkt ihr 2 GHz sind für Larrabee realistisch?


Cores 1 GHz 2 GHz 3 GHz

8 0,3 TFLOPS 0,5 TFLOPS 0,8 TFLOPS
16 0,5 TFLOPS 1,0 TFLOPS 1,5 TFLOPS
24 0,8 TFLOPS 1,5 TFLOPS 2,3 TFLOPS
32 1,0 TFLOPS 2,0 TFLOPS 3,0 TFLOPS
40 1,3 TFLOPS 2,5 TFLOPS 3,8 TFLOPS
48 1,5 TFLOPS 3,0 TFLOPS 4,5 TFLOPS
56 1,8 TFLOPS 3,5 TFLOPS 5,3 TFLOPS
64 2,0 TFLOPS 4,0 TFLOPS 6,0 TFLOPS


Kommt ganz drauf an ab welchem Punkt genau Du eine externe Stromversorgung fuer so ein Ding tolerieren willst.

[fu]121ah@home
2009-04-21, 20:58:24
Kommt ganz drauf an ab welchem Punkt genau Du eine externe Stromversorgung fuer so ein Ding tolerieren willst.
die taktraten sind zwar bei einfachen cores leichter zu erhöhen, dürften allerdings durch die hohe parallelität und dem dafür notwendigen interface und dessen komplexität wiederum sinken.

ich rechne nicht mit über 1,5ghz bis mitte 2010. reine speku :)

^^extern ala v5 6000 oder extern ala pci-e stromversorgung?

misterh
2009-04-21, 21:06:36
http://www.brightsideofnews.com/news/2009/4/16/intel-says-no-to-28nm2c-focuses-on-22nm-ivy-bridgehaswell--larrabee.aspx

Gast
2009-04-21, 22:42:10
Gibt es schon Andeutungen von Herstellern a la Autodesk im Bezug auf die Unterstützung in deren 3d Anwendungen?

turboschlumpf
2009-04-22, 02:35:50
http://www.brightsideofnews.com/news/2009/4/16/intel-says-no-to-28nm2c-focuses-on-22nm-ivy-bridgehaswell--larrabee.aspx


Falls jemand zu faul ist den Link anzuklicken:

[...]

When it comes to its GPU line-up, Intel plans to adopt 32nm process for its Larrabee core as soon as possible. The chip giant is working on several 32nm Larrabee designs, with at least one being planned for "fusing" with the CPU die on a processor socket - succeeding Clarkdale. The company is keeping its tick-tock model for Larrabee as well, using a mature manufacturing process for new architecture, applying a die-shrink, followed by a launch of the new architecture using the same architecture as the die-shrunk one. In case of Larrabee, 45nm is a start, 32nm is a die-shrink, and real second gen part is 32nm, then 22nm die-shrink and so on.

[...]

Quelle: http://www.brightsideofnews.com/news/2009/4/16/intel-says-no-to-28nm2c-focuses-on-22nm-ivy-bridgehaswell--larrabee.aspx


Das würde zu meinen Spekulationen passen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7248291#post7248291

Ailuros
2009-04-22, 07:25:04
121ah@home;7250043']
^^extern ala v5 6000 oder extern ala pci-e stromversorgung?

V5 6k

Falls jemand zu faul ist den Link anzuklicken:
Das würde zu meinen Spekulationen passen: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7248291#post7248291

Mit dem klitzekleinen Unterschied dass ich jegliche Integration von LRB in SoCs ernsthaft bezweifle. Intel vermarktet Atom/Poulsbo hauptsaechlich mit dem Argument des kleinsten Stromverbrauchs; ausser natuerlich zich Male so hoher Stromverbrauch soll in der Zukunft ein "Feature" sein.

turboschlumpf
2009-04-24, 15:08:34
Laut Anandtech (siehe 1 (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3367&p=2)) sollen ja zehn Larrabee-Cores in etwa die gleiche Die-Area besitzen wie Conroe (143 mm²). 64 Cores lägen dann bei 915 mm² in 65 nm. Bei einem Skalierungsfaktor von 0,7 (siehe 2 (http://www.chip-architect.com/news/2007_02_19_Various_Images.html)) wären das 641 mm² in 45 nm. Die Die-Area der auf dem IDF gezeigten 'Extreme-Version' schätze ich auf 650-700 mm². Vielleicht hat die 'Extreme-Version' also sogar schon 64 Cores?

Wahrscheinlich? Nein. Aber auch nicht unmöglich. Oder was denkt ihr?

Coda
2009-04-24, 15:11:59
Gibt es schon Andeutungen von Herstellern a la Autodesk im Bezug auf die Unterstützung in deren 3d Anwendungen?
Für was braucht es da die Unterstützung von Autodesk? Intel muss einen funktionierenden OpenGL-Treiber liefern und fertig.

[fu]121Ah
2009-04-24, 15:21:35
Laut Anandtech (siehe 1 (http://www.anandtech.com/cpuchipsets/intel/showdoc.aspx?i=3367&p=2)) sollen ja zehn Larrabee-Cores in etwa die gleiche Die-Area besitzen wie Conroe (143 mm²). 64 Cores lägen dann bei 915 mm² in 65 nm. Bei einem Skalierungsfaktor von 0,7 (siehe 2 (http://www.chip-architect.com/news/2007_02_19_Various_Images.html)) wären das 641 mm² in 45 nm. Die Die-Area der auf dem IDF gezeigten 'Extreme-Version' schätze ich auf 650-700 mm². Vielleicht hat die 'Extreme-Version' also sogar schon 64 Cores?

Wahrscheinlich? Nein. Aber auch nicht unmöglich. Oder was denkt ihr?
unwahrscheinlich. verschnitt auf der seite, redundanzen, alles so zeug... die frage ist eher, wie viel platz die caches einnehmen, und wie gross oder klein die sind ;) falls diese wenig platz verbrauchen, könnten die 64 hinkommen, ansonsten sind 48 schon eine gute leistung.

misterh
2009-04-24, 19:04:43
http://www.gamestar.de/hardware/news/vermischtes/1955580/intel_sagt_die_zukunft_voraus.html

Nakai
2009-04-24, 19:08:36
Wenn wir an den Grenzen der Fertigung stoßen, dann werden dedizierte Einheiten wieder mehr von Bedeutung sein.


mfg Nakai

Coda
2009-04-24, 19:13:14
Glaub ich kaum, da die Software sich dann schon lange auf die Flexibilität eingestellt hat (direkte Programmierung von LRB) und man das dann nicht einfach zurückziehen kann.

Exxtreme
2009-04-24, 19:24:25
Naja, ich bleibe dabei. Wenn Larrabee nicht sofort einschlägt wie eine Bombe dann kann Intel das Projekt IMHO knicken. Und damit das Ding eine Bombe wird da fehlt Intel die Erfahrung. Die müssten schon AMDs Grafiksparte oder ganz Nvidia übernehmen. Denn selbst wenn sie die Leute abwerben, diese Leute müssten quasi von Null anfangen.

reunion
2009-04-24, 19:29:00
Intels CEO machte eh kein Geheimnis daraus das man ursprünglich einen Grafikhersteller übernehmen wollte, allerdings gab zu es starke kartellrechtliche Bedenken. Wie es jetzt ist sehe ich die Sache aber auch nicht so kritisch. Intel hat schon genug Leute abgeworben, und Ausdauer hat man mit Sicherheit auch genug.

Gast
2009-04-24, 22:56:37
Intels CEO machte eh kein Geheimnis daraus das man ursprünglich einen Grafikhersteller übernehmen wollte, allerdings gab zu es starke kartellrechtliche Bedenken. Wie es jetzt ist sehe ich die Sache aber auch nicht so kritisch. Intel hat schon genug Leute abgeworben, und Ausdauer hat man mit Sicherheit auch genug.
Seh ich genauso. Wenig Zeit ist zudem auch nicht verstrichen. Geld sicherlich auch nicht:)
Ich bin mir ziemlich sicher das Larrabee eher etwas überdurchschnittlich in den Markt vorstoßen wird. Nicht zu stark, aber sicher dennoch gut im Feld. Glaube jedoch das Intel das Performence/Geld Verhältniss ebenfalls überdurchschnittlich am Markt positionieren wird, damit auch Technikgeile schonmal genug Schotter auf der Strecke liegen lassen sollen.

Larrabee als Rasterizer wird sicher keine große Performenceüberraschung bieten, aber evtl. mit überraschend guter Rayracingperformence daherkommen, die leider (vorerst) bei der derzeitigen Marktgröße der Spiele mit Raytracing anteilen, verpuffen wird.

Naja, mehr als Spekulationen auf Basis der ebenfalls spekulierten Daten bezüglich der Fertigung/Release etc., kann man derzeit in den Raum stellen. Wir müssen auf die ersten Test und Benchs warten, so oder so.

By the way. Danke für die Info bezüglich Autodesk. Daran habe ich überhaupt nicht gedacht:)

Schönen Abend dann allen noch.

Gipsel
2009-04-25, 05:51:00
Wie war das noch mit den Gerüchten, der RV770 hätte in Wirklichkeit 900 SPs?Das ist kein Gerücht.
Es sind aber eher nur 850 ;)
Wenn man sich mal die Die-Shots des RV770 genauer anschaut, dann scheinen da pro SIMD 17 identische VLIW Einheiten (16 werden genutzt) zu sein. Zumindest sind 17 identische Register files mit je 16kB verbaut. Der Rest gegenüber dem 17. Register file sieht deutlich anders aus (größer) und ist irgendetwas anderes. Außerdem wäre für die Logik von zwei SPs dort nicht genügend Platz. In Frage käme z.B. sowas wie der LDS (ebenfalls 16kB, hat aber mehr Ports). Der soll ja laut diversen Blockdiagrammen in den SIMDs liegen und nicht in den Textureinheiten wie der L1-Cache (wie verläßlich das auch immer ist).

KonKorT
2009-04-28, 21:50:11
Was man so auf der Jon Peddie Research-Startseite sichten kann... ;)

Vermutlich wilde Spekulation, aber dennoch vielleicht für den ein oder anderen ganz interessant.

[...] OK, for $300 what’s a 500 MB DDR3 board? Ding—Larrabee! Right.

So, wrapping up our speculation for the week, Larrabee will be demonstrated at Fall IDF in San Francisco, available in the channel in Q1’10, have 64 processors, use 150 W (min), have 500 MB of DDR3 memory, and sell for $199.

But wait, there’s more. Wildass speculation of the month: a special enthusiast version will be offered with two (click click count ‘em, two) Larrabee chips, a GB of GDDR5, and require 300 Watts and sell in the enthusiastic segment for $529.33.

Quelle: Jon Peddie Research (http://www.jonpeddie.com/)

Gipsel
2009-04-28, 22:43:12
Was man so auf der Jon Peddie Research-Startseite sichten kann... ;)

Vermutlich wilde Spekulation, aber dennoch vielleicht für den ein oder anderen ganz interessant.

Quelle: Jon Peddie Research (http://www.jonpeddie.com/)
Uhh, was die da über Transistorzahl und Stromverbrauch von Larrabee spekulieren tut ja fast schon körperlich weh! Und Anfang 2010 nur 512MB GDDR3 auf einem Board für 200$? Da will Intel wohl nichts von verkaufen ;)

Daß ein Larrabee Kern zwei kompletten Shader Multiprocessors der GT200 entspricht, also einem halben Cluster der GT300, ist denen irgendwie komplett entgangen. Ich bin ziemlich sicher, daß Larrabees Top-Version mit (edit: maximal) 32 Kernen kommen wird, also effektiv der gleichen Anzahl Einheiten wie der GT300. Alles andere wäre ehrlich gesagt fast ein Wunder (oder der 32nm Prozeß ist richtig gut) angesichts der zusätzlichen kohärenten Caches und den viel komplizierteren Registerfiles des Larrabee im Vergleich zu herkömmlichen GPUs.

turboschlumpf
2009-04-28, 23:30:12
[...]

So, if we assume 5 million transistors for each Larrabee processor, and a power budget of 700mW, then a 64-processor chip, at 45 nm would draw about 45 watts.

[...]

Quelle: http://jonpeddie.com/back-pages/details/larrabee_is_coming_larrabee_is_coming/
omg!

The Jackal
2009-04-29, 08:56:05
Ich glaube das der Larrabee bei den professionellen Lösungen reißenden Absatz finden wird. Gerade da hat Matrox ein klaffendes Loch hinterlassen.
Ich hab keine bedenken das Intel das nicht hinkriegen soll. Der Larrabee ist ja nichts anderes als ein riesen CPU Claster, und Intel macht ja seit je her nichts anderes als CPU's.
Hoffentlich kommt der Larrabee in jeder Version mit einem Licenzetreiber für die CAD/CAM Programme.
Auserdem hab ich das Hardwaregeprügel satt, immer DX7 DX8 8.1 DX9 DX10 10.1 DX11. Endlich mal eine Hardware die alles kann, da frei programierbar. Nur dadurch limmitert das irgndwann einfach die Rechenleistung ausgeht.

BlackBirdSR
2009-04-29, 09:32:53
omg!

Analysten eben.. warum heißen die Analysten, wenn sie nicht richtig analysieren können?

a)
*Die Kerne müssen um 64Bit erweitert werden
*die zusätzliche ISA
*Die SIMD-EInheit
*Neuere Technologie, die man bisher entwickelt hat und sich günstig auf die Performance auswirken
*SMT?
*Microcode-ROM
*Fixed-Function
*Speicherinterface
*Datenpfade

b) das Ganze dann bitte nicht mit 600MHz, sondern 2GHz. Die Verlustlleistung steigt entsprechend.

misterh
2009-04-29, 23:22:04
http://bradpierce.wordpress.com/2009/04/28/intel-larrabee-multicore-made-c-simple/

ShadowXX
2009-04-30, 00:07:37
http://bradpierce.wordpress.com/2009/04/28/intel-larrabee-multicore-made-c-simple/
Und warum haben Sie diesen Compiler noch nicht für die "normalen" X86-CPUs gebracht (wenn er so funktioniert wie da beschrieben)?

Ich gehe mal davon aus, das auch bei dieser Meldung der Wunsch Vater des Gedankens (Analysten) war....

BlackBirdSR
2009-04-30, 00:13:21
Und warum haben Sie diesen Compiler noch nicht für die "normalen" X86-CPUs gebracht (wenn er so funktioniert wie da beschrieben)?

Ich gehe mal davon aus, das auch bei dieser Meldung der Wunsch Vater des Gedankens (Analysten) war....

Das ist doch nur ein Zusatz zum Intel-Compiler. Damit wird es möglich, diese vielen Kerne (Larrabee un Co) für gezeilte Applikationen auch effektiver zu versorgen. Eine wundersame Parallelität wo keine ist, kann auch dieser Zusatz nicht erzeugen.

Exxtreme
2009-04-30, 09:06:46
Intels CEO machte eh kein Geheimnis daraus das man ursprünglich einen Grafikhersteller übernehmen wollte, allerdings gab zu es starke kartellrechtliche Bedenken. Wie es jetzt ist sehe ich die Sache aber auch nicht so kritisch. Intel hat schon genug Leute abgeworben, und Ausdauer hat man mit Sicherheit auch genug.
Das Ding ist trotzdem komplett anders als die bisherigen GPUs. Folglich sind die Spiele per se unoptimiert für Larrabee. Meinst du wirklich, Intel hat so ein überlegenes Knowhow um da trotzdem genug rauszuholen und sowohl AMD wie auch NV zu überflügeln? Ich nicht. Nur schafft Intel es nicht die Konkurrenz zu überflügeln dann können sie es vergessen. Oder sie werden etliche AA-Titel-Studios übernehmen müssen damit diese dann Larrabee-optimierte Spiele rausbringen.

Gast
2009-04-30, 09:42:14
Spiele sind per se für überhaupt keinen Chip optimiert, weil kein chipspezifischer Code drin ist. Die Optimierung auf den Chip ist Aufgabe des Treibers.

ShadowXX
2009-04-30, 11:00:31
Das ist doch nur ein Zusatz zum Intel-Compiler. Damit wird es möglich, diese vielen Kerne (Larrabee un Co) für gezeilte Applikationen auch effektiver zu versorgen. Eine wundersame Parallelität wo keine ist, kann auch dieser Zusatz nicht erzeugen.
Das war auch mehr als rhetorische Frage gedacht....

HarryHirsch
2009-04-30, 11:43:42
Spiele sind per se für überhaupt keinen Chip optimiert, weil kein chipspezifischer Code drin ist. Die Optimierung auf den Chip ist Aufgabe des Treibers.

Man kann sie aber auf eine Chiparchitektur optimieren.

BlackBirdSR
2009-04-30, 12:59:21
Man kann sie aber auf eine Chiparchitektur optimieren.

Eher auf den Treiber, dessen Bugs und Eigenheiten.
An genau diesem Punkt wird Intel Probleme bekommen.

misterh
2009-05-01, 16:48:51
http://www.ddj.com/hpc-high-performance-computing/217200602?cid=RSSfeed_DDJ_All

Exxtreme
2009-05-01, 17:14:09
Spiele sind per se für überhaupt keinen Chip optimiert, weil kein chipspezifischer Code drin ist. Die Optimierung auf den Chip ist Aufgabe des Treibers.
Du kannst aber für bestimmte Konzepte optimieren. Und da unterscheidet sich Larrabee schon sehr von den bisherigen Konzepten. Und da liegt der Knackpunkt. Bringt Larrabee mit den bis dato existierenden Spielen keine gute Leistung dann kauft man es nicht und fertig. Und dann wird's u.U. ein Rohrkrepierer. Bzw. Intel wird noch viel mehr Kohle zücken müssen um einige Entscheidungen in Richtung Larrabee-Konzept zu lenken.

=Floi=
2009-05-01, 17:52:27
larrabee könnte auch als GPGPU-Karte vermarktet werden, die man zusätzlich zu einer normalen grafikkarte verbaut. Wenn hier der vorteil wesentlich größer ist wie bei den anderen 2 sehe ich hier eher vorteile.
larrabee bräuchte bloß eine stärke bei raytraycing und GPGPU (als zusatzkarze für physx, DX11 und opencl) Die reine softwarebasis für gpgpu könnte hier larrabee sehr stark fördern.

Als einzelkarte kann man ihn sicherlich NICHT in den nächsten 3 jahren einsetzen.

dust
2009-05-01, 20:41:27
hat intel seine strategie geändert?

http://www.fudzilla.com/index.php?option=com_content&task=view&id=10349&Itemid=34
Since the first products will go after the professional market it's highly likely that we will see a Linux driver as some of the professional guys use Linux;

Desktop / gaming Larrabee will probably come much later after workstation, simply as workstation driver is complex and hard but at the same time you only need to optimize OpenGL, as this is what most of the workstation software uses,

BlackBirdSR
2009-05-01, 20:54:59
Ich denke einfach, bei Spielen wird Intel mehr Konkurrenz haben. Da zählen neben Performance noch Image und Treiber. Gerade bei Spielen kann extrem viel am Treiber schief gehen oder, durch zu wenig Zusammenarbeit mit den Studios, nicht 100% perfekt funktionieren.

Sehr schnell zerstört man sich da Image und Käuferbasis. Intel muss ne ganze Menge an Customer-Support betreiben, damit die Sache von Beginn an Rund läuft. Da würde ich mein Produkt auch nicht so schnell auf den Spiele-Markt loslassen. Zumal Spieler mehr auf Verbrauch und Kühlung achten (müssen).

DerKleineCrisu
2009-05-01, 22:04:05
Zumal Spieler mehr auf Verbrauch und Kühlung achten (müssen).

Das ist leider Wunschdenken, ich kann mich noch erinnern wie jeder auf
Nvidia geschimpft hat wo diese ne Graka auf den Markt geworfen haben
wo 100Watt gezogen hat.

Heute kann man ja mal froh sein wenn dieser Wert mal erreicht wird, die meisten
Graka brauchen deutlich mehr und die meisten juckt es einfach nicht.
Diese Entwicklung finde ich sehr traurig da beide Hersteller komischerweise auch zeigen das es anders geht mit ihren Laptop Versionen.

Ailuros
2009-05-01, 22:47:11
Das ist leider Wunschdenken, ich kann mich noch erinnern wie jeder auf
Nvidia geschimpft hat wo diese ne Graka auf den Markt geworfen haben
wo 100Watt gezogen hat.

Heute kann man ja mal froh sein wenn dieser Wert mal erreicht wird, die meisten
Graka brauchen deutlich mehr und die meisten juckt es einfach nicht.
Diese Entwicklung finde ich sehr traurig da beide Hersteller komischerweise auch zeigen das es anders geht mit ihren Laptop Versionen.

Nochmal auch fuer Dich: wuerde Intel eine Version von LRB vorstellen die auf dem gleichen Leistungsnivaeu wie die D3D11 GPUs von NVIDIA und AMD liegen wuerden, wuerde Intel mit der LRB Variante jeglichen die-size und Stromverbrauchs-rekord brechen.

DerKleineCrisu
2009-05-02, 09:50:49
....wuerde Intel mit der LRB Variante jeglichen die-size und Stromverbrauchs-rekord brechen.....

Und ich sage nochmal, die Leute interessiert es einfach nicht was ne Graka an
Strom verbraucht, Hauptsache sie hat Leistung satt.
Wie kannste es denn sonst Erklären das manche ne AMD 4870 / 4890 oder
die Nvidia 280 / 295 kaufen wenn der Spieler auf den Verbrauch schaut ?.

Eben weil es die Spieler nicht interessiert und die paar die es Interessiert rennen
bei diesen Leuten gegen ne Wand.
Das einzige was man hört ist: " Naja wenn man Leistung will muss man halt das
in Kauf nehmen "

Das es die Hersteller auch anders können zeigen immer die Laptop Varianten der Teile.


Im übrigen gilt das bei den CPU auch.
Siehe AMD mit ihren 130 W beim P2 940 . Juckt es einen ?. Nein ;)
Für mich selber sind solche Wert nicht tragbar.

AnarchX
2009-05-02, 11:34:54
Es geht hier wohl nicht um erhöhte Werte in der Spezifikationen, sondern um das sprengen dieser. ;)

Wenn LRB mit GT300 als Single-Chip in 3D-Games mithalten wöllte, dann bräuchte man wohl einen Chip der allein schon soviel kostet wie eine komplette GT300-Karte in der Herstellung und mit einer TDP von >>300W wohl eher in einem externen Gehäuse untergebracht werden müsste.:D

BlackBirdSR
2009-05-02, 12:10:54
Es geht hier wohl nicht um erhöhte Werte in der Spezifikationen, sondern um das sprengen dieser. ;)

Wenn LRB mit GT300 als Single-Chip in 3D-Games mithalten wöllte, dann bräuchte man wohl einen Chip der allein schon soviel kostet wie eine komplette GT300-Karte in der Herstellung und mit einer TDP von >>300W wohl eher in einem externen Gehäuse untergebracht werden müsste.:D

Das wäre eh meine Idee:
Bau noch eine SSD in das Gehäuse und statte LRB mit einem Netzwerkinterface aus und fertig ist die All-In-One-Lösung für Workstations und Renderfarmen ;)

Gast
2009-05-02, 12:39:05
Dann zitiere ich mal aus dem oben verlinkten Artikel von Abrash:
As I mentioned earlier, software rasterization will never match dedicated hardware peak performance and power efficiency for a given area of silicon, but so far, it's proven to be efficient enough. It also has a significant advantage, in that because it uses general-purpose cores, the same resources that are used for rasterization can be used for other purposes at other times, and vice versa. As Tom Forsyth puts it, because the whole chip is programmable, we can effectively bring more square millimeters to bear on any specific task as needed -- up to and including the whole chip. In other words, the pipeline can dynamically reconfigure its processing resources as the rendering workload changes. If we get a heavy rasterization load, we can have all the cores working on it. It wouldn't be the most efficient rasterizer per square millimeter, but it would be one heck of a lot of square millimeters of rasterizer, all doing what was most important at that moment; in contrast to a traditional graphics chip with a hardware rasterizer, where most of the circuitry would be idle when there was a heavy rasterization load. A little while later, when the load switches to shading, the whole Larrabee chip can become a shader if necessary. Software simply brings a whole different set of strengths and weaknesses to the table.
Ob das ständige Umschalten nicht zu teuer wird? So wie sich das liest soll ja scheinbar der ganze Chip immer genau eine Stufe der Grafikpipeline abarbeiten. Ich kenn mich mit GPUs nicht aus, aber ich denke mal dass bei den "konventionellen" zu jeder Zeit auf allen Pipelinestufen gearbeitet wird (an versch. Frames). Oder ist das tatsächlich so dass dort auch immer nur auf einer Stufe gearbeitet wird und die anderen haben Pause?
Andererseits, der Aufwand, um den optimalen Mix herzustellen welche Kerne jetzt gerade welche Rolle wahrnehmen müssen dürfte auch nicht allzu gering und potenziell fehlerträchtig, die Anforderung kann sich ja auch mal schnell ändern.

Gast
2009-05-02, 14:01:11
So, nachdem ich mich jetzt ein bisschen schlauer gemacht habe auf http://en.wikipedia.org/wiki/Graphics_pipeline:
The graphics pipeline is well suited to the rendering process because it allows the GPU to function as a stream processor since all vertices and fragments can be thought of as independent. This allows all stages of the pipeline to be used simultaneously for different vertices or fragments as they work their way through the pipe. In addition to pipelining vertices and fragments, their independence allows graphics processors to use parallel processing units to process multiple vertices or fragments in a single stage of the pipeline at the same time.
halte ich das von Abrash angedeutete Modell für wenig sinnvoll. Über mehrere Seiten wird die Rasterisierung auf Parallelität gekloppt, und im Gegenzug soll bereits vorhandene, nach WP scheinbar inhärente Parallelität hergeschenkt werden?
Und nochmal Abrash:
There's a lot to learn and rethink with Larrabee
Also ich weiß nicht. Sieht für mich ein bisschen danach aus als wolle man die Welt man wieder mal mit einem "Intel way" beglücken, wenn man das wirklich für haushaltsübliche 3D Grafik durchdrücken will. Für andere Anwendungsbereiche denk ich aber schon dass das Ding Gold wert sein kann.

=Floi=
2009-05-02, 14:41:04
bei 40nm ist aber auch genug platz für sehr viele transistoren. Intel ist dazu auch bei solchen sachen ziemlich kompetent und haben sicherlich gute dinge in der schublade. Das teil dürfte auch sehr gut taktbar sein und beim stromsparen sind sie auch "weltmeister". Die werden sicherlich hinter dem GT300 sein, aber viel wird es wohl nicht sein, wenn sie es denn wirklich wollen. Wenn ich nun davon ausgehe, dann sind sie aber ein stück VOR ATI und das ist ja auch schon etwas.

Es kommt auch auf die ausrichtung von LRB an. Je nachdem wo intel hinwill.

BlackBirdSR
2009-05-02, 16:04:30
bei 40nm ist aber auch genug platz für sehr viele transistoren.

Kann Intel in 45nm und 32nm die Skalierung der Packungsdichte nach unten wirklich beibehalten? Auch bei einem ASIC der mehr Logik als Cache besitzt?


Das teil dürfte auch sehr gut taktbar sein

Nur worauf leitest du das ab? Von Core2 und Nehalem? Gefährlich.


und beim stromsparen sind sie auch "weltmeister".

Nur sehen wir jeden Tag aufs Neue, dass eine CPU mit hohem Cache-Anteil, deren mittlere Auslastung um 1µop/Takt beträgt, ganz und gar nicht mit einer GPU zu vergleichen ist.

Ailuros
2009-05-02, 17:18:39
Und ich sage nochmal, die Leute interessiert es einfach nicht was ne Graka an
Strom verbraucht, Hauptsache sie hat Leistung satt.

LRB braucht mehr mm2 und Stromverbrauch fuer Leistung X als jegliche andere vergleichbare D3D11 GPU.

Wie kannste es denn sonst Erklären das manche ne AMD 4870 / 4890 oder
die Nvidia 280 / 295 kaufen wenn der Spieler auf den Verbrauch schaut ?.

LRB wird sich gegen RV870/GT3x0 stellen; Intel koennte froh sein wenn sie ueberhaupt in Sachen perf/mm2, perf/W oder perf/$ in die Naehe einer RV7x0 ruecken koennte.

Eben weil es die Spieler nicht interessiert und die paar die es Interessiert rennen
bei diesen Leuten gegen ne Wand.
Das einzige was man hört ist: " Naja wenn man Leistung will muss man halt das
in Kauf nehmen "

Nur wird aber LRB nicht schneller als seine direkte Konkurrenten....


Im übrigen gilt das bei den CPU auch.
Siehe AMD mit ihren 130 W beim P2 940 . Juckt es einen ?. Nein ;)
Für mich selber sind solche Wert nicht tragbar.

Die Konsolen-Hersteller hat es anscheinend alle gejuckt. Ein schoenes "nein" von allen Seiten.

bei 40nm ist aber auch genug platz für sehr viele transistoren. Intel ist dazu auch bei solchen sachen ziemlich kompetent und haben sicherlich gute dinge in der schublade. Das teil dürfte auch sehr gut taktbar sein und beim stromsparen sind sie auch "weltmeister".

Optimismus ist zwar eine schoene Sache, aber im gegebenen Fall erwarte fuer gaming keine besondere Leistung damit sowohl die size als auch Stromverbrauch nicht aus der Decke gegruegelt wird.

Die werden sicherlich hinter dem GT300 sein, aber viel wird es wohl nicht sein, wenn sie es denn wirklich wollen. Wenn ich nun davon ausgehe, dann sind sie aber ein stück VOR ATI und das ist ja auch schon etwas.

Meinst Du jetzt Stromverbrauch? Radeons verbrauchen ungefaehr so viel wie GeForces heutzutage obwohl es einen radikalen Unterschied gibt was die die area betrifft.

Es kommt auch auf die ausrichtung von LRB an. Je nachdem wo intel hinwill.

Du kannst froh sein falls die gaming Variante sich selbst mit RV870 schlagen kann. Es sieht nichtmal nach einer Performance GPU aus, sondern eher =/>mainstream.

=Floi=
2009-05-02, 17:32:08
ich meinte eigentlich den verbrauch unter vollast. Da hat sich die letzten jahren einiges getan. Vom 130nm (?) P4 8XX zum Core i7 9XX. Intel wurde mit jedem neuen prozess UND stepping besser und darauf war eben auch diese spekulation bezogen. Intel hat sehr sehr viel R&D know how und das könnte man hier ebenfalls sehr gut einsetzen. Auch deswegen glaube ich an eine gute taktbarkeit, weil man eben hier auf das gewünschte ziel hin designen kann. Die leute bei intel haben eben auch jahrelange erfahrung und einen großen schatz an wissen, der zumindest eine gute hardwarebasis erbringen kann.


man könnte die highendversion auch durch selektierte chips mit niedrigeren spannungen umsetzen. NV hat es mit der GTX295 ja vorgemacht und man sieht hieran auch eindrucksvoll wieviel beim verbrauch einzusparen ist, bei quasi gleicher leistung! Es gibt sehr viele stellschrauben und optionen für diese bereiche, wenn man den auch wirklich will.

BlackBirdSR
2009-05-02, 17:41:40
ich meinte eigentlich den verbrauch unter vollast. Da hat sich die letzten jahren einiges getan. Vom 130nm (?) P4 8XX zum Core i7 9XX.


Nur muss ich erneut einwerfen, dass es sich hier um x86-CPUs mit einer Auslastung von 0.5 bis 1.5 µops/Takt handelt. Der Umsteig vom Pentium4 zum Core2 ist desweiteren ein ungeeignetes Anschauungsmittel, da der Pentium4 sich durch seine extrem vielen Pipelinestufen, die dafür notwendige Logik/Puffer und die doppelt getakteten Einheiten stark von ihm unterscheidet. Der Rest ist normale Skalierung.



Intel hat sehr sehr viel R&D know how und das könnte man hier ebenfalls sehr gut einsetzen. Auch deswegen glaube ich an eine gute taktbarkeit, weil man eben hier auf das gewünschte ziel hin designen kann. Die leute bei intel haben eben auch jahrelange erfahrung und einen großen schatz an wissen, der zumindest eine gute hardwarebasis erbringen kann.

Nur sind die Leute von Intel eben nicht die Leute von Intel und eben nicht die Leute von Intel...

bestes Beispiel ist der Vergleich zwischen P6/P4, IA64, IGP und Core2/Nehalem. Technologietransfer auf dem Papier ist einfach, aber Wissen und Erfahrung an andere Designteams weiterzugeben ist eine Meisterleistung. Larrabee wird nicht vom gleichen Team entwickelt, die den Core2 konzipiert haben. Eine Gleichheit an Technologie, Erfahrung und Tricks anzunehmen, scheint mit unlogisch. Ich unterschlage mal, dass es auch noch ein Management und Marketing gibt, das seine Finger immer irgendwie im Spiel haben will. Kurzum:

Der Intelbonus betrifft Fertigung, Patente, Marktmacht. Innerhalb der Teams verhält es sich manchmal eher wie zwischen Intel und einem Konkurrenten.

Ailuros
2009-05-02, 17:53:09
ich meinte eigentlich den verbrauch unter vollast. Da hat sich die letzten jahren einiges getan. Vom 130nm (?) P4 8XX zum Core i7 9XX. Intel wurde mit jedem neuen prozess UND stepping besser und darauf war eben auch diese spekulation bezogen. Intel hat sehr sehr viel R&D know how und das könnte man hier ebenfalls sehr gut einsetzen. Auch deswegen glaube ich an eine gute taktbarkeit, weil man eben hier auf das gewünschte ziel hin designen kann. Die leute bei intel haben eben auch jahrelange erfahrung und einen großen schatz an wissen, der zumindest eine gute hardwarebasis erbringen kann.

Wann war es das letzte Mal genau dass Intel eine high end GPU entwickelt hat? Nie.

Die eigentliche "Intelligenz" von LRB liegt in seinen Treibern und nicht in seiner hardware.

man könnte die highendversion auch durch selektierte chips mit niedrigeren spannungen umsetzen.

LRB braucht dank seinem x86 Balast und natuerlich auch den endlosen caches viel mehr mm2 fuer Leistung X als jegliche andere D3D11 GPU.

NV hat es mit der GTX295 ja vorgemacht und man sieht hieran auch eindrucksvoll wieviel beim verbrauch einzusparen ist, bei quasi gleicher leistung! Es gibt sehr viele stellschrauben und optionen für diese bereiche, wenn man den auch wirklich will.

GT3x0 ist eine neue Generation und falls die bisherigen Geruechte stimmen, wird auf diesem noch viel mehr Strom pro Transistor gespart.

=Floi=
2009-05-02, 17:53:56
ich gebe dir schon recht, aber man kann auch leute versetzen, weiterbilden und uu solche zukunftsorientierten projekte entsprechend gegenkontrollieren. Hier steht sehr viel für intel auf dem spiel und da wird man sicherlich zeigen was man kann.
Eben fertigung und patente sind wohl der größte vorteil überhaupt. Alleine dadurch ist ein gewisses potential vorhanden und man muß eben nicht bei 0 anfangen.

nochmal zurück zum verbrauch. dann vergleiche ich eben den P4 8XX mit dem P4 9XX D0 stepping, das ganz zum schluß kam und den stromschlucker p4 in ein besseres licht rückte.

Gast
2009-05-02, 17:55:36
Nur muss ich erneut einwerfen, dass es sich hier um x86-CPUs mit einer Auslastung von 0.5 bis 1.5 µops/Takt handelt. Der Umsteig vom Pentium4 zum Core2 ist desweiteren ein ungeeignetes Anschauungsmittel, da der Pentium4 sich durch seine extrem vielen Pipelinestufen, die dafür notwendige Logik/Puffer und die doppelt getakteten Einheiten stark von ihm unterscheidet. Der Rest ist normale Skalierung.



Nur sind die Leute von Intel eben nicht die Leute von Intel und eben nicht die Leute von Intel...

bestes Beispiel ist der Vergleich zwischen P6/P4, IA64, IGP und Core2/Nehalem. Technologietransfer auf dem Papier ist einfach, aber Wissen und Erfahrung an andere Designteams weiterzugeben ist eine Meisterleistung. Larrabee wird nicht vom gleichen Team entwickelt, die den Core2 konzipiert haben. Eine Gleichheit an Technologie, Erfahrung und Tricks anzunehmen, scheint mit unlogisch. Ich unterschlage mal, dass es auch noch ein Management und Marketing gibt, das seine Finger immer irgendwie im Spiel haben will. Kurzum:

Der Intelbonus betrifft Fertigung, Patente, Marktmacht. Innerhalb der Teams verhält es sich manchmal eher wie zwischen Intel und einem Konkurrenten.


Naja, die Transparenz ist dennoch gegeben. Zudem gibt es einen gewissen Anteil an Fachkräfte die nicht nur an einem Projekt arbeiten. Ich glaube nicht das Intel wie eine Mittelschule organisiert ist.
Das wird schon gut gemanaged sein. Zumindest Technologiestufen werden übergreifend und kontrolliert eingreifen.
Und Larrabee ist weißgott kein kleines Pilotprjekt.

Ailuros
2009-05-02, 18:01:43
ich gebe dir schon recht, aber man kann auch leute versetzen, weiterbilden und uu solche zukunftsorientierten projekte entsprechend gegenkontrollieren. Hier steht sehr viel für intel auf dem spiel und da wird man sicherlich zeigen was man kann.
Eben fertigung und patente sind wohl der größte vorteil überhaupt. Alleine dadurch ist ein gewisses potential vorhanden und man muß eben nicht bei 0 anfangen.

Intel ist Intel und sie werden ihr Zeug auch gut verkaufen koennen ueberhaupt in Profi-Maerkten IMHLO (obwohl eigentlich keiner wirklich darauf "wartet").

misterh hat oben einen Link gepostet wo genauer erklaert wird wie das tile based rendering auf Treiber-Basis vorgeht. Ich frage mich lediglich ob sie mit dem Zeug einen guten Schritt weitergegangen sind und vielleicht mit triangle sorting experimentiert haben. Dieses hat aber sowohl Vor- als auch Nachteile.

Ich weiss nicht auf was Du genau rauswillst, aber LRB ist mal ganz vereinfacht eine GPU auf x86 Basis mit einem flexiblen und anscheinend intelligenten Treiber der die primitiven Stellen der hw beseitigen kann. Lies den oben verlinkten Artikel durch. Man behauptet etliche Male dass ein sw rasterizer zwar sehr hohe Effizienz erreichen kann, aber wohl nie diese eines hw rasterizers. Was jetzt wenn die Konkurrenz mit mehr als einem ff hw rasterizer pro GPU ankommt?

=Floi=
2009-05-02, 18:02:16
@ail
es ging mit bei dem GTX295 beispiel nicht um performance pro watt, sondern um eine karte die mit fast 1200mm² DIE noch unter 300 watt ist. Das hätte so auch niemand für möglich gehalten und trotzdem gibt es diese karte zu kaufen.

ich will darauf hinaus:
ohne guter hardware nützt auch der beste treiber nichts. Man sieht ja am G80 und G92 was ein gutes design bringen kann.

Ailuros
2009-05-02, 18:13:23
@ail
es ging mit bei dem GTX295 beispiel nicht um performance pro watt, sondern um eine karte die mit fast 1200mm² DIE noch unter 300 watt ist.

Es sind 2 dies und nicht einer und jeglicher liegt etwas ueber 500mm2@55nm. Und nein multi-GPU hat mit LRB nicht das geringste zu tun.

ich will darauf hinaus:
ohne guter hardware nützt auch der beste treiber nichts. Man sieht ja am G80 und G92 was ein gutes design bringen kann.

LRB's hw ist nichts besonderes. Waere der Treiber nicht so flexibel waere das Endresultat noch schlimmer als es heutzutage zu erwarten ist. Fuer TBR braucht man bei einem Design wie LRB mit so vielen cores keine hw-Unterstuetzung fuer TBR.

Wenn aber jetzt Intel LRB nach unten skalieren wollen wuerde, dann hat sie erstmal das schlechte perf/mm2 bzw. zu hohen Stromverbrauch als ersten Kopfschmerz und zweitens befuerchte ich dass sie fuer eingebettete hw die hw-Unterstuetzung fuer TBR dann aber doch brauchen. Deshalb sage ich ja auch seit einiger Zeit dass LRB schwer nach unten skalieren wird.

=Floi=
2009-05-02, 18:19:37
ok ich war noch auf 65nm. es kommt aber auch noch der io chip hinzu.
trotzdem sollte eine karte mit größerem DIE wie ein GT300 realisierbar sein, ohne dass dadurch der stromverbrauch durch die decke geht.

BlackBirdSR
2009-05-02, 18:20:49
Naja, die Transparenz ist dennoch gegeben. Zudem gibt es einen gewissen Anteil an Fachkräfte die nicht nur an einem Projekt arbeiten. Ich glaube nicht das Intel wie eine Mittelschule organisiert ist.
Das wird schon gut gemanaged sein. Zumindest Technologiestufen werden übergreifend und kontrolliert eingreifen.
Und Larrabee ist weißgott kein kleines Pilotprjekt.

Sicherlich ist Intel etwas besser organisiert. Allerdings berücksichtigt man die Erkenntnisse aus dem P6 und P4 Programm und die Vorgänge beim IA64, dann kann man hier den unrunden Technologiegiganten erkennen, bei dem Politik und Management, sowie Größe und Undurchsichtigkeit durchaus Faktoren darstellen.

Floi:

Nehmen wir 250W an und 32 Kerne. Dann dürfte jeder Kern nur um die 8 Watt umsetzen.
Ein Intel Atom beläuft sich laut TDP auf bis zu 4 W bei 1,6GHz. Nun addieren wir dazu die SIMD-Einheiten, die sehr hohe Auslastung und den Takt von 2GHz+.

Will man 64 Kerne unterbringen, sinken wir auf 4-Watt pro Kern. Jetzt kann man fröhlich die Zahlen spielen lassen und beliebige Werte jonglieren.

Ailuros
2009-05-02, 18:23:03
ok ich war noch auf 65nm. es kommt aber auch noch der io chip hinzu.
trotzdem sollte eine karte mit größerem DIE wie ein GT300 realisierbar sein, ohne dass dadurch der stromverbrauch durch die decke geht.

Ja natuerlich waere das letztere moeglich; nur ist eben selbst da der klitzekleine Unterschied den Du nicht verstehen willst, dass das Resultat immer noch um einiges langsamer sein wird. Wer sagt dass die "extreme-edition" mit den >600mm2@45nm fuer den Profi-Markt schneller sein koennte als GT3x0?

=Floi=
2009-05-02, 20:41:06
ich habe kein einziges mal geschrieben, dass LRB schneller als GT300 sein soll. (in games) Es wird nur anwendungsbereiche geben bei denen LRB sicherlich auftrumpfen kann. (GPGPU, Raytracing?) Bei games sehe ich ihn sicherlich nicht vorne, aber selbst wenn es denn so wäre, dann sind wir so weit wie bei ATI. Die mainstream sachen laufen sehr gut und abseits davon sieht es dann mau aus. Eine durchgehende performance ist ebenfalls wichtig. Beim R600 war die performance ja auch teilweise sehr unterschiedlich und auch deswegen konnte er nicht wirklich überzeugen.
Ihr redet immer von "technisch" unmöglich und das kann ich einfach nicht so richtig glauben.

wie rechnet man beimLRM nochmal die flops aus? :rolleyes:
Bei der Z serie findet man einen 2ghz atom mit HT und 3 watt TDP.
http://de.wikipedia.org/wiki/Intel_Atom#Atom-Z500-Serie_.28Single-Core.29

BlackBirdSR
2009-05-02, 20:53:15
wie rechnet man beimLRM nochmal die flops aus? :rolleyes:
Bei der Z serie findet man einen 2ghz atom mit HT und 3 watt TDP.
http://de.wikipedia.org/wiki/Intel_Atom#Atom-Z500-Serie_.28Single-Core.29

Ich selektier dir auch noch andere CPUs, wenn ich es darauf anlege.
Darum geht es jedoch nicht. Wenn nur 5% der LRBs in Power-Budget passen, ist es technisch unmöglich ;) oder sau teuer.

Keiner erwartet von Intel einen Killerchip bei der ersten Inkarnation. Was jetzt kommt, ist ein Grundbaustein. Er entscheidet, ob es sich überhaupt lohnt und der Markt es überhaupt akzeptiert. Die richtigen Ambitionen AMD und Nvidia in die Suppe zu spucken kommen mit neueren Prozessen, Updates der Architektur und einem gereiften Treiber. Schlussendlich gibt es zwei Wege:

Du kannst ein Produkt auf den Markt werfen, auch wenn es nicht das beste ist und daraus lernen, die Leute vorbereiten und darauf aufbauen. Oder du kannst dein Produkt immer weiter verschieben, weil es dir nie gut genug ist. Letzteres klappt selten und du hast irgendwann ein Produkt das fast wertlos ist, weil dich alle überholt haben. Das erste birgt die Gefahr, dass du dir dein Image zerstörst.

=Floi=
2009-05-02, 22:25:48
ICH halte 5% schon für realistisch. Bei NV ist es mit der GTX295/GTX285 ja auch nicht anders und die schlechteren chips werden so verramscht. Wenn ich jetzt den profimarkt nehme, dann kann man hier für eine karte auch entsprechend geld verlangen. Es zählt hier das top produkt und die abgespeckten versionen sind im grunde für das prestige belanglos.
Der thread zeigt eigentlich schon, dass die leute einen killerchip erwarten. Die werbemaschine ist bei intel ja auch ein wenig größer und dominanter. Ein guter start würde LRB sicherlich gut tun. Als gegenbeispiel nehme ich hier mal den ph1, der dank seines TLB-bugs und diverser anderer schwachpunkte eine totgeburt war!


Die schnittstellen sind ja definiert und somit ist ein grundbaustein für die software schon mal gesetzt. Das ist ja kein neues betriebssystem...

Ailuros
2009-05-03, 09:43:49
ich habe kein einziges mal geschrieben, dass LRB schneller als GT300 sein soll. (in games) Es wird nur anwendungsbereiche geben bei denen LRB sicherlich auftrumpfen kann. (GPGPU, Raytracing?)

Auch unter GPGPU sieht es nicht unbedingt nach dem 8.Wunder aus. x86 kann nicht magisch alle Probleme loesen. Was jetzt RT betrifft, ja die grossen caches helfen hier tatsaechlich, aber warte mal ab was die anderen genau angestellt haben.

Bei games sehe ich ihn sicherlich nicht vorne, aber selbst wenn es denn so wäre, dann sind wir so weit wie bei ATI.

Darueber bin ich auch nicht so sicher. Nochmal durch TBR im Treiber kann der sw rasterizer irgendwo schon in die Naehe der ff rasterizer von den anderen 2 ruecken; was aber wenn diese mehr als nur einen haben?

Ihr redet immer von "technisch" unmöglich und das kann ich einfach nicht so richtig glauben.

Tja es kann durchaus sein dass die gesamte Gemeinschaft von Profis dort draussen etwas verpasst haben, aber von dem was ich bis jetzt links und rechts hoeren kann sieht es nicht danach aus.

wie rechnet man beimLRM nochmal die flops aus? :rolleyes:
Bei der Z serie findet man einen 2ghz atom mit HT und 3 watt TDP.
http://de.wikipedia.org/wiki/Intel_Atom#Atom-Z500-Serie_.28Single-Core.29

Was hat jetzt Atom damit zu tun?

ICH halte 5% schon für realistisch. Bei NV ist es mit der GTX295/GTX285 ja auch nicht anders und die schlechteren chips werden so verramscht. Wenn ich jetzt den profimarkt nehme, dann kann man hier für eine karte auch entsprechend geld verlangen. Es zählt hier das top produkt und die abgespeckten versionen sind im grunde für das prestige belanglos.

NV/ATI deaktivieren hier Teile des chips, was fuer LRB im Grunde idiotisch waere. LRB wird nicht aus sagen wir mal 24 cores bestehen und weil 4 davon ab und zu mal k.o. sind gibt es auch 20-core Varianten. Es wird oder besser es darf keine fehlerhaften cores bei LRB geben, sonst waere es verheerend fuer den ganzen Design.

Natuerlich wird Intel mit der Anzahl der cores sowohl nach oben als auch nach unten skalieren aber stets mit sehr strengen Begrenzungen dank Stromverbrauch.

Der thread zeigt eigentlich schon, dass die leute einen killerchip erwarten.

Es gibt leider immer Leute die killerchips von A, B oder C erwarten. Leider erscheinen diese mit so grosser Seltenheit und auch nicht stets von nur einem IHV.

Ein guter start würde LRB sicherlich gut tun.

Nur werden selbst Intel's eigene Aussagen seit ca. 3 Jahren jedesmal ein Stueck bescheidener, denn je naeher man zu echter hw rueckt desto mehr "reality checks" bewaeltigt man.

Exxtreme
2009-05-05, 08:28:31
Der thread zeigt eigentlich schon, dass die leute einen killerchip erwarten. Die werbemaschine ist bei intel ja auch ein wenig größer und dominanter. Ein guter start würde LRB sicherlich gut tun. Als gegenbeispiel nehme ich hier mal den ph1, der dank seines TLB-bugs und diverser anderer schwachpunkte eine totgeburt war!

Ich würde mir auch wünschen wenn Intel einen guten Start hinlegt. Das Duopol zwischen AMD und Nvidia nervt einfach. :D

Andererseits hat Intel keinerlei Erfahrung mit GPUs, die über deren Chipsatz-GPUs hinausgehen. Und wie sowas enden kann hat man bei SiS und deren Volari gesehen. Ich glaube zwar nicht, daß es so desaströs sein wird aber ich erwarte nicht, daß Intel in den für den Zocker wichtigen Disziplinen auch nur annähernd punkten kann.

Gast
2009-05-05, 09:24:20
Du wirst doch nicht ernsthaft SiS mit Intel vergleichen wollen?

Exxtreme
2009-05-05, 11:17:12
Natürlich nicht. Deshalb habe ich auch "kann" benutzt. ;) Ich gehe sowieso davon aus, daß sich Intel nicht sofort auf den Spielemarkt stürzt.

BlackBirdSR
2009-05-05, 11:46:42
Du wirst doch nicht ernsthaft SiS mit Intel vergleichen wollen?

Was Treiber der GMAs betrifft kommt das gut hin.

DrumDub
2009-05-05, 13:00:10
Natürlich nicht. Deshalb habe ich auch "kann" benutzt. ;) intel hats ja schon einmal versaut mit dem i740, eben weil sie nicht am ball geblieben sind.

Ich gehe sowieso davon aus, daß sich Intel nicht sofort auf den Spielemarkt stürzt. ich denke, das ist der entscheidende unterschied zu 1998.

Hugo
2009-05-05, 15:29:07
Darueber bin ich auch nicht so sicher. Nochmal durch TBR im Treiber kann der sw rasterizer irgendwo schon in die Naehe der ff rasterizer von den anderen 2 ruecken; was aber wenn diese mehr als nur einen haben?


@Ailuros
kannst du deine Aussage bitte näher Erläutern?
Gibt es Anzeichen, dass NV/AMD mehr als einen Rasterizer haben

Gast
2009-05-05, 15:29:44
Was Treiber der GMAs betrifft kommt das gut hin.


Ich dachte eigentlich an die Hardware. Dieses ewige "Haben keine Erfahrung" ist doch kein echtes Argument. Mit diesem "Argument" könmnte man genauso gut behaupten, daß jedweder technische Fortschritt unmöglich sei.
DX11 Chips? Kann es nicht geben, denn es hat keiner Erfahrung damit.....

Hugo
2009-05-05, 16:08:21
Es ist sehr wohl ein Argument. Und zwar ein nicht zu unterschätzendes.
Ehrfahrung ist sehr wichtig. Man lernt aus Fehlern die man selbst gemacht hat. Und wenn man bei Null anfängt, fängt auch der Lernprozess an!

Hvoralek
2009-05-05, 17:09:51
Dieses ewige "Haben keine Erfahrung" ist doch kein echtes Argument. Mit diesem "Argument" könmnte man genauso gut behaupten, daß jedweder technische Fortschritt unmöglich sei.
DX11 Chips? Kann es nicht geben, denn es hat keiner Erfahrung damit.....Es behauptet doch niemand, es könne nie etwas Neues entwickelt werden. Behauptet wird lediglich, dass jemand, der seit längerem auf einem Gebiet tätig ist, tendenziell Vorteile habe gegenüber jemandem, der damit gerade erst anfängt. In Deinem Bild wäre das so, als würde z.B. AMD seit Jahren reihenweise D3D11- Chips entwerfen und Nvidia sich nun zum ersten Mal an einem versuchen. Dann wäre es nicht mehr so abwegig, ihnen da einen eher schweren Start vorherzusagen. Es gibt ja sogar Leute, die tatsächlich AMD bei D3D11- Chips einen kleinen Vorteil zuschreiben, weil die schon vor Jahren einen Tesselator entwickelt haben.

Ailuros
2009-05-06, 08:19:44
@Ailuros
kannst du deine Aussage bitte näher Erläutern?
Gibt es Anzeichen, dass NV/AMD mehr als einen Rasterizer haben

Es gab mehrere Praesentationen in der Vergangenheit (nicht von IHVs) die auf die Moeglichkeit von mehr als einer Geometrie-Einheit fuer die D3D11 Generation deuteten.

Natuerlich koennte auch jeglicher IHV die Effizienz des rasterizers bzw. tri-setup verdoppelt haben. Wie man jetzt dieses Ziel erreicht hat kann ich noch nicht wissen, aber ich hab gute Indizien dass die D3D11 GPUs generell nicht nur wegen X zusaetzlicher arithmetischer Leistung um einiges schneller werden koennten.

Es behauptet doch niemand, es könne nie etwas Neues entwickelt werden. Behauptet wird lediglich, dass jemand, der seit längerem auf einem Gebiet tätig ist, tendenziell Vorteile habe gegenüber jemandem, der damit gerade erst anfängt.

Das "aber" hier waere ist dass LRB verdammt vereinfacht eine GPU auf x86-Basis ist (mit dem Intel die groesste Erfahrung ueberhaupt hat) und der groesste Teil von komplizierten Aufgaben eher auf den Treiber faellt. Mit meiner ziemlich einfachen Logik sehe ich kein besonderes Problem rasterizing bzw. tiling und co. in sw zu erledigen wenn man schon so viele cores hat.

Das andere "aber" hier ist dass wenn Intel wirklich vergleichbare Leistung zu naechster Generation GPUs haben will, sich eher in Richtung 80-core von dem original praesentierten Dingsda haben sollte.


In Deinem Bild wäre das so, als würde z.B. AMD seit Jahren reihenweise D3D11- Chips entwerfen und Nvidia sich nun zum ersten Mal an einem versuchen. Dann wäre es nicht mehr so abwegig, ihnen da einen eher schweren Start vorherzusagen. Es gibt ja sogar Leute, die tatsächlich AMD bei D3D11- Chips einen kleinen Vorteil zuschreiben, weil die schon vor Jahren einen Tesselator entwickelt haben.

PowerVR SGX der nur fuer eingebettetes Zeug gedacht ist, ist quasi ein Ableger oder besser der naechste evolutionaere Schritt zur vaporware Series5 GPU die nie erschien. Die letztere hatte auch einen PPP, nur ist SGX komischerweise um zich Male effizienter mit kleinen Dreiecken. Und ja hier die von der stornierten GPU gewonnene Erfahrung mitgespielt, aber ich kann mir auch nicht vorstellen dass jegliche D3D11 so weit kommen wird, denn ich sehe in keiner von denen echte MIMD Einheiten.

Es erschien vor einiger Zeit ein Patent von NVIDIA welches ueber eine quasi quad-Vereinigung handelt fuer Multisampling. Bei sehr kleinen Dreiecken (siehe z.B. Tesselation) geht die Effizienz von Multisampling erstmal den Bach runter wenn man nicht anders eingreift. NV's Patent falls realisiert ist zwar nicht das gelbe vom Ei, aber es kann schon einige theoretisch problematische Faelle loesen. Kurz: Tesselation wird fuer alle IHVs hoechstwahrscheinlich ein Gebiet sein wo man zwar die Faehigkeiten auf der GPU hat, aber wie ueblich wuerde ich anstaendige Leistung dafuer erst in der weniger absehbaren Zukunft erwarten.

Gast
2009-05-06, 15:36:38
"Ein paar (lästernde) Worte über Larrabee - irgendwie kommt er mir vor wie das Kettensägenmotorrad von Brösel:
http://de.wikipedia.org/w/index.php?...20070615231125
Bei heutigen GPUs wird Software in Hardware gegossen. Viele Dinge die OpenGL vorgibt werden Transparent durch die Hardware zur Verfügung gestellt. Die Shader sind schlanker, ohne dabei weniger Rohleistung zu haben. Die Verteilung der Aufgaben an die Shader ist effizient und schlank gelöst. Die Treiber ergänzen die Hardware/die Hardware ergänzt die Treiber - eben dieses Know-How, welche Dinge in Hardware und welche im Treiber erledigt werden müssen zeichnet ATI und nvidia aus.

Intel parallelisiert auf einer falschen Ebene. Wozu benötigt man 32 vollwertige x86 kerne, wenn Effektiv eigentlich nur die aufgebohrten SSE-Units von Wert sind. AMDs und nvidias Lösung skaliert auch schöner.
In dem GPGPU-Pdf von weiter oben - eine Hauptaussage:
Zitat:
CUDA GPUs have four times
higher power efficiency than CPU
in high-performance FFT.
Larrabee ist ein Riesen-Die und trotzdem nennen sie relativ enttäuschende Performance-Zahlen."

.....

The_Silent_One
2009-05-06, 17:12:29
@gast: wäre noch schön, wenn du die quelle deines zitats angeben würdest, es kommentieren würdest und den link nicht gekürzt kopieren würdest. ;) (bitte nicht böse nehmen)
hier ist mal der originale beitrag: klick (http://www.planet3dnow.de/vbulletin/showpost.php?p=3916879&postcount=1)

@ topic:
intel zielt mit LRB wohl nicht primär auf den spielemarkt, sondern auf den GPGPU-Markt. dort sind vollwertige x86 kerne schon sinnvoll, da man als entwickler alles schön in seiner gewohnten programmierumgebung und -sprache (c/c++) sowie einem normalen compiler erledigen kann.

dafür geht intel halt den kompromiss ein, bei grafikanwendungen (spielen) nicht ganz so effizient zu sein wie NV und ATi

Ailuros
2009-05-07, 07:20:42
@ topic:
intel zielt mit LRB wohl nicht primär auf den spielemarkt, sondern auf den GPGPU-Markt. dort sind vollwertige x86 kerne schon sinnvoll, da man als entwickler alles schön in seiner gewohnten programmierumgebung und -sprache (c/c++) sowie einem normalen compiler erledigen kann.

dafür geht intel halt den kompromiss ein, bei grafikanwendungen (spielen) nicht ganz so effizient zu sein wie NV und ATi

Nur hat leider x86 nicht einen magischen Zauberstab alle GP Probleme loesen zu koennen, noch hat es irgendwelchen nennenswerten Vorteil der die Design-entscheidung deswegen gerechtfertigt.

Man hatte einfach Erfahrung mit dem Zeug und benutzte es.

Es heisst keineswegs dass zwischen 3D und GPGPU es unbedingt eine entweder/oder Loesung sein muss. Der vorerwaehnte SGX fuer SoCs wurde auch von Grund auf fuer GPGPU entwickelt; nur ist seine 3D Leistung ziemlich weit seiner Konkurrenten vorraus und das sogar mit einem noch groesseren Abstand was die Komplianz bzw. die Faehigkeiten des chips betrifft.

Coda
2009-05-07, 13:13:06
Man hatte einfach Erfahrung mit dem Zeug und benutzte es.
Erfahrung in welcher Hinsicht? Es wäre wohl selbst ohne Erfahrung deutlich einfacher gewesen eine andere ISA zu nehmen. x86 ist schon ziemlich unsexy wenn's ums Chipdesign geht.

Aquaschaf
2009-05-07, 13:40:07
dort sind vollwertige x86 kerne schon sinnvoll, da man als entwickler alles schön in seiner gewohnten programmierumgebung und -sprache (c/c++) sowie einem normalen compiler erledigen kann.

Nope, keiner der Punkte trifft zu. Aus der Sicht eines Entwicklers hat x86 darauf keinen Einfluss. Der einzige Vorteil besteht darin dass man den selben kompilierten Code auf Larrabee ausführen kann wie auf einer normalen x86-CPU. In den allermeisten Fällen ist das uninteressant.

Ailuros
2009-05-07, 15:19:09
Erfahrung in welcher Hinsicht? Es wäre wohl selbst ohne Erfahrung deutlich einfacher gewesen eine andere ISA zu nehmen. x86 ist schon ziemlich unsexy wenn's ums Chipdesign geht.

Unsexy ist die beste Beschreibung fuer Intel ueberhaupt LOL. Neben dem offensichtlichen Witz, die Firma ist so stark buerokratisch verpflastert dass es ueberhaupt ein Wunder ist dass die engineers doch von Zeit zu Zeit innovieren duerfen.

deekey777
2009-05-12, 12:37:21
Intel zeigt detaillierten Die-Shot vom Larrabee (http://www.pcgameshardware.de/aid,683939/Intel-zeigt-detaillierten-Die-Shot-vom-Larrabee/Grafikkarte/News/)

Im B3D-Forum (http://forum.beyond3d.com/showthread.php?t=54144) schätzt man auf 32 Cores und 8 Quad-TMUs, bei 2 GHz ist das weder viel noch wenig. Keine Ahnung.

Ailuros
2009-05-12, 18:01:48
Ich hab so langsam den Verdacht dass die DP Raten im Vergleich zu SP nun doch eher auf 1/4 liegen koennten.

deekey777
2009-05-12, 19:46:50
Ich hab so langsam den Verdacht dass die DP Raten im Vergleich zu SP nun doch eher auf 1/4 liegen koennten.
In der letzten c't (11/09) steht, dass die Nutzung von DP oft Faulheit der Programmierer sei.
Noch etwas:
http://www.hpcwire.com/blogs/Larrabee-for-HPC-Not-So-Fast-36336839.html

Irgendwie verliere ich meinen Glauben an Larrabee. ;( Andererseits: Es ist Intel, die wissen, was sie tun. Aber wenn der Larrabee nicht schneller als zB RV870 sein wird, wird Intel viel Energie ins Marketing stecken müssen (vielleicht vielmehr als NV bei CUDA und Tesla usw). Desweiteren ist Nvidia im HPC-Bereich ein Monopolist, die Nuss muss noch geknackt werden.

w0mbat
2009-05-12, 21:12:03
Game Physics
Performance on the
Larrabee Architecture (http://isdlibrary.intel-dispatch.com/vc/2527/GamePhysicsOnLarrabee_paper.pdf)

Für mich eher Bahnhof, aber vielleicht können die "Cracks" hier was damit anfangen ;)

dust
2009-05-13, 02:53:06
Game Physics
Performance on the
Larrabee Architecture (http://isdlibrary.intel-dispatch.com/vc/2527/GamePhysicsOnLarrabee_paper.pdf)

Für mich eher Bahnhof, aber vielleicht können die "Cracks" hier was damit anfangen ;)

der lrb ist ein netter mathe co prozessor wenn sie ihn in einer version für einen normalen cpu sockel herausbringen.

Coda
2009-05-13, 03:00:45
Als ob du das auch nur im Entferntesten beurteilen könntest.

dust
2009-05-13, 03:38:25
Als ob du das auch nur im Entferntesten beurteilen könntest.

kann ich...

mal schauen was intel wirklich rausbringen wird.

Coda
2009-05-13, 04:28:00
kann ich...
Muahahaha X-D

Lenon
2009-05-13, 07:32:42
Muahahaha X-D


Du bist ja ein wirklich charmanter Zeitgenosse ^^


Naja egal ...


Ich lese hier immer wieder, daß Intel auf den GPGPU Markt abzielt - gibt es eigentlich irgendwelche Zahlen davon wie groß dieser Markt im Vergleich mit dem "Spiele(GPU)markt" ist ?

mboeller
2009-05-13, 09:20:25
Intel zeigt detaillierten Die-Shot vom Larrabee (http://www.pcgameshardware.de/aid,683939/Intel-zeigt-detaillierten-Die-Shot-vom-Larrabee/Grafikkarte/News/)

Im B3D-Forum (http://forum.beyond3d.com/showthread.php?t=54144) schätzt man auf 32 Cores und 8 Quad-TMUs, bei 2 GHz ist das weder viel noch wenig. Keine Ahnung.


Wie kommst du auf 2GHz? Vor allem die TMUs werden sehr wahrscheinlich wesentlich langsamer laufen. Bei allen GPUs bisher sind die TMUs mit <1GHz betrieben worden. Soweit ich weiß geht es auch nicht schneller da man ansonsten Probleme mit dem Cache und der gesamten Pipeline bekommt (die info ist allerdings schon ein paar Jahre alt und bezog sich vor allem auf die angeblichen Fast14 beschleunigten ATi GPUs die aber nie aufgetaucht sind).

robbitop@work
2009-05-13, 10:29:56
Bei 2 GHz mit 8 Quad TMUs und 32 Cores wird man bei ca 2 TFlops und 64 GTex/s hinkommen. Das käme schon grob in etwa in die Rohleistungsregion mit der nächsten Generation der Mitstreiter. Ein Überflieger sollte er damit nicht werden aber möglicherweise konkurrenzfähig. Je nach dem wie effizient man diese Rohleistung nutzen kann und wie gut die Treiber sind.

Wie flexibel ist die SIMD16 Unit eigentlich? Bekommt sie wie die G80 ALU in alle Slot skalare Werte die mit der gleichen Rechenoperation bearbeitet werden? Oder ist es lediglich eine splittbare Vec-ALU wie man sie bis 2006 in GPUs fand?

Gipsel
2009-05-13, 10:34:40
Ich hab so langsam den Verdacht dass die DP Raten im Vergleich zu SP nun doch eher auf 1/4 liegen koennten.
aus dem GT300 Thread: (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7262431#post7262431) ;)
Und was den Vergleich zu Larrabee angeht, warte doch erstmal ab, ob die Vektorpipelines bei double precision wirklich die Hälfte des single precision Durchsatzes machen, wie viele stillschweigend voraussetzen. Intel hat sich bisher mit Aussagen zu double precision auffällig zurückgehalten. Vielleicht viertelt sich ja auch der Durchsatz bei DP (wie im Prinzip bei ATI)? Dann wären von den 2TFlops single precision bei DP auch nur noch 0,5T übrig.

Noch etwas:
http://www.hpcwire.com/blogs/Larrabee-for-HPC-Not-So-Fast-36336839.html
Das scheint also beinahe offiziell zu sein?
Richard Dracott, the general manager of the Intel's high performance computing business unit, and Stephen Wheat, Intel's senior director of HPC
[..]
Although Larrabee would at least offer an x86 compatible ISA, the problem, he said, was that the implementation contains some of the same drawbacks as the traditional GPU for scientific computing -- namely the lack of ECC memory to protect against soft errors and a shortage of double precision floating point capability. From his perspective that would prevent Larrabee or GPUs to be deployed more generally in high performance computing

Gipsel
2009-05-13, 10:50:23
Wie flexibel ist die SIMD16 Unit eigentlich? Bekommt sie wie die G80 ALU in alle Slot skalare Werte die mit der gleichen Rechenoperation bearbeitet werden? Oder ist es lediglich eine splittbare Vec-ALU wie man sie bis 2006 in GPUs fand?
Die sogenannten skalaren ALUS von nvidia sind eigentlich eine 8 Slots breite SIMD-Einheit (physisch) mit einer 32 Slots breiten ISA (jeder Befehl loopt 4 mal), bei AMD sind es pro SIMD 5 parallele 16 Slots breite Pipelines mit einer 64 Slots breiten ISA. Das wird nur im Allgemeinen nur gut versteckt.

Die SIMD-Einheit auf Larrabee ist so flexibel wie eine 4 mal so breite SSE-Einheit und damit besser als bei GPUs, wo die Kommunikation zwischen den einzelnen Slots (heißen bei GPUs üblicherweise Threads), d.h. horizontale Operationen, doch deutlich kosten (geht nur über shared memory oder local data share), da die einzelnen Slots mit physisch getrennten Registern arbeiten. Man kann die Einheiten bei Larrabee genauso einsetzen, wie die SIMD-Cluster auf GPUs, hat darüber hinaus aber auch noch etwas andere Möglichkeiten (könnte einige Algorithmen deutlich beschleunigen).

Ailuros
2009-05-13, 16:30:29
aus dem GT300 Thread: (http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7262431#post7262431) ;)



Das scheint also beinahe offiziell zu sein?

Ja und damit nehme ich auch natuerlich meine bisherigen persoenlichen Schaetzungen zurueck. Jemand murmelte etwas ueber die halbe Rate nur konnte ich natuerlich nicht wissen dass sie damit hoechstwahrscheinlich die halbe vector Breite meinten. Da der ALU data path "nur" 512bit breit ist, kann es nur 1/4 selbst theoretisch sein.

robbitop@work
2009-05-13, 16:46:21
Die sogenannten skalaren ALUS von nvidia sind eigentlich eine 8 Slots breite SIMD-Einheit (physisch) mit einer 32 Slots breiten ISA (jeder Befehl loopt 4 mal), bei AMD sind es pro SIMD 5 parallele 16 Slots breite Pipelines mit einer 64 Slots breiten ISA. Das wird nur im Allgemeinen nur gut versteckt.
Weiß ich. Aber da ist man immerhin durch die Zuteilung der Daten in die Slots schon effizienter geworden. Alle Slots rechnen jeweils einen skalaren Wert von je einem Pixel bzw von einem Quad. Also füllt man 8 Slots mit 2x Quads bzw 8 Pixeln (G80). Es gibt also potenziell keinen Verschnitt, solange man immer 8 Pixel mit der gleichen Operation findet.

Vor G80/R600 war es ja noch so, dass man die Slots einer SIMD mit sämtlichen Skalaren eines einzelnen Vektors eines Pixels fütterte. Sind für diesen Pixel jedoch nur 2x Skalare statt 4x Skalare mit der jeweilgen Operation zu rechnen, haben wir 2x Slots für einen Takt vergeudet. Da half ja immerhin der Split noch ein wenig. Das ist natürlich alles eine Frage der Kontrolllogik und nicht der SIMD.

Wie sieht es denn bei der Kontrolllogik einer SSE-Einheit aus?

turboschlumpf
2009-05-13, 23:54:46
Intel Visual Computing Institute Opens, Will Spur "Larrabee" Development

[...]

This will help Intel with development of its Larrabee x86 many-core GPU and its follow-on products, which is expected to launch in the first quarter of 2010 and built using a 45nm process. Although the first Larrabee products are expected to use up to 32 cores, a faster version built on Intel's 32nm process could feature up to 64 cores.

[...]

Quelle: http://www.dailytech.com/Intel+Visual+Computing+Institute+Opens+Will+Spur+Larrabee+Development/article15115.htm




Ob es sich bei den 32 Cores schon um die 'Extreme-Version' handelt?

deekey777
2009-05-14, 00:54:25
32 Cores bedeuten bei 2 GHz 2 TFLOPs, mit weniger braucht Intel nicht anzutanzen. ATi und Nvidia werden den Larrabee sonst auffressen, die kleine HD4770 kommt schon auf fast ein TFLOP, und da ist es sowas von egal, dass RV700-FLOP != LRB-FLOP ist (insbesondere wenn der Larrabee deutlich mehr in Software macht).
Abseits des Consumer-Bareichs wird Intel es vielleicht noch schwerer haben, denn im HPC-Bereich ist Nvidia eine Übermacht, ATi wiederum hat mit der FirePro-Serie ein Super-Angebot.

Ailuros
2009-05-14, 09:25:10
32 Cores bedeuten bei 2 GHz 2 TFLOPs, mit weniger braucht Intel nicht anzutanzen. ATi und Nvidia werden den Larrabee sonst auffressen, die kleine HD4770 kommt schon auf fast ein TFLOP, und da ist es sowas von egal, dass RV700-FLOP != LRB-FLOP ist (insbesondere wenn der Larrabee deutlich mehr in Software macht).
Abseits des Consumer-Bareichs wird Intel es vielleicht noch schwerer haben, denn im HPC-Bereich ist Nvidia eine Übermacht, ATi wiederum hat mit der FirePro-Serie ein Super-Angebot.

Hat Intel nicht irgendwo den Stromverbrauch pro Core angegeben? Hat irgend jemand noch den slide?

Gipsel
2009-05-14, 10:25:11
Also füllt man 8 Slots mit 2x Quads bzw 8 Pixeln (G80). Es gibt also potenziell keinen Verschnitt, solange man immer 8 Pixel mit der gleichen Operation findet.
Man muß immer 8 Quads = 32 Pixel mit der gleichen Operation haben, damit man keinen Verschnitt hat. Ein Slot rechnet über 4 Takte verteilt immer an einer skalaren Operation für einen Quad. Bei vielen ATIs braucht man sogar 64 Pixel (HD 4670 nur 32, einige kleinere noch weniger).

robbitop@work
2009-05-14, 15:47:51
Man muß immer 8 Quads = 32 Pixel mit der gleichen Operation haben, damit man keinen Verschnitt hat. Ein Slot rechnet über 4 Takte verteilt immer an einer skalaren Operation für einen Quad. Bei vielen ATIs braucht man sogar 64 Pixel (HD 4670 nur 32, einige kleinere noch weniger).
Ok. Aber immerhin kann man pro Pixel jedes Skalar einzeln rechnen. Kann LRB das auch?

Gipsel
2009-05-14, 15:58:21
Ok. Aber immerhin kann man pro Pixel jedes Skalar einzeln rechnen. Kann LRB das auch?
Ja. Außerdem kann man einfacher auf die Daten anderer (insbesondere benachbarter) Pixel zugreifen. Das ist bei GPUs momentan ein gewisses Problem.

Gast
2009-05-14, 17:28:33
Heise hat mit Intel gesprochen: Nix mit Larrabee 2009: http://www.heise.de/newsticker/Intel-Many-Core-Prozessor-Larrabee-kommt-erst-2010--/meldung/137820

KonKorT
2009-05-14, 19:05:29
Bei PCGH hieß es gestern: Intel Larrabee kommt noch 2009 (http://www.pcgameshardware.de/aid,684395/Intel-Larrabee-kommt-noch-2009/Grafikkarte/News/).

In der Summe nichts neues. Große Stückzahlen wohl erst in Q1/2010, aber vereinzelte Chips möglicherweise noch dieses Jahr.

Lord_X
2009-05-14, 20:50:29
32 Cores bedeuten bei 2 GHz 2 TFLOPs, mit weniger braucht Intel nicht anzutanzen.

Sind den nicht 64 Kerne bestätigt worden?
Edit:
...Seitdem ist auch offiziell bestätigt, dass Larrabee aus bis zu 64 Pentium-Kernen besteht... (http://www.golem.de/0905/67126.html)

AnarchX
2009-05-14, 20:53:05
Sind den nicht 64 Kerne bestätigt worden?
Edit:
...Seitdem ist auch offiziell bestätigt, dass Larrabee aus bis zu 64 Pentium-Kernen besteht... (http://www.golem.de/0905/67126.html)
"bis zu" die 64-Kerne-Version wird wohl eine Extreme-Edition bzw. eine reine Workstation-Version sein, während die große Masse und somit auch die Gamer erstmal eine 32C Version bekommen.

ShadowXX
2009-05-14, 21:11:55
Sind den nicht 64 Kerne bestätigt worden?
Edit:
...Seitdem ist auch offiziell bestätigt, dass Larrabee aus bis zu 64 Pentium-Kernen besteht... (http://www.golem.de/0905/67126.html)
"bis zu" die 64-Kerne-Version wird wohl eine Extreme-Edition bzw. eine reine Workstation-Version sein, während die große Masse und somit auch die Gamer erstmal eine 32C Version bekommen.
Nicht mal das...Golem hat sich die Überschrift selbst aus den Finger aufgrund eines älteren Artikel von Ihnen selbst gesogen....nur stand in dem Artikel:

Über wie viele Kerne Intels erster Many-Core-Chip verfügen wird, hat der Chiphersteller noch nicht verraten, präsentiert aber Benchmarks von Chips mit bis zu 64 Kernen, die zeigen, dass die Architektur sehr gut mit der Zahl der Kerne skaliert.

Artikel: http://www.golem.de/0808/61494.html

und auf genau diesen Artikel beziehen Sie sich als sie im genannten Artikel von

Seitdem ist auch offiziell bestätigt, dass Larrabee aus bis zu 64 Pentium-Kernen besteht.

sprechen.

Und auch im zweiten Artikel auf den Sie im oben verlinkten verweisen steht nix von 64 Kernen, eher das gegenteil:

Mit wie vielen Kernen Larrabee dann wirklich erscheinen soll, verriet Gelsinger auch diesmal nicht. In vor einem Jahr schon bekanntgewordenen Entwicklungsunterlagen war für die erste Generation die Rede von acht, 16 und 32 Cores.

Artikel: http://www.golem.de/0904/66397-3.html

Sie haben sich das "offizell" mit 64 Kernen also aus Ihren eigene alten Artikeln zusammengeklaubt...und das nicht mal ordentlich. Da hat jemand verdammt stark nur mal eben quer gelesen bevor der oben verlinkten Artikel rausgehauen hat.

reunion
2009-05-14, 21:17:07
Naja, wenn Intel zeigt wie Larrabee mit bis zu 64 Kernen skaliert dann kommt die Zahl 64 wohl nicht ganz von ungefähr. Warum sollte man Skalierungsbenchs mit 94 kernen zeigen wenn Larrabbe nur 32 oder weniger haben sollte?

=Floi=
2009-05-14, 21:30:04
für zukünftige weiterentwicklungen des chips? hier zählt auch die zukünftige skalierbarkeit der architektur!

ShadowXX
2009-05-14, 21:49:14
Naja, wenn Intel zeigt wie Larrabee mit bis zu 64 Kernen skaliert dann kommt die Zahl 64 wohl nicht ganz von ungefähr. Warum sollte man Skalierungsbenchs mit 94 kernen zeigen wenn Larrabbe nur 32 oder weniger haben sollte?

...war für die erste Generation die Rede von acht, 16 und 32 Cores

Soweit ich weiß erwartet uns momentan die erste Generation.

Es geht mir auch nicht so sehr darum das Larrabee nicht vielleicht doch mit 64 Kernen erscheint, sondern mehr darum das die Aussage von Golem:

...Seitdem ist auch offiziell bestätigt, dass Larrabee aus bis zu 64 Pentium-Kernen besteht...

So nicht stimmt....es gibt keine offizielle Aussage darüber. Sie haben da bei sich selbst schlecht abgeschrieben (der berühmte "Stille Post"-Effekt).

DrumDub
2009-05-15, 11:10:19
ein paar spekulationen bei techreport.com zu einem die-shot: http://www.techreport.com/discussions.x/16920

laut intel gibts larrabee erst 2010: http://www.computerbase.de/news/hardware/grafikkarten/2009/mai/intel_larrabee_halbjahr_2010/

deekey777
2009-05-15, 12:11:25
Wann soll die 32nm-Fertigung (bei Intel) fertig sein?

Gast
2009-05-15, 12:54:46
ein paar spekulationen bei techreport.com zu einem die-shot: http://www.techreport.com/discussions.x/16920

laut intel gibts larrabee erst 2010: http://www.computerbase.de/news/hardware/grafikkarten/2009/mai/intel_larrabee_halbjahr_2010/

Computerbase hat nur von der Heise-Quelle abgeschrieben, der Link stand schon weiter oben.

Gipsel
2009-05-15, 13:00:55
Wann soll die 32nm-Fertigung (bei Intel) fertig sein?
Da könnte man natürlich vermuten, intel schiebt relativ schnell (evt. Q2 2010, früher wird die Ausbeute beim komplexen Design des Larrabee vielleicht nicht so toll sein) eine 32nm Variante nach, da sie schon jetzt wissen, daß 32 Kerne in 45nm nicht wirklich konkurrenzfähig sein werden oder auch der Stromverbrauch bzw. Takt noch nicht im passenden Rahmen liegt.

Hvoralek
2009-05-15, 13:28:14
Da könnte man natürlich vermuten, intel schiebt relativ schnell (evt. Q2 2010, früher wird die Ausbeute beim komplexen Design des Larrabee vielleicht nicht so toll sein) eine 32nm Variante nach, da sie schon jetzt wissen, daß 32 Kerne in 45nm nicht wirklich konkurrenzfähig sein werden oder auch der Stromverbrauch bzw. Takt noch nicht im passenden Rahmen liegt.Wer sagt denn, dass überhaupt eine 45- nm- Larrabee- Version auf den Markt kommt? Ailuros deutet ja schon länger an, dass er mit einem Start gleich in 32 nm rechnet. 1H 2010 als offizieller Termin scheint das zu bestätigen.

Ailuros
2009-05-15, 14:14:48
Wer sagt denn, dass überhaupt eine 45- nm- Larrabee- Version auf den Markt kommt? Ailuros deutet ja schon länger an, dass er mit einem Start gleich in 32 nm rechnet. 1H 2010 als offizieller Termin scheint das zu bestätigen.

Ich sagte eher dass es nicht besonders gut aussieht fuer Intel wenn Intel LRB unter 45nm vorstellt und das was perf/mm2, perf/$ und natuerlich auch den Stromverbrauch betrifft. So wie es von Anfang an aussah waere 32nm als Start am optimalsten gewesen. Ob sie es jedoch noch im ersten Halbjahr von 2010 mit 32nm schaffen kann ich noch nicht wissen.

Nach den obrigen letzten Links sind sie ja anscheinend doch auf 45nm zumindest was mainstream betrifft und da sie immer noch nicht mit dem debugging fertig sind dauert es wohl noch eine Weile.

The Jackal
2009-05-18, 11:57:25
Ich finde es OK das sich Intel Zeit lässt. So kriegen wir wirklich ein fertiges Produckt und nicht wieder mal eine halbgaare Geschichte, wie des öfteren in heutiger Zeit vorgekommen.

Ailuros
2009-05-18, 14:31:21
Ich finde es OK das sich Intel Zeit lässt. So kriegen wir wirklich ein fertiges Produckt und nicht wieder mal eine halbgaare Geschichte, wie des öfteren in heutiger Zeit vorgekommen.

Inwiefern sind die heutigen GPUs "halbgaare Geschichten". Im Grunde laesst sich Intel keine Zeit, es waren eher ihre originalen Projektionen viel zu optimistische eben weil ihnen jegliche Erfahrung mit high end GPUs fehlt. Falls sie es schaffen sollten auf allen Ebenen (Treiber-qualitaet/-kompatibilitaet, Bildqualitaet usw.) tatsaechlich zu 100% vergleichbar zu sein mit den AMD/NVIDIA GPUs nehme ich ihnen natuerlich den Hut ab. Bis zu dem Punkt ist nichtdestominder jeglicher Zweifel gerechtfertigt; ueberhaupt mit dem Abfall an Treibern und HW die sie ueber die letzten Jahre als IGPs verkaufen.

OgrEGT
2009-05-18, 21:22:55
...ueberhaupt mit dem Abfall an Treibern und HW die sie ueber die letzten Jahre als IGPs verkaufen.

Bis dato hatten sie wohl kein Interesse an leistungsfähigeren GPUs. War zumindest bisher als absolutes Basic für normale Office-Laptops ausreichend. Ich nutze selber eines mit Intel Grafik (k.A. welche genau :rolleyes:), und für die alltägliche Office-arbeit vollkommen i.O.

Aber nun ändert sich Intels Interesse wohl...:smile:

BlackBirdSR
2009-05-18, 23:58:05
Inwiefern sind die heutigen GPUs "halbgaare Geschichten". Im Grunde laesst sich Intel keine Zeit, es waren eher ihre originalen Projektionen viel zu optimistische eben weil ihnen jegliche Erfahrung mit high end GPUs fehlt. Falls sie es schaffen sollten auf allen Ebenen (Treiber-qualitaet/-kompatibilitaet, Bildqualitaet usw.) tatsaechlich zu 100% vergleichbar zu sein mit den AMD/NVIDIA GPUs nehme ich ihnen natuerlich den Hut ab. Bis zu dem Punkt ist nichtdestominder jeglicher Zweifel gerechtfertigt; ueberhaupt mit dem Abfall an Treibern und HW die sie ueber die letzten Jahre als IGPs verkaufen.


Ich sehe das so:
Performance Games: Vorteil Nvidia/ATI
Es wäre utopisch zu glauben, dass jemand mit einem nicht darafhin optimiertem Design die Nexgen der Marktführer schlägt.

Verbrauch/Performance: Vorteil ATI/Nvidia
Erfahrung und zielorientiertes Design schlagen Prozessqualität

Bildqualität AF/AA: Vorteil Intel
Intel hat noch nicht genug Erfahrung um Schummeln, zudem will man sich beweisen. Wenn alle Funktionen richtig implementiert sind natürlich...

Treiber: Vorteil ATI/Nvidia
Die Geschichte zeigt: Jeder Neuling hatte massivste Probleme. Fehlende Erfahrung, unreifer Code und fehlende Zusammenarbeit mit den Herstellern war schon für viele ein großes Problem.

Coda
2009-05-19, 00:01:02
NVIDIA schummelt nicht beim AF (HQ; abgesehen von komischem Verhalten bei strittigem negativem LOD).

BlackBirdSR
2009-05-19, 00:12:50
NVIDIA schummelt nicht beim AF (HQ; abgesehen von komischem Verhalten bei strittigem negativem LOD).

Ich frage mich ja eher, ob Intel überhaupt verschiedene Modi anbietet. Wenn die Leute alle Hände voll zu tun haben den Treiber überhaupt halbwegs anständig hin zu bekommen, denkt da schon jemand an verschiedene Qualitätsstufen um in den Reviews abzusahnen?

Coda
2009-05-19, 00:18:28
So schwer ist es nun auch wieder nicht da zu bescheißen, vor allem hat man eigentlich sonst keinerlei Abhängigkeiten. Es funktioniert auch alles noch so wie es soll wenn ich nur ein Sample bei 16xAF nehme. Es sieht halt eklig aus ;)

Ich lass mich auch gern anstellen von Intel um ihnen nen Filter ihres Wunsches zu designen ;)

Ailuros
2009-05-19, 13:40:28
Bis dato hatten sie wohl kein Interesse an leistungsfähigeren GPUs.

...und das soll eine Ausrede sein fuer die miserable Treiber-Unterstuetzung?

War zumindest bisher als absolutes Basic für normale Office-Laptops ausreichend. Ich nutze selber eines mit Intel Grafik (k.A. welche genau :rolleyes:), und für die alltägliche Office-arbeit vollkommen i.O.

Ich hab zwei Office-Rechner hier Seite an Seite beide mit DX9.0 IGPs; der eine NV und der andere Intel. Wenn ich auf beiden Photoshop CS4 starte darfst Du dreimal raten welche um einiges schneller ist und auch warum.

Aber nun ändert sich Intels Interesse wohl...:smile:

Intel's Interesse koennte sich auch durchaus eher auf die HPC Maerkte konzentrieren. Wie dem auch sei Intel hat bis jetzt keine einziges Anzeichen gezeigt dass sie Einzelheiten wie Leistung sehr wichtig ist. Nichtmal fuer LRB desktop. Es kann sein dass sie endlich aufwachen und das hoffentlich vor dem Launch.

Ich sehe das so:
Performance Games: Vorteil Nvidia/ATI
Es wäre utopisch zu glauben, dass jemand mit einem nicht darafhin optimiertem Design die Nexgen der Marktführer schlägt.

Wie ich schonmal erwaehnt habe, Intel ist einfach zu buerokratisch angestellt dass die sw engineers die Freiheit haben dass anzustellen was sie als notwendig empfinden. Wenn ATI/NV in Spiel X ein Leistungsziel Y erreichen heisst es nicht dass man fuer immer auf Y bruetet sondern es wird konstant und fieberhaft weiter-optimiert. Wenn bei Intel der Treiber-engineer diese Freiheit nicht hat kann man auch nicht besonders viel erwarten.

Verbrauch/Performance: Vorteil ATI/Nvidia
Erfahrung und zielorientiertes Design schlagen Prozessqualität

Ich wuerde eher kein x86 sagen aber wirf mir bitte nichts an den Schaedel ;)

Bildqualität AF/AA: Vorteil Intel
Intel hat noch nicht genug Erfahrung um Schummeln, zudem will man sich beweisen. Wenn alle Funktionen richtig implementiert sind natürlich...

Ich koennte Dir zumindest ein Bespiel nennen wo es genau dank fehlender Erfahrung zu miesen algorithmischen Implementierungen und abscheulicher Bildqualitaet fuehrte. Intel hatte auf ihren IGPs vor ihrer D3D9 Generation nichtmal volles trilinear wenn mich mein Gedaechtnis nicht betruegt.

Treiber: Vorteil ATI/Nvidia
Die Geschichte zeigt: Jeder Neuling hatte massivste Probleme. Fehlende Erfahrung, unreifer Code und fehlende Zusammenarbeit mit den Herstellern war schon für viele ein großes Problem.

Intel ist wie schon oben erwaehnt einfach viel zu gleichgueltig bis jetzt wenn es zu Grafik kommt. Ein anderes Beispiel sie verkaufen ihre ATOM Z's wie warme Semmeln in netbooks und der GMA500 bzw. Poulsbo (IMG IP) laeuft in seiner Mehrzahl immer noch auf sw rendering. Fuer die Treiber sind Tungsten graphics verantwortlich und sie sind einfach zu daemlich dass onboard firmware der die hw Faehigkeiten fuer einen Treiber freischliesst zu benutzen. Jetzt soll erst ein Treiber kommen der hw video encode endlich unterstuetzen kann und mit dem Rhythmus wird die eingebettete GPU wohl irgendwo nach 2010 anstaendige Treiber bekommen fuer voll hw Unterstuetzung. Waere ich mir nicht sicher dass IMG's Referenz-Treiber nicht etliche Male mehr Leistung erreicht wuerde ich es gar nicht erwaehnen.

Das bedauernde bei Intel bis jetzt ist dass sie lediglich nur die Anzahl der verkauften Einheiten von IGPs oder SoC bis jetzt interessiert. Eine rapide Treiber-Entwicklung kostet sie gar nichts, weder mit ihren eigenen chipset Angestellten noch wenn dritte Firmen damit beauftragt sind. Es liegt einfach noch nicht in ihren Prioritaeten und wie schon oben erwaehnt entweder sie wachen auf oder verpatzen ziemlich vieles beim ersten Eindruck.

turboschlumpf
2009-05-21, 23:25:02
A First Look at the Larrabee New Instructions (LRBni) Michael Abrash

[...]

This is all somewhat abstract, so to make things a little more concrete, let me mention something I know for sure LRBni can do, because I've done it: software rendering with GPU-class efficiency, without any fixed-function hardware other than a texture sampler.

[...]

Quelle: http://www.ddj.com/hpc-high-performance-computing/216402188Was ist von dieser Aussage zu halten?

There are also multiply-add and multiply-sub instructions, which run at the same speed as other vector instructions, thereby doubling Larrabee's peak flops. Finally, there is hardware support for transcendentals and higher math functions. The arithmetic vector instructions operate in parallel on 16 floats or int32s, or 8 doubles, although this is not fully orthogonal; most float multiply-add instructions have no int32 equivalent, for example. The logical vector instructions operate on 16 int32s or 8 int64s, and the shift vector instructions operate on 16 int32s only. Heißt das für Larrabee gilt DP = 1/2 SP?

Multiply-add and multiply-sub have three vector operands like other vector instructions, but are special in that they have three sources, so the first operand must serve as both a source and the destination; hence, unlike the other instructions, most multiply-add and multiply-sub instructions have no non-destructive form. (The exception is vmadd233, a special form of multiply-add designed specifically for interpolation, which gets both offset and scale from a single operand and consequently uses only two source operands.) It's worth noting that multiply-add and multiply-sub instructions are fused; that is, no bits of floating-point precision are lost between the multiply and the add or subtract, so they are more accurate than and not exactly equivalent to a multiply instruction followed by a separate add or subtract instruction.Larrabee LRBni unterstützen FMA3. Könnte das der Grund sein, warum FMA4 aus den AVX gestrichen wurde?

Coda
2009-05-22, 00:11:10
Beides nein.

Ailuros
2009-05-22, 10:08:40
Heißt das für Larrabee gilt DP = 1/2 SP?

Theoretisch 1/4 wie auf heutigen Radeons (wobei letztere in Echtzeit eher auf 1/5 liegen)

turboschlumpf
2009-05-23, 21:12:51
Im GT300-Thread wird aktuell vermehrt darüber diskutiert, dass das Rasterizing ein Flaschenhals des GT200 sei. Könnte das nicht auch ein Vorteil für Larrabee darstellen? Immerhin kann sich bei Larrabee der komplette Chip um das Rasterizing kümmern, wenn es denn notwendig ist.

Rasterizing auf Larrabee: Effizient? Nein. Aber effektiv sehr wohl!

Theoretisch 1/4 wie auf heutigen Radeons (wobei letztere in Echtzeit eher auf 1/5 liegen)
Aber in obigem Zitat steht doch etwas anderes, oder nicht? Und warum gilt nur DP = 1/4 SP und nicht DP = 1/2 SP? Wäre technische naheliegend nicht eigentlich letzters?

BlackBirdSR
2009-05-23, 22:31:26
Aber in obigem Zitat steht doch etwas anderes, oder nicht? Und warum gilt nur DP = 1/4 SP und nicht DP = 1/2 SP? Wäre technische naheliegend nicht eigentlich letzters?

Wenn die Einheiten 64Bit breit wären. Nutzt man aus guten Gründen nur 32Bit breite Einheiten, dann kann man die 8 dp nicht in einem Durchgang durchziehen.

turboschlumpf
2009-05-23, 22:36:26
Wäres es dann aber nicht 16 DP alle zwei Takte?

turboschlumpf
2009-05-23, 22:59:50
Wie wahrscheinlich ist es bei dem verschachtelten Aufbau eigentlich, dass verschiedene Taktdomänen zum Einsatz kommen?

(rot Core, grün TMU)

http://i41.tinypic.com/2hcdzja.png

Quelle: http://forum.beyond3d.com/showpost.php?p=1292362&postcount=16

Ailuros
2009-05-23, 23:07:25
Im GT300-Thread wird aktuell vermehrt darüber diskutiert, dass das Rasterizing ein Flaschenhals des GT200 sei. Könnte das nicht auch ein Vorteil für Larrabee darstellen? Immerhin kann sich bei Larrabee der komplette Chip um das Rasterizing kümmern, wenn es denn notwendig ist.

LRB wird wohl rasterizing im Treiber ausfuehren; bei einem sehr effizienten Treiber kommt man sicher an die Effizienz eines heutigen hw rasterizers ran.

Rasterizing auf Larrabee: Effizient? Nein. Aber effektiv sehr wohl!

Bleibt die Frage gegen was er sich stellen muss. Wenn die anderen 2 IHVs z.B. mehr als eine Geometrie Einheit sprich rasterizer pro GPU haben was dann?


Aber in obigem Zitat steht doch etwas anderes, oder nicht? Und warum gilt nur DP = 1/4 SP und nicht DP = 1/2 SP? Wäre technische naheliegend nicht eigentlich letzters?

Intel deutet an etlichen Stellen etwas in der Richtung "half rate" fuer DP an; ich bin selber in die Falle reigetappt und habe es blindlings geglaubt. Das dumme ist dass sie mit "half rate" eigentlich die halbe Vector Breite meinen, weil der ALU data path stets "nur" 512bit breit ist. Etwas anderes als ein theoretisches SP = 1/4 DP kann ich mir nicht vorstellen.

Gast
2009-05-26, 13:34:38
LRB wird wohl rasterizing im Treiber ausfuehren; bei einem sehr effizienten Treiber kommt man sicher an die Effizienz eines heutigen hw rasterizers ran.
vermutlich eher nicht, aber die tage an denen man leistung anhand der triangle/s gemessen hat sind eh lang vorbei, deswegen macht das nichts.


Bleibt die Frage gegen was er sich stellen muss. Wenn die anderen 2 IHVs z.B. mehr als eine Geometrie Einheit sprich rasterizer pro GPU haben was dann?dann haben die anderen IHVs ihre hausaufgaben nicht gemacht. die trianglerate ist ziemlich saturiert. das liegt nicht am trianglesetup selbst, sondern an der dramatisch fallenden effiziens dahinter. Wenn ein chip 32pixel pro takt rasterisieren kann, kann er nunmal nur das, es bringt nichts eine peak tri-setup rate zu haben die beim doppelten liegt. es bringt auch nichts zwei 32pixel rasterisierungen zu machen pro takt, weil du dann sehr stark dependancies zwischen den einzelnen dreiecken haben kannst, gerade wenn es auf rasterisierungsraten ankommt z.b. bei alphablending. es bringt am ende echt nichts das rasterisieren zu optimieren.
selbst wenn man meinen sollte in zwei verschiedene buffer unabhaengig zu rasterisieren, waere es im hinblick auf larrabee kein gewinn, denn zur not kann larrabee forward auf n-cores in n-buffer zeichnen.



Intel deutet an etlichen Stellen etwas in der Richtung "half rate" fuer DP an; ich bin selber in die Falle reigetappt und habe es blindlings geglaubt. Das dumme ist dass sie mit "half rate" eigentlich die halbe Vector Breite meinen, weil der ALU data path stets "nur" 512bit breit ist. Etwas anderes als ein theoretisches SP = 1/4 DP kann ich mir nicht vorstellen.
den einbruch den man bei NV hat, wird man auch bei intel haben, es sind keine dedizierten instruktionen fuer double, sondern lediglich laengere sequenzen von SP ops die dann doubles 'emulieren', halt so wie man bei cuda sehen kann dass int24 dramatisch schneller ist als int32 (benutzung existierender float mul units) oder int16 auf spu dramatisch schneller ist als int32 (ebenfalls emulation durch mehrere ops).

Gipsel
2009-05-26, 15:40:30
den einbruch den man bei NV hat, wird man auch bei intel haben, es sind keine dedizierten instruktionen fuer double, sondern lediglich laengere sequenzen von SP ops die dann doubles 'emulieren', halt so wie man bei cuda sehen kann dass int24 dramatisch schneller ist als int32 (benutzung existierender float mul units) oder int16 auf spu dramatisch schneller ist als int32 (ebenfalls emulation durch mehrere ops).
NV hat aber seit GT200 eigene DP-Einheiten ;)

Das eigentliche Problem ist sind die Multiplikationen. So ein Multiplier ist erheblich aufwendiger als ein Addierer und zwei float Multiplier zu einem double Multiplier zu kombinieren geht nicht (nur anders rum, einen breiten aufzuteilen). Mit einem halbwegs überschaubaren Aufwand kann man allerdings vier 27 Bit Multiplier (für float benötigt man eigentlich nur 24 Bit) zu einem double Multiplier kombinieren. Das ist es, was ATI macht und worauf sich auch intel zurückziehen könnte. Und damit landet man eben für DP genau bei einem Viertel des SP Durchsatzes (bzw. bei ATI bei einem Fünftel, weil einfach eine SP-Einheit übrig bleibt). Übrigens halbiert sich theoretisch bei ATI nur der DP-Durchsatz, wenn ausschließlich Additionen zum Einsatz kommen (bzw. reduiert sich auf 2/5 =40%). Die DP-Peak-Performance ist also mit ADD genau so hoch wie mit MADD ;)

turboschlumpf
2009-05-26, 17:04:41
:up: für das Posting von Gipsel.

Jetzt muss ich aber nochmals nachhaken. Michael Abrash schreibt hier (http://www.ddj.com/hpc-high-performance-computing/216402188): "The arithmetic vector instructions operate in parallel on 16 floats [...], or 8 doubles, [...]." Wo ist da der Haken?

Gast
2009-05-26, 17:36:04
Dass er nicht schreibt, dass die 8 doubles möglicherweise nicht mehr single-cycle sind.

Ailuros
2009-05-26, 18:55:56
vermutlich eher nicht, aber die tage an denen man leistung anhand der triangle/s gemessen hat sind eh lang vorbei, deswegen macht das nichts.

Dann frage ich mich warum Entwickler wiederholt erwaehnen dass heutige GPUs zu stark im Bereich rasterizing schwaecheln.

dann haben die anderen IHVs ihre hausaufgaben nicht gemacht. die trianglerate ist ziemlich saturiert. das liegt nicht am trianglesetup selbst, sondern an der dramatisch fallenden effiziens dahinter. Wenn ein chip 32pixel pro takt rasterisieren kann, kann er nunmal nur das, es bringt nichts eine peak tri-setup rate zu haben die beim doppelten liegt. es bringt auch nichts zwei 32pixel rasterisierungen zu machen pro takt, weil du dann sehr stark dependancies zwischen den einzelnen dreiecken haben kannst, gerade wenn es auf rasterisierungsraten ankommt z.b. bei alphablending. es bringt am ende echt nichts das rasterisieren zu optimieren.
selbst wenn man meinen sollte in zwei verschiedene buffer unabhaengig zu rasterisieren, waere es im hinblick auf larrabee kein gewinn, denn zur not kann larrabee forward auf n-cores in n-buffer zeichnen.

Es war lediglich ein Beispiel zur Moeglichkeit dass der generelle Parallelismus in diesen Bereichen in kommenden GPUs um einiges steigen koennte. Es muss zwar nicht stimmen aber nach Geruechten soll ATI's kommender RV870 32 ROPs haben. Angenommen es stimmt bleibt die Frage warum sich gerade die Anzahl der Pixels/Takt verdoppeln soll waehrend nichts dergleichen bei den anderen Einheiten vorkommt. Ein chip Designer wird wohl guten Grund haben die Anzahl der Pixels/Takt zu verdoppeln wobei ich keinen besonders logischen Grund finden kann ploetzlich von 16 auf 32 Pixels/Takt zu steigen.

Es bleibt die ewige Frage an was genau ATI/NVIDIA in der Zwischenzeit gedreht haben um die Effizienz pro Transistor weiterhin zu erhoehen. Nichtdestominder ist mein Wissen im Bereich als Laie ziemlich begrenzt und ich kann lediglich links und rechts Meinungen sammeln und meine eigenen laienhaften "Schlussfolgerungen" ziehen. Und natuerlich heisst das nicht dass ich nicht eines besseren belehren lassen will.

den einbruch den man bei NV hat, wird man auch bei intel haben, es sind keine dedizierten instruktionen fuer double, sondern lediglich laengere sequenzen von SP ops die dann doubles 'emulieren', halt so wie man bei cuda sehen kann dass int24 dramatisch schneller ist als int32 (benutzung existierender float mul units) oder int16 auf spu dramatisch schneller ist als int32 (ebenfalls emulation durch mehrere ops).

Gipsel hat wohl zweifellos das Thema beantwortet. Es gilt natuerlich aber auch nur fuer heutige GT200, denn was NV bei der naechsten Generation fuer DP angestellt weiss wohl mit Sicherheit noch kein normal "sterblicher" ;)

=Floi=
2009-05-27, 01:46:04
performance pro watt bezog sich aber immer auch die reine arithmetische rechenelistung und nicht auf fps pro watt. ;) Von daher ist das nicht so ganz überzeugend. ;)

SP ist sowieso viel wichtiger als DP und von daher muß uns das nicht so wirklich interessieren. :rolleyes: hauptdache das ding bringt seine 2,456 gflop auf den boden und man profitiert auch bei cuda mit so einer karte.

Gipsel
2009-05-27, 03:07:46
Dass er nicht schreibt, dass die 8 doubles möglicherweise nicht mehr single-cycle sind.:up:
Genau!

Ailuros
2009-05-27, 08:25:04
performance pro watt bezog sich aber immer auch die reine arithmetische rechenelistung und nicht auf fps pro watt. ;) Von daher ist das nicht so ganz überzeugend. ;)

Es ist so oder so gesehen nicht besonders ueberzeugend.

SP ist sowieso viel wichtiger als DP und von daher muß uns das nicht so wirklich interessieren. :rolleyes:

Wenn Intel LRB nur fuer den desktop Markt bestimmt haette dann wohl ja. Da sie sich aber im Grunde mehr auf die professionellen Maerkte am Ende konzentrieren werden, ist es ein ziemlich interessantes Thema.

hauptdache das ding bringt seine 2,456 gflop auf den boden und man profitiert auch bei cuda mit so einer karte.

Um auf den ersten Paragraph zurueckzukommen damit die FLOPs/Watt Relation besser ist als bei der Konkurrenz, muesste LRB ein gutes Stueck unter 120W verbrauchen mit den hypothetischen <2.5 TFLOPs. Intel wird ihr eigenes API fuer LRB haben (Ct) und ich bin mir nicht sicher ob es schon fuer desktop LRB verfuegbar sein wird.

Ailuros
2009-05-28, 09:01:24
Nach dem neuesten Gefluester hinter den Kulissen sieht es ziemlich duester aus fuer LRB. Die Anzahl der Revisionen ist bald so hoch wie ich theoretisch an Leben haben sollte....Leistung errrrr *hust* lassen wir es lieber....

Gast
2009-05-28, 09:35:18
in welchem Leistungssegment ist Larrabee eigentlich angedacht?
Will/wollte man IGPs ersetzen oder im Performance/Highend mitmischen?

Ailuros
2009-05-28, 09:43:12
in welchem Leistungssegment ist Larrabee eigentlich angedacht?
Will/wollte man IGPs ersetzen oder im Performance/Highend mitmischen?

Intel hatte wohl anfangs eher high end im Hinterkopf zumindest was die Features betrifft. Bei den Quadratmillimetern die LRB als core einnehmen wird, haette wohl Intel einen totalen Hirnschaden wenn sie das Ding als IGP benutzen wuerden.

Falls sie das meiste endlich richtig hinbiegen koennen wird sich das Teil hoffentlich mit AMD's mainstream X11 GPUs messen koennen und IMHLO sollten sie auch froh sein wenn sie soweit kommen.

=Floi=
2009-05-28, 21:27:51
ich meinte den letzten absatz eher im vergleich zu anderen produkten von nv. der gt200 war ja nicht wirklich eine steigerung zum g92 im bereich gpgpu und hier wären die vollen 2,456gflop (mit sli und oc 5gflop) schon ein netter nebeneffekt bei bestimmten anwendungen.

Ailuros
2009-05-29, 09:34:40
ich meinte den letzten absatz eher im vergleich zu anderen produkten von nv. der gt200 war ja nicht wirklich eine steigerung zum g92 im bereich gpgpu und hier wären die vollen 2,456gflop (mit sli und oc 5gflop) schon ein netter nebeneffekt bei bestimmten anwendungen.

Trotz allem FLOP != FLOP zwischen Architekturen. Bei relativ vergleichbarem Stromverbrauch hat eine RV770 1.2 TFLOPs und eine GT200/280 933GFLOPs. Wenn man jetzt nur MADDs berechnen wuerde, liegt die letztere fast auf der Haelfte, stets auf Papier und stets pro Watt.

=Floi=
2009-05-31, 19:13:19
ich rede von NV und nicht von ati! bei cuda/GPGPU ist mir vor allem wichtig was hinten rauskommt und das ist beim GT200 zu wenig! Dort war und ist die steigerung einfach zu gering (aufgrund zu geringer taktraten) und das fand ich eben einfach schade. Wenn ich eben nun mit dem G300 eine steigerung vom G92 um 300% bekommen würde, dann könnte man hier bestimmte sachen auch wirklich extrem beschleunigen und würde so noch mehr anreitz bieten. Für mich persönlich sollte sich eine moderne gpu am besten in mehreren bereichen amortisieren und deshalb setze ich da auch sehrl auf cuda.

BlackBirdSR
2009-05-31, 20:47:18
Eventuell wurde mit LRB wieder so eine Idee geboren, wo jemand seine Vorstellungen schmackhaft darstellen konnte, dann eine Initiative von oben nach unten statt findet, die Produktmanager positives Feedback zurückgeben und bis alle beteiligten dann endlich kapiert haben, dass es doch nicht so rosig ist - ist es längst zu spät. Das erinnert mich an so manch anderes Intel.Produkt

=Floi=
2009-05-31, 21:04:36
intel muß aber diesen weg gehen und strategisch ist es sicherlich nicht schlecht. hier liegt noch sehr viel geld für intel.

AnarchX
2009-05-31, 21:12:42
Einen Many-Core-Prozessor für hochparallele Durchsatzaufgaben benötigt Intel auf jeden Fall.
Aber ob dieses Konzept sich schon 2010 für eine brauchbare GPU-Architektur eignet ist natürlich fraglich. Momentan sieht es nicht ganz danach aus.

Ailuros
2009-06-01, 12:20:46
ich rede von NV und nicht von ati! bei cuda/GPGPU ist mir vor allem wichtig was hinten rauskommt und das ist beim GT200 zu wenig!

Was genau ist zu "wenig" auf GT200? Falls Du double precision meinen solltest, lies lieber erstmal nach was genau unterstuetzt wird und ob es dazu selbst auf CPUs irgendwelche Alternativen gibt, bevor wir ueber sterile FLOPs/s reden.

Dort war und ist die steigerung einfach zu gering (aufgrund zu geringer taktraten) und das fand ich eben einfach schade.

GT200 waere mit X% hoeheren Frequenzen auch in etwa um X% schneller als bei der Vorstellung.

Wenn ich eben nun mit dem G300 eine steigerung vom G92 um 300% bekommen würde, dann könnte man hier bestimmte sachen auch wirklich extrem beschleunigen und würde so noch mehr anreitz bieten. Für mich persönlich sollte sich eine moderne gpu am besten in mehreren bereichen amortisieren und deshalb setze ich da auch sehrl auf cuda.

Generell fuer GPGPU waere die IMHLO die optimalste Loesung MIMD Einheiten. So wie es aussieht werden wir keine MIMD von keinen den drei X11 GPUs sehen (ausser ATI plant eine fundamental andere Architektur fuer 28nm). Im Gegensatz werden zumindest fuer den ersten optimierte SIMD Einheiten erscheinen.

Von dem Punkt ab haengt es auch von jeder einzelnen Anwendung ab um welchen Grad diese fuer GPGPU optimiert wurde stets durch jeweiliges GPGPU API (sei es OpenGL, D3D11, CUDA, Ct usw.). Fuer mainstream Applikationen wie z.B. Photoshop CS4 (optimalere Beschleunigung ab SM3.0 afaik) sieht es nicht danach aus als ob man ploetzlich auf 300% Mehrleistung kommen wuerde, ausser man vergleicht natuerlich eine 512MB G92 mit einer 2GB GT200. Dass in dem Fall eine hypothetische G300 mit 2GB im Vergleich zur letzteren etwas besonderes aendern koennte will ich bezweifeln; wenn dann wohl eher mit X zukuenftiger CSx Photoshop Version wenn ueberhaupt.

=Floi=
2009-06-01, 15:44:54
mit einem gt200 kommt man nicht wirklich an einen G92 ran, denn das verhältnis bleibt ungefähr bei ~60% abstand.
240X1600=384000
128X2000=256000
das entspricht nur noch faktor 1,5. die STIEIGERUNG ist mir zu wenig!
nur mal als vergleich:
512X2000=1024000!
ich meinte einfach die reine arithmetische rechenleistung im vergleich zum G92. Der GT200 kann sich zwar in spielen ganz gut absetzen und der chip ist auch nicht schlecht, nur für ein upgrade reicht es mir nicht.

Ailuros
2009-06-01, 16:42:57
mit einem gt200 kommt man nicht wirklich an einen G92 ran, denn das verhältnis bleibt ungefähr bei ~60% abstand.
240X1600=384000
128X2000=256000
das entspricht nur noch faktor 1,5. die STIEIGERUNG ist mir zu wenig!
nur mal als vergleich:
512X2000=1024000!

Fuer was sollen diese Zahlen nochmal stehen?

G92 = 124 * 2 * 1.836GHz = 455 GFLOPs/s

GT200 = 240 * 3 * 1.476GHz = 1063 GFLOPs/

...und ja ich hab mit Absicht den MUL beim G92 nicht mitberechnet (obwohl ich eigentlich einen halben FLOP dank Grosszuegigkeit fuer G8x/9x haette mitberechnen koennen).

# The ‘Missing MUL’: On G80, it wasn’t exposed at all for graphic. In CUDA, it was partially accessible: it was possible, although difficult, to extract half of its peak performance under certain circumstances resulting in a peak rate of 432GFlops. On GT200, it seems possible to achieve very near the peak rate in CUDA with few if any obvious scheduling limitations. In graphics, it’s a bit more complicated, but that is not this article’s subject…
# The register file per SM increased from 32KiB to 64KiB. There are multiple advantages to this; it makes it much less likely for the compiler to ‘spill’ registers to memory, allows for more threads to run at the same time to hide memory latency, and lets the compiler use more registers for its optimisation process. Apparently, spilling was pretty rare but it did happen in a few applications.
# In addition to full PCI Express 2.0 support, GT200 also allows for CUDA computations to occur at the same time as one-way data transfers to or from the GPU (as on G84/G86/G9x). So you’ve got two transfer modes: you can both send and receive data at the same time, or keep the ALUs busy while either sending or receiving data. This can drastically reduce the amount of time the GPU is idling when shuffling data around. In the next generation, two-way transfers will be made possible at the same time as computation. NVIDIA also seems very happy about the real-world throughput of their PCI Express implementation, which they claim is in excess of 6GB/s (or 75% of the peak).
# There’s now a memory coalescing cache in each memory controller partition. With G80, the threads in a batch/warp (or half-warp) had to have contiguous memory access patterns; otherwise, your bandwidth efficiency would drop proportionally to the number of different memory locations you were accessing. On GT200, the memory controller will try to intelligently combine memory accesses to improve efficiency. Don’t expect it to magically go as fast as the optimally contiguous case, but it should still help a lot and make the programmer’s job easier.

http://www.beyond3d.com/content/articles/106/2

Noch mehr:

http://beyond3d.com/images/articles/Tesla10/5.png

http://www.beyond3d.com/content/articles/106/3

....und lies die Seite bitte mal durch....


ich meinte einfach die reine arithmetische rechenleistung im vergleich zum G92. Der GT200 kann sich zwar in spielen ganz gut absetzen und der chip ist auch nicht schlecht, nur für ein upgrade reicht es mir nicht.

Innerhalb der gleichen Generation ist die Steigerung gut genug. Nicht nur ist unter CUDA der MUL unter dual-issue benutzbar, sondern es kam auch DP dazu welches auf G80 und G92 ueberhaupt nicht unterstuetzt wurde. Ich dachte wir reden schon die ganze Zeit ueber GPGPU. Haette NV nicht so viele Transistoren dafuer geopfert waere die perf/mm2 Relation auch um einiges besser auf GT200.

Und vergleich mir auch nicht bitte jegliche G80/G92/GT200 oder besser D3D10 GPU mit G300. Vergleiche sind genauso viel wert wie zwischen G80 und G71.

turboschlumpf
2009-06-01, 21:09:45
Darf ich fragen, was diese Diskussion im Larrabee-Thread zu suchen hat?

Ailuros
2009-06-02, 07:50:22
Darf ich fragen, was diese Diskussion im Larrabee-Thread zu suchen hat?

Eine der angeblichen Staerken LRBs soll ja GPGPU Leistung sein. Aber wenn Du auf direkteres kommentieren willst bitte schoen:

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7326370&postcount=1166

turboschlumpf
2009-06-02, 17:53:06
Intel's 'Larrabee' on Par With GeForce GTX 285

[...]

This time however, we waned to find out a little bit more about what Intel had up its sleeve for Larrabee--the company's next generation graphics solution, that's suppose to blow the water out of everything in the market.

According to one close Intel partner that wished not to be named, this isn't the case. We were told that Larrabee is currently only capable of performance levels similar to Nvidia's GeForce GTX 285. While this isn't a bad thing in by any measure, it doesn't quite line up with a lot of the heat that we've been told.

[...]

Quelle: http://www.tomshardware.com/news/intel-larrabee-nvidia-geforce,7944.html


GTX-285-Niveau wäre aus meiner Sicht ein relativ gelungener Einstieg für Intel.

The Jackal
2009-06-02, 18:14:17
Ich glaub nicht so recht das der Larrabee so schwach ausfallen soll. Da fließt einfach zu viel Geld seitens Intel da rein.

Vieleicht ist der Larrabee aber für was ganz anderes konzipiert bezogen auf Grafik. Vieleicht Raytracing oder doch vieleicht ganz was anderes, woran wir noch nicht gedacht haben.

Was währe wenn die Spieleprogramierer auf einmal auf reine Softwarerenderer setzten würde? Dann bräuchte man eine unmenge an paralleler Rechenpower.

Neue Spieleeffekte werder doch immer erst im Softwarerender verfahren ausgeführt bei der Entwicklung und dann erst auf Recheneinheiten umgeschrieben. Würde dieser Schritt nicht bei Larrabee wegfallen und sich dadurch die Entwicklung neure Spiele (Effekte) verkürzen?

Spielt bei Softwarerenderer überhabt noch eine Rolle ob ich die Szene in 1600x1200 oder in 1600x1200 8xAA 16xAF rechne, rein Rechenleistungsmäßig?

AffenJack
2009-06-02, 18:50:04
GTX-285-Niveau wäre aus meiner Sicht ein relativ gelungener Einstieg für Intel.

Dir ist schon klar, dass gtx285-niveau bei larrabee-erscheinen wohl 150$ Preisbereich ist? Das ist doch ziemlich weit entfernt von dem 300$ Chip, den man sich früher vorgestellt hat.

AnarchX
2009-06-02, 18:57:50
Dir ist schon klar, dass gtx285-niveau bei larrabee-erscheinen wohl 150$ Preisbereich ist? Das ist doch ziemlich weit entfernt von dem 300$ Chip, den man sich früher vorgestellt hat.

Da muss Intel halt noch ein paar Applikationen beilegen, die einen höheren Preis rechtfertigen.

Aber GTX 285 Leistung dürfte Anfang 2010 in der Tat bei 150€ und weniger liegen.

Ich glaub nicht so recht das der Larrabee so schwach ausfallen soll. Da fließt einfach zu viel Geld seitens Intel da rein.

Für 32 TMUs, 128GB/s und 2 TFLOPs die nicht nur für das Shading da sind, wären GTX 285 Leistung schon sehr ordentlich.
Andere Gerüchte sehen den Consumer-LRB weit darunter.



Vieleicht ist der Larrabee aber für was ganz anderes konzipiert bezogen auf Grafik. Vieleicht Raytracing oder doch vieleicht ganz was anderes, woran wir noch nicht gedacht haben.

Was währe wenn die Spieleprogramierer auf einmal auf reine Softwarerenderer setzten würde? Dann bräuchte man eine unmenge an paralleler Rechenpower.

Bis sich frei programmierte Renderingpipelines durchsetzen gehen noch einige Jahr in das Land, denn aktuelle Engines und die noch in Entwicklung sind, setzen ganz klar auf DirectX und ähnliche APIs. Dementsprechend wird sich LRB auch in solchen Applikationen schlagen müssen, vielleicht wird es durch die Project Offset Engine die als Middleware vermarktet werden soll ein paar Randerscheinungen geben, aber primär wird LRB in Spielen das gleiche wie auch die anderen Karten rechnen.

Ausserhalb von Spielen wird sich noch zeigen müssen, wozu LRB fähig ist, generell dürfte hier sein Potential doch höher sein.

aylano
2009-06-02, 22:17:58
Ich glaub nicht so recht das der Larrabee so schwach ausfallen soll. Da fließt einfach zu viel Geld seitens Intel da rein.

Das wäre ja nicht das erste Mrd. $ Grab von Intel.
Neben Itanium & Netburst zeichnet sich per Wimax ein aktueller & wenig beachteter Mrd. Grab ab, wo Intel im 4Q eine ganze Mrd. $ wegen der Clarewire Beteiligung abgeschrieben hat.

Intels momentaner Erfolg liegt momentan im Core2-Bereich der von Pentium 3 abstammt.
Und der Pentium 3 war eine verdammt gute bzw. effiziente CPU weil er bei 1 Ghz nur 25 Watt verbrauchte, während der Athlon ca. 60 Watt brauchte.

Dazu konnte Intel RD-Rams & Turbo-Cache nicht einführen.
Und Atom läuft auch noch nicht wie geplant, auch wenn er erst ab (2010 oder) 2011 so richtig durchstarten wird.

Andererseits muss Intel verdammt viel Forschen bzw. in Architekturen investieren, damit sie weiterhin Marktführer bleiben und Mrd. $ Umsätze machen können.
Somit sind Fehlinvestitionen & -Archiekturen fast schon vorprogrammiert. Und wie viele Architekturen AMD schon in den Sand (=vorzeitig beendet & nachher den alten K7/8 aufgebohrt haben) gesetzt hat, weiß man ja auch nicht.

Also, es ist viele möglich bzw. ich traue Intel bei Larrabee von einem Flop bis zu einem Erfolg alles zu.

Und wenn ATI mit ihrer jahrerlanger Grafikerfahrung bei der ersten DX10-Architektur dermaßen floppte, würde ich es für Intel als großen Erfolg sehen, wenn der Larrabee halbwegs mithalten würden.
Es wird sicher schwer, aber Intel hat mit ihrer Marktmacht & Fertigung immerhin 2 Asse im Ärmel.

Gast
2009-06-03, 10:31:30
Wo war Netburst ein finanzieller Flop? Nur weil die Architektur vll nicht die beste war, hat Intel damit immer noch Milliarden gescheffelt.

Coda
2009-06-03, 14:37:17
Für 32 TMUs, 128GB/s und 2 TFLOPs die nicht nur für das Shading da sind, ...
Definiere "nicht nur für das Shading".

Ailuros
2009-06-03, 14:50:30
Ich glaub nicht so recht das der Larrabee so schwach ausfallen soll. Da fließt einfach zu viel Geld seitens Intel da rein.

Schon klar dass tonnenweise Moneten ins LRB Projekt reinfliessen; nach 7 Revisionen und immer noch nicht produktionsreifem Silizium bis heute wuerde ich auch sagen dass die Rechnung ziemlich hoch geworden ist. Und ja es ist A7 momentan.

Vieleicht ist der Larrabee aber für was ganz anderes konzipiert bezogen auf Grafik. Vieleicht Raytracing oder doch vieleicht ganz was anderes, woran wir noch nicht gedacht haben.

Entwickler werden sich schon in der Zukunft so wie es aussieht mit ray tracing beschaeftigen, aber wenn dann eher in Kombination mit rasterizing. Ergo wird wo stellenweise die Loesung benutzt die auch mehr Sinn macht. Bevor wir aber sehen was LRBs konkurrierende GPUs im ray tracing Bereich anstellen koennen, kann man wohl schwer von irgendwelchen Vorteilen reden.

Der Mythos dass LRB irgendwelche "grosse" Vorteile mit GPGPU haben wird kann man aber trotz allem in der Zwischenzeit schon bezweifeln.

Was währe wenn die Spieleprogramierer auf einmal auf reine Softwarerenderer setzten würde? Dann bräuchte man eine unmenge an paralleler Rechenpower.

Es gibt sw renderer heutzutage und deren Effizienz selbst fuer Spiele der Art UT2004 ist nichtmal so schlecht wenn man aber bedenkt auf was das Resultat genau begrenzt ist (sprich Aufloesung, no AA/AF usw.). Anders heutige sw renderer sind Lichtjahre entfernt von dem was z.B. die Cry Engine auf einer GPU anstellen kann. Nebenbei ein sw renderer laeuft normalerweise auf einer CPU und LRB ist leider nun mal eine GPU.

Neue Spieleeffekte werder doch immer erst im Softwarerender verfahren ausgeführt bei der Entwicklung und dann erst auf Recheneinheiten umgeschrieben. Würde dieser Schritt nicht bei Larrabee wegfallen und sich dadurch die Entwicklung neure Spiele (Effekte) verkürzen?

Ich glaube dass die Tatsache dass LRB sehr vieles im Treiber anrichtet von vielen missverstanden wird. Um es einfacher zu machen: klar koennte ein ISV seinen game-code auf etwas wie LRB "anpassen", nur heisst es aber dann auch nicht unbedingt dass LRB irgend einen besonderen Vorteil haben koennte.

Spielt bei Softwarerenderer überhabt noch eine Rolle ob ich die Szene in 1600x1200 oder in 1600x1200 8xAA 16xAF rechne, rein Rechenleistungsmäßig?

Lass mal anspruchsvolles Zeug wie 8xMSAA oder sogar AF zur Seite und versuch mal lediglich trilineare Filterung auf einer CPU laufen zu lassen und die Antwort wird wohl offensichtlich sein.

Coda
2009-06-03, 14:52:49
Lass mal anspruchsvolles Zeug wie 8xMSAA oder sogar AF zur Seite und versuch mal lediglich trilineare Filterung auf einer CPU laufen zu lassen und die Antwort wird wohl offensichtlich sein.
Deshalb filtert Larrabee ja auch nicht in Software.

deekey777
2009-06-03, 14:53:38
Definiere "nicht nur für das Shading".
Ich würde das so verstehen: Dort, wo die GPUs ihre Fixed-Functions nutzen, die Larrabee nicht hat.

Ailuros
2009-06-03, 14:57:51
Für 32 TMUs, 128GB/s und 2 TFLOPs die nicht nur für das Shading da sind, wären GTX 285 Leistung schon sehr ordentlich.
Andere Gerüchte sehen den Consumer-LRB weit darunter.

Es gibt stets einen sehr grossen Unterschied zwischen Theorie und Realitaet. Die momentane Realitaet - wenn die hw auch tatsaechlich problematisch ist wie zur Zeit herumfliesst - liegt um ein ziemlich grosses Stueck unter jeglicher GT200.

Coda
2009-06-03, 15:00:02
Ich würde das so verstehen: Dort, wo die GPUs ihre Fixed-Functions nutzen, die Larrabee nicht hat.
Wer rechnet denn bei GPUs fixed function mit in die FLOPs ein?

Ailuros
2009-06-03, 15:02:12
Ich würde das so verstehen: Dort, wo die GPUs ihre Fixed-Functions nutzen, die Larrabee nicht hat.

Tja nur hat man in dem Fall weniger Echtzeit FLOPs als eine GPU mit X zusaetzlichen ff Einheiten oder?

***edit: ROFL zu Coda's gleichzeitigem Post....

turboschlumpf
2009-06-03, 15:14:08
Vielleicht stampft Intel ja Larrabee noch kurzerhand ein und übernimmt stattdessen Nvidia. :naughty:

Oder Intel übernimmt Nvidia und stampft Nvidia kurzerhand ein. :ugly:

Ailuros
2009-06-03, 15:15:44
Vielleicht stampft Intel ja Larrabee noch kurzerhand ein und übernimmt stattdessen Nvidia. :naughty:

Oder Intel übernimmt Nvidia und stampft Nvidia kurzerhand ein. :ugly:

Oder Fidel Castro trinkt genug Redbull und erobert die USA in einer Nacht :biggrin:

***edit: Spass beiseite was wirklich wahr daran ist, ist dass Intel eine der wenigen Firmen ist die selbst einen Flop problemlos verkraften koennte.

Gast
2009-06-03, 15:26:07
Wer rechnet denn bei GPUs fixed function mit in die FLOPs ein?
Nvidia bei der Geforce 6. :-)

Coda
2009-06-03, 15:38:55
Ich rede von heute. Wobei ich das bei der GeForce 6 bezweifel, das muss früher gewesen sein.

Vielleicht stampft Intel ja Larrabee noch kurzerhand ein und übernimmt stattdessen Nvidia. :naughty:
Wäre wahrscheinlich sogar die klügere Variante.

Ailuros
2009-06-03, 15:41:19
Ich rede von heute. Wobei ich das bei der GeForce 6 bezweifel, das muss früher gewesen sein.

Bis zu G7x war ja texturing von den ALUs nicht entkoppelt; kann sein dass es jemand so weit verdrehen will, aber das hat jetzt gar nichts mit dem hier besprochenen zu tun.


Wäre wahrscheinlich sogar die klügere Variante.

Um Himmel's Willen nicht; bei Intel's Grafik Philosophie waere es ein ziemlich grosses disaster.

turboschlumpf
2009-06-03, 15:49:34
Wäre wahrscheinlich sogar die klügere Variante.Ich sehe das ähnlich; Nvidia ist inzwischen ja relativ günstig zu haben.

Coda
2009-06-03, 16:34:05
Um Himmel's Willen nicht; bei Intel's Grafik Philosophie waere es ein ziemlich grosses disaster.
Da würden die Köpfe bei NVIDIA dann denke ich schon ein Wörtchen mitreden.

reunion
2009-06-03, 16:36:46
Ich sehe das ähnlich; Nvidia ist inzwischen ja relativ günstig zu haben.

Das ist aus Kartellrechtlichen Gründen auszuschließen. Hat Ortelli höchst selbst gesagt. Man hatte ursprünglich auch vor einen Grafikhersteller zu übernehmen.

Ailuros
2009-06-03, 18:34:39
Da würden die Köpfe bei NVIDIA dann denke ich schon ein Wörtchen mitreden.

So in etwa wie Dave Orton? :|

The Jackal
2009-06-03, 20:01:37
Gebe es das Kartellamt nicht fiele mir nur eines ein:

" Wir sind Intel. Sie werden assimiliert. Wiederstand ist zwecklos. "

Ich erinnere mich noch an die Zeit von DEC Alpha. Intel hatte probleme schneller als DEC zu sein. Haben die dann aufgekauft und eingestampft.

Das EV6 Protokoll wird immer noch von AMD benutzt.

Coda
2009-06-03, 20:15:28
Nein, wird es nicht. EV6 wurde nur beim K7 benutzt, Hypertransport basiert aber auf den Ideen von EV7.

Aber um Alpha ist es wirklich schade.

Gast
2009-06-03, 23:45:05
Ich erinnere mich noch an die Zeit von DEC Alpha. Intel hatte probleme schneller als DEC zu sein. Haben die dann aufgekauft und eingestampft.



Unglaublich was hier Intel alles angehängt wird:|


Digital wurde 1998 von Compaq übernommen und gehört seit 2002, mitsamt Compaq, zu Hewlett-Packard.

http://de.wikipedia.org/wiki/Digital_Equipment_Corporation

S940
2009-06-04, 00:08:53
Unglaublich was hier Intel alles angehängt wird:|
Lol und hp hat es dann an Intel verkauft ... die armen DECies dürfen sich jetzt mit Itanium rumschlagen, die hp Leute sind derweil zu AMD gewechselt (Fort Collins,CO ), weil jeder dem Itanium Chaos überdrüssig war.

http://www.heise.de/newsticker/Intel-erwirbt-Alpha-Prozessortechnologie--/meldung/18718
http://www.heise.de/newsticker/Intel-uebernimmt-Hewlett-Packards-Itanium-Entwicklungsteam--/meldung/54337

http://hardware.slashdot.org/comments.pl?sid=1129041&cid=26870323
http://hardware.slashdot.org/comments.pl?sid=1129041&cid=26870323

Jeder mit halbwegs vorhandenem Microprozessor Wissen ist sauer auf Intel, dass sie den EV8 gestrichen haben, das war *der* SMT Prozessor. Alles sauber auf SMT ausgerichtet ... stattdessen gabs Transistorenresteverwertung in Form von Hyperthreading im Pentium4 ... :down:
Vom glohreichen Itanium ganz zu schweigen ...

zum Abschluss:
Many people say that the Alpha architecture has died on its own. Hope after passing through this article you will have no doubts that it has been buried. Alive. Because it has been more profitable to do so.
http://www.alasir.com/articles/alpha_history/epilogue_addinfo.html

ciao

Alex

Gast
2009-06-04, 12:30:42
Jeder mit halbwegs vorhandenem Microprozessor Wissen ist sauer auf Intel, dass sie den EV8 gestrichen haben, das war *der* SMT Prozessor.

Ohne Softwareunterstützung nützt dir der beste Prozessor nichts.

aylano
2009-06-04, 20:37:54
Wo war Netburst ein finanzieller Flop? Nur weil die Architektur vll nicht die beste war, hat Intel damit immer noch Milliarden gescheffelt.
Stimmt, ein finanzieller Mrd. $ Grab war es nicht (und wegen der Marktmacht auch schon etwas angeklagt).
Aber die Architektur ist schon zu Grabe getragen worden.

The Jackal
2009-06-05, 14:12:30
Ohne Softwareunterstützung nützt dir der beste Prozessor nichts.

Der Alpha wurde ja seit jeher von UNIX unterstützt. Doch war der 256 Toroid doch ein wenig teuer für die Unternehmen.

Der Alpha wir ein wenig der Zeit vorraus, so dass man nicht so recht wußte was mit der Rechenleistung anfangen. Heutzutage wo man auch Rechenzeit gut verkaufen kann übers Internet für Hochschulen und Co. hätte sich ein Alpha Großrechner bezahlt gemacht.

Ich bin mir nicht sicher, aber basierte nicht die erste Cray mit 256 Prozessoren auf den Alpha's?

Richtig hatte recht "Cray T3D" 256x DEC Alpha 21064 (EV4)

turboschlumpf
2009-06-07, 23:05:49
Intel's 'Larrabee' to Be "Huge"

[...]

Our source also indicated that Intel is looking to ship Larrabee two years later, putting us in summer of 2011. Of course, by that time, we will have GPUs that are 2 to 4 times faster than current GPUs from both AMD/ATI and Nvidia. However, at that time Larrabee may not be what it is today either.

One critical point we were told was that 1st and 2nd generation Larrabee GPUs will not be compatible with 3rd generation Larrabee. This is of course, highly speculative and very far out. According to the data, Intel's 3rd generation part will have an emulation mode for backwards compatibility. If this is true, then developers would have a hard time programming for Larrabee.

[...]

Quelle: http://www.tomshardware.com/news/intel-larrabee-gpu-graphics,8019.html:|

Coda
2009-06-07, 23:17:20
Itanium-Larrabee statt x86-Larrabee? ;D ;D ;D

Gast
2009-06-07, 23:56:41
Da wird wohl x86 rausgeworfen. Viel von dem Code wie Grafikshader werden eh gejittet. Damit ist die Abwärtskompatibilität unwichtig. Den Rest muss man einmal neu kompilieren. Im HPC Bereich nicht wirklich schlimm.

=Floi=
2009-06-08, 00:26:54
das wäre ja total banane und dürfte nicht zur akzeptanz von lrb 1&2 beitragen.

Coda
2009-06-08, 00:54:35
So Banane ist das gar nicht. x86 in LRB ist eh sinnlos, weil man Performance eh nur durch die breiten Vectorinstructions erhält und damit sowieso vollkommen inkompatibel zu jeder Desktop-CPU wird.

Direkt per x86-Assembler programmieren wird das Ding sowieso die absolute Minderheit und alles sonst (OpenCL, etc.) ist sowieso rekompilierbar.

BlackBirdSR
2009-06-08, 13:46:14
Ich hoffe trotzdem, dass LRB zumindest ein moderater Erfolg wird. Irgendwann könnten wir dann sowas wie die Larrabee-Chronicles lesen. Es würde mich schon unglaublich interessieren, wer damals welche Ideen, welche Vorgaben und welche Direktiven von oben hatte. Inbesondere wäre ich begeistert über ein Kapitel, das die unglaublichen Vorteile der x86-Implementation erörtert;D

IMO hat man wohl einfach geglaubt, dadurch massiv an Zeit einzusparen und LRB in Rekordzeit auf den Markt bringen zu können.

KonKorT
2009-06-08, 15:33:37
Laut Tom's Hardware (http://www.tomshardware.co.uk/intel-larrabee-nvidia-geforce,news-31224.html) wird Larrabee gerade einmal GTX 285-Niveau schaffen.

(Inwiefern das stimmt, will ich jetzt nicht kommentieren.)

aylano
2009-06-08, 15:41:56
Wann hätte Larrabee Ursprünglich kommen sollen??
Mitte 2009 ?

turboschlumpf
2009-06-08, 17:41:27
Ende 2008?

Gast
2009-06-08, 17:56:04
Dann kommts natürlich noch darauf an ob in Spielen oder bei GPGPU Anwendungen..

Gaestle
2009-06-08, 21:47:02
AFAIR heißt es schon länger, dass LRB mit dem zum Release-Zeitpunkt aktuellen upper-Mainstream der Konkurrenz on par ist. Da würde doch IMHO GTX28-Niveau passen.

Ailuros
2009-06-09, 12:33:35
Original H2 2008 und heute hofft man auf H1 2010.

AFAIR heißt es schon länger, dass LRB mit dem zum Release-Zeitpunkt aktuellen upper-Mainstream der Konkurrenz on par ist. Da würde doch IMHO GTX28-Niveau passen.

Nur ist upper mainstream fuer 2008 als auch fuer 2009 eher G92+ Nivaeu. Ende 2009 wird die GT200b immer noch eine Performance GPU sein.

DavChrFen
2009-06-10, 22:24:46
Itanium-Larrabee statt x86-Larrabee? ;D ;D ;D
Das ist vielleicht auch nicht schlecht: Die Idee, die hinter Itanium steht mit der von Larabee vermengen. Für den HPC-Bereich sicherlich interessant. Aber ob bis dahin Intel wieder alles umgeplant hat, ist eine andere Frage.

KonKorT
2009-06-11, 14:32:46
Tom's Hardware (http://www.tomshardware.com/news/intel-larrabee-gpu-graphics,8019.html) schreibt jetzt, dass Larrabee zu groß sei, erst in 32 nm kommen könnte und dies den Launch auf Sommer 2011 nach hinten verlegen würde.

"'If those measurements are normalized to match Nvidia's GT200 core, then Larrabee would be roughly 971mm squared,' said our source--hefty indeed. This is of course, an assumption that Intel will be producing Larrabee on a 45nm core. Our source also indicated that Intel is looking to ship Larrabee two years later, putting us in summer of 2011. Of course, by that time, we will have GPUs that are 2 to 4 times faster than current GPUs from both AMD/ATI and Nvidia. However, at that time Larrabee may not be what it is today either."

deekey777
2009-06-11, 14:38:00
Und inwieweit unterscheidet sich die Meldung von der, die auf der letzten Seite verlinkt wurde?
Oder diese
Laut Tom's Hardware (http://www.tomshardware.co.uk/intel-larrabee-nvidia-geforce,news-31224.html) wird Larrabee gerade einmal GTX 285-Niveau schaffen.

(Inwiefern das stimmt, will ich jetzt nicht kommentieren.)

von der:
GTX-285-Niveau wäre aus meiner Sicht ein relativ gelungener Einstieg für Intel.

KonKorT
2009-06-11, 14:53:00
Beide sind von derselben Quelle. In der einen Meldung hat man sich der Performance gewidmet in der anderen der Ausmaße des Chips und deren Folgen.

Worauf willst Du hinaus?

deekey777
2009-06-11, 14:56:55
Beide sind von derselben Quelle. In der einen Meldung hat man sich der Performance gewidmet in der anderen der Ausmaße des Chips und deren Folgen.

Worauf willst Du hinaus?
Vielleicht darauf, dass du, bevor du postest, eine Seite zurückgehen kannst, um zu schauen, ob es nicht schon gepostet wurde?

Spasstiger
2009-06-11, 14:57:50
Worauf willst Du hinaus?
Er will darauf hinaus, dass turboschlumpf bereits eine Seite vorher genau das gleiche Zitat gepostet hat und auch schon drüber diskutiert wurde.

Ailuros
2009-06-11, 15:32:48
So oder so es dauerte zwar ein Weilchen bis Tomshardware herausfand dass die "etwa GTX280 Leistung" wohl nichts mit der Realitaet zu tun hatte.

Wenn ich von einer unabhaengigen Quelle hoere dass das heutige Zeug auf der A7 ist und unterirdische Leistung zeigt (bis zu 40x Mal schlechter als GT200) dann stimmt irgend etwas nicht mit der hw.

Gipsel
2009-06-11, 15:52:25
Wenn ich von einer unabhaengigen Quelle hoere dass das heutige Zeug auf der A7 ist und unterirdische Leistung zeigt (bis zu 40x Mal schlechter als GT200) dann stimmt irgend etwas nicht mit der hw.
Autsch!
Also entweder klappt das mit dem Software-Rasterizer doch mehr schlecht als recht, oder die haben wirklich noch ein fundamentales Problem mit der Hardware. Wobei die beim A7 Stepping das eigentlich mal langsam auf die Reihe kriegen sollten, wenn nicht die ganze Konzeption schon für die Tonne ist. Daß 32 oder gar 64 Kerne in 45nm ziemlich viel, bzw. sogar vollends utopisch von der Die-Größe her sind, war ja eigentlich schon länger klar.

KonKorT
2009-06-11, 16:23:09
Vielleicht darauf, dass du, bevor du postest, eine Seite zurückgehen kannst, um zu schauen, ob es nicht schon gepostet wurde?
Sorry, den Post habe ich glatt überlesen. Vermutlich weil er zu auffällig war. Aber ich hatte ja noch mal Glück im Unglück, dass es keine Hardware-Infos-News war... ;)

[...](bis zu 40x Mal schlechter als GT200)[...]
Man hat ja noch die jetzigen Intel-IGPs. Die sind dann vllt. schneller. ;D

Nein, scherz beiseite, solche Angaben sind ohne nähere Hintergründe über die Messverfahren etc. unbrauchbar. Ich weiß auch, dass es schon jetzt Szenarien gibt, in denen Larrabee Kreise um GT200 zieht...

aylano
2009-06-11, 18:15:14
Tom's Hardware schreibt jetzt, dass Larrabee zu groß sei, erst in 32 nm kommen könnte und dies den Launch auf Sommer 2011 nach hinten verlegen würde.
Eher ist die Architektur zu schwach (Performance pro mm²), sonst hätten sie eine GPU mit nur 16 oder 32 Cores rausgebracht, um vorne mitzuspielen können.
Na ja, falls das stimmt.
Und diese Schwäche wollte Intel wahrscheinilch mit einem Mega-Die (=Unwirtschaftlich für Intel) ausgleichen, damit Intel wenigsten die Performance-Krone hat.
Das ist wenigtens am Anfang bzw. Einführung wichtig, damit das Projekt Intels-GPU gut weiterläuft und weiter gut beim Markt unterstützt wird, bis der Nachfolger kommt.

Mal sehen, ob das Intel überhaupt hinkriegt.
Wenn schon ATI mit all ihrer jahrerlanger GPU-Erfahrung mit R600 so danebengegriffen hat, dann bin ich nicht überrascht, wenn Intel es komplett vergeigt.
Zumindestens beim ersten Versuch.

Der Atom-Kern ist ja (eigentlich) nur für MID gedacht gewesen, aber der Durchstart bzw. Erfolg war da auch erst beim 1. (=SoC) oder 2. Nachfolger (=32nm) geplant.

Ailuros
2009-06-12, 12:51:34
Autsch!
Also entweder klappt das mit dem Software-Rasterizer doch mehr schlecht als recht, oder die haben wirklich noch ein fundamentales Problem mit der Hardware. Wobei die beim A7 Stepping das eigentlich mal langsam auf die Reihe kriegen sollten, wenn nicht die ganze Konzeption schon für die Tonne ist. Daß 32 oder gar 64 Kerne in 45nm ziemlich viel, bzw. sogar vollends utopisch von der Die-Größe her sind, war ja eigentlich schon länger klar.

Es liegt aber anscheinend doch nicht am Treiber sondern es hoert sich eher danach an als ob die hw stark verbuggt ist. Diese 40x mal weniger Angabe ist IMHLO so oder so wahrscheinlich nur ein extremer Eckfall, aber es laesst mich sehr wohl denken dass in Kombination mit den unendlichen Revisionen etwas mit der HW nicht stimmt.

Ich erinnere auch daran dass ich von Anfang an sagte dass Intel wohl lieber eher in 32nm veroeffentlichen sollte; ich hab nunmal jemand der nicht bei NV oder AMD arbeitet aber einen guten Freund im LRB tream hat.

Das witzigste ist natuerlich dass vor einiger Zeit manche senkrecht aufsassen als ein bekannter Oberdepp behauptete mit einer SONY Angestellten geplaudert zu haben und diese ihm versichert haette dass LRB in "PS4" integriert werden soll. Wenn jemand erwaehnen wuerde wie der insgesamte Consolen-Verbrauch bei einem theoretischen 80-core LRB (ja in so viel Leistung wollen die Hersteller fuer die naechste Generation) aussehen wuerde, koennte manche in Ohnmacht fallen.

Ailuros
2009-06-12, 12:52:33
Nein, scherz beiseite, solche Angaben sind ohne nähere Hintergründe über die Messverfahren etc. unbrauchbar. Ich weiß auch, dass es schon jetzt Szenarien gibt, in denen Larrabee Kreise um GT200 zieht...

Dann wende Dich gefaelligst an einen echten LRB engineer, wenn er sich ueberhaupt aeussern will.

catamaran
2009-06-12, 15:01:22
So oder so es dauerte zwar ein Weilchen bis Tomshardware herausfand dass die "etwa GTX280 Leistung" wohl nichts mit der Realitaet zu tun hatte.

Wenn ich von einer unabhaengigen Quelle hoere dass das heutige Zeug auf der A7 ist und unterirdische Leistung zeigt (bis zu 40x Mal schlechter als GT200) dann stimmt irgend etwas nicht mit der hw.

Ich habe mich schon lange gefragt, warum Intel keinen X3100 mehr Einheiten, höheren Takt spendiert, evtl ein bissl fixt und das Treiberteam verstärkt. Verglichen mit dem Aufwand der für LRB betrieben wird dürfte es überschaubarer sein und die aktuelle Leistung des LRB locker toppen.

PS: ich weiß, das war nicht die Intention, aber deutlich weniger Aufwand - oder?

Tigerchen
2009-06-13, 08:38:10
Intel macht bei 3D schon immer seltsame Sachen. Das ist Tradition!
i740;D;D;D

=Floi=
2009-06-13, 15:26:41
der X3100 wäre wohl auch wenn er breiter aufgebaut wäre zu langsam und durch den treiber kann er nicht mal richtiges AF. das teil ist auf office ausgelegt und nicht aufs spielen.

Coda
2009-06-13, 16:17:56
Das liegt nicht am Treiber, dass das X3100-AF so unglaublich schlecht ist.

catamaran
2009-06-13, 17:10:39
Na dann halt auf dem X4500. :wink:
Sicher ist in diesen Chips vieles nicht optimal, aber die dafür eingesetzten Resourcen dürften auch weitaus geringer als bei nVidia oder ATI sein. High-End könnte man sicher nicht angreifen, aber etwas oberhalb der Low-End Karten müsste man mithalten können.

Wenn nur die Hälfte der aktuellen Meldungen bezüglich LRB stimmen, dann hat es den Anschein, dass sich Intel mit ihrer Vorgehensweise mächtig übernommen hat.

Coda
2009-06-13, 17:52:03
Na dann halt auf dem X4500. :wink:
Das ist genau der gleiche Schrott.

=Floi=
2009-06-13, 17:56:03
ich kann es nur immer wieder sagen. der treiber wird jahre brauchen um überhaupt mal gut zu werden.

man kann aber nicht einfach in die breite gehen, wenn die architektur nicht darauf ausgelegt ist. chips werden von oben nach unten entwickelt.

Coda
2009-06-13, 17:57:20
ich kann es nur immer wieder sagen. der treiber wird jahre brauchen um überhaupt mal gut zu werden.
Ich kann es immer nur wieder sagen: LRB hat nichts mit GMA zu tun. Gar nichts. Weder von der Architektur noch vom Treiber.

Tigerchen
2009-06-13, 18:04:19
Ich frage mich gerade warum Intel so ein Faß aufgemacht hat wenn ein konkurrenzfähiges, fertiges Produkt gerade mal als kleiner Punkt am Horizont erkennbar ist. Welchen Sinn macht das?

Will man unbedingt den Vaporware-Oscar?
So eine Peinlichkeit war man ja früher eher von so Klitschen wie den Bitboys gewöhnt.

san.salvador
2009-06-13, 18:06:56
Marketing?

Coda
2009-06-13, 18:15:38
LRB ist als General-Purpose-Streamprozessor jeder GPU derzeit überlegen. Es gibt schon auch positive Aspekte an der Karte.

Es gibt ja nicht nur Spiele.

=Floi=
2009-06-13, 20:33:48
deshalb wird der treiber auch nicht gut sein. es bracht jahre! bei ati und nv ist es ja auch nicht anders und da steckt auch sehr viel arbeit dahinter und zigtausend updates und überarbeitungen.

du möchtest doch nicht behaupten, dass intel das schon nach ein paar monaten schafft wozu andere jahre brauchen. solbst ati und nv haben da genug zu kämpfen und wenn ein perfekter treiber so einfach wäre, dann hätten diese ihn schon programmiert.

Ailuros
2009-06-13, 21:04:49
LRB ist als General-Purpose-Streamprozessor jeder GPU derzeit überlegen. Es gibt schon auch positive Aspekte an der Karte.

Falls die These mit der verbuggten hw stimmen sollte ist das heutige Resultat fuer weder noch etwas besonderes.

Wie dem auch sei ich will positiv denken und will hoffen dass Intel LRB in 2010 auf die Ladentische bringen wird und dann wird sich das Ding auch im GPGPU Bereich gegen die D3D11 GPUs der Konkurrenz stellen muessen.

Es gibt ja nicht nur Spiele.

Dann ehrliche Frage: hat NV in den Profi-Maerkten fast ein Monopol dank:

A) Marketing
B) Rundum ueberlegener HW
oder
C) Bester Unterstuetzung?

deshalb wird der treiber auch nicht gut sein. es bracht jahre! bei ati und nv ist es ja auch nicht anders und da steckt auch sehr viel arbeit dahinter und zigtausend updates und überarbeitungen.

du möchtest doch nicht behaupten, dass intel das schon nach ein paar monaten schafft wozu andere jahre brauchen. solbst ati und nv haben da genug zu kämpfen und wenn ein perfekter treiber so einfach wäre, dann hätten diese ihn schon programmiert.

Die sw engineers die Intel in den letzten Jahren eingestellt hat gehoeren zu den erfahrensten der Industrie. Man kann Erfahrung auch einkaufen; was Intel leider nicht "einkaufen" kann ist die richtige Philosophie bzw. Strategie fuer Grafik und sie koennen auch leider nicht ihren uebertriebene Buerokratie innerhalf der Firma nicht los werden.

Es ist zwar nicht so dass AMD gar nichts zu sagen hat wenn es zu Grafik kommt, aber man laesst dem GDP Team schon die notwendige Freiheit innerhalb der vorhandenen Mitteln dass zu machen was sie fuer richtig empfinden. Es gibt eine nette kleine Geschichte wie Dave Baumann als Beispiel ein paar wichtige Vorschlaege fuer RV770 machte und diesen AMD auch Gott sei Dank folgte. Bei Intel waere so etwas wohl nie passiert.

crux2005
2009-06-13, 21:49:23
Es gibt eine nette kleine Geschichte wie Dave Baumann als Beispiel ein paar wichtige Vorschlaege fuer RV770 machte und diesen AMD auch Gott sei Dank folgte.

meinst die auf Anandtech, RV770: Road to success?

deekey777
2009-06-13, 21:55:36
Falls die These mit der verbuggten hw stimmen sollte ist das heutige Resultat fuer weder noch etwas besonderes.

Wie dem auch sei ich will positiv denken und will hoffen dass Intel LRB in 2010 auf die Ladentische bringen wird und dann wird sich das Ding auch im GPGPU Bereich gegen die D3D11 GPUs der Konkurrenz stellen muessen.



Dann ehrliche Frage: hat NV in den Profi-Maerkten fast ein Monopol dank:

A) Marketing
B) Rundum ueberlegener HW
oder
C) Bester Unterstuetzung?

Wenn es um GPGPU geht, dann könnte man A) sagen, aber mit sehr viel Vorbehalt. Nvidia bietet nicht nur CUDA und die passende Hardware dazu, sondern man unterstützt jeden Furz, der CUDA nutzen soll. Man bietet Lehrgänge und Schulungen, wissenschaftliche Projekte können einen Riesenzuschuss und entsprechende Hardware bekommen, Unis bekommen Gastvorlesungen usw.
Das ist perfektes Marketing. Wer will da schon AMD Stream? AMD macht fast gar nichts und hofft, dass sich alle darauf stürzen, denn die Hardware ist ja da... Es sieht so aus, alsob Nvidia alles richtig gemacht hat und AMD gar nichts.

=Floi=
2009-06-13, 22:09:29
das ist aber nicht nur marketing, sondern auch technologieförderung und unterm strich gut für uns alle. Es ist das gleiche wie wenn leute von NV bei games mitarbeiten und davon hat auch der besitzer einer ati grafikkarte etwas!

reunion
2009-06-13, 22:33:29
Ich sagte es schon immer: Spiele gehen Intel am Arsch vorbei. Intel braucht einen Streamprozessor, mehr nicht. Spiele nimmt man nur im vorbeigehen mit, wenn es nichts wird ist es auch egal. Man sollte sich davon lösen das Larrabee der Hyper-Spielechip wird.

mapel110
2009-06-13, 22:39:17
Ist nur das Problem, dass Spiele das Zugpferd sind bei Streamprozessoren. Wie viele Leute wollen schon Videos hin und herkonvertieren?!
Überhaupt wird der Markt dafür wohl überschätzt.