PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Larrabee (der Spekulationsthread)


Seiten : 1 2 3 4 5 6 [7] 8 9

Gipsel
2009-09-20, 15:28:22
Doch, genau dieses wird Bestandteil des MS WDDM 2.1.
Sag' ich doch, daß der Treiber diese Funktionalität zur Verfügung stellt. MS kann sie dann nutzen, wenn er Windows Display Driver Model 2.1 kompatibel ist ;)
Froehliche Spekulationen erwaehnen ja eine ueber 7x Mal Steigerung fuer DP bei der naechsten Generation.
Um mal ein paar Zahlen in den Raum zu werfen, der Vorteil bei der Peakleistung der HD5870 gegenüber GTX285 bei DP beträgt je nach Instruktionsmix:
ADD: Faktor 12
MUL: Faktor 12
FMA: Faktor 6

Eine Steigerung um Faktor 7 beim GT300 ist also dringend angeraten ;)

Es wird einige angenehmen Ueberraschungen geben fuer diesen Bereich wie zum Beispiel nahezu MIMD Effizienz in manchen Faellen und um einiges bessere Effizienz mit OoO.
Das glaube ich, wenn ich es sehe ;)
Aber ich erwarte schon, daß nv mal gründlich über die Bremsen bei heutigen Designs nachgedacht hat.
Globale Cache-Kohärenz ist bei so einer Architektu überhaupt nicht zweckmäßig, denke ich. Dadurch dass im Normalfall keine Synchronisation zwischen den Prozessoren stattfinden muss hat man ja überhaupt erst die schöne Skalierbarkeit.
Ja, sehe ich auch so. Aber Larrabee garantiert die Kohärenz global.
Mal nebenbei, weiß hier irgendwer, wie die massiv parallelen Programme, mit denen man die großen CPU-Cluster (hunderte bis zehtausende CPUs) quält, ihre Kommunikation abwickeln? Also ein gemeinsamer Adressraum und globale Kohärenz ist es sicherlich nicht ;)
Cache Kohärenz ist doch absolut entscheidend für die überwiegende Anzahl von Anwendungen. Es kann überhaupt kein Nachteil sein. Schlicht die typische Anwendung der GPU benötigt diese nicht.
Das es für die überwiegende Anzahl von Anwendungen erforderlich ist, würde ich bestreiten. Für kleinere Datenmengen kann man das mit expliziter Synchronisation der Local bzw. Global DataShares lösen, ohne über den langsameren Speicher gehen zu müssen. Daß die Kohärenz der Caches zwischen den "Kernen" der GPUs nicht garantiert wird, hat durchaus Vorteile, man spart ganz einfach Transistoren, Bandbreite und Komplexität. Oder andersrum, Larrabee wird dadurch Nachteile haben, daß er das mit sich herumschleppt.
Für CGPU Anwendungen wird diese allerdings notwendig werden. (Wie auch entsprechende Multitasking Fähigkeiten). Haben beides die ATI/nVidia GPUs der nächsten Generation nicht (und noch einiges mehr können sie nicht).
Momentan gibt es meiner Meinung noch gar nicht soviele Anwendungen, die nur auf fähigere Hardware warten. Für was benötigt man denn die Kohärenz unbedingt?
Daß Multithreading ganz hilfreich wäre, gebe ich gerne zu. Das habe ich mir auch schon manchmal gewünscht, da es doch einige momentane Probleme erheblich eleganter lösen würde.

Avalox
2009-09-20, 15:33:08
Klar hast du das geschrieben

Nein ich habe geschrieben, dass sich die Branche über eine Plattform am Markt freuen würde. Eben eine GPU und dass der Larrabee dem Zustand solch eine Marktes nahe kommt.

Denn der Larrabee stellt die GPU als Software dar, der Larrabee selbst ist keine GPU mehr und der Software ist es in letzter Konsequenz egal, ob diese auf dem Larrabee oder einen Marktbegleiter ausgeführt wird im weiten Sinne.

Larrabee heißt der "Software GPU" eine gewaltigen Schritt näher zu kommen.


Momentan gibt es meiner Meinung noch gar nicht soviele Anwendungen, die nur auf fähigere Hardware warten. Für was benötigt man denn die Kohärenz unbedingt?
Daß Multithreading ganz hilfreich wäre, gebe ich gerne zu. Das habe ich mir auch schon manchmal gewünscht, da es doch einige momentane Probleme erheblich eleganter lösen würde.

Man sollte es sicherlich immer aus einem globalen Gesichtswinkel sehen, welcher dazu führt die CPU im System mittelfristig zu ersetzten.

Demirug
2009-09-20, 15:42:27
Kurzum, wird der Software Branche solche Lösung noch sehr viel mehr entgegen kommen, als die momentane Situation.

Eigentlich nicht. Die Branche will mehr Abstraktion nicht weniger. Lediglich die Entwickler von System Middleware wollen das nicht. Denn sie wollen ja ihre eigenen Abstraktionen verkaufen.

Spieleentwickler haben nur ein sehr begrenztes Interesse selbst wieder Rasterizer zu schreiben. Aus diesen Niederungen sind wir glücklicherweise heraus und ich wüsste auch gar nicht wo wir plötzlich die vielen kombinierten System/Graphics Entwickler hernehmen sollten.

Aquaschaf
2009-09-20, 15:48:37
Man sollte es sicherlich immer aus einem globalen Gesichtswinkel sehen, welcher dazu führt die CPU im System mittelfristig zu ersetzten.

Warum die CPU ersetzen? Ein heterogenes System mit "normalen" CPUs + massiv parallelem Koprozessor macht mehr Sinn.

Avalox
2009-09-20, 15:48:56
Eigentlich nicht. Die Branche will mehr Abstraktion nicht weniger. Lediglich die Entwickler von System Middleware wollen das nicht. Denn sie wollen ja ihre eigenen Abstraktionen verkaufen.

Spieleentwickler haben nur ein sehr begrenztes Interesse selbst wieder Rasterizer zu schreiben. Aus diesen Niederungen sind wir glücklicherweise heraus und ich wüsste auch gar nicht wo wir plötzlich die vielen kombinierten System/Graphics Entwickler hernehmen sollten.


MS ist doch schon heute selbst wichtiger Anbieter von Middleware Lösungen. XNA ist doch eine Middleware.

Ich würde dann die Aufgabe der Middleware auch bei MS in Zukunft sehen. MS wird die Rendering Pipeline in ihrem OS liefern, als Software für kompatible Plattformen. MS liefert die GPU als Software. Standardisiert.
Der Entwickler hat den Vorteil, dass er sich weniger mit Hardwarespezifika rumärgern muss als heute. In anderen Bereichen hat MS es ja vorgemacht.

Warum die CPU ersetzen? Ein heterogenes System mit "normalen" CPUs + massiv parallelem Koprozessor macht mehr Sinn.

Ja, aber auf einem Chip macht es am meisten Sinn, denn nur so ist die Interkommunikationsmöglichkeit, Systemeinbindung und Flexibilität hinreichend. Es wird ein Many-Core werden, mit spezialisierten Kernen. Ein, zwei erweiterte Atomkerne und eine angeflanschter Larrabee.

Das beste ist ja, die Branche kündigt dieses ja schon seit Jahren an. Trotzdem scheint es keiner zu glauben.

Aquaschaf
2009-09-20, 15:54:54
Ja, aber auf einem Chip macht es am meisten Sinn, denn nur so ist die Interkommunikationsmöglichkeit, Systemeinbindung und Flexibilität hinreichend.


Irgendwelche Argumente? Das ist so nur eine Behauptung, für die ich keine hinreichenden Gründe sehe.


Es wird ein Many-Core werden, mit spezialisierten Kernen. Ein, zwei erweiterte Atomkerne und eine angeflanschter Larrabee.

Das beste ist ja, die Branche kündigt dieses ja schon seit Jahren an. Trotzdem scheint es keiner zu glauben.

Wo kündigt "die Branche" das seit Jahren an? Und warum sollen es Kerne in der Art von Atom sein, warum auf die hohe sequentielle Leistung eines iCore7 verzichten?

Avalox
2009-09-20, 16:15:11
Irgendwelche Argumente? Das ist so nur eine Behauptung, für die ich keine hinreichenden Gründe sehe.


Ich mache mich auf der Suche nach den Quellen, die ich natürlich nicht gemarkt habe. Aber bis dahin kann man ja einfach zur Kenntnis nehmen, dass alle Coprozessoren der Vergangenheit immer in die CPU gerutscht sind.



Wo kündigt "die Branche" das seit Jahren an? Und warum sollen es Kerne in der Art von Atom sein, warum auf die hohe sequentielle Leistung eines iCore7 verzichten?

Multicore mit spezialisierten Kernen. Klar gibt es diese Ankündigungen.
Natürlich kann es auch ein iCoreX Kern sein, oder sonst was dazwischen. Atom habe ich exemplarisch geschrieben, weil er gerne vergessen wird.

=Floi=
2009-09-20, 16:24:27
wir brauchen aber aktuell noch ein paar normale kerne. bis 16 oder 32 echten kernen und jeweils 2 threads läuft noch alles im rahmen und verbessert die cpu noch. darüber kann man dann über spezialisierungen nachdenken. vorher würde ich eher mal das grundpotential ausschöpfen und dort optimieren, den deine speziellen einheiten müssen wieder extra angesprochen werden, und das kostet geld!

Demirug
2009-09-20, 16:27:47
MS ist doch schon heute selbst wichtiger Anbieter von Middleware Lösungen. XNA ist doch eine Middleware.

Der XNA Framework hat ein ganz spezielles auf die XBox fokussiertes Geschäftsmodel das wenig mit dem PC Geschäft zu tun hat.

Ich würde dann die Aufgabe der Middleware auch bei MS in Zukunft sehen. MS wird die Rendering Pipeline in ihrem OS liefern, als Software für kompatible Plattformen. MS liefert die GPU als Software. Standardisiert.
Der Entwickler hat den Vorteil, dass er sich weniger mit Hardwarespezifika rumärgern muss als heute. In anderen Bereichen hat MS es ja vorgemacht.

Warum sollte sich Microsoft die Mühe machen für unterschiedliche Hardware einen Runderer zu optimieren? Mit dem bisherigen Model laufen sie doch viel besser. Sie definieren eine API und ein Driver Interface und um den Rest müssen sich die IHVs kümmern.

Seit DX10 gibt es eigentlich kein Problem mehr mit Hardwarespezifikationen sondern nur noch mit der unterschiedlichen Performances. Diese Problem ist aber ein ureigenes PC Problem und nicht lösbar.

Aquaschaf
2009-09-20, 16:32:48
Aber bis dahin kann man ja einfach zur Kenntnis nehmen, dass alle Coprozessoren der Vergangenheit immer in die CPU gerutscht sind.

Und was hat das damit zu tun dass nach deiner Ansicht ein heterogenes System aus ein paar komplexen und vielen einfachen Prozessoren auf einem Chip nicht sinnvoll ist?

Um noch einmal auf Cache-Kohärenz zwischen Kernen zurückzukommen: das wird mit steigender Anzahl an Kernen komplizierter, und skaliert immer schlechter. Deswegen ist es bei many-core-Architekturen geschickter - bzw. ab irgendeinem Punkt notwendig - sich von diesem Konzept zu verabschieden. Daten zwischen Prozessoren auszutauschen sollte ja die Ausnahme sein, nicht die Regel. Soll heißen: bei einem Larrabee mit 32 Kernen geht es mit Cache-Kohärenz wahrscheinlich noch gut, aber in einer Variante mit 128 Kernen wäre es eventuell schon ein ernsthafter Flaschenhals.

Avalox
2009-09-20, 17:55:23
Und was hat das damit zu tun dass nach deiner Ansicht ein heterogenes System aus ein paar komplexen und vielen einfachen Prozessoren auf einem Chip nicht sinnvoll ist?


Weil es eine große Schnittmenge identischer Funktionalität in unterschiedlichen Komponenten gibt.


Um noch einmal auf Cache-Kohärenz zwischen Kernen zurückzukommen: das wird mit steigender Anzahl an Kernen komplizierter, und skaliert immer schlechter. Deswegen ist es bei many-core-Architekturen geschickter - bzw. ab irgendeinem Punkt notwendig - sich von diesem Konzept zu verabschieden. Daten zwischen Prozessoren auszutauschen sollte ja die Ausnahme sein, nicht die Regel.

Es geht ja nicht ums austauschen von Daten, es geht um das aktuell halten aller Prozessor Caches. Welche zum einen umfangreich sein werden und zudem umfassend im Haupt- und Spezialspeicher unterwegs sein werden.
Ein Datum, welches im Cache steht, ob verarbeitet oder nicht muss aktuell sein. Mir fallen nicht viele allgemeine Anwendungen ein, welche auf Cache Kohärenz verzichten können. Man wird dort doch eher andere Wege der Cache Kohärenz gehen, als diese ganz abzuschaffen. Distributed global address space oder irgendwelche anderen cleveren Ansätze.

Man braucht doch gar nicht diskutieren. Es ist ein großer Malus, wenn entsprechende Funktionalität nicht vorhanden ist.


Warum sollte sich Microsoft die Mühe machen für unterschiedliche Hardware einen Runderer zu optimieren?

Ich denke diese Frage ist ganz naheliegend zu beantworden. Weil es eine richtig große Chance für Microsoft sein wird, mit eigenen geschützten KnowHow einen deutlichen Mehrwert in das/die Betriebssysteme zu bekommen.
Aufgabe der CPU Hersteller wird es sein, diese hinreichend performant zu rechnen.
Man muss sich nur mal die Skalierbarkeit solcher Lösungen vorstellen. Über das Mobiltelefon, bis zum Fernseher, der Konsole, dem PC und sonstigen Geräten würde MS in ihren Systemen granular skalierte Rendering Pipelines anbieten. Urheberrechtlich geschützt, kompatibel. Dieses in einer Zeit in welcher die Präsentation von Benutzerschnittstellen immer wichtiger wird.

Ich frage mich, warum sollte MS diese Chance nicht nutzen?

Aber soweit ist es ja noch lange nicht.

Die naheliegende Frage ist ja die. Was passiert, wenn der Intel Larrabee erscheint, Intel die Vorteile ausgespielt sehen will, aber auf die momentane Infrastruktur stößt?

Es wird was passieren, das steht fest. Denn eines ist ja schon heute absolut sicher, Intel hat mit dem Larrabee nur ein überzeugendes Produkt, wenn dessen Flexibilität genutzt werden kann.
Entweder Intel gelingt der Zug, dann hat dieses weitreichende Auswirkungen auf dem gesamten Markt, oder Intel gelingt es nicht, dann hat Intel mit dem Produkt versagt.

Gast
2009-09-20, 18:21:26
Einerseits ist die wiederholte Kritik am x86 Befehlssatz von Larrabee ja gerechtfertigt, aber Intels Strategie scheint momentan nun mal 'x86 all the way' zu sein. Wieviel Fläche auf dem Chip für diese Kompatibilität geopfert werden muss kann doch sowieso keiner sagen...

Zumindest besitzt Intel bereits einen guten x86 Compiler und die Möglichkeit in Zukunft die x86 Larrabee Cores auf eine x86 CPU zu klatschen (3D Stacking?) steht bestimmt ganz groß in den PowerPoint Präsentationen für das Management.

Eventuell muss man im Hinblick auf Larrabee auch schauen wie sich Project Offset macht. Jedes Spiel auf Basis der Offset Engine wird wohl ein designed for Larrabee(TM)(C)(R) Spiel.

Aquaschaf
2009-09-20, 18:29:11
Weil es eine große Schnittmenge identischer Funktionalität in unterschiedlichen Komponenten gibt.

Was denn genau bitte schön?

Es geht ja nicht ums austauschen von Daten, es geht um das aktuell halten aller Prozessor Caches.

Das ist effektiv das selbe. Wenn die Prozessoren nicht auf gemeinsamen Daten arbeiten, dann benötigen sie keinen Cache der untereinander kohärent ist. Umgekehrt erfordert ein kohärenter Cache Austausch von Daten zwischen den Prozessoren. Damit schränkt er die Skalierbarkeit ein.

Mir fallen nicht viele allgemeine Anwendungen ein, welche auf Cache Kohärenz verzichten können.

Jede Anwendung kann darauf verzichten. Wie gesagt, bei massiv parallelen Programmen muss Kommunikation zwischen Prozessoren die Ausnahme sein. Da ist es besser explizit zu synchronisieren, wenn man es unbedingt braucht. Ein global kohärenter Cache ist im Prinzip eine forcierte Synchronisierung.

Demirug
2009-09-20, 18:55:46
Avalox, von welchem Zeitrahmen reden wir hier überhaupt? Bisher hat Intel ja noch nicht einmal bewiesen das man sich auf dem PC vom spezialisierten GPU design verabschieden kann. Da ist ein solcher Schritt bei den mobilen Geräten völlig illusorisch.

Microsoft folgt der Hardwareentwicklung und solange es GPUs mit fixed funtions gibt wird man auch spezielle APIs dafür sehen. Und das wir noch eine ganze Zeit lang so sein.

Gast
2009-09-20, 19:23:51
Microsoft folgt der Hardwareentwicklung und solange es GPUs mit fixed funtions gibt wird man auch spezielle APIs dafür sehen. Und das wir noch eine ganze Zeit lang so sein.
vermutlich wird uns ff hw fürs visual computing bis in alle ewigkeit erhalten bleiben, der einfachen faustregel folgend: was man in software machen kann, kann man auch ein, zwei größenordnungen schneller in hardware machen.
oder hab ich was verpasst und in aktuellen CPUs wird die FPU per software emuliert wie weiland auf nexgen?

Ailuros
2009-09-20, 19:24:56
Avalox, von welchem Zeitrahmen reden wir hier überhaupt? Bisher hat Intel ja noch nicht einmal bewiesen das man sich auf dem PC vom spezialisierten GPU design verabschieden kann. Da ist ein solcher Schritt bei den mobilen Geräten völlig illusorisch.

Microsoft folgt der Hardwareentwicklung und solange es GPUs mit fixed funtions gibt wird man auch spezielle APIs dafür sehen. Und das wir noch eine ganze Zeit lang so sein.

Wenn sie tatsaechlich von Null mit der Entwicklung anfangen wuerden und wenn alles nach Plan laeuft in minimal 4 Jahren von heute. Man kann ueberhaupt im eingebetteten Markt "Einzelheiten" wie DIE AREA und Stromverbrauch nicht einfach so uebersehen. Ausser er hat ueberhaupt keine Vorstellung wie gross die heutigen eingebetten chips in Handys sind oder wieviel Strom sie verbrauchen. Und dabei sollten wir nichtmal von Series5 oder Tegra reden; bei der kommenden Generation ist die Effizienz-Steigerung genauso radikal wie bisher.

dust
2009-09-20, 20:21:48
Ich mache mich auf der Suche nach den Quellen, die ich natürlich nicht gemarkt habe. Aber bis dahin kann man ja einfach zur Kenntnis nehmen, dass alle Coprozessoren der Vergangenheit immer in die CPU gerutscht sind.
weil damit billigere lösungen machbar sind wenn man höher integriert und weil man dem kunden das ganze geld abnehmen kann und nicht nur einen teil.

http://coprocessor.cpu-info.com/

für einen wald und wiesen pc reicht ein integrierter chip, für höhere anforderungen macht die trennung sinn.

AnarchX
2009-09-22, 09:58:30
LRB - 2011? (http://www.brightsideofnews.com/news/2009/9/18/pat-gelsinger-left-intel-because-of-larrabee-fiasco.aspx)

Ailuros
2009-09-22, 10:23:17
AnarchX,

Den Link hab ich irgendwo auf der vorigen Seite gepostet. Stimmt nicht alles aber einiges ist schon getroffen.

misterh
2009-09-22, 22:38:36
http://www.pcper.com/comments.php?nid=7795

AnarchX
2009-09-22, 22:51:23
Nichts besonderes:

4:42
They mentioned Larrabee. Bill Mark is on stage with the first public demo!
4:43
They are showing ray traced version of Daniel Pohl's Quake Wars game running on Gulftown + Larrabee.
4:43
It is running live and in real time, frame rate looks to be in the 20s to my eyes.
4:44
The reflections on the water in this demo is created with only 10 lines of shader code.
4:46
Not many details given, no release dates, no core counts, clocks, nothing. And Bill Mark is off the stage... I'll have some pics in just a minute.

Das soll wohl ein LRB Wafer und eine Entwicklerkarte sein:
http://img27.imageshack.us/img27/613/phpm0vjbo01.jpg

misterh
2009-09-22, 23:00:45
4:59 And I am more than disappointed that I was wrong about the wafer, card and system behind Maloney originally.

S940
2009-09-22, 23:08:10
4:50 Bill Mark on the left and Sean Maloney on the right basically giving us no new information about Larrabee.
Doll ...

DR.ZEISSLER
2009-09-22, 23:09:53
das teil ist TOT da der Ansatz mittlerweile falsch ist.

Avalox
2009-09-22, 23:17:49
Heise Online hat auch einen Bericht:


"Larrabee-GPU soll in künftige Intel-Prozessoren einziehen" ( huch )

http://www.heise.de/ix/IDF-Larrabee-GPU-soll-in-kuenftige-Intel-Prozessoren-einziehen--/news/meldung/145704

mapel110
2009-09-22, 23:31:05
http://www.golem.de/0909/70000-rss.html
Mit Video

http://www.anandtech.com/cpuchipsets/showdoc.aspx?i=3645

misterh
2009-09-22, 23:34:20
http://www.golem.de/0909/70000-rss.html
Mit Video

Naja ist alt.

AnarchX
2009-09-22, 23:54:34
Hier gibt es ein Videomitschnitt von der Vorführung:
http://www.kewego.de/video/iLyROoafIYQ9.html

S940
2009-09-22, 23:55:54
Heise Online hat auch einen Bericht:


"Larrabee-GPU soll in künftige Intel-Prozessoren einziehen" ( huch )
Ist auch nicht neu, das wurde für 22nm in Aussicht gestellt, sogar von nem Intel Offiziellen.

@AnarchX:
Das Raytrace Video gabs doch auch schon, oder nicht?
Naja, vielleicht liefs das letzte Mal noch auf Xeons, weiss nicht mehr genau.

ciao

Alex

AnarchX
2009-09-22, 23:59:54
@AnarchX:
Das Raytrace Video gabs doch auch schon, oder nicht?
Naja, vielleicht liefs das letzte Mal noch auf Xeons, weiss nicht mehr genau.


Bei einer Auflösung von 1.280 x 720 Pixeln gelingt das mit 15 bis 20 Bildern pro Sekunde auf einem System mit zwei Nehalem-Xeons (W5580, 3,2 GHz). Die acht physischen Kerne, die sich per HyperThreading wie 16 Cores darstellen, arbeiten also deutlich schneller als die zwölf Kerne der früheren Xeon-Generation, mit der Pohl auf der letzten Games Convention arbeitete.
http://www.golem.de/0906/68021.html

Fragt sich nur welche Auflösung und wieviele FPS es waren bei der Demo heute.

S940
2009-09-23, 00:03:04
Thx für die Links ;-)
Fragt sich nur welche Auflösung und wieviele FPS es waren bei der Demo heute.
Na immerhin lief es ;-)

AnarchX
2009-09-23, 00:06:17
Na immerhin lief es ;-)
Wer weiß, ob es wirklich LRB war. :D

btw.
Mit soviel Vorschuss-Hype, der nun auch von Intel angefacht wurde, war das erste öffentliche Auftreten von Larrabee umso ernüchternder. Die wenigen bewegten Objekte der Szene ruckelten über die Leinwand, was erkennbar nicht am Beamer lag. Schon die im Juni gezeigten Vorführungen des selben Spiels, und dabei noch auf nur acht CPU-Kernen, waren wesentlich eindrucksvoller
http://www.golem.de/0909/70000.html

S940
2009-09-23, 00:23:45
http://www.golem.de/0909/70000.html
Auwei ... also wenn das ruckelte, aber 8 Xeon Kerne schneller arbeiten, hört sich das nicht wirklich innovativ an. Nächstes Jahr gibts Gulftown, der ist dann wohl mit 6 Kernen ca. auf dem gleichem Leistungsniveau.

Wozu dann Lrb :freak:
Edit: Ende 2010 soll ja auch noch Westmere mit AVX kommen ...


Das ganze erinnert echt immer mehr an i740, auf der deutschen Wiki schreibt einer dazu:
Seine Leistung im Vergleich zu anderen, damals aktuellen Grafikchips von NVIDIA oder 3dfx ist zufriedenstellend, aber nicht dominant. Da die Entwicklung im Bereich 3D-Beschleunigung aber rasant voranschritt, veraltete der Chip sehr bald, ohne große Spuren auf dem Markt hinterlassen zu haben.Mal schauen was 2011 Sache ist, und was nV & ATi dann zu bieten haben ... im Moment siehts danach aus, als ob man im obigen Text nur 3dfx durch ATi/AMD ersetzen müßte.

ciao

Alex

Ganon
2009-09-23, 08:47:54
Hier gibt es ein Videomitschnitt von der Vorführung:
http://www.kewego.de/video/iLyROoafIYQ9.html

Nunja... eine plane Wasseroberfläche, die etwas spiegelt... das ist genauso beeindruckend wie diese Kugel... nämlich gar nicht :D

Wenn sie wenigstens mal etwas Realismus (kleinere Wellen, etc.) reingebracht hätten, aber ständig die gleiche Szene auf anderer Hardware zeigen ist auch ziemlich langweilig mit der Zeit.

Weiß gar nicht was Intel damit bezwecken will. Großartigen Hype um das Produkt bauen sie damit eher nur ab.

AnarchX
2009-09-23, 08:52:17
Raytracing-Fanatiker Pohl an einem performanten RT-Ansatz forschen zu lassen ist eine Sache, aber dies dann noch als Demo auf IDF zu zeigen ist in der Tat nicht das Beste für LRB.
Eine optimierte Project Offset Demo wäre doch imo deutlich besser gewesen. Aber wer weiß, wie es um die Rasterizerfähigkeiten LRBs momentan noch steht...:D

RLZ
2009-09-23, 10:23:40
Raytracing-Fanatiker Pohl an einem performanten RT-Ansatz forschen zu lassen ist eine Sache, aber dies dann noch als Demo auf IDF zu zeigen ist in der Tat nicht das Beste für LRB.
Ich denke zum Forschen haben die bessere Leute...

Ailuros
2009-09-23, 10:43:20
Sadly, it has not come back from the fabs yet, so the demo was running on Ax silicon, most likely A6. It worked, but didn't seem to be a huge step forward from four quad core Xeons.

http://www.semiaccurate.com/2009/09/22/larrabee-breaks-cover-last/

Aquaschaf
2009-09-23, 11:15:18
Ich denke zum Forschen haben die bessere Leute...

Das hoffe ich doch.. :D

RLZ
2009-09-23, 11:31:20
Das hoffe ich doch.. :D
Da muss man sich nur anschauen wen sie alles rekrutiert haben.

Mir fallen da auf dem Stegreif Shirley, Woop, Wald und Benthin ein.
Abgesehen davon stampft Intel in Saarbrücken grade ein neues Visualisierungszentrum aus dem Boden wo dann Leute wie Slusallek, Seidel, etc inkl. Lehrstühlen und Arbeitsgruppen von Uni, MPI und DFKI dran beteiligt sind.

Ich glaube da muss man nicht hoffen. :wink:

Avalox
2009-09-23, 12:29:12
Wer erstmal keine großen Veränderungen des Marktes wünscht sollte mal alle lieber Daumen drücken, dass der Larrabee performant genug für den üblichen Anwender die Rasterization beherrscht und sich nicht freuen, wenn er zu schwach daherkommt.

Ailuros
2009-09-23, 12:34:57
Wer erstmal keine großen Veränderungen des Marktes wünscht sollte mal alle lieber Daumen drücken, dass der Larrabee performant genug für den üblichen Anwender die Rasterization beherrscht und sich nicht freuen, wenn er zu schwach daherkommt.

Soll das eine Drohung sein? Ich sehe keine besonderen Aenderungen im Markt ob LRB ankommt oder nicht. Er wird zu schwach daherkommen weil das generelle Konzept eben zu stark hinkt oder anders Intel machte einfach einige falsche Design-Entscheidungen.

Zu einem angeblichen Messias haben das Ding lediglich diejenigen erhohen, die auch Heu schmackhaft finden wuerden so lange das Intel logo draufsteht.

Avalox
2009-09-23, 12:42:31
Soll das eine Drohung sein?

Drohung? Für wen? Ein ATI wird das Konzept eh adaptieren und nVidia hatte eh ein Problem, seitdem Intel den Einstieg angekündigt hat. Der Kunde? Dem Kunde interessiert das Ergebnis, der Aufwand und der Preis.

Ein sehr potenter Spieler wie Intel mit dem Marktzugang, mit einem "praktisch" nicht kompatiblen Ansatz hat absolut das Potential den Markt tiefgreifend zu drehen. Dieses wäre nicht notwendig, wenn das das Produkt eh hinreichend exponiert wäre.

Ailuros
2009-09-23, 12:57:24
Drohung? Für wen?

Fuer Intel selber.

Ein ATI wird das Konzept eh adaptieren und nVidia hatte eh ein Problem, seitdem Intel den Einstieg angekündigt hat. Der Kunde? Dem Kunde interessiert das Ergebnis, der Aufwand und der Preis.

Es gibt kein Ergebnis nur eine Unzahl an powerpoint slides, heftigem Ramtamtam und hw die sich schon seit einer Ewigkeit im Labor herumwaerkelt um gerade noch etwas unter Performance GPUs Leistung zu erreichen.

Ein sehr potenter Spieler wie Intel mit dem Marktzugang, mit einem "praktisch" nicht kompatiblen Ansatz hat absolut das Potential den Markt tiefgreifend zu drehen. Dieses wäre nicht notwendig, wenn das das Produkt eh absolut exponiert wäre.

Hoffnung stirbt stets als letzte. Wir reden nochmal darueber wenn das Ding endlich mal veroeffentlicht wird und ausfuehrlich gemessen wird. Und dann entscheidet die Verbraucher was es wert ist und nicht Intel weil es Intel was sie jedem den Hals runterwuergen wollen weil sie nichts anstaendiges was Grafik betrifft schon seit Jahren auf die Beine stellen koennen. Mit Papierfranzen und netten Versprechungen kommen keine Pixel auf Deinen Bildschirm.

StefanV
2009-09-23, 16:08:23
Sehe ich ähnlich, bei GPUs kommt es hauptsächlich darauf an, möglichst viele (und) effiziente ALUs auf möglichst kleinem Raum unterbringen zu können.

Der RV870 hat ja bekanntlich 1600 Shader Alus, wie will Intel das mit den äußerst großen Funktionseinheiten überhaupt ansatzweise in der Lage sein, hier mitzuhalten?!
Zumal man ja auch noch 'ein paar' TMUs braucht...

Sorry, aber der Larrabee wirds verdammt schwer haben...

Coda
2009-09-23, 16:10:33
Larrabee hat mit 32 Cores ingesamt "512 ALUs". GT300 hat auch nicht mehr.

Beide betreiben diese wohl mit erheblich höherem Takt als RV870.

Gast
2009-09-23, 21:29:27
Re: Radeon HD 5850 und 5870: (P)Review-Thread
Wow. Immernoch QuakeWars? Wie lange basteln die da noch rum? Absolut lächerlich.


Und was sagt die Presse?:

"Mit so viel Vorschusshype, der nun auch von Intel angefacht wurde, war das erste öffentliche Auftreten von Larrabee umso ernüchternder. Die wenigen bewegten Objekte der Szene ruckelten über die Leinwand, was erkennbar nicht am Beamer lag. Schon die im Juni gezeigten Vorführungen desselben Spiels, und dabei noch auf nur acht CPU-Kernen, waren wesentlich eindrucksvoller. "

"Die erste öffentliche Vorführung von Larrabee verlief jedoch genauso enttäuschend, wie viele Kritiker sie erwartet hatten. Intels Chefwissenschaftler für Grafikforschung, Bill Mark, zeigte eine statische Szene aus dem auf Raytracing umgesetzten "Quake Wars: Enemy Territory". Daniel Pohl, von dem der Code maßgeblich stammt, durfte die Demonstration nicht selbst leiten.
"
http://www.golem.de/0909/70000.html


"Die Raytracing-Demo zeigte übrigens nur eine klassische Szene aus ID-Softwares Spiel »Quake Wars: Enemy Territory«

Die Hardware dazu war offenbar speziell im Vorfeld angefertigt worden. Intel-Mann Sean Maloney zeigte aber nur diese einzige Demonstration. Hübsch.."
http://www.theinquirer.de/2009/09/23...009-intel.html




"Wie jetzt die Kollegen von Bright Side Of News berichten, soll hinter dem Weggang Gelsingers das von Fehlern überhäufte Larrabee-Projekt stehen. Übereinstimmend wird gemeldet, dass Larrabee Gelsingers Baby wie einst die Netburst- oder Core-Mikroarchitektur im CPU-Desktop-Segment war."

"Besonders verärgert soll Intel darüber sein, dass Gelsinger schon vor Monaten durch provokante Äußerungen mit Nvidia in direkte Konkurrenz gezogen sei, ohne je etwas vorzeigbares aufbieten zu können. Nach letzten Gerüchten mussten für den ersten, verkaufsfertigen Larrabee bereits vier Chips herhalten und es soll bereits sieben verschiedene Steppings gegeben haben. Frühestens ist wohl Ende nächsten Jahres mit ersten Larrabee-Karten zu rechnen."

http://hardware-infos.com/news.php?news=3205



Was sagt uns das? Larrabeetanic

AnarchX
2009-09-24, 08:24:21
http://img121.imageshack.us/img121/390/001228719.jpg
größer: http://img24.imageshack.us/img24/2050/larrabee02.jpg

http://www.pcpop.com/doc/pic/001228721.html

Sieht nach 2x 8-Pin aus. :D

Aber immerhin läuft wohl schon Direct3D:
http://www.computerworld.ch/aktuell/news/49224/
Video: http://www.v3.co.uk/v3/video/2250005/intel-shows-larrabee

ScottManDeath
2009-09-24, 09:27:35
Da muss man sich nur anschauen wen sie alles rekrutiert haben.

Mir fallen da auf dem Stegreif Shirley, Woop, Wald und Benthin ein.
Abgesehen davon stampft Intel in Saarbrücken grade ein neues Visualisierungszentrum aus dem Boden wo dann Leute wie Slusallek, Seidel, etc inkl. Lehrstühlen und Arbeitsgruppen von Uni, MPI und DFKI dran beteiligt sind.



Shirley und Parker sind zu den gelb-gruenen Jungs gegangen ....

Ailuros
2009-09-24, 10:20:18
Als ich vor einiger Zeit von 7 steppings sprach war ich wohl der Depp des Dorfs pffff :mad:

DR.ZEISSLER
2009-09-24, 13:09:53
http://img121.imageshack.us/img121/390/001228719.jpg

http://www.pcpop.com/doc/pic/001228721.html

Sieht nach 2x 8-Pin aus. :D

Aber immerhin läuft wohl schon Direct3D:
http://www.computerworld.ch/aktuell/news/49224/
Video: http://www.v3.co.uk/v3/video/2250005/intel-shows-larrabee

was zeigen die für einen scheiss :confused:
wen soll so ein mist beeindrucken ?

damals als voodoo1 vorgstellt wurde, da gab es beeindruckende games zu sehen, die liefen wie der teufel auf kleiner hardware und sahen sehr geil aus. bspw p200mmx mit voodoo1 und dem spiel pod

StefanV
2009-09-24, 14:09:15
http://img121.imageshack.us/img121/390/001228719.jpg
größer: http://img24.imageshack.us/img24/2050/larrabee02.jpg

http://www.pcpop.com/doc/pic/001228721.html

Sieht nach 2x 8-Pin aus. :D

Aber immerhin läuft wohl schon Direct3D:
http://www.computerworld.ch/aktuell/news/49224/
Video: http://www.v3.co.uk/v3/video/2250005/intel-shows-larrabee
Sieht vorallen nach 3 Slot aus :ugly:

Gouvernator
2009-09-24, 14:18:27
Gut Ding braucht Weile... ich hoffe das Intel noch immer dran bleibt. Von mir aus können sie x86 über Board schmeißen und wenigstens mit irgendwas in den Markt einsteigen.

Gipsel
2009-09-24, 15:07:21
http://img121.imageshack.us/img121/390/001228719.jpg
größer: http://img24.imageshack.us/img24/2050/larrabee02.jpg

http://www.pcpop.com/doc/pic/001228721.html

Sieht nach 2x 8-Pin aus. :D
Yup, wie Ailuros schon andeutete, >300W für die Karte.
was zeigen die für einen scheiss :confused:
wen soll so ein mist beeindrucken ?
Sieht echt ein bißchen armselig aus, den Gang bekommt man im Prinzip doch schon mit einer uralten Geforce hin, da haben die doch bloß einen billigen Post-Processing-Filter fürs Grieseln übers Bild gelegt. Keine Ahnung, was das soll.

Und diese komische Animation bekommt doch auch jede GPU gerendert. Hmm. Aber es gibt ja so viel Speedup, weil man dafür nur 150 statt 500 Codezeilen benötigt. Achso. Tolle Wurst. Daß man dafür dann aber nicht einfach die fertige DX-Pipeline benutzen kann, sondern sich da selbst irgendwas basteln muß (was wohl auch mit einigem Aufwand verbunden sein dürfte), läßt man mal unter den Tisch fallen. Also wirklich einfacher wird es für den Programmierer dadurch auch nicht.
Sieht vorallen nach 3 Slot aus :ugly:
Na irgendwie muß man die 300W ja wegbekommen.

RLZ
2009-09-24, 15:18:03
Shirley und Parker sind zu den gelb-gruenen Jungs gegangen ....
Stimmt. Ich sollte weniger aus dem Gedächtnis raus argumentieren. :redface:
Die Gruppe von Intel hatte ich auch irgendwie größer in Erinnerung.
http://visual-computing.intel-research.net/people/people.htm

MasterElwood
2009-09-26, 10:59:44
Wäre es nicht ein brilianter Schachzug von Intel, wenn sie es schaffen würden, das Larrabee der Grafikchip der PS4 wird?

PS4 kommt in ca. 3 Jahren - da sollte ein ausgereifter Larry da sein. Der Imagegewinn für Intel wäre enorm...

ME

AnarchX
2009-09-26, 11:01:34
Es gibt Gerüchte, dass Intel wohl versucht hat LRB den Konsolenherstellern schmackhaft zu machen. Aber das hat wohl nicht geklappt, da die Pro-Watt-Leistung nicht den Anforderungen entsprach.

MasterElwood
2009-09-26, 11:24:28
Es gibt Gerüchte, dass Intel wohl versucht hat LRB den Konsolenherstellern schmackhaft zu machen. Aber das hat wohl nicht geklappt, da die Pro-Watt-Leistung nicht den Anforderungen entsprach.

Dafür wär ja noch zeit. Nebenbei: wenn Intel die PS4 als "Werbe-Prestigeprojekt" sieht könnten sie Sony natürlich einen sehr guten Preis machen.

Und dann könnte Intel ja auch ein guten Kompiangebot von CPU+GPU anbieten...

ME

fdk
2009-09-26, 11:34:08
Mal rein von der gpgpu-Warte aus gesehen: Was ging denn beim lrb so in die Binsen das die performance/w so bescheiden ist? Ich meine ein simpler silverthorne ist schon on par mit dem rv770 was DP-flops/w angeht (auch wenn er bei DP-flops/mm² irgendwo um den Faktor 6 zurückliegt).

Aquaschaf
2009-09-26, 12:22:33
Mal rein von der gpgpu-Warte aus gesehen: Was ging denn beim lrb so in die Binsen das die performance/w so bescheiden ist?

Die Tatsache dass der Einsatz von fixed-function-Logik prinzipbedingt energieeffizienter ist als sie mit frei programmierbaren Prozessoren und Software nachzubilden.

fdk
2009-09-26, 12:26:46
Ein Atom hat doch auch keine ff-logik?

ESAD
2009-09-26, 12:39:55
ein atom performt auch unterirdisch... allerding musst du das so sehen aufgrund der progrmmierbarkeit hat man ihmo einen overhead an transistoren und auch stromverbrauch. nur tritt dieser overhead nicht nur einmal auf sondern z.b. 512 mal

Aquaschaf
2009-09-26, 13:58:05
Ein Atom hat doch auch keine ff-logik?

Es geht ja auch um Performance/Watt und Performance/Transistor in Bezug auf Grafikberechnungen.

StefanV
2009-09-26, 14:10:38
Wäre es nicht ein brilianter Schachzug von Intel, wenn sie es schaffen würden, das Larrabee der Grafikchip der PS4 wird?
Werden sie aber nicht, die Konsolenhersteller habne wohl alle dankend abgelehnt.
Hier wirds wohl (auch) wieder zwischen nV und AMD entschieden werden, da weiß man auch, das das Zeugs kommt und taucht...
PS4 kommt in ca. 3 Jahren - da sollte ein ausgereifter Larry da sein. Der Imagegewinn für Intel wäre enorm...
Und was spräche jetzt für den LRB und gegen einem AMD/nV Chip??
Mir fällt da nichts ein...

Mal rein von der gpgpu-Warte aus gesehen: Was ging denn beim lrb so in die Binsen das die performance/w so bescheiden ist? Ich meine ein simpler silverthorne ist schon on par mit dem rv770 was DP-flops/w angeht (auch wenn er bei DP-flops/mm² irgendwo um den Faktor 6 zurückliegt).
Ein Atömchen hat auch nur einen Kern, keinerlei Logik zum Verwalten der Kerne.
Ein Atömchen hat auch keine TMUs
Ein Atömchen hat auch kein Speicherinterface und so weiter.

Nur mal so zum Vergleich: bei einer CPU ists logisch, das du nix zum verwalten der Daten zu/von den Recheneinheiten brauchst zumindest nicht wirklich viel.
Bei 160 Recheneinheiten, wie beim RV770 schaut es ganz anders aus, entsprechend aufwändig ist dieser Teil des Chips auch.

schau mal hier (http://www.computerbase.de/bildstrecke/22061/8/), wie ein RV770 so aufgebaut ist...

fdk
2009-09-26, 15:08:54
Dafür besteht der Atom zu ~4/10 aus den 512kb l2 cache um die lahme Speicheranbindung zu kompensieren. siehe: http://hothardware.com/newsimages/Item9989/small_Intel-Atom-Die-Map.jpg

Zu Atom ~= rv770 bei DP-flops/w:
http://www.realworldtech.com/page.cfm?ArticleID=RWT090909050230&p=2

Ailuros
2009-09-26, 15:10:35
Die Tatsache dass der Einsatz von fixed-function-Logik prinzipbedingt energieeffizienter ist als sie mit frei programmierbaren Prozessoren und Software nachzubilden.

So tragisch ist es gar nicht IMHO so lange sie eine gesunde Menge von cores haben; was ich schon mal erwaehnt habe und ernsthaft bezweifle ist dass sie ff hw wie tri-setup und oder tiling relevantes Zeug auch bei eingebetteten zukuenftigen Plaenen weglassen koennen. Ausser sie sind natuerlich wieder so stur und sind sich so selbstsicher dass es keine Rolle spielt; im Gegenfall wird die ohnehin schon grosse DIE AREA noch groesser.

turboschlumpf
2009-09-26, 17:18:08
In Konsolen wurde doch schon viel eigenartige Hardware verbaut; warum also nicht auch Larrabee?

Zumal ich an Sonys Stelle, nach dem Debakel mit der PS3, die Milliarden von Intel dankend annehmen würde.

Aquaschaf
2009-09-26, 17:24:39
In Konsolen wurde doch schon viel eigenartige Hardware verbaut; warum also nicht auch Larrabee?

Weil sich aller Wahrscheinlichkeit nach kein Larrabee-basierter Chip basteln läßt, der ins Energiebudget einer Konsole passt und akzeptable Leistung bringt. Außerdem: nach dieser Generation erwarte ich keine Experimente bei den Konsolenherstellern, was die Hardware angeht. Wozu sollten sie da noch Risiken eingehen?

StefanV
2009-09-26, 18:34:54
Also zurück zu Konsolen:
Hier erwarte ich auch nicht, das man 'High End' anstrebt sondern eher Mid-Range Hardware, also sowas wien Juniper oder so.
Vielleicht noch etwas modifiziert (wie der Xenos bei der 360), oder mit Chipsatz dran...

Coda
2009-09-26, 18:41:26
Bei der nächsten Xbox erwarte ich auch ein ATI-D3D11-Design mit eDRAM.

Larrabee würde zu Sony passen, aber stattdessen würde ich eher erwarten, dass sie etwas ähnliches auf Cell-Basis mit zusätzlichen TMUs bringen. Das war auch der ursprüngliche Plan für die PS3.

Intel hat da viel Vorarbeit geleistet was den parallelisierbaren Software-Rasterizer angeht. Und x86 halte ich immer noch für ziemlich viel Overhead in einem solchen Design.

BlackBirdSR
2009-09-26, 21:37:50
nur tritt dieser overhead nicht nur einmal auf sondern z.b. 512 mal


nana.. einmal pro Frontend. Nicht vor jeder "ALU" sitzt ein x86 CISC-Teil der Leistung und Transistoren frisst.

Die Frage muss doch sein:
Für was könnte der x86-Anteil nützlich sein? Wenn es einfach nur ein Weg war, schnell die Steuerlogik für möglichst viele Recheneinheiten zu bekommen, dann war das sicherlich eine relativ schlechte Wahl.
Immerhin ist der P55C-Abkömmling nicht gerade komplex.

Ailuros
2009-09-27, 08:39:32
Bei der nächsten Xbox erwarte ich auch ein ATI-D3D11-Design mit eDRAM.

Larrabee würde zu Sony passen, aber stattdessen würde ich eher erwarten, dass sie etwas ähnliches auf Cell-Basis mit zusätzlichen TMUs bringen. Das war auch der ursprüngliche Plan für die PS3.

Intel hat da viel Vorarbeit geleistet was den parallelisierbaren Software-Rasterizer angeht. Und x86 halte ich immer noch für ziemlich viel Overhead in einem solchen Design.

Es ist eigentlich ein Frevel wenn man den Hersteller der grosstverkauften Konsole dieser Generation weglaesst :P

haifisch1896
2009-09-27, 09:09:38
Also zurück zu Konsolen:
Hier erwarte ich auch nicht, das man 'High End' anstrebt sondern eher Mid-Range Hardware, also sowas wien Juniper oder so.
Vielleicht noch etwas modifiziert (wie der Xenos bei der 360), oder mit Chipsatz dran...

Wenn man allerdings den Lebensrhytmus der Konsolen sieht (5-6 Jahre), und auch die Features, welche in Zukunft gebraucht werden (z.B. 1080i), wird Midrange dann wohl doch nicht unbedingt ausreichen.

Ailuros
2009-09-27, 09:44:14
Also zurück zu Konsolen:
Hier erwarte ich auch nicht, das man 'High End' anstrebt sondern eher Mid-Range Hardware, also sowas wien Juniper oder so.
Vielleicht noch etwas modifiziert (wie der Xenos bei der 360), oder mit Chipsatz dran...

Wenn man fuer Xenos das eine Auge fuer den eDRAM Tochterdie zudrueckt hast Du eigentlich ein angepasstes Design des stornierten "R400" desktop Designs.

Anders ATI erkannte dass der Ur-R400 fuer seine Zeit als desktop GPU zu schwach gewesen waere und benutzte das Zeug einfach fuer die Konsole. Es heisst aber nicht dass es fuer seine Zeit kein high end Desing war (anders R600 hatte 4 cluster anstatt drei und R5x0 ersetzte ja eigentlich diesen "R400" ok und Xenos ist auch nicht voll DX10 aber die Logik wird nicht schwer zu verfolgen sein).

Es kommt darauf an mit welchem Herstellungsprozess eine solche GPU fuer eine zukuenftige Konsole hergestellt werden soll. Bei hypothetischen 28nm sehe ich nicht ein was gegen einen Frequenz-reduzierten Cypress-artigen chip sprechen wuerde. Unter der 100W (Echtzeit-GPU only- Verbrauch) Marge wuerde so ein Ding schon liegen.

Als Intel mit den Konsolenherstellern vor einiger Zeit verhandelte lag die Leistungsmarge an der die zweiten interessiert waren weder bei 48 noch bei 64 LRB cores.

haifisch1896
2009-09-27, 13:54:41
Wobei 100W schon wirklich relativ viel wären, um es mit einmal wegzukühlen. Da helfen auch ausgefeilte Heatpipe-Designs nicht wirklich weiter, da ja noch die CPU dazukommt.
Gehen wir mal von 100W GPU und 50W CPU aus, hat man schonmal 150W.

Wahrlich nicht sonderlich viel, zumindest verglichen mit einem PC.
Für ein Wohnzimmergerät mit einem relativ kleinen Gehäuse, um mal als Beispiel bei der Wii zu bleiben, unmöglich zu kühlen. Da müsste ein kleiner 40er-50er Lüfter enorm hoch drehen, was man dann ja wieder überdeutlich hört.

StefanV
2009-09-27, 13:54:44
Wenn man allerdings den Lebensrhytmus der Konsolen sieht (5-6 Jahre), und auch die Features, welche in Zukunft gebraucht werden (z.B. 1080i), wird Midrange dann wohl doch nicht unbedingt ausreichen.
Du musst aber auch sehen, das die aktuellen Konsolen einfach zu teuer in der Herstellung sind und sich die 'beiden großen' (M$ und Sony) voll auf die Nase gelegt haben.
Die Wii zeigt ja, das es eben NICHT auf die Hardware ankommt...

Es ist eigentlich ein Frevel wenn man den Hersteller der grosstverkauften Konsole dieser Generation weglaesst :P
Genau und das ist ja gerad das ironische, das die Konsole mit der schwächsten Hardware die meist verkaufteste ist.
Mag aber auch daran liegen, das die sich von der Steuerung etwas unterscheidet und sich mehr an den 'Gelegenheitsspieler' richtet - wie das damals mit dem NES der Fall war...

Man ist also quasi 2-3 Schritte zurück gegangen...

Bei der nächsten Xbox erwarte ich auch ein ATI-D3D11-Design mit eDRAM.
Ich denke auch, das das möglich sein wird.
Andererseits braucht man hier dann auch etwas mehr + anständiges Streaming ausm Speicher.


Larrabee würde zu Sony passen, aber stattdessen würde ich eher erwarten, dass sie etwas ähnliches auf Cell-Basis mit zusätzlichen TMUs bringen. Das war auch der ursprüngliche Plan für die PS3.
Wäre möglich, aber ich würd auch hier vermuten, das Sony dennoch einen Grafikchip von nVidia und AMD in Betracht zieht und alles gegeneinander antreten lässt.
Ev. geht man auch bei der CPU einen Schritt zurück und orientiert sich an M$...

Das man eine "echte CPU" (ie einen Bulldozer oder ev. K10) denke ich eher nicht, auch hier wird man irgendwas lizensierte einbauen, das man in eigenregie fertigt...
Wenn man fuer Xenos das eine Auge fuer den eDRAM Tochterdie zudrueckt hast Du eigentlich ein angepasstes Design des stornierten "R400" desktop Designs.
Hm, OK, das mag auch sein.

Es kommt darauf an mit welchem Herstellungsprozess eine solche GPU fuer eine zukuenftige Konsole hergestellt werden soll. Bei hypothetischen 28nm sehe ich nicht ein was gegen einen Frequenz-reduzierten Cypress-artigen chip sprechen wuerde. Unter der 100W (Echtzeit-GPU only- Verbrauch) Marge wuerde so ein Ding schon liegen.
Das ist wohl wahr.
Allerdings ist eine R520 in 40nm nicht besonders toll - nur klein.

Und genau das ist ja eben auch der Punkt, einerseits ändert sich das Chip Design, man fügt Funktionen hinzu (oder entsorgt welche wie die 2D Einheit bei D3D10 Chips), optimiert das Design usw.
So dass ein aktueller Mid Range Chip gesamt gesehen wesentlich besser ist als ein etwas älterer High End Chip, darauf wollte ich hinaus.

Und mit der aktuellen Generation sollten die Konsolen Hersteller eingesehen haben (bzw mussten einsehen), das 'High End Konsolen' keine gute Idee sind...

Entsprechend erwarte ich, das die Kosten der nächsten Generation deutlich geringer sein werden als bei der aktuellen, zumindest für die Hersteller.

Ailuros
2009-09-27, 14:03:15
Wobei 100W schon wirklich relativ viel wären, um es mit einmal wegzukühlen. Da helfen auch ausgefeilte Heatpipe-Designs nicht wirklich weiter, da ja noch die CPU dazukommt.
Gehen wir mal von 100W GPU und 50W CPU aus, hat man schonmal 150W.

Wahrlich nicht sonderlich viel, zumindest verglichen mit einem PC.
Für ein Wohnzimmergerät mit einem relativ kleinen Gehäuse, um mal als Beispiel bei der Wii zu bleiben, unmöglich zu kühlen. Da müsste ein kleiner 40er-50er Lüfter enorm hoch drehen, was man dann ja wieder überdeutlich hört.

XBox360 verbrutzelt wenn ich mich nicht irre insgesamt um die 200W. Bei einer neuen Generation darf der Stromverbrauch schon um etwas steigen wenn man es als notwendig empfindet aber eben nicht um fast das 10x fache.


Genau und das ist ja gerad das ironische, das die Konsole mit der schwächsten Hardware die meist verkaufteste ist.
Mag aber auch daran liegen, das die sich von der Steuerung etwas unterscheidet und sich mehr an den 'Gelegenheitsspieler' richtet - wie das damals mit dem NES der Fall war...

Man ist also quasi 2-3 Schritte zurück gegangen...

Es wuerde mich kein bisschen wundern wenn diesmal NINTENDO im Bereich Grafik nachholen wird; nicht dass ich etwas potentielleres als bei den anderen erwarten wuerde, aber auch nicht auf Nivaeu Wii.

Das ist wohl wahr.
Allerdings ist eine R520 in 40nm nicht besonders toll - nur klein.

Ich wollte nur sagen dass zwischen Xenos und R5x0, die letztere eine sinnvollere Loesung war leistungsmaessig fuer den PC.

Und mit der aktuellen Generation sollten die Konsolen Hersteller eingesehen haben (bzw mussten einsehen), das 'High End Konsolen' keine gute Idee sind...

Moment; dieselben Hersteller veroeffentlichen sowohl "normale" Konsolen und auch "handheld" Konsolen. NINTENDO kommt in der Zukunft mit einem Tegra IP an und SONY mit dem momentan schnellstmoeglichen SGX-MP cluster. Klingt Dir das nach etwas dass Deine These bestaetigt oder soll die Schere zwischen handheld und console diesmal kleiner werden?

Entsprechend erwarte ich, das die Kosten der nächsten Generation deutlich geringer sein werden als bei der aktuellen, zumindest für die Hersteller.

Siehe auch oben. Es duerfte klar sein dass egal ob handheld oder Konsole die Hersteller ausschliesslich sich nur an IP interessieren (aus sehr gutem Grund). Intel hatte zwei sehr grosse Nachteile bei jeglichen Verhandlungen: zu grosse DIE AREA - Stromverbrauch fuer Leistung X und eher die Tendenz kein IP verkaufen zu wollen.

***edit: wenn Intel uebrigens nicht den bloeden NIH Komplex haette, haetten sie schon seit langem die lizenzierte IMG IP auch in PC SoCs eindringen lassen. Ich weiss zwar immer noch nicht was sie genau vorhaben fuer die naechsten 2 Jahre, aber die Relation die area/Stromverbrauch/Leistung/Effizienz von ihrem eigenen chipset Quark und SGX hat so grosse Unterschiede dass es technologisch peinlich ist ueberhaupt jegliche Vergleiche auf den Kopf zu stellen.

StefanV
2009-09-27, 16:00:02
Es wuerde mich kein bisschen wundern wenn diesmal NINTENDO im Bereich Grafik nachholen wird; nicht dass ich etwas potentielleres als bei den anderen erwarten wuerde, aber auch nicht auf Nivaeu Wii.
Ja, das ist die logische Konsequenz, die Wii ist schon etwas arg angestaubt, auch der 'doppelte Flipper' nicht mehr zeitgemäß...

Ich wollte nur sagen dass zwischen Xenos und R5x0, die letztere eine sinnvollere Loesung war leistungsmaessig fuer den PC.
OK, in dem Punkt hast wohl Recht...

Moment; dieselben Hersteller veroeffentlichen sowohl "normale" Konsolen und auch "handheld" Konsolen. NINTENDO kommt in der Zukunft mit einem Tegra IP an und SONY mit dem momentan schnellstmoeglichen SGX-MP cluster. Klingt Dir das nach etwas dass Deine These bestaetigt oder soll die Schere zwischen handheld und console diesmal kleiner werden?
Ich hab mich nur auf 'Standalone Konsolen' bezogen, nicht auf Handhelds, die sind ja eine ganz andere Baustelle.
Zumal es hier mehr auf die Ausrichtung ankommt (siehe den DS).

Entsprechend sollten wir hier, in diesem Thread, so denn wir von Konsolen sprechen, weniger von Handhelds sprechen.

Siehe auch oben. Es duerfte klar sein dass egal ob handheld oder Konsole die Hersteller ausschliesslich sich nur an IP interessieren (aus sehr gutem Grund). Intel hatte zwei sehr grosse Nachteile bei jeglichen Verhandlungen: zu grosse DIE AREA - Stromverbrauch fuer Leistung X und eher die Tendenz kein IP verkaufen zu wollen.
Ja, M$ war der einzige Hersteller, der sich mit der Xbox hat übern Tisch ziehen zu lassen, da sie keine IP genutzt haben sondern fertige Chips vom Hersteller kauften.

Das ist auf lange Sicht teurer, man ist, bei Shrinks, auf das Wohlwollen der Verkäufer angewiesen usw...
Dazu kommt die Lieferbarkeit...
Bei IP ist der Konsolenhersteller selbst für die Fertigung verantwortlich...
Man kann auch schneller auf neue Prozesse umsatteln usw (als Verkäufer mit einem entprechend Langfristigem Vertrag hätte ich da eher weniger Bedarf zu)

***edit: wenn Intel uebrigens nicht den bloeden NIH Komplex haette, haetten sie schon seit langem die lizenzierte IMG IP auch in PC SoCs eindringen lassen. Ich weiss zwar immer noch nicht was sie genau vorhaben fuer die naechsten 2 Jahre, aber die Relation die area/Stromverbrauch/Leistung/Effizienz von ihrem eigenen chipset Quark und SGX hat so grosse Unterschiede dass es technologisch peinlich ist ueberhaupt jegliche Vergleiche auf den Kopf zu stellen.
Tja, in der Firmenpolitik ist Intel kaum zu schlagen, was negative Entscheidungen betrifft...
Statt das best mögliche (für alle) zu machen, muss man irgendwie mitm Kopp durch die Wand, so als ob der Haufen von ein paar Sturköppen gelenkt wird, die irgendwie das drumherum vergessen haben, siehe Netburst, siehe Itanic und jetzt den LRB...

Ailuros
2009-09-27, 17:16:25
Grade wo ich dachte Mensch es wird langweilig er stimmt zu allem zu:

Ich hab mich nur auf 'Standalone Konsolen' bezogen, nicht auf Handhelds, die sind ja eine ganz andere Baustelle.
Zumal es hier mehr auf die Ausrichtung ankommt (siehe den DS).

Entsprechend sollten wir hier, in diesem Thread, so denn wir von Konsolen sprechen, weniger von Handhelds sprechen.

Wie ich schon sagte erwaehnte ich sie lediglich aus dem Grund dass die Faehigkeiten der bisherigen handhelds bei der naechsten Generation um nicht nur einen 2x oder 3x Mal Faktor steigen werden sondern um einiges mehr. Anders ein heutiger RSX eingebetteter Ableger mit gleicher die area als der zukuenftige "PSP2" waere dem letzteren gnadenlos unterlegen. Es beweisst nichts, sondern zeigt einen Trend.

Und da Du es in einem meiner vorigen Tests ueberflogen hast: waeren die Konsolen-Hersteller nicht an etwas "high end" interessiert haetten sie auch wohl auch nichts von einem 80-core LRB etwas erzaehlen lassen. Klingt Dir das nach "mainstream" oder "low end" fuer heutige Verhaeltnisse, egal wie beschissen LRB's Effizienz ist?

StefanV
2009-09-27, 17:41:10
Grade wo ich dachte Mensch es wird langweilig er stimmt zu allem zu
Tja, ich tu halt alles, um meinen Ruf hier zu versauen :devil: :naughty:

Wobei es natürlich auch sein kann, das ich mal ins Klo greife, aber das kommt nicht allzu oft vor, hoffe ich.

Wie ich schon sagte erwaehnte ich sie lediglich aus dem Grund dass die Faehigkeiten der bisherigen handhelds bei der naechsten Generation um nicht nur einen 2x oder 3x Mal Faktor steigen werden sondern um einiges mehr. Anders ein heutiger RSX eingebetteter Ableger mit gleicher die area als der zukuenftige "PSP2" waere dem letzteren gnadenlos unterlegen. Es beweisst nichts, sondern zeigt einen Trend.
Ja, hier ist auch am meisten Potential vorhanden.
Die 3D Beschleunigung ist ja noch nicht soo ganz in diesem Bereich angekommen bzw recht rudimentär, entsprechend ists auch einfacher, hier etwas verändern zu können.


Und da Du es in einem meiner vorigen Tests ueberflogen hast: waeren die Konsolen-Hersteller nicht an etwas "high end" interessiert haetten sie auch wohl auch nichts von einem 80-core LRB etwas erzaehlen lassen. Klingt Dir das nach "mainstream" oder "low end" fuer heutige Verhaeltnisse, egal wie beschissen LRB's Effizienz ist?
Hm, das klingt nicht gut und lässt wohl nicht drauf hoffen, das man aus den Fehlern der aktuellen Generation gelernt hat.
Wobei die Frage ist, wann die denn nun aufm Markt geschmissen werden sollen...

Gut, ein RV870 in 28nm ist auch nicht mehr ganz so fett und das soll ja auch nicht in allzu weiter Ferne liegen...

Ailuros
2009-09-27, 18:00:19
Stefan,

Um es klarer zu machen ich persoenlich sah keine besonderen Fehler am XBox360 Design (sowohl auf der CPU als auch auf der GPU Seite); wenn man natuerlich jetzt in Einzelheiten geht kann man sicher sich ueber das eine oder andere beschweren. Wenn ich von Entwicklern hoere und lese dass es relativ leicht ist fuer das Ding zu entwickeln dann ist wohl insgesamt das Projekt gelungen.

Bei der PS3 und dem Cell bzw. RSX wird die Geschichte etwas komplizierter und die Konsole konnte mich bis jetzt nie richtig ueberzeugen.

Und jetzt zurueck zum Thema: Intel's eigentliche Interesse LRB in Konsolen zu bringen war offensichtlich eine so grosse wie moegliche Verbreitung generell. Man baut eine merkwuerdige Architektur mit mehr Programmierbarkeit und angeblich X hoehere Flexibilitaet. Nur macht eben diese Programmierbarkeit bzw. zusaetzliche Flexibilitaet nicht einen so grossen Unterschied zu dem was erfahrenere GPU Entwickler auf die Beine stellen koennte dass es sich um eine wahre Revolution handelt; eher eine verdammt falsch vergossene Evolution.

StefanV
2009-09-27, 18:17:35
Um es klarer zu machen ich persoenlich sah keine besonderen Fehler am XBox360 Design (sowohl auf der CPU als auch auf der GPU Seite); wenn man natuerlich jetzt in Einzelheiten geht kann man sicher sich ueber das eine oder andere beschweren. Wenn ich von Entwicklern hoere und lese dass es relativ leicht ist fuer das Ding zu entwickeln dann ist wohl insgesamt das Projekt gelungen.
Das stimmt schon, allerdings ist die 360 recht teuer in der Fertigung (OK, kann uns egal sein), ein weiterer Haken ist die Geräuschentwicklung und auch die Leistungsaufnahme, besonders der früheren Modelle.

Wennn ich mich nicht verschätze, hat man hier eine Steigerung um etwa den Faktor 4 bei der Leistungsaufnahme (etwa 50W bei der alten XBox, etwa 200W bei der neuen, wobei das mit den neusten Revisionen besser geworden ist).


Bei der PS3 und dem Cell bzw. RSX wird die Geschichte etwas komplizierter und die Konsole konnte mich bis jetzt nie richtig ueberzeugen.
Das die Playstation nicht gut zu programmieren ist, ist nix neues, das war schon der 2. Versuch...
Die Grafik der 2er war auch teilweise zum kotzen (ich sag nur FF-X(-2) und Stille Ebene, da man kein Mipmapping gemacht hat...


Und jetzt zurueck zum Thema: Intel's eigentliche Interesse LRB in Konsolen zu bringen war offensichtlich eine so grosse wie moegliche Verbreitung generell. Man baut eine merkwuerdige Architektur mit mehr Programmierbarkeit und angeblich X hoehere Flexibilitaet. Nur macht eben diese Programmierbarkeit bzw. zusaetzliche Flexibilitaet nicht einen so grossen Unterschied zu dem was erfahrenere GPU Entwickler auf die Beine stellen koennte dass es sich um eine wahre Revolution handelt; eher eine verdammt falsch vergossene Evolution.
genau das ist das Problem, das hab ich auch weiter vorn angesprochen.

Bei Grafikchips ists wichtig möglichst keine Rechenwerke zu haben, was für Code die fressen, interessiert niemanden, da ein Treiber zwischen Chip und Schnittstelle ist, der die Hardware mit Binärcode füttert.

Den einzigen Vorteil der x86 Rechenwerke im LRB sehe ich darin, das man hier auf einem 'normalen Prozessor' entwickeln könnte, theoretisch (gut, TMUs usw fehlen noch, aber die Shader könnte man daran schon mal anfangen).

Ailuros
2009-09-27, 18:40:04
Bei Grafikchips ists wichtig möglichst keine Rechenwerke zu haben, was für Code die fressen, interessiert niemanden, da ein Treiber zwischen Chip und Schnittstelle ist, der die Hardware mit Binärcode füttert.

Den einzigen Vorteil der x86 Rechenwerke im LRB sehe ich darin, das man hier auf einem 'normalen Prozessor' entwickeln könnte, theoretisch (gut, TMUs usw fehlen noch, aber die Shader könnte man daran schon mal anfangen).

Aus Jon Olick's 08' Siggraph Praesentation:

Back in Quake 1
– If you had to make a decision between an additional
CPU and a Graphics Card which would you choose?

– Why is this any different today?

– Its not any different.

Gast
2009-09-27, 18:40:50
Das stimmt schon, allerdings ist die 360 recht teuer in der Fertigung (OK, kann uns egal sein), ein weiterer Haken ist die Geräuschentwicklung und auch die Leistungsaufnahme, besonders der früheren Modelle.

Wennn ich mich nicht verschätze, hat man hier eine Steigerung um etwa den Faktor 4 bei der Leistungsaufnahme (etwa 50W bei der alten XBox, etwa 200W bei der neuen, wobei das mit den neusten Revisionen besser geworden ist).



Ist die PS3 denn günstiger? (Austattungsbereinigt)
Bezüglich der Leistungsaufnahme war die erste PS3 doch auf dem selben schlechten niveau, oder täusch ich mich da grade? Aber das hat sich ja jetz mit der Slim deutlich gebessert (ca.90W)

Gruß

Aquaschaf
2009-09-27, 19:52:24
Um es klarer zu machen ich persoenlich sah keine besonderen Fehler am XBox360 Design (sowohl auf der CPU als auch auf der GPU Seite);

Langsam aber sicher OT, aber: ich denke der einzige Punkt bei dem man relativ sicher von einem Designfehler sprechen kann ist die Tatsache dass eine Variante der XBox360 ohne Festplatte existiert.

=Floi=
2009-09-28, 03:49:41
man könnte die GPU in den konsolen auch mit weit weniger vcore betreiben und so noch einen batzen verlustleistung sparen. die grundperformance wäre trotzdem noch auf einem hohem niveau. die reine die-fläche halte ich jetzt für weniger kritisch, wenn die R&D kosten abgeschrieben sind und der prozess gut ist. (hohe yield rate)

RSX gegen den PSP2 chip zu vergleichen ist aber schon hart, da mitlerweile mehr shaderleistungs zählt und die USA hier erhebliche vorteile bringt.

mal abwarten, was LRB wirklich kann und bringen wird. ich denke er wird sich schon etablieren und seinenweg gehen. blöd ist intel auch nicht und die werden sicherlich dazugelernt haben!

Ailuros
2009-09-28, 09:52:39
man könnte die GPU in den konsolen auch mit weit weniger vcore betreiben und so noch einen batzen verlustleistung sparen. die grundperformance wäre trotzdem noch auf einem hohem niveau. die reine die-fläche halte ich jetzt für weniger kritisch, wenn die R&D kosten abgeschrieben sind und der prozess gut ist. (hohe yield rate)

Wieviel cores hat denn der chip mit den angeblichen 600mm2 der eine >300W TDP hat?

RSX gegen den PSP2 chip zu vergleichen ist aber schon hart, da mitlerweile mehr shaderleistungs zählt und die USA hier erhebliche vorteile bringt.

Das einzige was hart an der Geschichte waere ist dass Du nicht die blasseste Ahnung hast was ich genau meinte. Bei hypothetischen 400MHz und 4 cores MP ist die theoretische FLOP rate bei knapp unter 60 GFLOPs. Ergo wohl doch nicht "dank USC" oder nutzlosen FLOP Zahlen, sondern dank anderen Schwaechen der G7x Familie die eher bekannt sind (ALUs von TEX nicht entkoppelt usw usw.). Danach kommt noch dazu dass die theoretische Effizienz mit allem Antilaliasing bzw. deferred shading im Bereich Speicher und Bandbreiten-Verbrauch um einiges hoeher ist. Ach ja MIMD waere noch ein weiterer Vorteil aber es wird wohl keiner so bloed sein und tonnenweise kleine Dreiecke an den RSX schmeissen; eher nutzvoll auf SGX wenn man mit Tesselation herumfunkeln will.

mal abwarten, was LRB wirklich kann und bringen wird. ich denke er wird sich schon etablieren und seinenweg gehen. blöd ist intel auch nicht und die werden sicherlich dazugelernt haben!

Ich will hoffen dass die Lernkurve nicht so lange dauert wie bis jetzt. Wenn man 7 Revisionen braucht um zum ersten tape out zu kommen will ich hoffen dass sie auch nicht nochmal 2 Jahre brauchen um produktionsreifes Silizium zu erreichen.

Ailuros
2009-10-08, 12:56:48
http://www.xbitlabs.com/news/video/display/20091007174616_Intel_Foresees_GPGPU_Viruses_Seeks_Security_Solution_for_Larrabee .html

=Floi=
2009-10-09, 18:08:37
zitat
Wieviel cores hat denn der chip mit den angeblichen 600mm2 der eine >300W TDP hat?

was hat das denn damit zu tun? mir ging es um die reine möglichkeit auch solch einen chip zu verbauen und die halte ich für durchaus realistisch von den rahmenbedinungen.
man könnte für die konsolen erst einen shrink benützen und wenn man dann die taktrate senkt und auch die vcore, kann man schon genug einsparen. siehe die 5850 und andere karten.
Die idee die grafikleistung erheblich zu steigern, um länger schritt halten zu können dürfte auch bei den konsolenherstellern ein großes thema sein.

ok bei der psp2 habe ich dich falsch verstanden. ich war nur darauf fixiert, weil zB die 8600GTS auch mit der 79X0GT gereration mithalten kann.

die lernkuzrve wird sicherlich sehr lange sein. man sieht es ja auch bei den anderen herstellern und auch intel wird erst einmal selbst gute vorraussetzungen schaffen müssen um das programmieren darauf zu erleichtern.

Ailuros
2009-10-10, 07:47:11
was hat das denn damit zu tun? mir ging es um die reine möglichkeit auch solch einen chip zu verbauen und die halte ich für durchaus realistisch von den rahmenbedinungen.

Es hat alles damit zu tun. Konsolen Hersteller haben nicht nur einen Vorschlag fuer zukuenftige Konsolen und da sind Vergleiche wohl schwer zu vermeiden. Wenn die perf/Watt Rate zu niedrig ist dann macht es zwar einen grossen Unterschied was den Watt Anteil betrifft wenn man ueber 80/64/32/16 cores denkt, jedoch je weniger cores desto weniger Leistung.

man könnte für die konsolen erst einen shrink benützen und wenn man dann die taktrate senkt und auch die vcore, kann man schon genug einsparen. siehe die 5850 und andere karten.

GPU IP fuer zukuenftige Konsolen betrifft nicht heute erhaeltliche hw sondern die der Zukunft. Wenn man also an jeglichen kleineren Herstellungsprozess als 32nm denkt als Beispiel gilt genau dasselbe fuer alle IHVs die ihre Vorschlaege den Herstellern geben. Je kleiner der heutige 40nm Ansatz desto kleiner der =/<28nm Ansatz in der Zukunft.

Die idee die grafikleistung erheblich zu steigern, um länger schritt halten zu können dürfte auch bei den konsolenherstellern ein großes thema sein.

Stimmt auch.

=Floi=
2009-10-10, 14:24:12
mir ging es eher um die reine idee über umwege (takt, vcore) mit der brechstange eine "aktuelle" architektur (hersteller egal) zu verbauen. man stelle sich einen G80 in der PS3 vor. Wie du selbst sagst, ist die verlustleistung das größte problem. Ein großer DIE weniger. Sony wird wohl auch trotz der verspätungen mit reue auf den G80 blicken.

ich denke es würde nur ein vollausbau des chips wirklich sinn machen, da man sonst wieder zu schnell zu langsam ist.

Ailuros
2009-10-10, 14:35:41
mir ging es eher um die reine idee über umwege (takt, vcore) mit der brechstange eine "aktuelle" architektur (hersteller egal) zu verbauen. man stelle sich einen G80 in der PS3 vor. Wie du selbst sagst, ist die verlustleistung das größte problem. Ein großer DIE weniger. Sony wird wohl auch trotz der verspätungen mit reue auf den G80 blicken.

Wieso soll SONY mit Reue auf G80 blicken? Zum Zeitpunkt wo SONY G7x IP lizenziert hat war G80 eben nicht erhaetlich und dieses war einige Zeit bevor G70 (und nicht G80) auf die Regale kam. Im Gegensatz koennten sie wenn sie auf XBox360 schielen es bereuen dass sie nicht Xenos lizenziert haben.

Wieviel DIE area nehmen denn Xenos oder RSX ein und wieviel Strom koennte jeder der beiden von sich alleine verbrauchen? Die gesamte XBox360 verbraucht unter 200W.

Gast
2009-10-13, 06:40:23
http://www.brightsideofnews.com/news/2009/10/12/an-inconvenient-truth-intel-larrabee-story-revealed.aspx

Ailuros
2009-10-13, 08:54:05
http://www.brightsideofnews.com/news/2009/10/12/an-inconvenient-truth-intel-larrabee-story-revealed.aspx

ROFL und ich dachte nur Charlie koennte uebertreiben. Ich hab Theo ein e-mail darueber geschickt, mal sehen ob er antwortet.

Gast
2009-10-15, 13:02:09
Theo mag QUellen haben, bei seinen Interpretationen kommt dann aber oftmals deutlich der Mangel an Fachwissen durch und macht alles kaputt.

Siehe sein Artikel zum 128Bit AMD Bulldozer. Eine Schande für Ihn und man muss bei jedem Artikel über LRB daran denken: Interpretiert er hier oder berichtet er nur?

][immy
2009-10-15, 18:44:03
Ich bin mir nicht sicher das intel mit der aktuellen Generation mithalten könnte. Damals (vor über einem Jahr) gab es angedeutungen das intel in etwa mit einer 4850 mithalten könnte. inzwischen haben sich die hardware-einheiten schon wieder verdoppelt.
Ihr chipdesign scheint schon so teuer genug zu werden, die einheiten einfach zu verdoppelt würde also wohl jeden rahmen sprengen. auf einen weiteren shrink könnte man auch wieder nicht warten, denn dann hätte die konkurenz ja schon wieder eine verdopplung der rohleistung.
das hieße für mich, das sie einen anderen weg finden müssten mit der konkurenz mitzuhalten. dementsprechenden müssten sie eigentlich immer mehr fixed function-units einbauen damit sie überhaupt mithalten können und nur einen kleinen bereich der x86er-architektur überlassen ... wenn sie denn daran festhalten wollen.

es bringt numal alles nichts wenn die konkurenz jedesmal selbst im performance-segment grafikkarten hat, mit denen man einfach schon aus preislicher sicht nicht mithalten kann und dann von der performance her vielleicht auch noch schlechter da steht.
Der Ray-Tracing ansatz scheint auch nicht so gut auf dem chip zu funktionieren, denn man hat schon besser-laufende demos gezeigt als quake-wars auf larrabee.

wenn man einfach mal folgendes überlegt (alles rein hypothetisch):
nehmen wir mal an fixed function units sind 3x so schnell wie eine allgemeine recheneinheit (nur mal angenommen)
jetzt bringt ein grafikchipentwickler einen chip raus der mehr oder minder nur aus fixed-function units besteht und intel dagegen ihren larrabee setzt.
wenn nun intel beim ersten mal mithalten kann und in der nächsten generation ein doppelt so großer grafik-chip gegen larrabee gestellt wird, würde der larrabee schonmal zurückliegen. nun könnte intel die einheiten verdreifachen um noch mithalten zu können. spätestens in der dritten generation dürfte intel dann richtige probleme haben.
also müsste intel immer mehr und mehr auf fixed-function setzen und die x86er einheit rauseitern lassen um überhaupt mithalten zu können, ansonsten ist der chip ab der dritten generation nicht mehr bezahlbar.

Ailuros
2009-10-15, 19:02:02
Larabees groesstes Problem ist nicht ff vs programmierbare hw sondern dass der chip wenn man alle cores voll auslastet einfach zu heiss wird.

Gipsel
2009-10-15, 19:20:10
Larabees groesstes Problem ist nicht ff vs programmierbare hw sondern dass der chip wenn man alle cores voll auslastet einfach zu heiss wird.
Und perspektivisch daß die Skalierung zu vielen, sagen wir mal 64 oder noch mehr, Cores aufgrund des ganzen Snooping-Traffics auf dem Ringbus für die Cache-Kohärenz wahrscheinlich schlechter ist, als Intel das gerne hätte. Optimal wäre wohl, wenn die Software das in Zukunft auch manuell managen könnte.

Gast
2009-10-15, 19:23:14
öhm, aber genau das ist doch das problem von universeller vs. spezialisierter hw ... die erste ist flexibler, die zweite kann viel weniger, aber das was sie kann, kann sie gerne mal um größenordnungen effizienter. ich schätze mal, dass intel sich auch einen größeren prozesstechnologievorsprung zur einführung erhofft hat. wenn bei GF alles glatt läuft (was sehr unwahrscheinlich ist, wann ist bei AMD zum letzten Mal alles glatt gelaufen? :D) kann intel den lurb für consumer graphics gleich in die tonne treten. freuen würds mich ja für die firma, die uns rambus ram aufs auge drücken wollte und der meinung war "4GB ought to be enough for everyone (not willing to pay for itanium)" ;)

Gast
2009-10-20, 20:45:47
screenshot from project offset:
http://img208.imageshack.us/img208/3930/051009l.jpg

_DrillSarge]I[
2009-10-21, 04:29:54
Larabees groesstes Problem ist nicht ff vs programmierbare hw sondern dass der chip wenn man alle cores voll auslastet einfach zu heiss wird.
?
sehr klasse. besonders wenn man das, aufgrund der hw-architektur, angepeilte einsatzgebiet betrachtet. :uclap:

robbitop
2009-10-21, 09:44:00
Das stimmt schon, allerdings ist die 360 recht teuer in der Fertigung
Das ist relativ zu betrachten. Relativ zu ihrer Leistungsfähigkeit ist das Ding spottbillig zu fertigen. Der Grafikcore hat erstaunlich wenig Transistoren für das Featureset und die Rohleistung die er hat. Der eDRAM ist zwar ein zusätzlicher Kern aber er verhindert, dass ein sehr schneller und sehr breit angebundener Speicher auf das PCB muss. Kerne kann man shrinken, Verdrahtete Anbindungen hingegen bleiben immer teuer. So konnte man sich mit 512 MiB 128 bit GDDR3 begnügen. Man wusste genau, nach wievielen Shrinks das Teil schön billig wird.

Die CPU ist an sich auch in Ordnung. Sicher hätten AMD und Intel was besseres liefern können - dann aber zu höheren Preisen. Also kaufte man eine günstige Lizenz bei IBM und ließ selbst (auftrags-)fertigen. Die Performanceoptimierung überließ man -wie fast immer- dem Entwickler (bzw. heute den recht guten Compilern).
Mit entsprechendem Aufwand läßt sich aus der CPU einiges an Leistung holen, sofern die Codereihenfolge simmt (In Order) und man schön parallelisiert (3 Kerne mit 6 Threads).

IMO ist die 360 ein sehr gutes Design - ein guter Kompromiss aus Preis und Leistung. Lediglich die Feinheiten wurden anfangs vermurkst (RRoD). Die hat man aber nun im Griff.

Die Xbox3 wird sicher eine ähnliche Philospohie. Einen DX11 ATI Kern mit eDRAM (diesmal ein wenig mehr für FullHD?), mind. 2 GiB RAM (eher mehr). Nur bei der CPU bin ich ziemlich ratlos. Viel mehr Takt wird man heute auch bei InOrder Kernen nicht in eine Konsole bekommen. Mehr Kerne würden IMO für Spiele auch nicht mehr sooo viel bringen. Die IPC müsste schon steigen. Dafür bräuchte man ein ausgewachsenes OoO Design. Und sowas ist teurer und sowas haben nicht soo viele.

Ailuros
2009-10-22, 08:05:52
I[;7608843']?
sehr klasse. besonders wenn man das, aufgrund der hw-architektur, angepeilte einsatzgebiet betrachtet. :uclap:

Es ist ein Design-Problem dass sie bewaeltigen muessen. Das Ganze hat auch wohl nichts mit dem jeweiligen Herstellungsprozess zu tun denn sie muessen es zuerst ausbuegeln bevor man sagen kann dass es fuer X oder Y produktionsfaehig ist. Heute wuerde es kein einziger vendor herstellen weil der Stromverbrauch ueberhalb den PCIsig Vorraussetzungen liegt.

misterh
2009-10-25, 01:47:59
wurde das schon hier gepostet?

http://www.youtube.com/watch?v=f6Y95yL2jDI

AnarchX
2009-11-03, 10:23:48
Intel CEO promotes Larrabee privately during China visit (http://www.digitimes.com/news/a20091103PD203.html)


Intel schnürt Bundles und die AIBs glauben an eine eventuelle Konkurrenzfähigkeit 2 Jahre nach Launch (LRB2?).

Exxtreme
2009-11-03, 16:07:58
Ich bezweifle, daß das Teil konkurrenzfähig ist. Ich denke, Intel wird das Ding per Mainboard-Chipsätze durchdrücken wollen. Da haben sie sehr schnell Marktanteile und paar BWL-Heinis bei den Publishern werden darauf reinfallen.

Coda
2009-11-03, 16:10:54
Ich bezweifle, daß das Teil konkurrenzfähig ist. Ich denke, Intel wird das Ding per Mainboard-Chipsätze durchdrücken wollen.
Wie das denn?

AnarchX
2009-11-03, 16:13:22
Bis LRB als IGP dient, vergeht wohl noch einige Zeit.

Gegen 2012/13 sähe wohl das LRB-Konzept mit ein paar Optimierungen wohl gar nicht so schlecht aus, immerhin plant Nvidia einen ähnlichen Weg im Bezug Programmierbarkeit zu gehen.
Momentan ist der Anteil an Berechnung, die man besser über FF-Einheiten laufen lässt, wohl einfach noch zu hoch.

Exxtreme
2009-11-03, 16:36:20
Wie das denn?
Lässt sich das Ding nicht in einer Sparversion in die Chipsätze einbauen?

Coda
2009-11-03, 16:48:27
Nö. Viel zu groß und heiß. LRB ist so ziemlich die letzte Architektur die man embedded einsetzen will. Da sind ja schon ATIs und NVIDIAs Architekturen eigentlich fehl am Platz.

Wobei ein LRB-GIP wenigstens Speicherbandbreite einsparen könnte, da sie Tiling verwenden.

AnarchX
2009-11-03, 16:56:43
Das Problem eines soweit reduzierten LRBs könnte wohl auch sein, dass er schon allein mit der Emulation der FF-HW beschäftigt wäre, dass für den Rest kaum noch Leistung über bleibt.

Da ist die kommende GMA 5000 Serie mit wohl 785G/~HD3400-Leistung nicht so schlecht und besitzt auch noch Skalierungspotential.
Vielleicht probiert man sich bei GMA 6000 vielleicht auch mal wieder am Zone Rendering, was eine simple Form von TBDR ist: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5176412#post5176412

Leonidas
2009-11-03, 20:14:48
IGP auf dem Mainboard ist doch out. Spätestens ab 2011 wird es nur noch IGP in der CPU geben - und davon kann man dann die Mobo-Hersteller sicherlich kaum noch überzeugen. Wer an die herantritt, hat schon extra Grafikkarten im Sinn.

S940
2009-11-03, 21:06:09
IGP auf dem Mainboard ist doch out. Spätestens ab 2011 wird es nur noch IGP in der CPU geben - und davon kann man dann die Mobo-Hersteller sicherlich kaum noch überzeugen. Wer an die herantritt, hat schon extra Grafikkarten im Sinn.
Jupp so siehts aus.
Angeblich soll Der 22nm Haswell Chip eine Lrb Einheit verpasst bekommen. Aber das sind nur Gerüchte ..

ciao

Alex

Ailuros
2009-11-04, 07:07:20
Nö. Viel zu groß und heiß. LRB ist so ziemlich die letzte Architektur die man embedded einsetzen will. Da sind ja schon ATIs und NVIDIAs Architekturen eigentlich fehl am Platz.

Wobei ein LRB-GIP wenigstens Speicherbandbreite einsparen könnte, da sie Tiling verwenden.

Kein hw support fuer tiling ist IMO kein Problem bei so vielen cores einer GPU. Wenn man aber nach unten in den eingebetteten Bereich skaliert befuerchte ich dass es nicht die beste Idee waere keinen hw rasterizer bzw. tiling support in hw zu haben. Wenn Intel's PR/marketing team natuerlich mit dem auch wieder mit dem Kopf durch die Wand will, kann man ja auch nichts dagegen sagen.

Das Problem eines soweit reduzierten LRBs könnte wohl auch sein, dass er schon allein mit der Emulation der FF-HW beschäftigt wäre, dass für den Rest kaum noch Leistung über bleibt.

Da ist die kommende GMA 5000 Serie mit wohl 785G/~HD3400-Leistung nicht so schlecht und besitzt auch noch Skalierungspotential.
Vielleicht probiert man sich bei GMA 6000 vielleicht auch mal wieder am Zone Rendering, was eine simple Form von TBDR ist: http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5176412#post5176412

GenX tiling hw Implementierung ist fuer die Muelltonne. Ich dachte dummerweise bis jetzt dass das chipset und LRB team ihr eigenes Treiberteam hatte, aber man sagte mir gestern dass es ein gemischter Brei ist. In der Zwischenzeit fuchteln sie wohl auf per Applikation Basis herum aber sie haben ja noch genuegend Zeit bis LRB erstmal fertig ist.

Jupp so siehts aus.
Angeblich soll Der 22nm Haswell Chip eine Lrb Einheit verpasst bekommen. Aber das sind nur Gerüchte ..

ciao

Alex

Tja Intel's PR/marketing haette es wohl liebend gerne; die Frage ist nur ob es ueberhaupt moeglich ist momentan an so etwas zu denken. Wenn sie nach 7 Revisionen es immer noch nicht geschafft haben die Hitze zu kontrollieren wenn alle cores voll ausgelastet werden, hofft man eher zuerst dass man ueber diesen Berg kommt bevor man erstmal an Integration fuer die weitere Zukunft denken kann. Die Wette im eingebetteten Markt ist den kleinstmoeglichen Stromverbrauch zu erreichen und bei weitem nicht das brutale Gegenteil.

Ailuros
2009-11-04, 10:45:30
http://www.tgdaily.com/hardware-features/44524-amd-discovers-several-fusion-mantras-disses-larrabee

Gast
2009-11-04, 11:40:11
*seufz*
wenn ich das hier schon lese: “Every year we’re going to have the best CPU in the industry. It’s our new mantra." - dann brauch ich den artikel garnimmer weiterlesen.
ich bin ja bekennender intel-hasser (wie jeder aufgeklärte, informierte mensch, denn intel ist schlichterdings das monsanto der halbleiterbranche), aber mit solchem bullshit vergrault AMD auch noch seine letzten sympathisanten. wann soll bulldozer erscheinen? wie schnell soll der nochmal sein?
*kopfschüttel*

basti333
2009-11-04, 11:59:03
*seufz*
wenn ich das hier schon lese: “Every year we’re going to have the best CPU in the industry. It’s our new mantra." - dann brauch ich den artikel garnimmer weiterlesen.
ich bin ja bekennender intel-hasser (wie jeder aufgeklärte, informierte mensch, denn intel ist schlichterdings das monsanto der halbleiterbranche), aber mit solchem bullshit vergrault AMD auch noch seine letzten sympathisanten. wann soll bulldozer erscheinen? wie schnell soll der nochmal sein?
*kopfschüttel*

Was soll AMD denn machen? Soll man sich als hohes AMD Tier öffentlich hinstellen und sagen das Intel im moment die Nase vorn hat? Das wäre doch ein Karriere Selbstmord

Gast
2009-11-04, 12:02:56
das ist doch keine entschuldigung dafür, so einen käse abzusondern. dann soll er lieber stillsein. inwiefern ist amd denn damit geholfen? die ein bisschen ahnung haben fnden seine aussage gleich lachhaft, und die es glauben, sind hinterher umso verärgerter. sorry, aber das ist eine _scheiß_ öffentlichkeitsarbeit.

Coda
2009-11-04, 14:05:26
Er redet ja von "new" Mantra, also wohl über die Zukunft.

Ailuros
2009-11-04, 14:13:50
Er redet ja von "new" Mantra, also wohl über die Zukunft.

Ich hab den Link lediglich gepostet in relevanz zu Larabee. Wenn man im Fall von AMD einen 334mm2@40nm chip landet mit theoretischen 2.7 GFLOPs/s kann man solche Aussagen betreffend LRB durchaus machen.

http://www.fudzilla.com/content/view/16271/1/

Natuerlich verneint man so etwas selbst wenn es wahr waere. Es gibt sowieso keinen einzigen Hersteller der sich mit dem Zeug momentan beschaeftigen will und die Chinesen noch um einiges weniger.

Coda
2009-11-04, 14:45:07
Das liest sich irgendwie wie eine rechtlich durchgesetzte Gegendarstellung :|

Gast
2009-11-04, 15:01:17
ach was, ist nur einer der üblichen seitenfüller. irgendwie muss man seine klicks ja generieren :D

Ailuros
2009-11-06, 09:29:16
ach was, ist nur einer der üblichen seitenfüller. irgendwie muss man seine klicks ja generieren :D

So wie das hier?

http://www.intelsinsides.com/page/home.html#

http://images.nvidia.com/blogs/ntersect/feature_image03.jpg


Hahahahaha *grunz* nicht dass NVIDIA gerade die Mutter aller Unschuld ist wenn man sich die ganze Parodie anliest, aber ich musste trotz allem lachen ;)

http://www.brightsideofnews.com/news/2009/11/5/nvidias-intels-insides-site-parodies-intel.aspx

Gast
2009-11-06, 12:20:19
LOL
die karikatur ist n1ce :D
leider ist sie zu 100% wunschdenken. LRB wird intel nichtmal ansatzweise ins schlingern bringen, selbst wenn das projekt noch 20 jahre läuft und dann ergebnislos eingestampft wird.

StefanV
2009-11-06, 12:48:32
Das nicht aber das laufende Verfahren im Staate New York vielleicht + Schadenersatz Zahlungen an AMD.

mapel110
2009-11-08, 14:48:06
http://www.hardware-infos.com/news.php?news=3291
Intel Larrabee wird Anfang 2010 angekündigt

Die Seite xtreview gibt an, im Interview mit Intel in Erfahrung gebracht zu haben, dass Larrabee noch Anfang 2010 offiziell angekündigt werden soll.

Geht ein bisschen schnell auf einmal.

Zauberer
2009-11-10, 10:49:23
http://www.hardware-infos.com/news.php?news=3291
Intel Larrabee wird Anfang 2010 angekündigt

Die Seite xtreview gibt an, im Interview mit Intel in Erfahrung gebracht zu haben, dass Larrabee noch Anfang 2010 offiziell angekündigt werden soll.

Geht ein bisschen schnell auf einmal.
Lol, jetzt muss ich aber lachen, wenn der Intel Larrabee eher als der NVidia Fermi im Handel erscheint. ;D

Man sollte bedenken das bei Intel zwischen Ankündigung und Verfügbarkeit oft nur wenige Wochen vergehen.
Jedenfalls war dies bei den CPUs immer so, warum sollte man die erfolgreiche Taktik bei den Grafikchips ändern?

NVidia muss wirklich aufpassen, sonst gibt es in einem Jahr nur noch Intel und AMD im CPU/GPU Markt. :(

StefanV
2009-11-10, 12:42:03
Naja, man könnt ja die globale Cache Kohärenz deaktivieren, dann sollte die Performance bzw Auslastung der Einheiten auch besser werden.
NVidia muss wirklich aufpassen, sonst gibt es in einem Jahr nur noch Intel und AMD im CPU/GPU Markt. :(
nVidia wird solangsam etwas zu arrogant/überheblich, Hochmut kommt vor dem Fall.

Vorallen wenn man die Probleme mit den GPUs betrachtet, womit man es sich etwas arg mit den OEMs verscherzt hat, die hier wohl lieber AMD nehmen...

Ailuros
2009-11-10, 15:03:13
Lol, jetzt muss ich aber lachen, wenn der Intel Larrabee eher als der NVidia Fermi im Handel erscheint. ;D

Die Fermi Architektur Aspekte wurden Ende September angekuendigt.

Man sollte bedenken das bei Intel zwischen Ankündigung und Verfügbarkeit oft nur wenige Wochen vergehen.
Jedenfalls war dies bei den CPUs immer so, warum sollte man die erfolgreiche Taktik bei den Grafikchips ändern?

Vielleicht weil GPUs und CPUs nicht besonders viel gemeinsam haben und weil die ersten tape out Daten des LRB keine besondere Hoffnung fuer einen hardlaunch fuer Anfang 2010 lassen?

Es handelt sich lediglich um einen Papierfetzen und keinen vollen Launch, eben genauso wie das bloede Fermi whitepaper.

NVidia muss wirklich aufpassen, sonst gibt es in einem Jahr nur noch Intel und AMD im CPU/GPU Markt. :(

Mit etwas Glueck hat Intel im zweiten Halbjahr ihren langerwuenschten Launch der sich uebrigens schon seit fast 2 Jahren verspaetet. Da ich wohl keine unendliche Schlangen vor den Laeden bei der Veroeffentlichung von LRB sehen kann, behalt ich meine Energie um dann erst darueber lachen zu koennen.

Coda
2009-11-10, 16:08:44
Naja, man könnt ja die globale Cache Kohärenz deaktivieren, dann sollte die Performance bzw Auslastung der Einheiten auch besser werden.
Bitte was?

StefanV
2009-11-10, 17:13:51
Bitte was?
Gipsel (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=7544456&postcount=1501) meinte doch, das der Larrabee die Kohärenz global garantieren würde, wenn man dieses Feature 'heimlich entsorgen' würde, müsste das doch einige Probleme beim LRB beseitigen, oder?

Coda
2009-11-10, 17:22:23
Man programmiert einfach so, dass man nicht auf gemeinsame Daten zugreift. Deshalb macht man ja auch Tile-Based-Rendering. Cache-Kohärenz kann nie ein Nachteil sein.

LRBs Software-Pipeline ist wirklich hochoptimiert, aber sie ist eben immer noch Software. Außerdem schleppt das Ding eben x86 mit sich. Ich denke dass in die wirklichen Probleme.

Gast
2009-11-10, 22:19:02
Man programmiert einfach so, dass man nicht auf gemeinsame Daten zugreift. Deshalb macht man ja auch Tile-Based-Rendering. Cache-Kohärenz kann nie ein Nachteil sein.

LRBs Software-Pipeline ist wirklich hochoptimiert, aber sie ist eben immer noch Software. Außerdem schleppt das Ding eben x86 mit sich. Ich denke dass in die wirklichen Probleme.

Es kann schon vorkommen, dass der Cache Algorithmus fuer bestimmte Anwendungen ungeeignet ist. Und manchmal kann, darf oder will man einfach seinen Programmcode nicht wegen dem Cache aendern. Bei Cell nimmt man da manchmal auch einen eigenen Algorithmus fuer. Allerdings ist Cell mit seinen 6 - 8 SPEs auch noch gut ueberschaubar, bei groesseren Sachen wird es schnell unuebersichtlich und Fehleranfaellig. Allerdings bin ich bei Cell inzwischen auch sehr pragmatisch geworden und lass die ganze Overlay und Cache Geschichte automatisch machen. Da wird man ja sonst dumm bei, wenn man das jedesmal aufs neue programiert. Nur in absoluten Notfaellen schlag ich mich mit den DMA Dingen rum.

Ailuros
2009-11-11, 07:06:58
Das Treiberteam optimiert wenn ich es nicht falsch verstanden habe auf einer pro Applikation Basis.

Man programmiert einfach so, dass man nicht auf gemeinsame Daten zugreift. Deshalb macht man ja auch Tile-Based-Rendering. Cache-Kohärenz kann nie ein Nachteil sein.

In der Mehrzahl der Faelle duerfte cache coherence ein Vorteil sein; corner cases kann man kinderleicht bei einem so flexiblen Treiber ueberwinden IMO. Ich weiss zwar nicht wie LRB Daten ueber die cores genau verteilt, aber es wuerde mich nicht wundern wenn ein scheduler Daten anfangs auf die jeweiligen nicht beschaeftigten cores verteilt und dann noch ein pipeline scheduling innerhalb jeglichem core vorkommt. Falls es so aehnlich ist, macht cache coherence fuer mich auch absolut Sinn.

Coda
2009-11-11, 07:34:36
Es kann schon vorkommen, dass der Cache Algorithmus fuer bestimmte Anwendungen ungeeignet ist.
Reiner 3D-Code schreibt und liest aus Prinzip nicht auf den gleichen Speicher und Caches gab es bisher auch in jeder GPU. Deshalb kann das was LRB macht in diesem Fall einfach nicht schlecht sein.

Es gibt überhaupt keinen Snoop-Traffic :)

Gast
2009-11-11, 08:01:03
Reiner 3D-Code schreibt und liest aus Prinzip nicht auf den gleichen Speicher und Caches gab es bisher auch in jeder GPU. Deshalb kann das was LRB macht in diesem Fall einfach nicht schlecht sein.

Es gibt überhaupt keinen Snoop-Traffic :)

Aber auch nur, weil es bisher nicht anders ging. Jetzt wo man flexibler wird, bekommt man auch neue Probleme.

Coda
2009-11-11, 08:09:10
Die hat man dann aber nicht nur auf LRB. Es ging ja darum dass LRB aus dem Grund nicht mit traditionellen GPUs mithalten könnte.

Allein schon, weil Intel von praktisch linearer Skalierung der 3D-Leistung spricht mit der Anzahl der Cores kann das nicht zutreffen. Und das Statement glaub ich ihnen.

AnarchX
2009-11-17, 23:44:46
LRB @ 1 TFLOPs SP mit OCing (http://www.heise.de/newsticker/meldung/SC09-Intel-demonstriert-Larrabee-mit-ueber-1-Teraflops-862305.html)

Im Normalbetrieb kam der Larrebee-Prototyp auch nur auf eine Dauerleistung von 417 Gigaflops und er erreichte in der Spitze 712 Gigaflops.
Die GPU- Konkurrenz wartet zwar zum Teil mit weit höheren theoretischen Werten auf, doch die wirkliche messbare SGEMM-Rate ihrer GPUs liegt oft weit darunter, bei Nvidia Tesla C1060 etwa bei etwa 320 GFlops.

Coda
2009-11-18, 00:37:34
1 TFLOPS mit OC ist ein ziemlich wenig wenn man bedenkt, dass er damit auch noch rastern muss...

Matrix Multiplikation mag LRB ja gut schmecken, aber was nützt das in Spielen?

Gast
2009-11-18, 03:03:17
Ist doch super - dann können wir in Zukunft neben 3DMark und Furmark auch noch Matrixmultiplikation zocken :D

AnarchX
2009-11-18, 08:12:36
On the SGEMM single precision, dense matrix multiply test, Rattner showed Larrabee running at a peak of 417 gigaflops with half of its 80 cores activated; and with all of the cores turned on, it was able to hit 805 gigaflops. As the keynote was winding down, Rattner told the techies to overclock it, and was able to push a single Larrabee chip up to just over 1 teraflops, which is the design goal for the initial Larrabee co-processors.
http://www.theregister.co.uk/2009/11/17/sc09_rattner_keynote/page2.html

Gast
2009-11-18, 08:44:36
http://www.theregister.co.uk/2009/11/17/sc09_rattner_keynote/page2.html


80 Cores?

~650MHz??

Wohl eher mehr, da die Effizienz bei diesem Benchmark bestimmt nicht bei ca. 100% liegt.

Demirug
2009-11-18, 12:23:31
80 Cores?

~650MHz??

Wohl eher mehr, da die Effizienz bei diesem Benchmark bestimmt nicht bei ca. 100% liegt.


Der Chip war übertaket. Regulär sind es ~400 Gflops und unter idealen Bedingungen ~700 Gflops.

AnarchX
2009-11-18, 12:25:16
Laut der letzen Meldung:
40 Cores ~ 400 GFLOPs
80 Cores ~ 800 GFLOPs
80C+OC ~1000 GFLOPs (also wohl 25-30% OCing)

BlackBirdSR
2009-11-18, 12:27:20
SP? Dann wirds in dp aber knapp gegenüber ATI und Nvidia.
Peak oder sustained?
unter 200W oder drüber?

AnarchX
2009-11-18, 12:31:21
Dürfte wohl der Peak SP sein, wenn man sich das Bild bei heise anschaut:
http://www.heise.de/newsticker/meldung/SC09-Intel-demonstriert-Larrabee-mit-ueber-1-Teraflops-862305.html

Aber 80 Cores klingen doch etwas viel, wenn man sich den letzen Die-Shot samt Wafershot mit dem 32 Core LRB anschaut. Selbst mit 32nm wäre das noch eine Die-Size jenseits von gut und böse. :D

deekey777
2009-11-18, 12:35:30
Da werden Erinneringen wach:
http://www.fudzilla.com/index.php?option=com_content&task=view&id=10089&Itemid=65
80 core version comes later

It looks like the first version of Larrabee is supposed to be a graphics chip with 48 cores, and not with 80 cores as most originally expected. Obviously, there might be some limitations due to the manufacturing process and the TDP.

Verstehe ich das richtig, dass die reale Leistung gezeigt wurde? 80 Cores bedeuten theoretisch, dass pro Takt 80*16*2 FLOP = 2560 FLOP kommen. Bei einem GHz haben wir 2560 GFLOPS, oder?
Irgendwann vor dem Start der HD2900XT hat ATi auch gezeigt, wie 2 leicht übertaktete HD2900XT die 1 TFLOPS-Grenze real knacken.

Ailuros
2009-11-18, 12:36:03
Es wird vorruebergehend auch wohl keine >32 core Variante geben.

BlackBirdSR
2009-11-18, 12:39:01
also unter 300 GFlops dp?
Wie soll man das verkaufen gegenüber einer ATI oder Nvidia-Karte der aktuellen Generation?
Aber das scheint ja schon immer das Problem gewesen zu sein *g*

deekey777
2009-11-18, 12:49:08
also unter 300 GFlops dp?
Wie soll man das verkaufen gegenüber einer ATI oder Nvidia-Karte der aktuellen Generation?
Aber das scheint ja schon immer das Problem gewesen zu sein *g*
Indem man den Larrabbe Uno erst gar nicht als Grafikkarte auf den Markt bringt, sondern als Beschleuniger ala PowerXCell 8i, am Besten noch über QPI angebunden.

Ailuros
2009-11-18, 14:12:20
also unter 300 GFlops dp?
Wie soll man das verkaufen gegenüber einer ATI oder Nvidia-Karte der aktuellen Generation?
Aber das scheint ja schon immer das Problem gewesen zu sein *g*

Ich hab zich Male links und rechts nachgefragt ob der ~600mm2@45nm die 32 core Variante sei und jedesmal war die Antwort positiv. Ein Teil von mir kann es immer noch nicht so recht glauben, weil es ziemlich absurd klingt.

So oder so bezweifle ich erstmal dass Intel selbst der Vorstellung jegliche aktive cores voll auslaesten laesst. Es muss irgendwo eine absichtliche sw Bremse geben, sonst besteht die Gefahr dass das mainboard abknallt.

Um fair zu sein SGEMM scheint ziemlich radikal zu sein wenn eine Tesla GPU nur 300+GFLOPs SP landen kann.

Gipsel
2009-11-18, 15:17:25
Um fair zu sein SGEMM scheint ziemlich radikal zu sein wenn eine Tesla GPU nur 300+GFLOPs SP landen kann.
Das ist ziemlich abhängig von der Versorgung der Recheneinheiten mit Daten. Bei CPUs benutzt man ja das allseits bekannte Cache-Blocking, bei GPUs ist das unter Umständen ein wenig tricky, die Caches und das Speicherinterface gut auszunutzen.

Auf Nvidias wird meist shared memory für das Blocking genutzt. Bei ATIs führt das allerdings nicht zu einer erhöhten Performance im Vergleich zu der ganz einfachen Version (Sample im Stream-SDK). Die schnellste SP-Matrixmultiplikation für ATIs von prunedtree erreicht den Durchsatz (fast theoretische Peakleistung, ~880 GFlop/s schon auf einer HD4850 wenn ich das richtig im Kopf habe edit: gerade nachgesehen, sind 980 GFlop/s auf einer HD4870@stock, mit 770 MHz >1TFlop/s) einfach nur durch optimierte Texturfetches und das Halten recht vieler Werte in den Registern (sozusagen Register-Blocking statt Cache-Blocking, Register bieten ja auch mehr Platz und sind schneller als shared memory).

Ailuros
2009-11-18, 17:56:56
Gipsel,

Ihr eigentliches Problem ist dass Mitte November 2009 sie nichts anderes lauffaehiges vorzuzeigen haben als den uralten Terascale Schrott.

Coda
2009-11-18, 18:00:56
Ich dachte bisher dass MIMD beim ersten eher eine Rolle mitspielt.
Ich halte es für unwahrscheinlich, dass SGX MIMD-Einheiten hat. Das ist in GPUs generell eine schlechte Idee.

duerfte LRB theoretisch dann nicht auch davon profitieren wenn Du recht haben solltest?
Nö, das ist ja ein Tile Based IMR, kein TBDR.

LRB hat eine Granularität von 4x4 Pixeln. NVIDIA 8x4 Pixel (G80). Bei ATI weiß ich die genaue Form nicht.

Coda
2009-11-18, 18:05:11
Es gibt doch lauffähige LRB-Prototypen, oder nicht? Mehr war Terrascale ja auch nicht.

Ailuros
2009-11-18, 18:10:20
Es gibt doch lauffähige LRB-Prototypen, oder nicht? Mehr war Terrascale ja auch nicht.

Und warum benutzt man heute immer noch Terrascale? Ausser dem zum einschlafen langweiligem raytracing demo dass angeblich auf LRB lief, gab es noch weitere solche Faelle?

Coda
2009-11-18, 18:10:53
Ich dachte sie hätten schon letztens Mal das Quake-Wars-Raytracing auf LRB gezeigt, oder irre ich mich da?

Ailuros
2009-11-18, 18:19:59
Ich dachte sie hätten schon letztens Mal das Quake-Wars-Raytracing auf LRB gezeigt, oder irre ich mich da?

Stimmt. Und ich weiss wie bekloppt es klingt, aber wie sicher sind wir uns dass es tatsaechlich LRB war?

Gipsel
2009-11-18, 18:27:06
LRB hat eine Granularität von 4x4 Pixeln. NVIDIA 8x4 Pixel (G80). Bei ATI weiß ich die genaue Form nicht.
Na 8x8, zumindest bei den Exemplaren mit 64er Wavefronts, ansonsten auch 8x4. Allerdings ist man ja nicht sklavisch auf diese Tiles festgelegt, da die Hardware das doch mit nur wenig Mehraufwand auch umsortieren kann.

Ailuros
2009-11-18, 18:33:52
Na 8x8, zumindest bei den Exemplaren mit 64er Wavefronts, ansonsten auch 8x4. Allerdings ist man ja nicht sklavisch auf diese Tiles festgelegt, da die Hardware das doch mit nur wenig Mehraufwand auch umsortieren kann.

Wuerden dynamische Tile-Groessen fuer load balancing auf so vielen cores nicht mehr Sinn machen?

Coda
2009-11-18, 18:37:00
Na 8x8, zumindest bei den Exemplaren mit 64er Wavefronts, ansonsten auch 8x4.
LRB ist 4x4, die Vektoreinheiten sind schließlich 16 wide.

Aquaschaf
2009-11-18, 18:41:50
Wuerden dynamische Tile-Groessen fuer load balancing auf so vielen cores nicht mehr Sinn machen?

Wieso sollte load balancing dadurch einfacher werden?

Gipsel
2009-11-18, 18:45:55
LRB ist 4x4, die Vektoreinheiten sind schließlich 16 wide.Schon klar, meine Antwort betraf Deine unausgesprochene Frage nach ATI ;)

Coda
2009-11-18, 18:47:29
Ja, ich hatte da was falsch interpretiert X-D

Ailuros
2009-11-18, 18:49:18
Wieso sollte load balancing dadurch einfacher werden?

Nicht einfacher sondern womoeglich effizienter wenn es im Fall von LRB erstmal Sinn macht. Natuerlich hab ich eher macro als micro tiling in dem Fall im Hinterkopf. Je weniger beschaeftigt ein core sein sollte beim rendering, desto mehr Daten koennte man ihm zuschicken.

Gipsel
2009-11-18, 19:41:59
Da Ailuros das ja einen Teil hierher verschoben hat, poste ich das nochmal.
Ach jetzt versteh ich was du gemeint hast :)

8x8 kann sein, ich weiß aber nicht ob die nicht evtl. umsortieren.
8x8 ist das native Layout. Angeblich (habe ich mal in irgendeiner Doku gelesen) können allerdings abweichende Layouts mit einem geringen Overhead (keine Ahnung wieviel) mit einer 2x2=Quad Granularität zu 64er Gruppen zusammengefaßt werden.

Edit: Die ATI-Doku sagt:
Rasterization follows a pre-set zig-zag-like pattern across the domain of execution. The exact pattern normally is not disclosed because it might change in subsequent processor generations. The pattern is based on multiples of 8x8 blocks (16 quads) within the domain, matching the size of a wavefront. For example [..] This continues until all 8x8 blocks in the domain are mapped to SIMD engines.

ATI hardware is designed to maximize the number of active fragments in a wavefront. So, if there are partial 8x8 blocks, the processor tries to fill the rest of the wavefront from other blocks, but within the quad limitation. For example, if the domain is of height 2, the wavefront is constructed using blocks of height 2 and width 32. Thus, having domains that are multiple of 8x8 is not necessary, but might be more efficient.
Wobei die höhere Effizienz wohl hauptsächlich von cachfreundlicheren Zugriffsmuster herrühren, da die Datenlayouts im Speicher eben auf 8x8 Tiles optimiert sind.

Coda
2009-11-18, 20:26:09
Ich glaube NVIDIA-GPUs können das nicht. Das würde auch erklären warum ATI manchmal trotzdem besser Branching-Performance im 3D-Betrieb hat. Aber reine Spekulation.

Ailuros
2009-11-19, 08:01:39
Ich hatte gestern eine schnelle Diskussion mit einem der LRB Kerle. Ich sage es mal hoeflich dass es ihm lieber gewesen waere wenn Rattner ueberhaupt nichts erwaehnt haette. Er bezweifelte erstmal dass es sich um den Terrascale chip handelte und der Author des Artikels weiss wohl auch nicht wo's lang geht.

Ueber die Resultate wollte er sich nicht aeussern obwohl ich sagte dass sie ziemlich unterdurchschnittlich klingen und auch nichts ueber den moeglichen config. Ich kann mir unter etwas mit totalen 80 cores nur [5*16] vorstellen, aber es klingt auch nicht nach einer anstaendigen These.

Ein weiteres Fragezeichen waere:

Here's the next problem. Sparse matrix math is what is commonly needed in simulations involving cloth and water. And on that test, a Larrabee chip that was not overclocked was able to do between 7.9 and 8.1 gigaflops, depending on the test and the size of the matrices.

Ich muss irgend etwas verpassen denn egal ob ich 805/80 oder 417/40 rechne, kommt bei mir etwas knapp ueber 10GFLOPs/core raus.

Gipsel,

Hilf mir auf die Beine: was genau ist mit wavefront gemeint in ATI's Fall?

Aquaschaf
2009-11-19, 09:16:18
Genau das was Nvidia als 'warp' bezeichnet. Eine Gruppe von Threads die gemeinsam ausgeführt wird.

Ailuros
2009-11-19, 10:59:37
Genau das was Nvidia als 'warp' bezeichnet. Eine Gruppe von Threads die gemeinsam ausgeführt wird.

argghhhh :rolleyes: wavefronts, warps, fibers, threads....Teufel noch mal koennen sich IHVs nicht auf einer Bezeichnung einig werden?

Auf jeden Fall danke fuer die Aufklaerung.

deekey777
2009-11-19, 11:04:52
Genau das was Nvidia als 'warp' bezeichnet. Eine Gruppe von Threads die gemeinsam ausgeführt wird.
Wobei anzumerken ist, dass die Größe der Wavefront von der Anzahl der VLIW-Einheiten eines SIMDs abhängt: RV770/740/RV670/R600 bzw. Cypress/Juniper ist sie 64 Threads groß, beim RV730 dagegen 32 usw.
(Ich glaub, bei dieser Generation wird sie immer 64 sein)

argghhhh :rolleyes: wavefronts, warps, fibers, threads....Teufel noch mal koennen sich IHVs nicht auf einer Bezeichnung einig werden?

Auf jeden Fall danke fuer die Aufklaerung.
http://www.abload.de/img/wavefrontktho.png

Gipsel
2009-11-19, 12:12:45
AMD doesn't have a fancy name like "WARP"
Na vielleicht nicht soo fancy, aber Wavefront klingt doch auch recht nett. Ich als Physiker kann dem Namen sogar was abgewinnen :D

Ailuros
2009-11-19, 12:35:01
Ok jetzt fehlt nur noch ein IHV der es "tide" nennt :P

deekey777
2009-11-19, 12:41:52
Übrigens:
http://www.abload.de/img/gt200zo72.png
http://www.abload.de/img/rv7704pt4.png
Und jetzt Larrabee:
http://www.abload.de/img/larrabeecq0r.png

Gipsel
2009-11-19, 14:05:08
Übrigens:
http://www.abload.de/img/gt200zo72.png
http://www.abload.de/img/rv7704pt4.png
Und jetzt Larrabee:
http://www.abload.de/img/larrabeecq0r.png
Zu Larrabee:
Bei ihrem "That was the generic speak" haben sie aber wohlweislich den ganzen Kladderadatsch mit den Strands und Fibers weggelassen, den Intel da benutzt ;).
Thread ist bei Intel ein Hardware-Thread (und nicht ein work item im "OpenCL-Slang" wie bei AMD und nv, das heißt bei Intel jetzt strand), der aus mehreren (in Software verwalteten) Fibers (aus vielen strands) besteht. Mehrere Hardware-Threads bilden dann eine sogenannte strand group. Natürlich alles "generic speak" :rolleyes:

http://images.anandtech.com/reviews/video/intel/larrabee/uArchIntro/larrabeethreads.png

Spasstiger
2009-11-20, 15:55:27
Intel hat auf der SC09 Benchmarks präsentiert:
http://www.heise.de/newsticker/meldung/SC09-Intel-demonstriert-Larrabee-mit-ueber-1-Teraflops-862305.html

Bei einem SGEMM-Algorithmus wurde übertaktet ein Spitzenwert von 1006 GFlops erreicht, ohne Übertaktung 712 GFlops. Zum Vergleich, eine GTX 280 erreicht bei demselben Algorithmus ca. 375 GFlops, eine HD 4870 ca. 540 GFlops (Quelle (http://forum.beyond3d.com/showthread.php?t=54842)). Eine HD 5870 müsste entsprechend bei ca. 1200 GFlops liegen.

Coda
2009-11-20, 16:33:56
Die Meldung ist uralt, und der gemessene Wert nicht sonderlich relevant ;)

Da geht's um die Multiplikation von riesigen Matrizen. Das machen Spiele dann doch eher sehr selten.

Spasstiger
2009-11-20, 17:05:35
Anscheinend ist die dabei erzielte Rechenleistung aber ein guter Anhaltspunkt für den Real-World-MADD-Durchsatz (was man von der theoretischen Peak-Rechenleistung eben nicht behaupten kann).

S940
2009-11-20, 17:13:38
Intel hat auf der SC09 Benchmarks präsentiert:
http://www.heise.de/newsticker/meldung/SC09-Intel-demonstriert-Larrabee-mit-ueber-1-Teraflops-862305.html

Bei einem SGEMM-Algorithmus wurde übertaktet ein Spitzenwert von 1006 GFlops erreicht, ohne Übertaktung 712 GFlops. Zum Vergleich, eine GTX 280 erreicht bei demselben Algorithmus ca. 375 GFlops, eine HD 4870 ca. 540 GFlops (Quelle (http://forum.beyond3d.com/showthread.php?t=54842)). Eine HD 5870 müsste entsprechend bei ca. 1200 GFlops liegen.Les mal die heutige und gestrige 3DC News ;-)

][immy
2009-11-22, 16:06:54
also, wenn das in den news stimmt mit den 80cores, wie viel watt schluckt der larrabee dann?
ich sehe es schon kommen, das es dann ein ähnliches konzept wie damals bei den ersten Voodoo 5 6000 samples gibt, wo man ein externes netzteil an die grafikkarte anschließt.

bei 32-cores wäre die leistung ja schon enorm gewesen, aber wenn es jetzt gar wieder 80 sind .... das wäre doch ein wenig heftig da muss die grafikkarte ja schon fast an ihre eigene 16A-Sicherung. und wenn sie dann nicht mal mit der 5870 konkurieren können (wenn es überhaupt bei 2010 bleibt) dann weiß ich absolut nicht, warum intel dieses projekt nicht langsam einstampft.

Coda
2009-11-22, 16:37:16
Anscheinend ist die dabei erzielte Rechenleistung aber ein guter Anhaltspunkt für den Real-World-MADD-Durchsatz
Eher nicht. Das ist nur ein Fall in dem LRB besonders gut abschneidet.

Ailuros
2009-11-23, 08:16:06
[immy;7676071']also, wenn das in den news stimmt mit den 80cores, wie viel watt schluckt der larrabee dann?
ich sehe es schon kommen, das es dann ein ähnliches konzept wie damals bei den ersten Voodoo 5 6000 samples gibt, wo man ein externes netzteil an die grafikkarte anschließt.

Es war kein 80-core config so wie es aussieht, der Author hat sich die Zahl wohl eher aus seinem Hintern gezogen als er sich die Vorstellung von Rattner anhoerte. Rattner soll nach Intel's Angestellten erstmal nie irgendwo 80 oder 40 erwaehnt haben.

Das SGEMM Zeug war von einem LRB config aber mit unbekannter core-Anzahl. LRB skaliert in seiner heutigen Form mit 16-core Schritten theoretisch (ergo 16, 32, 48 usw.)

bei 32-cores wäre die leistung ja schon enorm gewesen, aber wenn es jetzt gar wieder 80 sind .... das wäre doch ein wenig heftig da muss die grafikkarte ja schon fast an ihre eigene 16A-Sicherung. und wenn sie dann nicht mal mit der 5870 konkurieren können (wenn es überhaupt bei 2010 bleibt) dann weiß ich absolut nicht, warum intel dieses projekt nicht langsam einstampft.

Ich kann nicht wissen wie viel cores benutzt wurden (ausser jemand kann die Praesentation im Netz finden).

Justin Rattner, Intel CTO, delivered a keynote at the Supercomputing 2009 conference on November 17, 2009. During his talk he demonstrated an overclocked Larrabee processor topping one TeraFLOP in performance. He claimed this was the first public demonstration of a single chip solution exceeding one TeraFLOP. He pointed out this was early silicon thereby leaving open the question on eventual performance for Larrabee.

http://en.wikipedia.org/wiki/Larrabee_%28GPU%29

Koennte durchaus eine 32-core Variante sein die uebertaktet wurde um die early silicon Nachteile etwas zu ueberbruecken.

http://bt.pa.msu.edu/TM/BocaRaton2006/talks/davis.pdf

Seite 12 ist das 80-core Polaris Ding abgebildet aber es war auch nur eine eher arithmetische Test-unit ohne TMUs und jeglichen anderen Schnickschnack die es eine GPU machen wuerde.

misterh
2009-11-27, 11:28:41
http://www.hardware-infos.com/news.php?news=3319

Aquaschaf
2009-11-27, 12:38:17
http://www.hardware-infos.com/news.php?news=3319

Mal wieder falsch: x86 spielt für HPC keine Rolle, es vereinfacht nichts. Aber Larrabee kann natürlich trotzdem interessant sein.

Gast
2009-11-27, 13:58:55
Kann man mit so ner Seite wie hardware-infos echt Geld verdienen? Mit Artikeln die zu 80% aus Abgeschriebenem bestehen und zu 20% aus schlecht Spekuliertem / dazu Erfundenem? Wow ...

Gast
2009-11-27, 14:53:42
Kann man mit so ner Seite wie hardware-infos echt Geld verdienen? Mit Artikeln die zu 80% aus Abgeschriebenem bestehen und zu 20% aus schlecht Spekuliertem / dazu Erfundenem? Wow ...

frag doch KonKort, er ist doch hier im Forum unterwegs..

Gast
2009-11-28, 20:31:25
Übrigens:
http://www.abload.de/img/gt200zo72.png

war das nicht mal vec16 ? oder was meint das blatt mit SIMD8 ?

...was den von nVidia propagandierten "128 Stream-Prozessoren" entspricht (eine Vec16-ALUs ist ein Rechenwerk, welche dieselbe Operation gleichzeitig für 16 Werte ausführen kann; acht solcher Einheiten x 16 = 128)...

LovesuckZ
2009-11-28, 21:24:37
war das nicht mal vec16 ? oder was meint das blatt mit SIMD8 ?

3xVec8 ALU. Ist also pro Cluster nicht eine Recheneinheit sondern drei.

Gast
2009-11-28, 22:56:57
3xVec8 ALU. Ist also pro Cluster nicht eine Recheneinheit sondern drei.
was genau meinst du jetzt wieder mit cluster?

g80 hatte 128 stream prozessoren, 8 kerne mit je SIMD16

ich sehe auf dem bild
240 stream prozessoren
bild zeigt 30kerne je SIMD8 (wurde das bei G92 anders gemacht)

du sagst jetzt 3cluster je SIMD8? typo?

help.

Aquaschaf
2009-11-28, 22:58:17
g80 hatte 128 stream prozessoren, 8 kerne mit je SIMD16

16 Kerne mit 8 SIMD ;)

DR.ZEISSLER
2009-11-28, 23:36:59
gibt es denn irgendwo sehenswertes realtime-material ?

Gast
2009-11-29, 01:30:24
gibt es denn irgendwo sehenswertes realtime-material ?
... in jeder besseren Rotlicht-Bar :D
*SCNR*

Coda
2009-11-29, 03:03:55
was genau meinst du jetzt wieder mit cluster?

g80 hatte 128 stream prozessoren, 8 kerne mit je SIMD16

ich sehe auf dem bild
240 stream prozessoren
bild zeigt 30kerne je SIMD8 (wurde das bei G92 anders gemacht)

du sagst jetzt 3cluster je SIMD8? typo?

help.
GT200 hat 3xVec8 pro Cluster, G80 2*Vec8. Pro Cluster gibt es auch 8 TMUs. Das alte Zitat von 3DCenter ist schlicht falsch. Es laufen jeweils 32 Threads (ein Warp) in 4 Takten durch jede Pipeline-Stage einer Vec8-ALU.

Für die Betrachtung in der Folie sind aber die einzelnen Recheneinheiten relevant, und die sind Vec8.

misterh
2009-12-01, 18:10:44
http://www.youtube.com/watch?v=ynjYuS1J3jI

AnarchX
2009-12-01, 18:15:56
Die LRB-Karte die er kurz zeigt, sieht jedenfalls schonmal kleiner aus, als die 3-Slot-Karte von der IDF:
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=7552659#post7552659

Coda
2009-12-01, 18:33:30
Mit Dreislot könnten sie sich auch nicht auf den Markt trauen ;)

reunion
2009-12-01, 18:41:00
Hm, damit sind sie wohl nicht weit hinter NV was den Erscheinungstermin betrifft.

RLZ
2009-12-01, 21:38:03
http://visualcomputingresearch.com/

Ich vermute ja nicht, dass es dort etwas sensationell neues zu Larrabee gibt, aber für jemanden der dort in der Nähe wohnt könnte es trotzdem interessant sein.

Ailuros
2009-12-02, 16:33:30
Hm, damit sind sie wohl nicht weit hinter NV was den Erscheinungstermin betrifft.

LRB ist mainstream Material was 3D betrifft.

deekey777
2009-12-04, 13:05:29
http://www.brightsideofnews.com/news/2009/12/2/intel-larrabee-finally-hits-1tflops---27x-faster-than-nvidia-gt200!.aspx

:facepalm:

As we disclosed on numerous occasions, AMD introduced the 1Fat+4Thin concept with the ATI Radeon 2900XT, pulling in a Core cluster consists out of one unit for transcendental operations and four units for Multiply-Add/Add/Integer-Add/Dot operations.
Was erzählt er da?

Und überhaupt: Was erzählt er da?
Auf meiner HDD ist eine Demo, die kriegt etwa 800 GFLOPS aus meiner HD4850 (700 MHz) raus, es gibt auch Anwendungen, wo man durch Optimierungen über ein TFLOPS schafft.

Sorkalm
2009-12-04, 14:27:24
Hmm, ich meine mal gelesen zu haben, dass diese "fette" Unit auch transzedenten Funktionen ausführen kann, neben den normalen MADD-Operationen...

deekey777
2009-12-04, 15:16:16
Hmm, ich meine mal gelesen zu haben, dass diese "fette" Unit auch transzedenten Funktionen ausführen kann, neben den normalen MADD-Operationen...
So klingt das auch besser.

Coda
2009-12-04, 15:27:15
Reiner FUD was da abgesondert wird. Echt erbärmlich.

LovesuckZ
2009-12-04, 23:46:49
Intel said Friday that its Larrabee graphics processor is delayed and that the chip will initially appear as a software development platform only.
...
"Larrabee silicon and software development are behind where we hoped to be at this point in the project," Intel spokesperson Nick Knupffer said Friday. "As a result, our first Larrabee product will not be launched as a standalone discrete graphics product," he said.
Intel: Larrabee graphics chip delayed (http://news.cnet.com/8301-13924_3-10409715-64.html)

LovesuckZ
2009-12-04, 23:47:04
/edit: Bitte löschen.

S940
2009-12-05, 09:21:15
Intel: Larrabee graphics chip delayed (http://news.cnet.com/8301-13924_3-10409715-64.html)

Anandtech hat die Meldung jetzt auch.

Die haben aber dort sogar ein Die Foto:

http://www.anandtech.com/weblog/showpost.aspx?i=659

Muss man sich anschauen, seeehr interessant :freak:

reunion
2009-12-05, 09:26:43
LOL, das Ding wurde jetzt gecancelt? :ugly:
Naja, Hauptsache das Projekt lebt weiter. Vielleicht hört man ja in zehn Jahren noch mal was davon. Jeder andere Hersteller wäre nach einem solchen Fiasko wohl kurz vor der Pleite, bei Intel ist das schlicht belanglos wenn hier Millionen, wenn nicht Milliarden von Dollars und Manpower man eben verpulvert werden und man am Ende mit nichts dasteht.

X.Perry_Mental
2009-12-05, 09:29:25
Die haben aber dort sogar ein Die Foto:

http://www.anandtech.com/weblog/showpost.aspx?i=659

Muss man sich anschauen, seeehr interessant :freak:
Immerhin ist es ein Intel-x86-Chip, auch wen es mit 4 Cores und HT kein reines "Many-Core-Design" ist. Dafür kann man ihn kaufen...

tombman
2009-12-05, 10:58:39
Larrabee 1 ist TOT:

http://www.brightsideofnews.com/news/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx

http://www.brightsideofnews.com/ThumbL.aspx?file=/Data/2009_12_4/Intel-cans-consumer-Larrabee-compatibility-performance-and-nVidia-related-issues\INTC_Larrabee_FAIL_215.jpg

reunion
2009-12-05, 11:02:32
However, the problems with Larrabee were all too great. As we wrote in our detailed analysis, Intel sank over three billion dollars [estimate, grand number will probably never be known] into the project, and according to our highly-positioned sources - it needed another billion to billion and a half to make it work. But even the sudden departure of an executive that led the project would not solve the quintessential problem - AMD and nVidia not just created GPUs that support the IEEE 754-2008 specification but are also unbelievably fast.

Ohne Worte.

Avalox
2009-12-05, 11:13:18
Larrabee 1 ist TOT:


Den wirst du schon noch wiedersehen.

Das wirklich marktverändernde war nie eine eigene Larrabee Grafikkarte, es ist ein Larrabee Modul im Chipsatz, oder Kerne einer zukünftigen CPU.

MR2
2009-12-05, 11:34:53
Jo, überrascht mich auch nicht, war ja schon so leicht zu erahnen...
Wenn ich ehrlich bin...ich freu mich sogar:-) Der Markt ist für nvidia und ATI schon hart, da brauchen wir nicht noch jemand. Zumindest nicht Intel!!!

Nach Rambus, 10Ghz PIV, BTX, Wimax, Itanic liegt eben noch der Larrabee auf Intels eigenem Schrottplatz*g*

DR.ZEISSLER
2009-12-05, 11:48:45
Intel streicht Grafikchip Larrabee (http://www.golem.de/0912/71668.html)

James Ryan
2009-12-05, 11:51:32
Jo, überrascht mich auch nicht, war ja schon so leicht zu erahnen...
Wenn ich ehrlich bin...ich freu mich sogar:-) Der Markt ist für nvidia und ATI schon hart, da brauchen wir nicht noch jemand. Zumindest nicht Intel!!!

Nach Rambus, 10Ghz PIV, BTX, Wimax, Itanic liegt eben noch der Larrabee auf Intels eigenem Schrottplatz*g*

Mehr Wettbewerb hätte dem Grafikkartenmarkt sehr gut getan! Dann hätten NVIDIA und ATi sich mal etwas mehr anstrengen / Mühe geben müssen und wir hätten endlich nach Jahren mal wieder "richtige" Fortschritte gehabt.

Ich finde es sehr schade dass Larrabee gestorben ist. :(

MfG :cool:

INDEX75
2009-12-05, 11:54:24
Mehr Wettbewerb hätte dem Grafikkartenmarkt sehr gut getan! Dann hätten NVIDIA und ATi sich mal etwas mehr anstrengen / Mühe geben müssen und wir hätten endlich nach Jahren mal wieder "richtige" Fortschritte gehabt.

Ich finde es sehr schade dass Larrabee gestorben ist. :(

MfG :cool:
Haben wir denn jetzt keine Fortschritte? :confused:

Die einzigen die einen sichtbaren Fortschritt aufhalten sind doch die Spieleentwickler/Publisher, da doch fast ständig auf den Konsolenport geachtet werden muss.

reunion
2009-12-05, 11:55:28
Von dem Wettbewerb am Grafikchipmarkt können wir bei den CPUs nur träumen.

LovesuckZ
2009-12-05, 11:56:03
Drei Anbieter sind viel zu viel. Einer wäre am Ende hängen geblieben und das wäre bestimmt nicht Intel gewesen.

Sonyfreak
2009-12-05, 12:25:25
Mehr Wettbewerb hätte dem Grafikkartenmarkt sehr gut getan! Dann hätten NVIDIA und ATi sich mal etwas mehr anstrengen / Mühe geben müssen und wir hätten endlich nach Jahren mal wieder "richtige" Fortschritte gehabt.Ich denke mal, dass Nvidia und AMD ihre aktuellen bzw. kommenden Produkte durchaus schon unter dem Gesichtspunkt entwickelt haben, Intel zukünftig mal im Ring zu sehen. Dementsprechend hat Intel mit Larrabee schon eine Entwicklung des Marktes bewirkt, ohne ein fertiges Produkt zu liefern.

Insgesamt finde ich es auch sehr schade, dass zumindest aus der aktuellen Generation nichts geworden ist. Mal sehen, ob ein bisschen Manpower und ein paar zusätzliche Milliarden Larrabee irgendwann noch in unsere PCs bringen können.

mfg.

Sonyfreak

hardtech
2009-12-05, 12:26:59
wieder ein toller beweis dafür, dass einige spekulations freds die geschriebenen zeilen nicht wert sind. womit leute immer ihre zeit verschwenden ist amüsant. *grins*

Avalox
2009-12-05, 12:55:33
Ich denke mal, dass Nvidia und AMD ihre aktuellen bzw. kommenden Produkte durchaus schon unter dem Gesichtspunkt entwickelt haben, Intel zukünftig mal im Ring zu sehen.

Es hat sich der Markt verändert. Das ist doch ein ganz wichtiger Punkt.

nVidia wird im PC nie näher als einem PCIe Slot kommen und dieses ist verdammt weit weg von der CPU und dem Systemspeicher.

nVidia Chipssätze sind quasi nicht mehr existent im PC. Damit besteht auch für nVidia keine kostengünstige Möglichkeit eine GPU näher in das System einzubinden. Damit bleiben der GPU allerdings eine Menge an Möglichkeiten völlig verwehrt.

Die GPGPU kann sich so nicht wirklich weiter entwickeln. Intel hat nVidia ausgesperrt, AMD tut es auch. Ende.

Im restlichen Markt der dedizierten Grafikkarten kann es damit für nVidia langfristig nur schlechter, aber nie besser werden. Jeder Makel bei den nVidia Produkten wird für einen schrumpfenden Markt für nVidia sorgen.

nVidia sucht garantiert nach alternativen Geschäftsmodellen.

Eine PowerPC Lizenz um für zukünftige Spielekonsolen ein CPU+GPU Multikernlösung zu schaffen ist ziemlich logisch. Es sei denn wir sehen in zukünftigen Konsolen eine ARM Architektur, aber dafür fehlt ja noch einiges.

RLZ
2009-12-05, 12:58:15
Ohne Worte.
1. Das sind nicht mal 2 Quartalsgewinne.
2. Sie haben sehr viel Erfahrung damit gesammelt. Verloren ist das Geld also nicht.
3. Lernen sie, dass sie sich vielleicht vorher um die Software kümmern müssen. :freak:

reunion
2009-12-05, 13:01:39
1. Das sind nicht mal 2 Quartalsgewinne.
2. Sie haben sehr viel Erfahrung damit gesammelt. Verloren ist das Geld also nicht.
3. Lernen sie, dass sie sich vielleicht vorher um die Software kümmern müssen. :freak:

Ja natürlich, das ist ja das traurige dabei. Intel kann es sich schlicht leisten solange sie auf ihrem Monopol sitzen. AMD beziffert die gesamten Entwicklungskosten für die Evergreen-Serie AFAIK mit 450mio USD, NV vielleicht eine Milliarde für die Fermi-Produkte. Intel kann mal eben Milliarden für irgend einen Versuch in den Sand setzen und es ist völlig belanglos. Hätten NV oder ATi/AMD einen solchen Totalausfall wäre das eine Katastrophe.

Gouvernator
2009-12-05, 13:10:21
1. Das sind nicht mal 2 Quartalsgewinne.
2. Sie haben sehr viel Erfahrung damit gesammelt. Verloren ist das Geld also nicht.
3. Lernen sie, dass sie sich vielleicht vorher um die Software kümmern müssen. :freak:
Das musst du den gierigen Investoren mal sagen... Die fressen dich lebendig dafür auf. Es ist nicht unbedingt das Geld das jetzt verloren ging. Es ist der entgangene Gewinn. Sprich wenn sie 3 Milliarden eingesetzt haben dann erwartet man davon mindestens 3 Milliarden Gewinn... Sie sehen es als mindestens ein 6 Milliarden Grab an. So ungefähr.

Villeicht hilft es wenn man den Larrabe mit dem LHC vergleicht die Summe die LHC gekostet hat ist ja in ähnlicher Grössenordnung die Intel in Larrabe versenkt hat. Und LHC ist um einiges komplexer... ;D

_DrillSarge]I[
2009-12-05, 13:14:50
Larrabee 1 ist TOT:

http://www.brightsideofnews.com/news/2009/12/5/intel-cans-consumer-larrabee2c-compatibility2c-performance-and-nvidia-related-issues.aspx

http://www.brightsideofnews.com/ThumbL.aspx?file=/Data/2009_12_4/Intel-cans-consumer-Larrabee-compatibility-performance-and-nVidia-related-issues\INTC_Larrabee_FAIL_215.jpg
:lol:
abseits vom x86-"argument" war das ding ja auch in keiner weise konkurrenzfähig.

Sonyfreak
2009-12-05, 13:15:45
Es hat sich der Markt verändert. Das ist doch ein ganz wichtiger Punkt.

nVidia wird im PC nie näher als einem PCIe Slot kommen und dieses ist verdammt weit weg von der CPU und dem Systemspeicher.

nVidia Chipssätze sind quasi nicht mehr existent im PC. Damit besteht auch für nVidia keine kostengünstige Möglichkeit eine GPU näher in das System einzubinden. Damit bleiben der GPU allerdings eine Menge an Möglichkeiten völlig verwehrt.

Die GPGPU kann sich so nicht wirklich weiter entwickeln. Intel hat nVidia ausgesperrt, AMD tut es auch. Ende.

Im restlichen Markt der dedizierten Grafikkarten kann es damit für nVidia langfristig nur schlechter, aber nie besser werden. Jeder Makel bei den nVidia Produkten wird für einen schrumpfenden Markt für nVidia sorgen.

nVidia sucht garantiert nach alternativen Geschäftsmodellen.

Eine PowerPC Lizenz um für zukünftige Spielekonsolen ein CPU+GPU Multikernlösung zu schaffen ist ziemlich logisch. Es sei denn wir sehen in zukünftigen Konsolen eine ARM Architektur, aber dafür fehlt ja noch einiges.Ich glaube nicht, dass es für Nvidia so schlecht aussieht - zumindest mittelfristig nicht. Und auf lange Zeit gesehen wird sich ohnehin noch viel im Computersektor tun. Also mal sehen.

mfg.

Sonyfreak

aylano
2009-12-05, 13:26:33
Jo, überrascht mich auch nicht, war ja schon so leicht zu erahnen...
Wenn ich ehrlich bin...ich freu mich sogar:-) Der Markt ist für nvidia und ATI schon hart, da brauchen wir nicht noch jemand. Zumindest nicht Intel!!!

Nach Rambus, 10Ghz PIV, BTX, Wimax, Itanic liegt eben noch der Larrabee auf Intels eigenem Schrottplatz*g*
Jupp, Intel hat schon lange keine gute Architektur auf dem Markt gebraucht.
Der Erfolg beruht eben auf Core bzw. Evolutionäre Entwicklung des Pentium III, der eben damals dem Athlon in Sachen Effizienz sehr voraus war.
Ich sagte schon oft genug, es ist eben nicht leicht eine neue Architektur rauszubringen und gleich Erfolg zu haben, wenn dort Konkurrenten schon jahrelange Erfahrung & Entwicklungen hinter sich haben.

Atom ist ja auch zwischen ARM & Netbook gebaut.
Zu Stromfressend für ARM & schwach für Netbooks
Während Atom noch immer nicht in den ARM-Markt kommt, könnte es mal per Bobcat ein Erstzunehmender Konkurrenz werden, wenn dieser genau auf Netbook bzw. zwischen Netbook & ULV/Neo entwickelt wurden.
Schließlich gibts 2011 dann eien anderen Performance-Bedarf bei Netbooks als heute.

wieder ein toller beweis dafür, dass einige spekulations freds die geschriebenen zeilen nicht wert sind. womit leute immer ihre zeit verschwenden ist amüsant. *grins*
Manche spekulierten ja mit einem Versagen;-)
Ist ja nicht die erste Architektur, die bei Intel starb.


Hätten NV oder ATi/AMD einen solchen Totalausfall wäre das eine Katastrophe.
Oder interessant ist ja auch, wie viele dann von einem schlechten AMD reden, wenn sie per K8/K10/K10.5 nicht dauernt gleichschnell sind als Intel bzw. wenn sie nicht sofort mit einem Atom-Konkurrenten kontern konnten.

Man sah ja die Probleme & Rufschädigungen, wie AMD K10 verspätet & unausgereift & verbugt am Markt warf.
Bei Intel vergisst man so ein Total-Versagen schnell.
Mit WiMax hat Intel ja auch so eine Mrd. Pleite, was kaum einer weiß.

2. Sie haben sehr viel Erfahrung damit gesammelt. Verloren ist das Geld also nicht.
Die Frage ist dann, ob das eben für nächstes mal reicht.
Es kann sein, dass sie mit Larrabee wieder deutlich zurück liegen, weil AMD & Nvidia zu stark vorgepresht sind.
Und dort gibts eben einen harten & !!! fairen !!! Wettkampf, was Intel ja mit ihren Rabatten ja nicht so gewohnt ist.
Man sah, wie schlecht ATI da stand, als sie R600 rausbrachten. Und das nach Jahrerlanger Erfahrung & zwischendurch Erfolgreichen GPUs.

SavageX
2009-12-05, 13:28:35
Bitter, sehr bitter für Intel. Nicht wegen der Portokasse, sondern weil man ja eigentlich x86 im GPGPU-Bereich verankern wollte.

Wenn Larrabee irgendwann mal aufschlagen sollte benutzt Welt und Hund sowieso längst OpenCL/ComputeShader und pfeift auf die zugrundeliegende Architektur, so dass sich Intel x86 vielleicht vollkommen umsonst ans Bein gebunden hat.

StefanV
2009-12-05, 13:43:16
nVidia wird im PC nie näher als einem PCIe Slot kommen und dieses ist verdammt weit weg von der CPU und dem Systemspeicher.
ABer nur weil sie es nicht wollen.


Für nVidia bestünde prinzipiell die Möglichkeit, statt PCie Interfaces Hyper Transport zu verbauen und einen 'Systemprozessor' zu entwickeln, man müsste sich nur mit AMD einig werden...

tombman
2009-12-05, 13:44:08
Den wirst du schon noch wiedersehen.

Das wirklich marktverändernde war nie eine eigene Larrabee Grafikkarte, es ist ein Larrabee Modul im Chipsatz, oder Kerne einer zukünftigen CPU.
Deswegen stand da auch "1" ;)
Jo, überrascht mich auch nicht, war ja schon so leicht zu erahnen...
Wenn ich ehrlich bin...ich freu mich sogar:-) Der Markt ist für nvidia und ATI schon hart, da brauchen wir nicht noch jemand. Zumindest nicht Intel!!!

Nach Rambus, 10Ghz PIV, BTX, Wimax, Itanic liegt eben noch der Larrabee auf Intels eigenem Schrottplatz*g*
Sehe ich genauso. Intel kann gerne noch länger von Grafikmarkt wegbleiben. Stellt euch mal vor, die gamedevs müßten auch noch für Intel optimieren -> pure Hölle.
Intel streicht Grafikchip Larrabee (http://www.golem.de/0912/71668.html)
Zu spät :)
Mehr Wettbewerb hätte dem Grafikkartenmarkt sehr gut getan! Dann hätten NVIDIA und ATi sich mal etwas mehr anstrengen / Mühe geben müssen und wir hätten endlich nach Jahren mal wieder "richtige" Fortschritte gehabt.
Ich finde es sehr schade dass Larrabee gestorben ist. :(
MfG :cool:
2 reichen für gute Konkurrenz, ein Dritter stört nur.
Haben wir denn jetzt keine Fortschritte? :confused:

Die einzigen die einen sichtbaren Fortschritt aufhalten sind doch die Spieleentwickler/Publisher, da doch fast ständig auf den Konsolenport geachtet werden muss.
Genau.
Drei Anbieter sind viel zu viel. Einer wäre am Ende hängen geblieben und das wäre bestimmt nicht Intel gewesen.
Jo.
wieder ein toller beweis dafür, dass einige spekulations freds die geschriebenen zeilen nicht wert sind. womit leute immer ihre zeit verschwenden ist amüsant. *grins*
Sehe ich auch so. Was Leute da teilweise seitenlang diskutieren...:rolleyes:
Ja natürlich, das ist ja das traurige dabei. Intel kann es sich schlicht leisten solange sie auf ihrem Monopol sitzen. AMD beziffert die gesamten Entwicklungskosten für die Evergreen-Serie AFAIK mit 450mio USD, NV vielleicht eine Milliarde für die Fermi-Produkte. Intel kann mal eben Milliarden für irgend einen Versuch in den Sand setzen und es ist völlig belanglos. Hätten NV oder ATi/AMD einen solchen Totalausfall wäre das eine Katastrophe.
Jo, wobei ich nicht weiß, wieso Intel nicht voll durchzieht. Ich würde 10 Milliarden ausgeben, um NV und ATI zu ownen ;) 32nm mit ein paar Tflops und fertig...
Ich glaube nicht, dass es für Nvidia so schlecht aussieht - zumindest mittelfristig nicht. Und auf lange Zeit gesehen wird sich ohnehin noch viel im Computersektor tun. Also mal sehen.

Jo, so schnell stirbt NV nicht. Langfristig wird es wohl auf Cloud Computing hinauslaufen. Sprich: on live :(

The Jackal
2009-12-05, 13:49:28
Ich verstehe einige Leute nicht die sich über das ausscheiden von Larrabee freuen. Endlich mal eine voll programierbare GraKa die auch für das Ray-Tracking schnell genug ist. Man hätte nur ein mal sich als Speileentwickler umdenken müssen und hätte nur noch ein Sourcecode zu programieren gehabt, weil fürher oder später auch die anderen GraKa Firmen nachziehen müssen.

Meiner Meinung nach liegt die Zukunft der Grafik im Ray-Tracking.

Aber die Leute wollen immer noch beim altem bleiben. Will man neue Effekte sehen muss man neue Graka kaufen.

Einfach nur schade, ich habe mich schon auf eine ultra parallele CPU mit Grafikfunktion gefreut.

LovesuckZ
2009-12-05, 13:51:24
Jo, wobei ich nicht, wieso Intel nicht voll durchzieht. Ich würde 10 Milliarden ausgeben, um NV und ATI zu ownen ;) 32nm mit ein paar Tflops und fertig...


Es ist doch nicht das fehlende Geld, dass Intel hindert, sondern das nicht vorhandene Wissen. Eine konkurrenzfähige GPU zu designen benötig Wissen, dass man nicht auf einer Arbeitslosenbörse finden kann. nVidia und ATi sind jahrelang jetzt im Geschäft und lassen bei einem Partner fertigen, der sich darauf spezialisiert hat. Intel selbst muss doch für ihre IGP schon auf Fremdwissen zurückgreifen.
Dazu kommt, dass die Shareholder eben auch keinen unendlichen Aderlass wollen. Wenn etwas nicht mittelfristig profitabel ist, dann wird es nicht durchgeführt.

Ailuros
2009-12-05, 13:54:37
LOL, das Ding wurde jetzt gecancelt? :ugly:
Naja, Hauptsache das Projekt lebt weiter. Vielleicht hört man ja in zehn Jahren noch mal was davon. Jeder andere Hersteller wäre nach einem solchen Fiasko wohl kurz vor der Pleite, bei Intel ist das schlicht belanglos wenn hier Millionen, wenn nicht Milliarden von Dollars und Manpower man eben verpulvert werden und man am Ende mit nichts dasteht.


Das Geruecht schwirrte schon vor einiger Ewigkeit herum; da es aber seitens NV und AMD berichtet wurde hab ich es als FUD abgestempelt.

Dural
2009-12-05, 13:56:21
tja ich würd mal sagen das ist ein krasser sieg von NV gegen Intel...

Intel hat gross gepokert und hat deutlich verlohren...

tombman
2009-12-05, 14:00:49
Es ist doch nicht das fehlende Geld, dass Intel hindert, sondern das nicht vorhandene Wissen.
Ich dachte, Wissen kann man kaufen ;) Jeder dev hat seinen Preis :devil:

reunion
2009-12-05, 14:01:17
tja ich würd mal sagen das ist ein krasser sieg von NV gegen Intel...

Intel hat gross gepokert und hat deutlich verlohren...

Verloren mit h tut schon sehr weh. Aber was hat das mit Intel gegen NV zu tun? Intel wollte aus verständlichen Gründen in den Grafikmarkt einsteigen und sie sind damit zumindest erstmal gescheitert. Viel mehr gibt es da nicht zu sagen. Irgend welche Verschwörungstheorien das man damit NV vernichten wollte sind schon etwas weit hergeholt.

Ailuros
2009-12-05, 14:03:31
Es hat sich der Markt verändert. Das ist doch ein ganz wichtiger Punkt.

Ja zum besseren fuer existierende GPUs und zum schlechteren wie eine Schnappsidee wie Larabee.

nVidia wird im PC nie näher als einem PCIe Slot kommen und dieses ist verdammt weit weg von der CPU und dem Systemspeicher.

Gilt auch fuer LRB oder jegliche andere GPU.

nVidia Chipssätze sind quasi nicht mehr existent im PC. Damit besteht auch für nVidia keine kostengünstige Möglichkeit eine GPU näher in das System einzubinden. Damit bleiben der GPU allerdings eine Menge an Möglichkeiten völlig verwehrt.

Da Tegra und/oder ION noch weit vom Punkt ihres Todes entfernt sind, waere es weisser dass wir uns eher auf das R.I.P. Larabee konzentrieren.

Die GPGPU kann sich so nicht wirklich weiter entwickeln. Intel hat nVidia ausgesperrt, AMD tut es auch. Ende.

Intel kann von mir aus weiterhin ihre fancy Office-Renderer bauen fuer anstaendiges 3D greif ich und jeder andere sowieso entweder zu AMD oder NVIDIA. GPGPU betrifft uebrigens die gesamte Produktpallette und hat um einiges sinnvolleren Einsatz bei standalone GPUs als moechtegern IGPs/SoCs.

Im restlichen Markt der dedizierten Grafikkarten kann es damit für nVidia langfristig nur schlechter, aber nie besser werden. Jeder Makel bei den nVidia Produkten wird für einen schrumpfenden Markt für nVidia sorgen.

nVidia sucht garantiert nach alternativen Geschäftsmodellen.

Ich kann heute zahllose von GeForces kaufen aber leider keine einzige Intel standalone GPU und es sieht auch nicht danach aus dass etwas bald davon kommen wird. Leb mit der Realitaet und dann sehn wir weiter.

Eine PowerPC Lizenz um für zukünftige Spielekonsolen ein CPU+GPU Multikernlösung zu schaffen ist ziemlich logisch. Es sei denn wir sehen in zukünftigen Konsolen eine ARM Architektur, aber dafür fehlt ja noch einiges.

LOL :biggrin:

LovesuckZ
2009-12-05, 14:03:33
Ich dachte, Wissen kann man kaufen ;) Jeder dev hat seinen Preis :devil:

Die bauen dir aber nicht deine Hardware zusammen.
Und Ingenieure in diesem Bereich verdienen soviel, dass Geld alleine keinen zum Wechsel verführt.

Ailuros
2009-12-05, 14:06:10
Ich verstehe einige Leute nicht die sich über das ausscheiden von Larrabee freuen. Endlich mal eine voll programierbare GraKa die auch für das Ray-Tracking schnell genug ist. Man hätte nur ein mal sich als Speileentwickler umdenken müssen und hätte nur noch ein Sourcecode zu programieren gehabt, weil fürher oder später auch die anderen GraKa Firmen nachziehen müssen.

Meiner Meinung nach liegt die Zukunft der Grafik im Ray-Tracking.

Aber die Leute wollen immer noch beim altem bleiben. Will man neue Effekte sehen muss man neue Graka kaufen.

Einfach nur schade, ich habe mich schon auf eine ultra parallele CPU mit Grafikfunktion gefreut.

Vielleicht sollte es manchen von Euch endlich einleuchten dass LRB gegen die heutigen DX11 GPUs keine besondere Vorteile mehr hat. Zumindest keine die LRB konkurrenzfaehig gemacht haetten und nicht zum laughing stock der Industrie. Es ist weisser sich zurueckzuziehen und wenn moeglich nochmal von Null anzufangen.

Gestrandet
2009-12-05, 14:06:52
Versteh die Aufregung nit so ganz ... LRB bzw. LRBni ist ja eben _nicht_ tot, nur die aktuelle Hardware wird nicht mehr wie geplant als GPU vermarktet werden weil nicht konkurrenzfähig - und das war schon länger abzusehen. Für zukünftige Iterationen wurde das Ziel "GPU" doch garnicht fallengelassen.

Obwohl ich Intel nicht mag, finde ich es gut, dass sie ihre (mit manchmal etwas halbseidenen Methoden erwirtschafteten) Milliarden nicht ausschleßlich auf Nummernkonten in Alpen- und Karibikstaaten parken oder sofort in immer neuere Prozesstechnologie umsetzen, sondern sich damit auch immer mal wieder an der Quadratur des Kreises versuchen. Dazu braucht es Mut, und das sollte man IMHO anerkennen.
Noch besser finde ich es allerdings, wenn sie damit scheitern :biggrin:

edit:
Meiner Meinung nach liegt die Zukunft der Grafik im Ray-Tracking.
Das hat sich Intel von Pohl und Slusallek auch erzählen lassen, warum auch immer ... IMHO ein Zeichen für den Verfall der Sitten im Wissenschaftsbetrieb. Da rennt man in jüngerer Zeit immer öfter dem Hammel nach, der am lautesten blökt, traurig.
Und BTW ob Rasterisierung oder Raytracing ist total wurscht - die Zukunft der Computergrafik liegt eindeutig in den prozeduralen Materialen ;)

tombman
2009-12-05, 14:09:45
Die bauen dir aber nicht deine Hardware zusammen.
Und Ingenieure in diesem Bereich verdienen soviel, dass Geld alleine keinen zum Wechsel verführt.
Dann schickt Intel halt den Mossad, um ein Angebot zu machen, daß man nicht ablehnen kann :freak:
Spaß beseite, ich kann nicht glauben, daß Intel nicht an dieses Wissen herankommt..

Ailuros
2009-12-05, 14:15:20
Verloren mit h tut schon sehr weh. Aber was hat das mit Intel gegen NV zu tun? Intel wollte aus verständlichen Gründen in den Grafikmarkt einsteigen und sie sind damit zumindest erstmal gescheitert. Viel mehr gibt es da nicht zu sagen. Irgend welche Verschwörungstheorien das man damit NV vernichten wollte sind schon etwas weit hergeholt.

Hmmm IMHLO war Intel's Initiative erstmal vom Einsehen dass GPUs in der Zukunft noch wichtiger werden koennten und das Ganze wurde dann vom Aufkauf von ATI seitens AMD als Gedanke bestaetigt.

Insgesamt ist es so gesehen ein mehrfacher "Sieg" von AMD und ich nenne es nicht gerne Sieg weil AMD bis vor kurzem sowieso nie die Chance hatte sich fair gegen Intel stellen zu koennen, ergo gab es nie einen ehrlichen Kampf. Heutzutage wird Intel sich mehr und mehr gezwungen sehen ihre Produkte nach ihrem wahrem Wert verkaufen zu muessen und dieses begrenzt sich nicht nur auf CPUs sondern auch auf SoCs bzw. jegliche Art von Grafik-Prozessoren.

The Jackal
2009-12-05, 14:17:07
Man könnte sagen LRB ist jetzt am interesantesten für die neue PS4, da ja wie Cell tot. :-D

Ailuros
2009-12-05, 14:20:51
Man könnte sagen LRB ist jetzt am interesantesten für die neue PS4, da ja wie Cell tot. :-D

Ich kann Dich versichern dass LRB schon seit geraumer Zeit tot fuer den Konsolenmarkt ist weil die Konsolen-hersteller seit langem absagten.

The Jackal
2009-12-05, 14:22:44
Wie hoch ist die Warscheinlichkeit das ein LRB-ExtraLite in dem Corei3+GPU sitzt?

Gast
2009-12-05, 14:28:44
http://www.golem.de/0912/71668.html

Ailuros
2009-12-05, 14:58:07
Wie hoch ist die Warscheinlichkeit das ein LRB-ExtraLite in dem Corei3+GPU sitzt?

Keine einzige. Wenn man natuerlich erstmal weiss was in diesem 2010 SoCs erstmal drinsteckt denn ausser GenX Mist sehe ich da nichts.

RLZ
2009-12-05, 15:28:15
Das hat sich Intel von Pohl und Slusallek auch erzählen lassen, warum auch immer ...
Sei doch nicht so naiv.
Pohl war ein einfacher Masterstudent, den man gut für Marketing gebrauchen kann und Slusallek ist ein Uni Professor, der Werbung für seine Forschung machen muss, um Geld dafür zu besorgen. Entscheidungsträger bei Intel glauben denen nicht einfach so alles.

Intel selbst hatte immer mehr Leute für Raytracingforschung als Slusalleks Lehrstuhl. Wenn da Fehler gelaufen sind, dann intern bei Intel.

Exxtreme
2009-12-05, 15:53:23
http://www.heise.de/newsticker/meldung/Intel-macht-Rueckzieher-bei-Larrabee-878138.html

Was mal wieder beweist, daß auch Intel "Rohrkrepierer" produzieren kann.

dust
2009-12-05, 15:54:12
Sehe ich genauso. Intel kann gerne noch länger von Grafikmarkt wegbleiben. Stellt euch mal vor, die gamedevs müßten auch noch für Intel optimieren -> pure Hölle.

du lässt dich melken und bist auch noch froh darüber? jeder wie er glaubt...

wie wäre es wenn sich so manche entwickler endlich an die standards halten würden? hersteller versuchen diese standards möglichst performant umzusetzen. kunden sind die gewinner in einem markt bei dem ein echter wettbewerb statfindet, da sie von den verbesserungen, der unterschiedlichen angebote, profitieren.

der hirte und die schäfchen, das vieh wird bewirtschaftet...

Exxtreme
2009-12-05, 16:07:14
Dann schickt Intel halt den Mossad, um ein Angebot zu machen, daß man nicht ablehnen kann :freak:
Spaß beseite, ich kann nicht glauben, daß Intel nicht an dieses Wissen herankommt..
Dieses Wissen betrifft sehr viele Bereiche. Ist ja nicht nur Hardware sondern z.b. auch Treiber. :devil:

LovesuckZ
2009-12-05, 16:12:00
Spaß beseite, ich kann nicht glauben, daß Intel nicht an dieses Wissen herankommt..

Das Wissen hat sich in den letzten fast 9 Jahren doch auf nVidia und AMD aufgeteilt. Jeder Versuch irgendwie an die beiden heranzukommen ist gescheitert. Intel musste als aus dem Nichts etwas aufbauen. Und da sie selbst mit ihren eigenen IGPs nicht in der Lage sind konkurrenzfähig zu sein, kommt wohl am Ende solch eine Geschichte heraus.