PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Intel - Intel bestätigt diskrete GPUs!


Seiten : [1] 2

AnarchX
2007-01-22, 18:21:25
Intel discrete graphics chips confirmed - "Look out, NVIDIA and AMD/ATI, here we come!"
Six weeks ago, job descriptions for Intel's Larrabee Development Group caused widespread speculation that the chip giant would be re-entering the discrete graphics marketplace. These speculations have now been confirmed with Intel actively recruiting for its Visual Computing Group, the official name for the Larrabee project. The page notes that the group will first focus on "developing discrete graphics products based on a many-core architecture targeting high-end client platforms," with lower-end products, including graphics products integrated with CPUs, to follow later. Precisely what this means--what exactly is a many-core architecture in this context, and what's the timeframe for the new chips?--is still anyone's guess.[...]

http://www.beyond3d.com/#news37889

Da wird wohl langfristig das Duopol von AMD(ATi) und nVidia ins Wanken geraten.

Gmax
2007-01-22, 18:28:10
:eek: Was auch immer die basteln, ich freu mich drauf!

PowerVR inside?

Hamster
2007-01-22, 18:30:04
:up:

finde ich gut. nicht unbedingt, daß es intel ist, begrüße aber die erhöhte konkurrenz. zumal ich intel als durchaus für fähig halte mit den bisherigen grafikchipgigangen mithalten zu können.

bin jetzt schon auf zukünftig erscheinende details gespannt.

StefanV
2007-01-22, 18:30:25
Vermutlich PowerVR Cores...

Von daher mal schauen was die so zusammenfriemeln...

reunion
2007-01-22, 18:37:49
Das Ziel dahinter ist klar, und Leo hatte das ja auch vor kurzem in den News angesprochen: Bundles aus möglichst vielen Komponeneten aus einer Hand sind "in". Das erleichtert den Support für die Hersteller, und spart kosten. Und nachdem AMD hier mittlerweile einiges zu bieten hat, und onboard-Chips eben lange nicht für alles ausreichen, fühlt sich Intel offenbar gezwungen nachzuziehen. Mithilfe der PowerVR-Lizenzen, und der weltweit modernsten Fertigungsanlagen könnte hier IMHO durchaus eine Überraschung gelingen. Ich frage mich nur, was Nvidia jetzt langfristig macht.

mapel110
2007-01-22, 18:39:36
Bleibt zu hoffen, dass Intel dort nicht zu viel will. Sonst gibts bald nur noch Intelgrakas. ;(

Aber was ich glaube ist, dass Intel mittlerweile auch auf den Trichter gekommen ist, Zocker zu begeistern. Das bringt seit es Internet für jedermann gibt, wohl die meiste (kostenlose) PR. Und deshalb ist man am besten beraten, wenn man fette Grafikkarten baut.

Könnte natürlich auch sein, dass sie durch separate Grafikkarten mehr Erfahrung beim Basteln von Grafikkartentreibern bekommen wollen bzw mehr Feedback durch User. Grafikchips könnten ja bald für jeden CPU-Hersteller enorm wichtig werden, weil die Zukunft wohl so aussieht, dass man in die CPUs Grafik-Cores integriert.
Und das wohl nicht so halbherzig wie derzeit Onboardgrafik, sondern weitaus aggresiver, eben als Zockerlösung(mehrere Grafikcores auf der CPU zum Beispiel).

AnarchX
2007-01-22, 18:47:07
Hmm... theoretisch könnte Intel dann langfristig auch eine Konsole bauen.

Da tuen sich nicht unbedingt positive Zukunftsvisionen auf. :|

Gortha
2007-01-22, 19:47:01
Hmm... theoretisch könnte Intel dann langfristig auch eine Konsole bauen.

Da tuen sich nicht unbedingt positive Zukunftsvisionen auf. :|

Ohh graus... das wäre dann der Untergang, der von uns so geliebten Bastel-PCs...

- Ein Chip in dem CPU, GPU & Audio ist - :weg:

Gouvernator
2007-01-22, 20:04:03
Oh mann blos weg damit.
discrete graphics chips
hört sich nach scheiss billig GPUs

Hätte da was von HighEnd Graphics gestanden - mhhh... =)

Gmax
2007-01-22, 20:06:51
Hätte da was von HighEnd Graphics gestanden - mhhh...

"developing discrete graphics products based on a many-core architecture targeting high-end client platforms,"

Es geht ja um High End.

Die alles entscheidende Frage ist: WANN. Wann wollen die damit auf dem Markt? Es ist ja schon seit längeren bekannt, daß Intel daran arbeitet.
Ich glaubs erst, wenn die Teile im Regal stehen...

micki
2007-01-22, 20:16:27
Hmm... theoretisch könnte Intel dann langfristig auch eine Konsole bauen.

Da tuen sich nicht unbedingt positive Zukunftsvisionen auf. :|intel hat die hardware, die entwicklungsumgebung, aber nicht so wirklich die software... und da kaeme doch ein apfel sehr gelegen ... iConsole ;)

Spasstiger
2007-01-22, 20:21:11
Vielleicht kann man sich als High-End-Zocker im Jahr 2008 zwischen einer Nvidia GeForce 9900 GTX, einer AMD/ATI Radeon X3900 XTX und einer Intel Core 3D V6900 entscheiden. ;)

Gouvernator
2007-01-22, 20:27:54
targeting high-end client platforms
Ne lieber doch nicht.
Was intel schon für Prozessoren verlangt...

Godmode
2007-01-22, 20:35:02
Ne lieber doch nicht.
Was intel schon für Prozessoren verlangt...

Warum, die Core2 sind aber wirklich nicht teuer?

Trixter
2007-01-22, 20:35:11
wahnsinns nachricht, den preis tut das sehr gut :)

StefanV
2007-01-22, 21:34:53
Warum, die Core2 sind aber wirklich nicht teuer?
Für das was ein kleiner C2D kostet, kauf ich mir 'nen Dual Core K8 _MIT BOARD_ und das Board ist nicht schlecht...
Wohingegen man bei Intel schon allein fürs Brett soviel hinlegen darf, wie bei AMD für die CPU, wenn man was ordentliches haben will...
In diesem Fall sollte man eher Plattformen miteinander vergleichen und nicht nur Komponenten (CPUs)...
Und da ist Intel immer noch sau teuer...

Ganz ab davon:
War doch zu erwarten, das Intel auch GraKas bastelt, tut AMD ja auch...

Godmode
2007-01-22, 21:38:55
Für das was ein kleiner C2D kostet, kauf ich mir 'nen Dual Core K8 _MIT BOARD_ und das Board ist nicht schlecht...
Wohingegen man bei Intel schon allein fürs Brett soviel hinlegen darf, wie bei AMD für die CPU, wenn man was ordentliches haben will...
In diesem Fall sollte man eher Plattformen miteinander vergleichen und nicht nur Komponenten (CPUs)...
Und da ist Intel immer noch sau teuer...


Ich hab jetzt die Preise nicht im Kopf, aber ein gutes AMD Board ist auch nicht gerade billig.

Ganz ab davon:
War doch zu erwarten, das Intel auch GraKas bastelt, tut AMD ja auch...

Jetzt braucht Nvidia "nur"(das NUR soll den Bau einer CPU nicht als privimitv darstellen) mehr CPUs bauen und dann haben wir drei Plattformen. :rolleyes:

AnarchX
2007-01-22, 21:45:00
Ganz ab davon:
War doch zu erwarten, das Intel auch GraKas bastelt, tut AMD ja auch...
Nur hat es sich AMD doch ein ganzes Stück einfacher gemacht. ;)

StefanV
2007-01-22, 21:55:22
Ich hab jetzt die Preise nicht im Kopf, aber ein gutes AMD Board ist auch nicht gerade billig.

Die wirklich guten Top Bretter bekommst für um die 100€, +/- 20€uro.
Da fangen die guten Intel Bretter gerad erst an...

'normale' Bretter mit Standard Austatung, 50-75€, übertakten kann man auch damit recht gut, ev. muss man auf GBit LAN verzichten...

Jetzt braucht Nvidia "nur"(das NUR soll den Bau einer CPU nicht als privimitv darstellen) mehr CPUs bauen und dann haben wir drei Plattformen. :rolleyes:
Nur wie sollen dies machen?!

Transmeta war ja nicht gerade erfolgreich, Cyrix ist untergegangen, IDT war auch nicht besonders gut, beide in Besitz von VIA und Rise war nie wirklich erfolgreich...

Und die Patente sollten wir auch nicht vergessen kurz: das kann nV vergessen, wirklich gute x86 CPUs zu basteln.
Und beim Rest schauts auch nicht besser aus, der ist so voll mit MIPS kompatiblen Designs....

stav0815
2007-01-22, 21:57:01
Nur hat es sich AMD doch ein ganzes Stück einfacher gemacht. ;)
AMD war dazu gezwungen es sich einfacher zu machen. Meinst nicht?

Banshee18
2007-01-22, 21:59:02
Intel hat ja genug Kohle und vielleicht ein paar Lizensen, aber haben sie wirklich das nötige Know How für High End? Sie könnten sich Engineers von ATi oder nV-Kaufen, was sich widerum negativ auf den Markt auswirken könnte.

Godmode
2007-01-22, 22:19:52
Nur wie sollen dies machen?!

Transmeta war ja nicht gerade erfolgreich, Cyrix ist untergegangen, IDT war auch nicht besonders gut, beide in Besitz von VIA und Rise war nie wirklich erfolgreich...

Und die Patente sollten wir auch nicht vergessen kurz: das kann nV vergessen, wirklich gute x86 CPUs zu basteln.
Und beim Rest schauts auch nicht besser aus, der ist so voll mit MIPS kompatiblen Designs....

Sie müssen das ja nicht von heute auf morgen machen, AMD hat auch klein angefangen. Ich bin mir völlig im klaren, dass die Entwicklung einer CPU etwas extrem komplexes ist, was man auch an den Entwicklungszeiträumen und dem Resourcenverbrauch sieht.

StefanV
2007-01-22, 22:26:14
Sie müssen das ja nicht von heute auf morgen machen, AMD hat auch klein angefangen. Ich bin mir völlig im klaren, dass die Entwicklung einer CPU etwas extrem komplexes ist, was man auch an den Entwicklungszeiträumen und dem Resourcenverbrauch sieht.
Und wie willst eine CPU zusammenbasteln?!
Du kannst dir sicher sein, das so ziemlich alles was man für 'ne performante x86 CPU braucht, von Intel oder AMD patentiert wurde, was ein gewaltiges Problem ist...
Und was anderes als x86 macht auch nicht wirklich Sinn...

Man müsst also irgendwen aufkaufen, bliebe noch Transmeta...

Ailuros
2007-01-22, 22:42:07
Vermutlich PowerVR Cores...

Von daher mal schauen was die so zusammenfriemeln...

Das will ich erstmal sehen bevor ich es glaube; der einzige Grund warum ich es vorruebergehend bezweifle, ist dass ich es schwer verdauen kann dass Intel grosse Summen an royalties an IMG auszahlen wuerde.

BlackBirdSR
2007-01-22, 22:43:23
Vielleicht wird langsam klar wohin der Markt sich entwickelt, und warum AMD unbedingt jemanden wie ATI nötig hatte. Um Chipsätze ging es dabei jedenfalls nicht vorrangig.

Eventuell haben wir in 7 Jahren dezentralisiertere Systeme, in denen die MPU als Solches weniger die Hauptrolle spielt. Vielmehr steuert und verwaltet sie den Datenfluss zu den wirklichen Rechenknechten.
Im Endeffekt hätte man damit aber ein System ähnlich Cell.

Xmas
2007-01-22, 22:48:15
Du kannst dir sicher sein, das so ziemlich alles was man für 'ne performante x86 CPU braucht, von Intel oder AMD patentiert wurde, was ein gewaltiges Problem ist...
Das ist ja toll, dann brauchen AMD und Intel ja gar nicht mehr zu forschen...

Wobei ich allerdings auch noch eher glauben würde dass NVidia an einem ARM-Design dran sei.

Ailuros
2007-01-22, 22:48:50
Das Ziel dahinter ist klar, und Leo hatte das ja auch vor kurzem in den News angesprochen: Bundles aus möglichst vielen Komponeneten aus einer Hand sind "in". Das erleichtert den Support für die Hersteller, und spart kosten. Und nachdem AMD hier mittlerweile einiges zu bieten hat, und onboard-Chips eben lange nicht für alles ausreichen, fühlt sich Intel offenbar gezwungen nachzuziehen. Mithilfe der PowerVR-Lizenzen, und der weltweit modernsten Fertigungsanlagen könnte hier IMHO durchaus eine Überraschung gelingen. Ich frage mich nur, was Nvidia jetzt langfristig macht.

Als ich vor einiger Zeit erwaehnte dass Peddie vielleicht doch nicht auf dem falschen Pfad lag dass Intel in der Zukunft der groesste Konkurrent von NVIDIA sein koennte und eben auch direkt anders rum, fand es wohl keine besonderen Anklang.

Die Antwort auf Deine Frage ist eindeutiger als Ihr NV zutraut. Wenn Intel es schafft in der Zukunft anstaendige Grafikloesungen auf die Beine zu stellen, wuerde mich NV mit CPUs kein bisschen ueberraschen.

VooDoo7mx
2007-01-22, 22:52:17
Intel könnte einfach die GMA X3000 Architektur nehmen, nochmal überarbeiten, nen Speichercontroller dazubasteln und schon hätte man ne potenten Grafikchip.

GMA X3000 hat zur Zeit 2 Pixelpipeline , 8 unified Shader, DX10 @667MHz

Wenn man dieses Design beispielsweise auf das 8fache hochskaliert:
16 Pixelpipelines, 64 unified Shader, DX10 + 256Bit Speichercontroller @ 667MHz
Fazit = konkurrenzfähig im Mainstreambereich.


Intek muss in Endeffekt nur das GMA X3000 Design soweit es geht "aufblasen". Pover VR brauchen sie nicht wirklich.

Ailuros
2007-01-22, 22:53:05
Das ist ja toll, dann brauchen AMD und Intel ja gar nicht mehr zu forschen...

Wobei ich allerdings auch noch eher glauben würde dass NVidia an einem ARM-Design dran sei.

ARM hat ja praktisch fast ein Monopol im SoC Markt, was wohl eine verdammt kluge Idee waere. Nur muesste eben NV dann auch hier IP verkaufen, sonst werden sie keinen besonderen Durchbruch in diesem Markt sehen.

Intel hat ja den Kleinkram Markt aufgegeben was CPUs betrifft oder?

VooDoo7mx
2007-01-22, 22:54:21
Intel hat ja den Kleinkram Markt aufgegeben was CPUs betrifft oder?

Jupp, haben die XScale Sparte an Maxell verhökert.

StefanV
2007-01-22, 23:01:02
Eben weil dieser 'Kleinkram' kaum was einbringt und die Konkurenz enorm ist!
Wieviele Hersteller gibts denn mit ARM (kompatiblen) Designs?
10 oder 20??

Lohnt also nicht wirklich...
PowerPC ist ja auch nicht mehr wirklich vorhanden
Alpha gibbet auch nich mehr...

Bleibt also nur x86, den man eigentlich überall einsetzen kann, für das es die meiste Software usw gibt...

Ailuros
2007-01-22, 23:01:20
Intel könnte einfach die GMA X3000 Architektur nehmen, nochmal überarbeiten, nen Speichercontroller dazubasteln und schon hätte man ne potenten Grafikchip.

GMA X3000 hat zur Zeit 2 Pixelpipeline , 8 unified Shader, DX10 @667MHz

Wenn man dieses Design beispielsweise auf das 8fache hochskaliert:
16 Pixelpipelines, 64 unified Shader, DX10 + 256Bit Speichercontroller @ 667MHz
Fazit = konkurrenzfähig im Mainstreambereich.

LOL schoen waers....was genau verstehst Du unter 8 "unified shader"? Denn 8 vergleichbare ALUs zu heutigen D3D10 GPUs sind es wohl doch nicht.

Intek muss in Endeffekt nur das GMA X3000 Design soweit es geht "aufblasen". Pover VR brauchen sie nicht wirklich.

X3000 ist eine IGP und keine GPU. Hier geht es um GPUs und dafuer ist X3000 - egal wie hoch "aufgeblasen" - wohl nicht besonders gut geeignet. Wo und wie Intel ihre SGX Lizenzen benutzen wird steht noch in den Sternen, aber ich will wetten dass IGPs und UMPC chips schon unter Entwicklung liegen. Waere G965 wirklich die "Ueberloesung" sollte mir mal jemand erklaeren zu was sie genau IP fuer aehnliche Loesungen gekauft haben.

Ailuros
2007-01-22, 23:05:39
Eben weil dieser 'Kleinkram' kaum was einbringt und die Konkurenz enorm ist!
Wieviele Hersteller gibts denn mit ARM (kompatiblen) Designs?
10 oder 20??

Die grobe Mehrzahl des SoC Markts. ARM ist einer der groessten IP Firmen dank ihrer CPUs. Sagt mir aber ueberhaupt nichts ueber die Moeglichkeiten in diesen Markt einzudringen. NV hat ja auch noch den Vorteil dass sie Grafik IP fuer den SoC Markt auch noch entwickeln.

Habt Ihr eigentlich schon mal Analysen gelesen wie schnell und rapide der PDA/mobile und UMPC Markt in der Zukunft skalieren wird?

VooDoo7mx
2007-01-22, 23:10:38
LOL schoen waers....was genau verstehst Du unter 8 "unified shader"? Denn 8 vergleichbare ALUs zu heutigen D3D10 GPUs sind es wohl doch nicht.


Ich kann auch nur das wiedergeben was ich gelesen hab. Inwiefern man die Shader ALUs mit denen von aktuellen NV udn ATi Deisgns vergleichen kann weiß ich ganz einfach nicht weil mir einfach diie Einsicht in entsprechende Dokumente udn Entwicklungstools fehlen.


X3000 ist eine IGP und keine GPU. Hier geht es um GPUs und dafuer ist X3000 - egal wie hoch "aufgeblasen" - wohl nicht besonders gut geeignet. Wo und wie Intel ihre SGX Lizenzen benutzen wird steht noch in den Sternen, aber ich will wetten dass IGPs und UMPC chips schon unter Entwicklung liegen. Waere G965 wirklich die "Ueberloesung" sollte mir mal jemand erklaeren zu was sie genau IP fuer aehnliche Loesungen gekauft haben.

NV4X ist auch eine GPU und kein IGP. Trotzdem wurde dieses Design so weit runtergekürzt um eine IGP daraus zu machen.
Wieso soll es auch nicht umgekehrt gehen? :|

Ailuros
2007-01-22, 23:26:15
Ich kann auch nur das wiedergeben was ich gelesen hab. Inwiefern man die Shader ALUs mit denen von aktuellen NV udn ATi Deisgns vergleichen kann weiß ich ganz einfach nicht weil mir einfach diie Einsicht in entsprechende Dokumente udn Entwicklungstools fehlen.

Zwar handelt es sich um Marketing-Gedusel aber NV's Behauptung dass eine G80 bis zu 27x mal schneller sein kann als eine G965 liegt nicht allzu weit von der Wahrheit entfernt wenn man nur den richtigen Fall aussucht.

Wenn ich die mangelhafte Effizienz des G965 uebersehe, gleicht das Ding insgesamt nichtmal einem halben Cluster einer G80. Um eine G86 zu erreichen braeucht man noch einiges an Effizienz nachruesten und auch wohl doppelt so viel Einheiten als Du zusammengerechnet hast.

NV4X ist auch eine GPU und kein IGP. Trotzdem wurde dieses Design so weit runtergekürzt um eine IGP daraus zu machen.
Wieso soll es auch nicht umgekehrt gehen? :|

Nur erschien das NV4x IGP Derivat um einige Zeit vor dem X3000 und es stampft das letztere auch ziemlich in den Boden von allen Seiten. Intel konnte bis jetzt ausgezeichnete Mathe-Einheiten entwickeln, aber diese sind leider nicht gut genug fuer Grafik-Einheiten.

Oder willst Du mir einreden dass Intel genauso viel Erfahrung mit Grafik hat wie NVIDIA?

Ausser es glaubt hier jemand man koennte 20 IGPs problemlos zusammenloeten und prompt eine mainstream oder high end Loesung in der Hand haben. Falls Intel tatsaechlich so etwas entwickelt dann handelt es sich um eine von Grund auf neue Entwicklung, deshalb wurden auch so viele engineers fuer's Larabee Projekt eingestellt.

VooDoo7mx
2007-01-23, 00:31:24
@Al

Einreden will ich dir mal gar nichts. ;)

Und soweit ich gelesen habe, ist der GMA X3000 die zur Zeit schnellste IGP. Und dabei stellt der Treiber noch nicht einmal alle Funktionen zur Verfügung.

Ich bin nur der Meinung, dass Intel schon ein fertiges Grafikchipdesign für das Jahr 2007 hat. Es muss nur noch nach oben hin mit dementsprechend vielen Recheneinheiten skaliert werden wo es im IGP Markt einfach unmöglich ist dementsprechend viele Einheiten unterzubringen. (Transistoren, Wärme, Stromverbrauch, Kosten)
Und wenn nVidia eine High End GPU bis zum IGP Markt runterskalieren kann, kann Intel das auch sicher umgekehrt.

Aber im Endeffekt wird die Zeit zeigen was passiert.
Ich bin auf jeden Fall mal ziemlich gespannt. :)

reunion
2007-01-23, 00:52:29
Als ich vor einiger Zeit erwaehnte dass Peddie vielleicht doch nicht auf dem falschen Pfad lag dass Intel in der Zukunft der groesste Konkurrent von NVIDIA sein koennte und eben auch direkt anders rum, fand es wohl keine besonderen Anklang.

Die Antwort auf Deine Frage ist eindeutiger als Ihr NV zutraut. Wenn Intel es schafft in der Zukunft anstaendige Grafikloesungen auf die Beine zu stellen, wuerde mich NV mit CPUs kein bisschen ueberraschen.

Das sehe ich anders. Vielleicht mit einem ARM-Design, wie von Xmas spekuliert (womit man allerdings der Hauptproblem nicht wirklich beseitigen würde), aber nie und nimmer mit einer konkurrenzfähigen X86-CPU. Und zwar aus verschiedensten Gründen:


Intel ist kein Neuling, was GPU-Designs betrifft, man fertigt aktuell immerhin einen D3D10-IPG. Man kann hier also zumindest ansatzweise auf was aufbauen, während Nvidia bei einer X86-CPU faktisch bei null anfangen müsste.


Der 3D-Bescheuniger-Markt ist ein verhältnismäßig junger. Während AMD und Intel schon seit Jahrzehneten versuchen, mit allen möglichen kniffen und enormen Aufwand eine möglichst performaten X86-CPU auf die Beine zu stellen, gibt es den klassischen 3D-Beschleuniger eigentlich erst seit der Voodoo Graphics aus den späten 96er Jahren.


Vorallem Intel, aber auch AMD sind letztendlich ein ganz anderes Kaliber als Nvidia. Beide haben eigene Fertigungsstätten, um aus den CPUs das letzte Quäntchen Leistung herauszukitzeln, und natürlich auch jedenmenge fähiger Leute was X86-Designs betrifft, während nV hier abermals bei null anfangen müsste. Von möglichen Patentproblemen mal ganz zu schweigen.

Ich denke nicht, dass es irgend ein Hersteller in Zukunft schaffen wird, in diesem Markt Fuß zu fassen, dafür wurden von AMD/Intel in der Vergangenheit viel zu große Fortschritte erzielt. Selbst Größen wie IBM wagen es aus gutem Grund nicht, hier einzusteigen.

Ailuros
2007-01-23, 06:31:43
Das sehe ich anders. Vielleicht mit einem ARM-Design, wie von Xmas spekuliert (womit man allerdings der Hauptproblem nicht wirklich beseitigen würde), aber nie und nimmer mit einer konkurrenzfähigen X86-CPU. Und zwar aus verschiedensten Gründen:

Hast Du eine Vorstellung was ein gesunder moderater Einstieg in den CPU/SoC Markt langfristig bedeuten koennte? Ich hoere es tatsaechlich hier zum ersten Mal, bis zu einem Grad macht es schon Sinn, das einzige Problem waere dann dass NV's generelles Geschaefts-modell nicht unbedingt optimal fuer IP Verkauf ist.


Intel ist kein Neuling, was GPU-Designs betrifft, man fertigt aktuell immerhin einen D3D10-IPG. Man kann hier also zumindest ansatzweise auf was aufbauen, während Nvidia bei einer X86-CPU faktisch bei null anfangen müsste.


Und wenn dieser D3D10 IGP dann doch IP von IMG letztenendlich haben sollte, unterstuetzt es Deinen Punkt hier inwiefern?



Der 3D-Bescheuniger-Markt ist ein verhältnismäßig junger. Während AMD und Intel schon seit Jahrzehneten versuchen, mit allen möglichen kniffen und enormen Aufwand eine möglichst performaten X86-CPU auf die Beine zu stellen, gibt es den klassischen 3D-Beschleuniger eigentlich erst seit der Voodoo Graphics aus den späten 96er Jahren.


Eine high end GPU braucht heutzutage sehr viel Erfahrung. Ganz so nebenbei mit dieser Logik bewaeltigst Du auch nicht unbedingt viel. Da ich oben IMG erwaehnte, frag mal Xmas ob und wieviele engineers mit voriger CPU-Entwicklung-Erfahrung bei der Firma hocken.

Wer erwaehnte hier ueberhaupt x86 Designs? Ich auf jeden Fall nicht.


Vorallem Intel, aber auch AMD sind letztendlich ein ganz anderes Kaliber als Nvidia. Beide haben eigene Fertigungsstätten, um aus den CPUs das letzte Quäntchen Leistung herauszukitzeln, und natürlich auch jedenmenge fähiger Leute was X86-Designs betrifft, während nV hier abermals bei null anfangen müsste. Von möglichen Patentproblemen mal ganz zu schweigen.

Ich denke nicht, dass es irgend ein Hersteller in Zukunft schaffen wird, in diesem Markt Fuß zu fassen, dafür wurden von AMD/Intel in der Vergangenheit viel zu große Fortschritte erzielt. Selbst Größen wie IBM wagen es aus gutem Grund nicht, hier einzusteigen.

Kommt ganz drauf an welchen Markt oder Maerkte man genau meint. NVIDIA hat schon seit Jahren render farms im Auge und Intel im Gegensatz den low-end 3D-Profi Markt fuer GPUs.

Was genau daraus wird weiss ich zwar noch nicht, aber ich hab schon seit einiger Zeit aufgehoert "nie" fuer diverse Moeglichkeiten zu denken. ARM ist praktisch konkurrenzlos im SoC Markt; das einzige was daran jetzt hinkt erwaehnte ich weiter oben. IP Firmen sind klein und flexibel.

Ailuros
2007-01-23, 06:37:01
Und soweit ich gelesen habe, ist der GMA X3000 die zur Zeit schnellste IGP. Und dabei stellt der Treiber noch nicht einmal alle Funktionen zur Verfügung.

Filtert er denn ueberhaupt trilinear mit heutigen Treibern? Intel hatte stets beschissene Filterung und es sieht hier auch nicht besonders rosig aus. Der schnellste IGP inwiefern und unter welchen genauen Vorraussetzungen?

Ich bin nur der Meinung, dass Intel schon ein fertiges Grafikchipdesign für das Jahr 2007 hat. Es muss nur noch nach oben hin mit dementsprechend vielen Recheneinheiten skaliert werden wo es im IGP Markt einfach unmöglich ist dementsprechend viele Einheiten unterzubringen. (Transistoren, Wärme, Stromverbrauch, Kosten)

Das "nur noch" ist gar nicht so einfach wie Du Dir vorstellst.

Und wenn nVidia eine High End GPU bis zum IGP Markt runterskalieren kann, kann Intel das auch sicher umgekehrt.

Wenn's nur so einfach waere :rolleyes:

Aber im Endeffekt wird die Zeit zeigen was passiert.
Ich bin auf jeden Fall mal ziemlich gespannt. :)

Tja ich bin da lieber mal konservativ; mehr als billig-Mist erwarte ich von Intel nicht, aber ich will auch gar nichts ausschliessen.

Gast
2007-01-23, 06:55:48
Filtert er denn ueberhaupt trilinear mit heutigen Treibern? Intel hatte stets beschissene Filterung und es sieht hier auch nicht besonders rosig aus. Der schnellste IGP inwiefern und unter welchen genauen Vorraussetzungen? http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5140259#post5140259

Zwar handelt es sich um Marketing-Gedusel aber NV's Behauptung dass eine G80 bis zu 27x mal schneller sein kann als eine G965 liegt nicht allzu weit von der Wahrheit entfernt wenn man nur den richtigen Fall aussucht.

Wenn ich die mangelhafte Effizienz des G965 uebersehe, gleicht das Ding insgesamt nichtmal einem halben Cluster einer G80. Um eine G86 zu erreichen braeucht man noch einiges an Effizienz nachruesten und auch wohl doppelt so viel Einheiten als Du zusammengerechnet hast.
Woher nimmst du eigentlich das Wissen über die Details des GMA X3000, wenn du die einfachen groben Fähigkeiten nicht kennst?

HOT
2007-01-23, 12:13:04
Das will ich erstmal sehen bevor ich es glaube; der einzige Grund warum ich es vorruebergehend bezweifle, ist dass ich es schwer verdauen kann dass Intel grosse Summen an royalties an IMG auszahlen wuerde.

IMG hat aber genau das was Intel fehlt: Ein Design. Fertigen kann Intel selber wunderbar, Chipentwicklung ist auch kein grosses Problem. Aber ein vernünftiges Design+Treiber auf die Beine zu stellen, da ist Intel einfach unfähig, wie man an sämtlichen Versuchen in der Vergangenheit gesehen hat. Ich denke, dass sie auf den Trichter gekommen sind, dass es einfach billiger ist sich diese Lizenzen zu holen und damit diese beiden Probleme vom Hals zu haben, denn IMG macht beides mit grossem Erfolg: Designs und Treiber.

robbitop
2007-01-23, 12:28:48
Soweit ich weiß besteht die GPU Fraktion von Intel aus dem kleinen 3D Team vom ehemaligen IHV "Real3D". Die haben zwar ein gewisses know how dort, aber mit dem know how von PVR oder gar NV/ATI können die es natürlich nicht aufnehmen. Deren komisches Zonerendering hat auch nie richtig funktioniert. IMO hat man die Triangle Binning Unit nie richtig hinbekommen.

Der X3000 scheint immernoch wie auch seine Vorgänger keine besonders gute LOD Präzision zu haben. Das Ding hat 2x TMUs und eine MIMD 16 ALU. Ich glaube kaum, dass da irgendwas von IMG drinsteckt. Meist ist er nichtmal schneller als ein GMA950. Also irgendwo im Bereich einer GF4MX.

HOT
2007-01-23, 12:36:24
Soweit ich weiß besteht die GPU Fraktion von Intel aus dem kleinen 3D Team vom ehemaligen IHV "Real3D". Die haben zwar ein gewisses know how dort, aber mit dem know how von PVR oder gar NV/ATI können die es natürlich nicht aufnehmen. Deren komisches Zonerendering hat auch nie richtig funktioniert. IMO hat man die Triangle Binning Unit nie richtig hinbekommen.

Der X3000 scheint immernoch wie auch seine Vorgänger keine besonders gute LOD Präzision zu haben. Das Ding hat 2x TMUs und eine MIMD 16 ALU. Ich glaube kaum, dass da irgendwas von IMG drinsteckt. Meist ist er nichtmal schneller als ein GMA950. Also irgendwo im Bereich einer GF4MX.

Richtig. Einen HighEnd Chip können die mit dem Müll auf keinen Fall fertigen, darum geht es ja.

Android
2007-01-23, 13:22:57
Hmm... theoretisch könnte Intel dann langfristig auch eine Konsole bauen.

Da tuen sich nicht unbedingt positive Zukunftsvisionen auf. :|

Also das Ziel eine "Konsole" in jedem Wohnzimmer zu haben, hat prinzipiell sowohl Intel als auch AMD. Und ganz ehrlich: 90% der Nutzer würde das wahrscheinlich begrüssen. Die Vorteile einer Konsole für Gamer muss ich jetzt wohl nicht aufführen. Aber auch Normalonutzer wären mit Sicherheit davon begeistert. Ob ihr es wollt oder nicht, das All-in-One Prinzip ist das Ziel. Solange es aber min. zwei Hersteller gibt, die dieses Ziel verfolgen, muss man sich keine Sorgen um den Preis machen (Preisabsprachen ausgenommen).
Frage: Könnte Intel gute Grafikchips herstellen? Absolut. Geld ist da und das ist das Hauptkriterium. Warum man sie nicht unterschätzen sollte: Bis jetzt haben sie keine ernsthaften Ambitionen gehegt in diesem Segment mitzumischen. Das hat sich jetzt anscheinend geändert.

Mfg
Android

Ailuros
2007-01-23, 13:42:00
IMG hat aber genau das was Intel fehlt: Ein Design. Fertigen kann Intel selber wunderbar, Chipentwicklung ist auch kein grosses Problem. Aber ein vernünftiges Design+Treiber auf die Beine zu stellen, da ist Intel einfach unfähig, wie man an sämtlichen Versuchen in der Vergangenheit gesehen hat. Ich denke, dass sie auf den Trichter gekommen sind, dass es einfach billiger ist sich diese Lizenzen zu holen und damit diese beiden Probleme vom Hals zu haben, denn IMG macht beides mit grossem Erfolg: Designs und Treiber.

Mit den Resourcen von Intel kann man sich quasi alles einkaufen; darum geht es ja gar nicht. Intel's Hauptgeschaeft sind CPUs; was mir schwer faellt zu glauben ist dass Intel von Tag auf Nacht so viel Resourcen aufwenden wird um mit voller Pulle von "top to bottom" im GPU Markt einzusteigen. Das verbundene Risiko ist nicht klein und wenn ich absolut nuechtern betrachte macht mir nur ein moderater "Test-einstieg" fuer den Anfang Sinn und wenn es klappt und es ein Erfolg wird, koennte man eventuell weiterskalieren.

Nach den roadmaps die IMG veroeffentlicht hat, sehe ich nichts fuer die absehbare Zukunft die auf irgend etwas wahres high end deuten koennte. Und wenn man hier auch etwas nuechtern nachdenkt, waere auch fuer IMG ein solches Projekt viel zu riskant. Sie haben momentan etliche SoCs unter Entwicklung und da reichen die Resourcen wohl schwer fuer ein sehr kompliziertes Projekt aus. Fuer Kleinkram den man irgendwo unter der mainstream Sparte des Markts kategorisieren kann dann wohl schon.

Ich schaetze das IMG Treiber-team an die =/<40 engineers. Allein fuer MBX haben sie einige Platformen zu unterstuetzen; wuerde man jetzt hypothetisch noch einen wahren high end Design dazuschnallen, dann wird es alleine schon mit XP und Vista Treibern ziemlich hektisch, und in dem Bereich haben heutzutage sogar ATI/NVIDIA Probleme allen Forderungen fuer parallele Unterstuetzung folgen zu koennen.

Ich will ja jetzt nicht alles schwarz mahlen, aber ich hab das Gefuehl dass manche Sachen nicht so einfach sind wie man glauben koennte.

Ailuros
2007-01-23, 13:53:24
http://www.forum-3dcenter.org/vbulletin/showthread.php?p=5140259#post5140259

Lass mich mal sehen....die Filterung die der AF Tester anzeigt ist meilenweit von irgend einem Optimum entfernt und ich Echtzeit sieht es auch nicht besser aus. Dass sie zone rendering nicht richtig hinbiegen konnten fuer >PS2.0 klingt ja auch ziemlich vielversprechend. Was genau sollte mir der Link jetzt zeigen?


Woher nimmst du eigentlich das Wissen über die Details des GMA X3000, wenn du die einfachen groben Fähigkeiten nicht kennst?

Du kannst ja gerne versuchen mir zu erklaeren wie und wieso man den cluster des G965 gegen einen G80 cluster vergleichen kann. Denk aber in der Zwischenzeit nach ueber was jede G965 Einheit genau faehig ist und dass jede G80 ALU auf 1.35 und nicht auf 667MHz getaktet ist.

Fuer Schlepptops oder Buero-PCs sind diese und jegliche IGPs ausgezeichnet; danach kommt die Sintflut wenn es zu 3D kommt.

Bokill
2007-01-23, 14:01:42
Also das Ziel eine "Konsole" in jedem Wohnzimmer zu haben, hat prinzipiell sowohl Intel als auch AMD. ... Wenn man berücksichtigt, dass mit BlueRay und HDDVD vielfach neue Chips notwendig werden ...

Wenn man berücksichtigt, dass derzeit sehr viel Geld in die Internet-TV Infrastruktur gepumpt wird ...

Mit Microsoft Windwos Vista ein Minimum an 3-D Fähigkeiten auch vom Betriebssystem verlangt werden ...

Dann macht es Sinn, wenn AMD und Intel sich grundlegende Gedanken machen über ihre Plattformen. Der reine Spielermarkt ist grundlegend kleiner, als der TV/Video-Hardwaremarkt. Immagination Technologies ist in diesen "CE"*-Markt (http://www.imgtec.com/News/index.asp) drin, sie gelten sogar als referenzverdächtig in Sachen Digitalradio DAB.

MFG Bobo(2007)

* = Consumer Electronics

robbitop
2007-01-23, 14:01:57
@AiL
Das Zonerendering war nie sonderlich hilfreich. Nach meinen Untersuchungen krankt das ganze an der Triangle Binning Stage. Das Teil braucht einfach viel zu viel Zeit, die Dreiecke pro Zone festzulegen und nicht sichtbare Dreiecke wegzucullen.

Gast
2007-01-23, 14:08:19
Der X3000 scheint immernoch wie auch seine Vorgänger keine besonders gute LOD Präzision zu haben. Das Ding hat 2x TMUs und eine MIMD 16 ALU. Ich glaube kaum, dass da irgendwas von IMG drinsteckt. Meist ist er nichtmal schneller als ein GMA950. Also irgendwo im Bereich einer GF4MX. "Meist" = mit den momentan aktuellen Treibern, die noch alles in Software machen und weder fixed function T&L in Hardware können, noch VS 3.0 in Hardware oder PS 3.0 in Hardware. Also praktisch überhaupt nichts. AFAIK arbeitet der GMA 950 wenigstens noch mit PS 2.0 in Hardware.

Du weißt also wioe alle anderen noch gar nicht, wie der X3000 wirklich performed.

Ailuros
2007-01-23, 14:18:25
@AiL
Das Zonerendering war nie sonderlich hilfreich. Nach meinen Untersuchungen krankt das ganze an der Triangle Binning Stage. Das Teil braucht einfach viel zu viel Zeit, die Dreiecke pro Zone festzulegen und nicht sichtbare Dreiecke wegzucullen.

Das erklaert mir aber nicht, warum die vorige Generation in einem fuellraten-limitierten DX7.0 Spiel wie UT2k3/4 besser abschlaegt als G965.

http://www.xbitlabs.com/articles/chipsets/display/ig965-gf6150_12.html

Dabei hatte 945G nichtmal eine Geometrie-Einheit afaik. Ich sehe ja ein dass der Review auch ziemlich alt ist und neuere Treiber in der Zwischenzeit aufgeholt haben, aber das Ganze sieht schon ziemlich merkwuerdig aus.

Ailuros
2007-01-23, 14:23:12
"Meist" = mit den momentan aktuellen Treibern, die noch alles in Software machen und weder fixed function T&L in Hardware können, noch VS 3.0 in Hardware oder PS 3.0 in Hardware. Also praktisch überhaupt nichts. AFAIK arbeitet der GMA 950 wenigstens noch mit PS 2.0 in Hardware.

Du weißt also wioe alle anderen noch gar nicht, wie der X3000 wirklich performed.

...der wahre Treiberupdate von Intel heisst dann wohl X4000 oder die naechste Generation-wasauchimmer HW oder wie? Ein Treiber der alles theoretisch nachholen wuerde haetten sie spaetestens 1-2 Monate nach Launch liefern sollen....

Gast
2007-01-23, 14:23:28
Das erklaert mir aber nicht, warum die vorige Generation in einem fuellraten-limitierten DX7.0 Spiel wie UT2k3/4 besser abschlaegt als G965.

http://www.xbitlabs.com/articles/chipsets/display/ig965-gf6150_12.html


945G 1600MTex/s vs G965 1333MTex/s?

Ailuros
2007-01-23, 14:26:32
945G 1600MTex/s vs G965 1333MTex/s?

Und sie schmeissen nach wie vor die gesamte Geometrie auf die CPU? So hauts schon hin.

robbitop
2007-01-23, 14:35:28
"Meist" = mit den momentan aktuellen Treibern, die noch alles in Software machen und weder fixed function T&L in Hardware können, noch VS 3.0 in Hardware oder PS 3.0 in Hardware. Also praktisch überhaupt nichts. AFAIK arbeitet der GMA 950 wenigstens noch mit PS 2.0 in Hardware.

Du weißt also wioe alle anderen noch gar nicht, wie der X3000 wirklich performed.
Würde mich arg wundern, wenn die Geometrie limitieren sollte.

robbitop
2007-01-23, 14:37:01
Das erklaert mir aber nicht, warum die vorige Generation in einem fuellraten-limitierten DX7.0 Spiel wie UT2k3/4 besser abschlaegt als G965.

http://www.xbitlabs.com/articles/chipsets/display/ig965-gf6150_12.html

Dabei hatte 945G nichtmal eine Geometrie-Einheit afaik. Ich sehe ja ein dass der Review auch ziemlich alt ist und neuere Treiber in der Zwischenzeit aufgeholt haben, aber das Ganze sieht schon ziemlich merkwuerdig aus.
Wegen der höheren Füllrate auf GMA950. Der Desktop GMA950 hat 1600 MTex/sek und der Desktop X3000 nur 1333MTex/sek. Die Rechenleistung ist auch nicht wirklich gestiegen.

Ailuros
2007-01-23, 14:39:58
Gibt es denn heutzutage einen Treiber der die HW Faehigkeiten aktiviert, oder hocken die Einheiten nur dumm rum und stricken Pullover?

robbitop
2007-01-23, 14:44:12
TnL sollte ab dem 26er gehen IIRC.

Gast
2007-01-23, 14:45:48
Gibt es denn heutzutage einen Treiber der die HW Faehigkeiten aktiviert, oder hocken die Einheiten nur dumm rum und stricken Pullover? Die Einheiten momentan hocken dumm rum und tragen ohne zu arbeiten zum Treibhauseffekt bei.

Aktuell ist die Production Version des Windows-Treibers 14.25. Da ist eine GMA X3000 weniger als eine GMA950. Intel scheint sich entweder mit dem Releasedatum des 14.26er Treibers verschätzt zu haben oder sie warten auf den offiziellen Launchtermin von Vista Ende Januar.

Zeitplan Hardware-Funtkionsunterstützung:
http://www.hkepc.com/bbs/itnews.php?tid=675499&starttime=0&endtime=0

Ailuros
2007-01-23, 14:48:06
Na mit dem Tempo muss sich Intel aber ganz gewaltig anstrengen wenn sie irgend einen Erfolg mit GPUs in der Zukunft haben wollen.

Ailuros
2007-01-23, 14:54:15
Die Einheiten momentan hocken dumm rum und tragen ohne zu arbeiten zum Treibhauseffekt bei.

Aktuell ist die Production Version des Windows-Treibers 14.25. Da ist eine GMA X3000 weniger als eine GMA950. Intel scheint sich entweder mit dem Releasedatum des 14.26er Treibers verschätzt zu haben oder sie warten auf den offiziellen Launchtermin von Vista Ende Januar.

Zeitplan Hardware-Funtkionsunterstützung:
http://www.hkepc.com/bbs/itnews.php?tid=675499&starttime=0&endtime=0

Man braucht normalerweise nicht 7 oder mehr Monate um einen Treiber zu entwickeln der die HW voll unterstuetzt. Entweder schuften bei dem Treiber-team nur eine handvoll Leute rum oder die HW hat ernsthafte Macken. Wuerde so etwas auf einer ATI/NVIDIA Loesung passieren, wuerden sich die Verbraucher (absolut gerechtfertigt) den Hals ausbruellen *kopfschuettel*

Gast
2007-01-23, 15:05:32
Hier hat doch keiner Ahnung, was bei Intel hinter den Kulissen passiert. Es ist offensichtlich, daß die X3000 Grafik nicht wirklich ernsthaft vorngestrieben wird. Das hat vielleicht sogar Zweck und Methode. Hier glaubt nun ja mittlerweile jeder, Intel können dahingehend nichts auf die Beine stellen. Ich glaube eher an eine Überraschung. Intel hat die Zocker als klientel für Hochleistungs-CPUs ausgemacht. Es macht Sinn, die gleiche Klientel mit Hochleistungsgrafik zu beglücken. Intel spielt nicht gerne die zweite Geige. Entweder sie halten ganz oben mit, oder sie konzentrieren sich ausschließlich auf einen leistungsfähigen IGP, welche auch noch später in die CPU wandern könnte.

HOT
2007-01-23, 17:42:19
"Meist" = mit den momentan aktuellen Treibern, die noch alles in Software machen und weder fixed function T&L in Hardware können, noch VS 3.0 in Hardware oder PS 3.0 in Hardware. Also praktisch überhaupt nichts. AFAIK arbeitet der GMA 950 wenigstens noch mit PS 2.0 in Hardware.

Du weißt also wioe alle anderen noch gar nicht, wie der X3000 wirklich performed.

Ich weiss ja nicht aber das Ganze erinnert mich stark an den Savage2000 ;). Mit reinem Intel Know-How wird das nix mit HighEnd auf absehbare Zeit.

mapel110
2007-01-23, 18:08:55
Wenn man bedenkt, dass nvidia 4 Jahre gebraucht hat, um G80 zu entwickeln, dann kann Intel wohl auch erst langfristig etwas abliefern. Also Panik muss nvidia derzeit sicher nicht haben imo.

Gast
2007-01-23, 18:20:39
Eigentlich müsste Intel nach ihrem Werbefeldzug für Raytracing entsprechende GPUs rausbringen. Aber ich glaube, dort ist wieder die Vernunft eingekehrt und man baut normale Rasterizer. X-D

StefanV
2007-01-23, 18:45:09
Eigentlich müsste Intel nach ihrem Werbefeldzug für Raytracing entsprechende GPUs rausbringen. Aber ich glaube, dort ist wieder die Vernunft eingekehrt und man baut normale Rasterizer. X-D
Passt das nicht recht gut zu PowerVR Chips??

Die machen doch irgendwas ganz anders...

puntarenas
2007-01-23, 18:45:57
Hauptsache die Treiber bleiben frei, dann wäre auch eine Mittelklasse-GPU zum jeweiligen Zeitpunkt für mich erste Wahl. Tatsächlich ist dies seit langem der erste Hoffnungsschimmer, von den miesen Closed-Source Treibern unter Linux wegzukommen, ohne allzugroße Einbußen bei Windowsspielen hinnehmen zu müssen. Solange alles Spekulation ist, werde ich in diese Richtung weiterträumen.

Für Nvidia kann das aber wirklich bitter ausgehen, schließlich stehen sie dann plötzlich als einziger Anbieter allein mit ihren GPUs da, während AMD und Intel komplette Plattformen liefern. Würde mich nicht wundern, wenn die beiden Erzkonkurrenten da kurzfristig zu einem informellen Waffenstillstand kämen, bis der gemeinsame Gegner aus dem Weg geräumt ist. Der sogenannte freie Markt hat ja auch schonmal die eine oder andere kleine Inkompatibilität produziert, dann noch ein wenig Druck auf die großen Distributoren und plötzlich spielt die eigentliche Produktqualität keine große Rolle mehr.

Gast
2007-01-23, 18:50:03
Ich weiss ja nicht aber das Ganze erinnert mich stark an den Savage2000 ;). Mit reinem Intel Know-How wird das nix mit HighEnd auf absehbare Zeit.

Unterschätz mal Intel nicht. Wo jetzt langsam die GPUs immer CPU-ähnlicher werden dürfte es für Intel kein großes Problem sein, in absehbarer Zeit einen richtigen Hammer Grafikchip zu entwickeln.

Gmax
2007-01-23, 18:58:08
Unterschätz mal Intel nicht. Wo jetzt langsam die GPUs immer CPU-ähnlicher werden dürfte es für Intel kein großes Problem sein, in absehbarer Zeit einen richtigen Hammer Grafikchip zu entwickeln.
Vor allem, wenn man mit PowerVR zusammenarbeitet.
Diese Tile Based Renderer (Kyro) waren ziemlich effizent :rolleyes:

Gast
2007-01-23, 19:01:11
Diese Tile Based Renderer (Kyro) waren ziemlich effizent :rolleyes:
Im Vergleich heute aber nicht mehr so viel effektiver wie es früher war.
Die meiste Leistung frisst das Pixelshading und dort ist der Overdraw bei modernen Engines kaum mehr zu reduzieren.

Mastermind
2007-01-23, 19:35:23
Das will ich erstmal sehen bevor ich es glaube; der einzige Grund warum ich es vorruebergehend bezweifle, ist dass ich es schwer verdauen kann dass Intel grosse Summen an royalties an IMG auszahlen wuerde.
Warum wäre das so schlimm? :confused: (Verstehe ich wirklich nicht)

robbitop
2007-01-23, 19:44:01
Im Vergleich heute aber nicht mehr so viel effektiver wie es früher war.
Die meiste Leistung frisst das Pixelshading und dort ist der Overdraw bei modernen Engines kaum mehr zu reduzieren.
Das Pixelshading geschieht pro Texel genau wie das Texturieren und Blenden und soziemlich alles. Und natürlich würde ein TBDR hier genauso sparen, wie er Texelfüllrate und Bandbreite sparen würde.

loewe
2007-01-23, 19:52:03
Im Vergleich heute aber nicht mehr so viel effektiver wie es früher war.
Die meiste Leistung frisst das Pixelshading und dort ist der Overdraw bei modernen Engines kaum mehr zu reduzieren.

Es ist immer wieder die gleiche Diskussion. :)
Auch PowerVR hat die Abläufe im "Chip" weiter optimiert, sprich SGX ist selbst was die reine Effizienz anbelangt nicht mehr wirklich mit KYRO vergleichbar. Es gilt aber nach wie vor, wenn nicht einmal 50% der Pixel die Pixelshader erreichen, dann ist das auf jeden Fall erst einmal gut. Wenn dann die Lastverteilung auf die Shader noch gut ist, wer hier besser sein wird muss sich noch zeigen, auch für NV und ATI ist das ja noch nicht geklärt, hat man mit Sicherheit den besseren Chip.

BTW, ich denke ein TBDR ist für das was hier von intel als "many-core architecture" bezeichnet wird hervorragend geeignet. Und immer bedenken, auch darin haben dei Jungs von PowerVR Erfahrung, viele kommen aus dem Bereich der Transputer-Entwicklung.

Gast
2007-01-23, 20:02:32
Es ist immer wieder die gleiche Diskussion. :)
Nein.
Durch die neuen Architekturen verschiebt sich die Effizienzgrenze immer weiter.
Mit der neuen Generation muss ich mit nem Z-Pass die Geometrieberechnungen nur noch einmal durchführen (Stream-Out) und hab perfektes Culling für die Pixelshader. Nur die Rasterisierung muss man 2 mal durchführen. Die limitiert aber eh nicht und die ALUs sind durch die USA immer ausgelastet.
Wo soll da noch soviel eingespart werden?

Ailuros
2007-01-23, 20:11:18
Warum wäre das so schlimm? :confused: (Verstehe ich wirklich nicht)

Denk mal nach wie viele IGPs Intel in PCs und Laptops verkauft, denk an UMPCs die wohl fast sicher mit SGX ausgestattet sein werden und dann noch GPUs.

Es wuerde mehr Sinn machen IMG aufzukaufen oder das eigene Grafik Entwicklungsteam konstant zu erweitern, was Intel ja momentan auch macht.

Wuerdest Du etwas mieten wenn Du einen Weg finden kannst es selber zu machen bzw. zu bauen? Und bevor Du Zeit sagst; Zeit gehoert auch zu Resourcen und von den hat Intel genug.

Klar wird Intel IMHLO IMG IP benutzen, aber nur in begrenzten Mengen; langfristig und noch mehr wenn sie erfolgreich sein sollten wird der Spass zu teuer. Es wuerde nicht das erste Mal sein dass ich total falsch liege, aber Intel ist nicht aus reinem Zufall der groesste Semi Hersteller ueberhaupt.

Ailuros
2007-01-23, 20:14:35
Nein.
Durch die neuen Architekturen verschiebt sich die Effizienzgrenze immer weiter.
Mit der neuen Generation muss ich mit nem Z-Pass die Geometrieberechnungen nur noch einmal durchführen (Stream-Out) und hab perfektes Culling für die Pixelshader. Nur die Rasterisierung muss man 2 mal durchführen. Die limitiert aber eh nicht und die ALUs sind durch die USA immer ausgelastet.
Wo soll da noch soviel eingespart werden?

Alles was auf IMRs immer noch intensiv Speicher und Bandbreite frisst; alles floating point (u.a. HDR), MRTs, Antialiasing usw. Dass TBDRs einen grossen Vorteil mit floating point Framebuffern haben, sollte kein Geheimnis sein.

Ailuros
2007-01-23, 20:18:39
Unterschätz mal Intel nicht. Wo jetzt langsam die GPUs immer CPU-ähnlicher werden dürfte es für Intel kein großes Problem sein, in absehbarer Zeit einen richtigen Hammer Grafikchip zu entwickeln.

Nur weil bei GPUs die arithmetische Effizienz steigt heisst es bei weitem nicht dass CPUs und GPUs ueber Nacht verwandt wurden. Es gibt immer noch sehr grosse Unterschiede zwischen den beiden Familien und wo bei CPUs die Frequenz nicht mehr skalieren wollte, ging man auf multi-core um bessere Parallelisierung auch zu erreichen; eine GPU braucht hingegen bis jetzt zumindest keine Vielfalt von cores, da man einfach die Anzahl der Einheiten oder Einheits-gruppen skaliert. Es bleibt nach wie vor CPU=general purpose, GPU=dedicated 3D.

Ailuros
2007-01-23, 20:19:37
Passt das nicht recht gut zu PowerVR Chips??

Die machen doch irgendwas ganz anders...

Ray casting hat fundamentale Unterschiede zu ray traycing.

mapel110
2007-01-23, 20:20:13
Denk mal nach wie viele IGPs Intel in PCs und Laptops verkauft, denk an UMPCs die wohl fast sicher mit SGX ausgestattet sein werden und dann noch GPUs.

Es wuerde mehr Sinn machen IMG aufzukaufen oder das eigene Grafik Entwicklungsteam konstant zu erweitern, was Intel ja momentan auch macht.

Wuerdest Du etwas mieten wenn Du einen Weg finden kannst es selber zu machen bzw. zu bauen? Und bevor Du Zeit sagst; Zeit gehoert auch zu Resourcen und von den hat Intel genug.

Klar wird Intel IMHLO IMG IP benutzen, aber nur in begrenzten Mengen; langfristig und noch mehr wenn sie erfolgreich sein sollten wird der Spass zu teuer. Es wuerde nicht das erste Mal sein dass ich total falsch liege, aber Intel ist nicht aus reinem Zufall der groesste Semi Hersteller ueberhaupt.
Das kann schon alles stimmen, was du sagst. Dann könnte ich mir vorstellen, dass Intel erstmal IMG IP für den Anfang nutzt und wenns dann erfolgreich läuft, wird IMG einverleibt. :) bzw ;(

Gast
2007-01-23, 20:26:28
Alles was auf IMRs immer noch intensiv Speicher und Bandbreite frisst; alles floating point (u.a. HDR), MRTs, Antialiasing usw. Dass TBDRs einen grossen Vorteil mit floating point Framebuffern haben, sollte kein Geheimnis sein.
Der "große" Vorteil ist so klein, dass er bei bei den zukünftigen Bandbreiten unter Toleranz fällt.
Ihr predigt das ganze Jahr, dass aktuelle GPUs nicht bandbreitenlimitiert sind und nun soll die Einsparung eines Bruchteils des Bandbreitenverbrauchs einen riesigen Vorteil bringen?
So objektiv du sonst bist Ailuros, aber diese Diskussionen erinnern mich an Diskussionen über das heilige 3dfx.

loewe
2007-01-23, 20:32:15
Nein.
Durch die neuen Architekturen verschiebt sich die Effizienzgrenze immer weiter.
Mit der neuen Generation muss ich mit nem Z-Pass die Geometrieberechnungen nur noch einmal durchführen (Stream-Out) und hab perfektes Culling für die Pixelshader. Nur die Rasterisierung muss man 2 mal durchführen. Die limitiert aber eh nicht und die ALUs sind durch die USA immer ausgelastet.
Wo soll da noch soviel eingespart werden?

Mag sein das ich irgendwo etwas nicht mitbekommen habe, aber AFAIK verbraucht ein Z-Pass immer noch Geometrieleistung, Z-Bandbreite und Füllrate. Wenn das alles kein Problem ist, ok.
Soweit mir bekannt wird außerdem ein zusätzlicher Z-Pass nicht immer und überall verwendet.
Ansonsten gilt das von AiL schon genannte. Auf welchem IMR bekommst Du 8x8 MSAA hin?

Ich baue die dinger nicht, aber die Leute die das tun sagen nach wie vor das sie sehr viel effizienter sind. Warten wir doch erst einmal ab! :)

Iwan
2007-01-23, 20:47:43
Wenn man bedenkt, dass nvidia 4 Jahre gebraucht hat, um G80 zu entwickeln, dann kann Intel wohl auch erst langfristig etwas abliefern. Also Panik muss nvidia derzeit sicher nicht haben imo.

Ich könnte mir auch vorstellen das auch NV irgendwann Komplettsysteme anbieten könnte. Sie haben Grafikkarten, Chipsätze und könnten damit die afaik offene Infrastruktur von AMD nutzen, fehlt nur noch die CPU. Diese könnte ja dann ein AMD-nachbau sein um dann wenigstens im OEM-Segment Fuss zu fassen und wenigstens im weniger Performance-Relevanten Gebiet punkten zu können.

Gast
2007-01-23, 20:48:32
Mag sein das ich irgendwo etwas nicht mitbekommen habe, aber AFAIK verbraucht ein Z-Pass immer noch Geometrieleistung,
Nicht mehr dank Stream-Out.
Z-Bandbreite
Dank Kompression nicht mehr viel und prozentual am Bandbreitenverbrauch nicht mehr so wichtig
und Füllrate.
Wie hoch ist die Z-Füllrate eines G80?
Wenn das alles kein Problem ist, ok.
Es ist nur kein Problem mehr, ein Z-Pass ist für einige Effekte inzwischen Voraussetzung. Abgesehen davon gibts solche Dinge wie predicated Rendering.
Soweit mir bekannt wird außerdem ein zusätzlicher Z-Pass nicht immer und überall verwendet.
Wurde in den letzten Jahren immer mehr und wird unter DX10 zum Standard werden.
Ansonsten gilt das von AiL schon genannte. Auf welchem IMR bekommst Du 8x8 MSAA hin?
1. Nutzen?
2. großer Framebuffer, wenn du den Zugriff auf Subsamples ermöglichen musst, oder meinst du nicht?

Ich baue die dinger nicht, aber die Leute die das tun sagen nach wie vor das sie sehr viel effizienter sind. Warten wir doch erst einmal ab! :)
Für mich die selbe Diskussion wie "x86 ist ineffizient".

Ailuros
2007-01-23, 20:50:59
Der "große" Vorteil ist so klein, dass er bei bei den zukünftigen Bandbreiten unter Toleranz fällt.

R600 kann mit ihren >120GB Bandbreite froh sein wenn sie zukuenftige Spiele in 1600*1200 mit entweder wenig oder gar kein AA bewaeltigen kann. Was diese dann genau beinhalten werden wirst Du wohl schon wissen.


Ihr predigt das ganze Jahr, dass aktuelle GPUs nicht bandbreitenlimitiert sind und nun soll die Einsparung eines Bruchteils des Bandbreitenverbrauchs einen riesigen Vorteil bringen?

Was aber nur heisst dass G80 als aktuelles Beispiel nicht unbalanciert ist insgesamt als Architektur. Ein heutiger high end TBDR koennte mit einem Bruchteil der Bandbreite von heutigen GPUs auskommen, ergo ist es wohl Ansichtssache was viel oder wenig, gross oder klein ist.

So objektiv du sonst bist Ailuros, aber diese Diskussionen erinnern mich an Diskussionen über das heilige 3dfx.

Keiner ist zu 100% objektiv, und dass was mir momentan nicht glauben laesst dass TBDRs alle Vorteile verloren haben ist die absolute technologische Dominanz im PDA/mobile Markt von TBDRs/PowerVR und momentan sind sie leider nicht in einem anderem Markt aktiv.

Ich hab nie behauptet dass TBDR ein Allerheilmittel ist und hab dieses auch des oefteren betont. Der Unterschied ist dann eben dass TBDRs weiterhin sowohl Vor- als auch Nachteile haben wie IMRs eben auch.

Hier geht es uebrigens um Intel; die tragische Ironie fuer die paar Sticheleien deinerseits ist dann eben dass Intel mehrere IMG Lizenzen in der Hand hat und diese auch integrieren wird. Genau eben weil IMG's Mist keine zusaetzliche Effizienz auf den Tisch bringt und Intel nur Uebergrafik entwickelt :P

Ailuros
2007-01-23, 21:01:50
Wie hoch ist die Z-Füllrate eines G80?

Wie hoch waere sie wenn G80 ein TBDR waere?

1. Nutzen?

8*8 ist zu viel und wuerde zu stark auf die Leistung einhauen. Aber es gaebe wohl keine Not entweder auf 8x Multisampling stecken zu bleiben (trotz extravaganten Bandbreiten in manchen Faellen heh...) oder zu coverage sampling zu greifen, von dem ich persoenlich eigentlich nicht enttaeuscht bin. Es ist und bleibt aber eine Zwischenloesung. Glaubst Du nicht auch dass ich als AA-Freak eher zu vollem 16xMSAA greifen wuerde mit einem Verlust der nicht so gigantisch sein wuerde wie momentan bei nur 8x, anstatt einer Zwischenloesung, wie 16x coverage? Steig ich dann auf 16xQ verlier ich gesunde 70-80% je nach Fall.

2. großer Framebuffer, wenn du den Zugriff auf Subsamples ermöglichen musst, oder meinst du nicht?

Nur spielte er auf hybrides 64xFSAA an, wobei bei einem vorigen vaporware Design mit 64bpp HDR der ganze Spass immer noch in 1024*768 reingequetscht werden konnte. Spielbarkeit will ich zwar bezweifeln, aber den Speicherverbrauch sollte man sich vorstellen koennen.

reunion
2007-01-23, 21:05:02
Wer erwaehnte hier ueberhaupt x86 Designs? Ich auf jeden Fall nicht.


Nein, hast du nicht, nur würde nur eine konkurrenzfähig X86-CPU auf lange Sicht nVs-Problem lösen.

Wenn man bedenkt, dass nvidia 4 Jahre gebraucht hat, um G80 zu entwickeln, dann kann Intel wohl auch erst langfristig etwas abliefern. Also Panik muss nvidia derzeit sicher nicht haben imo.

Intel kündig soetwas mit Sicherheit nicht an, wenn man nicht irgendetwas in der hinterhand hält. Durchaus möglich, dass man zu beginn mit einem IMG-Design daherkommt, bis man mit eigenen Entwicklungen weit genug ist.

Gast
2007-01-23, 21:09:45
...
Mittelfristig laufen wir imo eine max sinnvolle Auflösungzahl und max sinnvolle Samplezahl für die Geometrie pro Pixel. Die Speicherbandbreite wächst aber weiterhin. Ob der R600 jemals in eine Bandbreitenlimitierung läuft, weiss ich nicht. Das hängt von zuvielen Faktoren ab. Je nach Entwicklung des Rechenzeitverbrauchs kann es vielleicht auch dort zuerst knapp werden.
Bei ner 50:50 Chance stehen Vorhersagen aber nie schlecht. ;)

Hier geht es uebrigens um Intel; die tragische Ironie fuer die paar Sticheleien deinerseits ist dann eben dass Intel mehrere IMG Lizenzen in der Hand hat und diese auch integrieren wird. Genau eben weil IMG's Mist keine zusaetzliche Effizienz auf den Tisch bringt und Intel nur Uebergrafik entwickelt :P
Und andererseits die tragische Ironie, dass Nvidia jetzt wieder ein halbes Jahrzehnt und Unsummen an Geldern in eine komplett neue Architektur gesteckt hat, nur um sich von Intel und einer kleinen IP-Schmiede überrennen zu lassen.


Hmm ich schreib zu langsam
8*8 ist zu viel und wuerde zu stark auf die Leistung einhauen....
Da sind wir wohl einer Meinung.
Nur spielte er auf hybrides 64xFSAA an, wobei bei einem vorigen vaporware Design mit 64bpp HDR der ganze Spass immer noch in 1024*768 reingequetscht werden konnte. Spielbarkeit will ich zwar bezweifeln, aber den Speicherverbrauch sollte man sich vorstellen koennen.
Welches Design war das?

Ailuros
2007-01-23, 21:16:40
Nein, hast du nicht, nur würde nur eine konkurrenzfähig X86-CPU auf lange Sicht nVs-Problem lösen.

Der ARM ist kein x86 Design und trotzdem der erfolgreichste in seinem eigenen Domain. NV will wohl Geld machen und dabei macht es IMHO mehr Sinn in Maerkten einzudrigen oder es wenigstens zu versuchen wo es am einfachsten ist und auch das Potential hoch genug ist dicken Gewinn zu machen.

Wenn das Resultat und die Vermarktung stimmen sollte, dann sehe ich nicht ein warum grosse Semi Hersteller nicht auch von einer zweiten Quelle kaufen wuerden. Genauso wie ich mir vorstelle dass Intel kein besonders grosses Risiko eingehen wird, stelle ich mir auch vor dass NVIDIA um einiges vorsichtiger mit jedem strategischem Zug sein wird. Sie sparen ja in letzten Jahren wie die verrueckten an Unkosten um jegliches Risiko zu minimalisieren; da waere ein sehr gewagter Zug wohl ein sehr fettes Oxymoron zu der zeitigen Philosophie.

Ailuros
2007-01-23, 21:26:34
Mittelfristig laufen wir imo eine max sinnvolle Auflösungzahl und max sinnvolle Samplezahl für die Geometrie pro Pixel. Die Speicherbandbreite wächst aber weiterhin. Ob der R600 jemals in eine Bandbreitenlimitierung läuft, weiss ich nicht. Das hängt von zuvielen Faktoren ab. Je nach Entwicklung des Rechenzeitverbrauchs kann es vielleicht auch dort zuerst knapp werden.
Bei ner 50:50 Chance stehen Vorhersagen aber nie schlecht. ;)

R600 hat IMHO ueberfluessige Bandbreite aber das auch nur kurzfristig. Ich kann leider momentan nicht mehr ausspucken, aber NV wird ja auch kurzfristig nachholen.


Und andererseits die tragische Ironie, dass Nvidia jetzt wieder ein halbes Jahrzehnt und Unsummen an Geldern in eine komplett neue Architektur gesteckt hat, nur um sich von Intel und einer kleinen IP-Schmiede überrennen zu lassen.

Hab ich je aehnliches behauptet? Ganz im Gegenteil - falls Du ueberhaupt meinen Quark vorsichtig genug durchliest- kannst Du sehen dass ich eher alles <mainstream von Intel erwarte und ich bin mir gar nicht so sicher dass Intel mehr als nur in IGPs bzw. UMPCs SGX einbauen wird.

Da sind wir wohl einer Meinung.

Was mir aber meine vorige Frage fuer 8x oder 16xMSAA in heutigen GPUs nicht beantwortet und schon gar nicht fuer zukuenftige Spiele.

Welches Design war das?

Vaporware von dem Eurasia/SGX eigentlich weiterentwickelt wurde. Das Ding platzte wohl dank fehlenden Resourcen und das sollte Dir zeigen dass ich eben NICHT erwarte einen high end Design von IMG in der absehbaren Zukunft zu sehen. Das hat aber absolut nichts mit der Effizienz der Architektur zu tun.

Coda
2007-01-23, 21:59:54
Ich weiss ja nicht aber das Ganze erinnert mich stark an den Savage2000 ;).

Savage2000 hatte irgend nen Hardwarebug, da war mit Treibern leider nicht viel zu machen. Die Intel-Hardware funktioniert aber offenbar, wie man an den quelloffenen Linux-Treibern sieht (da wird sogar der Geo-Shader für Line-Drawing verwendet).

Aber High-End auf X3000-Basis? Halte ich für sehr sehr sehr unwahrscheinlich X-D

robbitop
2007-01-23, 22:07:57
Savage2000 hatte irgend nen Hardwarebug, da war mit Treibern leider nicht viel zu machen.
In wiefern? Meinst du jetzt die TnL Unit?

Sonyfreak
2007-01-25, 23:07:23
Wenn Intel einen High-End Grafikchip plant, müsste die Planung dazu ja schon vor mehreren Jahren angefangen haben. Sonst wäre es wohl kaum möglich, ein Konzept vorzustellen, dass es mit aktuellen Karten von Nvidia oder Amd aufnehmen kann.

Irgendwie denke ich mal, dass die Leute bei Nvidia auch nicht ganz dumm sein werden, und eine solche Entwicklung des Marktes auch schon vorher gesehen haben. Daher denke ich mal, dass sich Nvidia langfristig aus dem Grafikgeschäft zurückziehen muss und sich um neue Geschäftsfelder kümmern muss, oder dass man auch an einer CPU arbeitet.

mfg.

Sonyfreak

HOT
2007-01-26, 11:10:06
Stimmt. Sie haben die SGX Lizent aber auch schon seit ner halben Ewigkeit. Seit dem muss NV eigentlich klar sein, dass Intel plötzlich das potenzial hat, eine eigene vernünftige Grafiklösung zu entwickeln.

Gmax
2007-01-26, 11:36:11
Wenn Intel einen High-End Grafikchip plant, müsste die Planung dazu ja schon vor mehreren Jahren angefangen haben. Sonst wäre es wohl kaum möglich, ein Konzept vorzustellen, dass es mit aktuellen Karten von Nvidia oder Amd aufnehmen kann.

Irgendwie denke ich mal, dass die Leute bei Nvidia auch nicht ganz dumm sein werden, und eine solche Entwicklung des Marktes auch schon vorher gesehen haben. Daher denke ich mal, dass sich Nvidia langfristig aus dem Grafikgeschäft zurückziehen muss und sich um neue Geschäftsfelder kümmern muss, oder dass man auch an einer CPU arbeitet.

mfg.

Sonyfreak

Stimmt, das tun sie bereits, siehe Link:

http://www.techreport.com/onearticle.x/11707

RainingBlood
2007-01-26, 11:52:35
eine super Nachricht. Dem Riva128 haben sie damals die Zähne gezeigt. Hoffentlich dauert es nicht zu lange.

Ailuros
2007-01-26, 13:28:29
Stimmt, das tun sie bereits, siehe Link:

http://www.techreport.com/onearticle.x/11707

Nur ist der Schachzug eher in die Richtung orientiert GPGPU tasks auf existierenden GPUs zu beschleunigen ;)

***edit: da auch schon auf der 3dc Hauptseite der Link erwaehnt wird:

http://www.hardtecs4u.com/?id=1169559688,1775,ht4u.php

Mit SGX so wie es aussieht ;)

Sonyfreak
2007-01-26, 15:22:12
Stimmt, das tun sie bereits, siehe Link:

http://www.techreport.com/onearticle.x/11707Soweit ich das verstanden habe geht man da aber den umgekehrten Weg. Anstatt eine normale CPU zu entwickeln, versucht diese aufgekaufte Firma spezielle Anwendungen an die individuellen Leistungen der Grafikkarten anzupassen. Könnte man die Erkenntnisse aus diesem Geschäft auch für die CPU-Entwicklung nutzen?

mfg.

Sonyfreak

Gast
2007-01-26, 18:28:39
Intel hat nicht das Potenzial dazu, die wollten vor 7 Jahren schon in den Highend Markt einsteigen, sind kläglich gescheitert mit ihrem Scheiß!

reunion
2007-01-26, 18:44:23
Intel hat nicht das Potenzial dazu, die wollten vor 7 Jahren schon in den Highend Markt einsteigen, sind kläglich gescheitert mit ihrem Scheiß!

Intel vielleicht noch nicht, aber IMG schon eher. Intel hat inzwischen derart viel Kapital, die können sich alles einkaufen.

Tigerchen
2007-01-26, 18:51:29
eine super Nachricht. Dem Riva128 haben sie damals die Zähne gezeigt. Hoffentlich dauert es nicht zu lange.

So sehr daß niemand mehr den Nachfolger verbauen wollte. Intel kann es einfach nicht.


Wenn Intel einen High-End Grafikchip plant, müsste die Planung dazu ja schon vor mehreren Jahren angefangen haben. Sonst wäre es wohl kaum möglich, ein Konzept vorzustellen, dass es mit aktuellen Karten von Nvidia oder Amd aufnehmen kann.

Irgendwie denke ich mal, dass die Leute bei Nvidia auch nicht ganz dumm sein werden, und eine solche Entwicklung des Marktes auch schon vorher gesehen haben. Daher denke ich mal, dass sich Nvidia langfristig aus dem Grafikgeschäft zurückziehen muss und sich um neue Geschäftsfelder kümmern muss, oder dass man auch an einer CPU arbeitet.

mfg.

Sonyfreak


nVidia sich aus dem GraKamarkt zurückziehen? Wohl kaum. Wenn ich den Trend zum AllOnBoard aus einer Hand schon vor Jahren gesehen habe werden die es wohl auch gesehen haben. Die werkeln bestimmt schon an ihrer x86 CPU. Zumindest "The Inquirer" glaubt das. Vielleicht keine seriöse Quelle. Aber Sinn machts schon.

Endorphine
2007-01-26, 19:17:58
So sehr daß niemand mehr den Nachfolger verbauen wollte.[/COLOR] Dafür dass den/die "Nachfolger" niemand verbaut ist deren Marktanteil von rund 40% im Gesamt-GPU Markt aber erstaunlich hoch.

haifisch1896
2007-01-26, 20:32:01
Welch Wunder, bei den vielen IGPs in den ganzen Office-PCs, die in Massen geordert werden.

Heimatloser
2007-01-26, 20:34:32
Wieder mal viele Spekulationen.

Aber es wird Intel nicht um die paar High-End-User, oder die damit verbundene Werbung gehen.

Vielmehr werden GPUs durch die Übernahme der Berechnungen von Physiksimulationen in Echtzeit immer wichtiger und wertvoller für "ernsthafte Anwendungen".

Den damit verbundenen Markt kann Intel nach der Übernahme von Ati nicht auch noch vernachlässigen.

Intel hat zwar die besten CPUs, steht aber nicht in allen wachsenden Segmenten so richtig gut da.

Dann kommt noch dazu, daß die übliche "Intel-Notbremse" (Druck ausüben wie z.B. bei VIA) durch den inzwischen schlechten Ruf immer mehr Beachtung findet.

DerHeimatlose

Leonidas
2007-01-27, 10:51:56
>>> developing discrete graphics products based on a many-core architecture targeting high-end client platforms,"

Es geht ja um High End.



Damit ist nicht gesagt, daß es dabei um HighEnd im Sinne der 3D-Leistung geht. Es kann auch HighEnd im Sinne der Prozessoren oder gar nur im Sinne der Integrations-Technologie sein.

Gast
2007-01-27, 11:36:33
Dafür dass den/die "Nachfolger" niemand verbaut ist deren Marktanteil von rund 40% im Gesamt-GPU Markt aber erstaunlich hoch.

Na na Endorphine... Da wollen wir dochmal die Kirche im Dorf lassen und uns anschauen, wie viel Geld da eigentlich mit Grafikchips umgesetzt wird. Nach Umsatz gemessen ist Intel im GPU Bereich ein Zwerg.
Reine Stückzahlen sind hier eindeutig die falsche Messgröße, da Intel über diese Stückzahlen trozdem keinen immensen Einfluss auf die 3D Entwicklung hat. Für Intel interessiert sich da eigentlich niemand und die IGPs gehen auch nur weg, weil sie halt nicht mehr kosten und Intel die Grafikeinheit quasi verschenkt.
Einfluss auf den 3D Markt hat das aber gleich 0.

Tigerchen
2007-01-27, 13:53:53
Dafür dass den/die "Nachfolger" niemand verbaut ist deren Marktanteil von rund 40% im Gesamt-GPU Markt aber erstaunlich hoch.

Reden wir über Office für welches einfachste OnBoard Lösungen ausreichend sind oder über ernstzunehmende GPU-Produkte?

Gast
2007-01-27, 16:59:08
Reden wir über Office für welches einfachste OnBoard Lösungen ausreichend sind oder über ernstzunehmende GPU-Produkte?


Danke für den Hinweis. Echt ich kanns nimmer hören wie sofort einige immer mit diesem IGP Scheiss kommen.

Die interessieren keinen Schwanz und taugen auch als Messgröße für Marktmacht im GPU Markt nicht, da nicht das nötige Geld umgesetzt wird und somit auch nicht genug R&D eingesetzt wird.

Nochmal zum Mitschreiben. Die 3D Entwicklung wird maßgeblich von 2 Firmen vorangetrieben und bestimmt + einer Softwarefirma die einen Standard (DirectX/3D) liefert und einem OGL Konsortium.
Der tolle X86 Monopolist hat hier zur Zeit soviel Einfluss wie Microsoft auf die Ölpreisbildung.

Im Gegenteil. Nach abgeschlossener ATI Integration wird der kleinere X86 Produzent ein Schwergewicht im 3D Markt sein, was im übrigen ja auch eine ernsthafte Bedrohung für den X86 Monopolisten darstellt und dieser sicherlich jetzt wird handeln müssen. Was dabei am Ende rauskommt bleibt abzuwarten.
Einen Persilschein auf Erfolg gibt es nicht, da der GPU Markt ein anderer ist als der CPU Markt und die Ausgangspositionen auch andere sind.

Gmax
2007-01-27, 17:06:48
Damit ist nicht gesagt, daß es dabei um HighEnd im Sinne der 3D-Leistung geht. Es kann auch HighEnd im Sinne der Prozessoren oder gar nur im Sinne der Integrations-Technologie sein.

Die dann aber schon in 45nm? Ein weiterer Vorteil für Intel, oder wollen sie etwa bei TSCM fertigen...

reunion
2007-01-27, 17:12:34
Die dann aber schon in 45nm? Ein weiterer Vorteil für Intel, oder wollen sie etwa bei TSCM fertigen...

Intel fertigt garantiert nicht fremd. Dafür ist man viel zu stolz dort. Auch würde das nicht wirklich Sinn machen, da man die modernsten Fertigungsanlagen weltweit besitzt. Und ja, Intel hat dadurch natürlich durchaus Vorteile. Bis TSMC Grafikchips in 45nm fertigt, wird sicherlich noch einige Zeit vergehen. Aber es ist ja nicht nur die Strukturbreite, Intel fertigt 45nm Chips bsw. bereits mit HighK-Dielektrikum und vielen anderen neuen Kniffen. Sieht man ja schon am X3000, welcher für einen IPG mit 667Mhz ungewöhnlich hoch taktet, dass man hieraus durchaus Vorteile erzielen kann.

Endorphine
2007-01-27, 17:16:02
Die dann aber schon in 45nm? Ein weiterer Vorteil für Intel, oder wollen sie etwa bei TSCM fertigen... Meines Wissens nach werden nur CPUs bei Intel im jeweils aktuellen Prozess gefertigt. Alles weitere wie Flash-Speicher, Chipsätze und Kommunikations-ICs werden als Zweit-Verwendung vor der Aufrüstung der alten Fabs noch in älteren Strukturgrößen produziert.

Die Chipsätze sind bei Intel jetzt gerade bei 90 nm angekommen. Wenn 45 nm Prozessoren in den Einzelhandel kommen dauert es also noch eine Weile, bis es 45 nm Chipsätze etc. geben wird.

reunion
2007-01-27, 17:21:08
Meines Wissens nach werden nur CPUs bei Intel im jeweils aktuellen Prozess gefertigt. Alles weitere wie Flash-Speicher, Chipsätze und Kommunikations-ICs werden als Zweit-Verwendung vor der Aufrüstung der alten Fabs noch in älteren Strukturgrößen produziert.

Die Chipsätze sind bei Intel jetzt gerade bei 90 nm angekommen. Wenn 45 nm Prozessoren in den Einzelhandel kommen dauert es also noch eine Weile, bis es 45 nm Chipsätze etc. geben wird.

Falls man wirklich diskrete Grafikchips herstellen will, wird man da IMHO auch auf einen möglichst aktuellen Herstellungsprozess setzen. Bei Chipsätzen, etc. ist das ja im Grunde belanglos, da es hier nicht auf das letzte Quäntchen Leistung ankommt.

Endorphine
2007-01-27, 17:41:44
Danke für den Hinweis. Echt ich kanns nimmer hören wie sofort einige immer mit diesem IGP Scheiss kommen. Dieser "IGP Scheiß" ist aber nunmal die aktuell am meisten verbreitete Bauform einer Grafik-"Karte". Grafik-Karten werden sich sicher noch eine Weile halten, solange Spiele jede verfügbare Mehrleistung dankbar abnehmen. Aber auch dort zeichnet sich langsam aber sicher eine Sättigung ab, wenn neueste High-End Grafikkarten nur noch in Extrem-Auflösungen und mit maximalem AA/AF-Level ihre Stärken ausspielen können und CPUs und Software mit der GPU-Entwicklung immer weniger Schritt halten.

AMD hat mit dem Kauf von ATI die Möglichkeit, die Integration der GPU auf das Mainboard voranzutreiben. Ich erwarte von AMD in Zukunft einiges aus dieser Richtung. Da werden markige Sprüche à la "IGP-Scheiß" noch im Halse stecken bleiben...

Erst kamen die I/O-Schnittstellen auf das Mainboard, dann in den Chipsatz. Dann begann das große Sterben der Soundkarten. Mittlerweile ist Creative als letzter verbliebender Mainstream High-End Soundkartenhersteller am Rudern, auch unter Windows Vista mit Soundkarten zu überleben. Ethernet-Netzwerkkarten haben sich auch zunehmend erledigt, die sind jetzt onboard (LOM oder als MAC + PHY durch den Chipsatz).

Der nächste Schritt ist die Integration der GPU nicht nur im Business-Sektor. Stichwort Plattformierung. Und diesen Weg beschreitet AMD gerade. Darauf muss Intel reagieren. Daher dieser Vorstoß. Erkennt denn niemand den Zusammenhang?

Die interessieren keinen Schwanz Blubberblubb. Umgekehrt wird ein Schuh draus. Für Grafikkarten interessieren sich auch nur noch Spieler. Und die sind nur ein kleiner Teil des Gesamtmarktes, egal, wie du den market share misst.

und taugen auch als Messgröße für Marktmacht im GPU Markt nicht, da nicht das nötige Geld umgesetzt wird und somit auch nicht genug R&D eingesetzt wird. Korrekt. Wieso sollte auch viel Geld aufgewändet werden, wenn als einzige Anwendung für schnelle Grafikkarten Spiele übrig geblieben sind und selbst für 3D-CAD Visualisierung für die allermeisten Fälle low-end Grafikkarten oder gar IGPs ausreichen?

Der PC-Spielermarkt ist insgesamt überhaupt nicht relevant. Das große Geld wird woanders verdient. Deshalb kann auch mal eben eine in diesem Markt sehr große Firma wie ATI von AMD geschluckt werden, wenn es AMD in die Strategie passt.

Schnelle 3D-Grafikkarten sind ein Nischenmarkt. Und da nur noch für Spiele interessant auch nicht wirklich bedeutsam.

Übrigens kann man market share sowohl monetär als auch Stückzahlen-mäßig messen. Keine Meßweise ist der anderen irgendwie überlegen. Siehe auch http://en.wikipedia.org/wiki/Market_share

Nochmal zum Mitschreiben. Die 3D Entwicklung wird maßgeblich von 2 Firmen vorangetrieben und bestimmt + einer Softwarefirma die einen Standard (DirectX/3D) liefert und einem OGL Konsortium.
Der tolle X86 Monopolist hat hier zur Zeit soviel Einfluss wie Microsoft auf die Ölpreisbildung. Intel hat die Entwicklung erst wieder für D3D10 vorangetrieben, damit der relevante Massenmarkt mit Aero arbeiten kann.

Endorphine
2007-01-27, 17:44:04
Falls man wirklich diskrete Grafikchips herstellen will, wird man da IMHO auch auf einen möglichst aktuellen Herstellungsprozess setzen. Bei Chipsätzen, etc. ist das ja im Grunde belanglos, da es hier nicht auf das letzte Quäntchen Leistung ankommt. Wage ich zu bezweifeln. Intel verdient nur mit CPUs Geld. Alles andere ist nur Zweitverwertung moralisch verschlissener Produktionsanlagen. Die werden sich hüten, dort, wo sie den Markt unangefochten anführen und richtig Geld verdienen mit einer Produktion zu behindern, wo sie nur die zweite (oder gar dritte) Geige spielen.

Gmax
2007-01-27, 18:03:23
Wage ich zu bezweifeln. Intel verdient nur mit CPUs Geld.

Ja, noch! :wink: Warum sollten sie nicht auch mit Graphik gut verdienen wollen.

robbitop
2007-01-27, 18:32:41
Die Margen auf CPUs sind teilweise deutlich hoeher als auf GPUs. Ausserdem ist es eine voellig andere Aufgabe eine GPU zu produzieren als eine CPU. Diese hat andere Anforderungskriterien.

Coda
2007-01-27, 18:56:24
Die Margen auf CPUs sind teilweise deutlich hoeher als auf GPUs.

Quelle?

reunion
2007-01-27, 19:11:05
Quelle?

Naja, wenn man mal die Die-Größe und den Verkaufspreis von CPUs und CPUs in Relation setzt, ist das schon naheliegend. So kostet ein C2D EE satte 1000$ und hat nur eine Die-Größe von 141mm². Ein G80 mit 484mm² Die-Fläche und 500$ Verkaufspreis erreicht da ein wesentlich schlechteres Verhältnis. Zwar gibt es natürlich auch wesentlich billigere CPUs, aber bei Grafikkarten kommt ja noch dazu, dass man immer die gesamten Karte mit teuren PCB, Speicher, Stromversorgung, etc. verkauft, während die CPU-Hersteller eigentlich nur das Die plus Package verkaufen. Ich denke nV wird selbst für ein G80-Die nicht viel mehr als 100$ verlangen können. Entwicklungskosten jetzt natürlich nicht berücksichtigt.

Coda
2007-01-27, 19:19:19
Wer sagt denn das mit High-End Geld verdient werden soll?

robbitop
2007-01-27, 19:33:45
Quelle?
Grundschule? Grundrechenarten? ;)

Coda
2007-01-27, 19:35:59
Mainstream? Als ob Intel mit den Core 2 Extreme soviel Kohle machen würde.

Gast
2007-01-27, 19:48:04
Der "große" Vorteil ist so klein, dass er bei bei den zukünftigen Bandbreiten unter Toleranz fällt.
Ihr predigt das ganze Jahr, dass aktuelle GPUs nicht bandbreitenlimitiert sind und nun soll die Einsparung eines Bruchteils des Bandbreitenverbrauchs einen riesigen Vorteil bringen?
So objektiv du sonst bist Ailuros, aber diese Diskussionen erinnern mich an Diskussionen über das heilige 3dfx.
Sobald du heftigere Antialiasing-Modi benutzt dann bist du immer bandbreitenlimitiert. Was meinst du warum die heutigen Grafikchips keine Tri-TMUs mehr haben? Der Punkt ist, es lohnt sich nicht. Der Geschwindigkeitsvorteil wäre marginal.

Und hier könnte ein TBDR-Chip deutlich besser sein als die herkömmlichen Architkturen.


MfG
Die pfiese Priesterin

Gast
2007-01-27, 20:18:12
Sobald du heftigere Antialiasing-Modi benutzt dann bist du immer bandbreitenlimitiert. Was meinst du warum die heutigen Grafikchips keine Tri-TMUs mehr haben? Der Punkt ist, es lohnt sich nicht. Der Geschwindigkeitsvorteil wäre marginal.

Und hier könnte ein TBDR-Chip deutlich besser sein als die herkömmlichen Architkturen.


MfG
Die pfiese Priesterin Der G80 hat sogar noch mehr als TriTMUs.

reunion
2007-01-27, 21:16:59
Mainstream? Als ob Intel mit den Core 2 Extreme soviel Kohle machen würde.

Bring doch mal ein konkretes Beispiel. Selbst den billigsten C2D verkauft Intel vermutlich teurer als nV ein G80-Die. Auch sind die Stückzahlen beim CPU-Verkauf natürlich wesentlich höher. Die Margen sind hier IMHO definitiv deutlich höher.

Coda
2007-01-27, 21:50:35
Wie gesagt, mit High-End macht man auch nicht viel Kohle. Interessanter wäre wie die Margen z.B. bei G74 sind.

Der G80 hat sogar noch mehr als TriTMUs.

Inwiefern?

Gast
2007-01-27, 21:54:11
Der G80 hat sogar noch mehr als TriTMUs.
Wäre mir neu. IIRC war der Geforce 256 der letzte NV-Chip mit Tri-TMUs.


MfG
Die pfiese Priesterin

robbitop
2007-01-27, 22:32:27
Mainstream? Als ob Intel mit den Core 2 Extreme soviel Kohle machen würde.
Vergleich mal die Die Size der Mainstream CPUs mit der DIE Size von Mainstream GPUs und dann die Preise. Fuer eine ganze Mainstreamkarte inklusive Speicher, PCB, einer langen Wertschoepfungskette kostet in etwa soviel wie die einzelne CPU per se. Und letztere hat dazu noch eine viel kleinere DIE Size.

Ailuros
2007-01-28, 17:35:14
Der nächste Schritt ist die Integration der GPU nicht nur im Business-Sektor. Stichwort Plattformierung. Und diesen Weg beschreitet AMD gerade. Darauf muss Intel reagieren. Daher dieser Vorstoß. Erkennt denn niemand den Zusammenhang?

Ich eigentlich schon. Nur sehe ich Intel's neue Strategie eben nicht als quasi ein Resultat der Entscheidungen von AMD (und natuerlich sehe ich auch dass Du es nirgends andeutest, aber nur um Missverstaendnissen zu entgehen), sondern eher ein generelles Erkenntnis der grossen CPU IHVs in welche Richtung die Zukunft zeigen wird.

Egal in was Intel genau IMG IP in der absehbaren Zukunft integriert, die Lizenzierung der Eurasia Familie fand im Fruehling 2005 statt und die Verhandlungen bis es zur Lizenzierung kam, duerften noch weiter in die Vergangenheit gehen.

Ich fragte vor geraumer Zeit ob irgend eine Art von "SoCs" fuer die Zukunft Sinn machen wuerden; natuerlich hatte ich keine Ahnung was genau daraus werden koennte, aber auf einer sehr vereinfachten Basis meinte ich schon die Integrierung von Grafik Einheiten in der CPU (oder auch anders rum je nach Perspektive LOL)....

Falls Intel mehr IMG IP integrieren wird als ich momentan erwarte in der Zukunft, hat Intel hier mit TBDR den absoluten Vorteil, im Vergleich zu AMD. Das einzige Stueck des Puzzles dass mir nicht in den Hinterkopf passt, ist dass fuer solche Turnereien es wohl optimaler waere wenn Intel IMG gleich ganz aufkauft.

robbitop
2007-01-28, 19:04:02
Das sollte gar nicht so einfach sein. Man muesste die Gesellschafter dazu schon "ueberzeugen".

haifisch1896
2007-01-28, 20:53:13
Das zum Überzeugen notwendige Kleingeld hat Intel allerdings.
Ich weiß ehrlich gesagt nicht, ob IMG noch mehr als Grafik-IP macht, aber wenn ja, wäre das Abstoßen einer Sparte bestimmt eine Sache, über die sich reden ließe.

Bokill
2007-01-28, 21:17:55
Das zum Überzeugen notwendige Kleingeld hat Intel allerdings.
Ich weiß ehrlich gesagt nicht, ob IMG noch mehr als Grafik-IP macht, aber wenn ja, wäre das Abstoßen einer Sparte bestimmt eine Sache, über die sich reden ließe. Die machen unter anderem auch erstklassige DAB-Radio Chips.

Man kann auch sagen sie (http://www.imgtec.com/Products/index.asp) ( Imagination Technologies) sind Spezialisten im SoC-Bereich mit starken Fuß im Video (http://www.imgtec.com/News/Release/index.asp?ID=657)/Audio (http://www.puredigital.com/Releases/Release.asp?ID=224)bereich.

Es geht um mehr als schlichtes 3D ... aber das #47 will scheinbar keiner hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5186208&postcount=47) hören

MFG Bobo(2007)

loewe
2007-01-28, 23:21:03
Die machen unter anderem auch erstklassige DAB-Radio Chips.

Man kann auch sagen sie (http://www.imgtec.com/Products/index.asp) ( Imagination Technologies) sind Spezialisten im SoC-Bereich mit starken Fuß im Video (http://www.imgtec.com/News/Release/index.asp?ID=657)/Audio (http://www.puredigital.com/Releases/Release.asp?ID=224)bereich.

Es geht um mehr als schlichtes 3D ... aber das #47 will scheinbar keiner hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5186208&postcount=47) hören

MFG Bobo(2007)

So schlicht ist 3D nun auch nicht. :)

Aber Du hast vollkommen Recht, imgtec machen "neben" 3D auch Video und vor allem Digitalradio DAB. Sie verkaufen auch mit META noch digitale multithreadet Signalprozessoren, die beliebig eingesetzt werden können. Die PowerVR Chips oder Cores sind ja auch nichts anderes.

Für intel ist imgtec durchaus zu gebrauchen, mit Viiv sind sie immer noch auf das Wohnzimmer aus und dort wird natürlich leistungsstarke Technik für Sound, Video und 3D gebraucht, aber bitte alles ohne Chipmonster.
Neben Sound und Video wäre hier sicher eine Grafik die bei 1280x1024 oder ähnlichen Auflösungen mit 4x4 FSAA jedes moderne Spiel verkraftet durchaus sehr interessant.

Ailuros
2007-01-29, 06:25:36
Mobile/DigitalTV duerfte in der absehbaren Zukunft mehr Royalties reinfliessen lassen als DAB.

IMO ist es praktisch unmoeglich nur eine Sparte von IMG zu verkaufen, da alle Subdivisionen viel zu viel verwandt sind und grosse Semi Hersteller oefters von allen drei Subdivisionen lizenzieren um ihre SoCs zu bauen. Als Beispiel hat afaik Sharp von allen 3 Divisionen lizenziert und es macht auch wohl Sinn da sie sich hauptsaechlich auf TV-Zeug konzentrieren.

Wenn man alle grossen TV-Hersteller zusammenzaehlt die PowerVR/Ensigma/Metagence IP lizenziert haben, duerfte eine gesunde Anzahl von jeglicher Art TV in der Zukunft mit IMG IP ankommen. Erfahren wird es sowieso keiner, denn es ist wohl Bloedsinn dann auf einem Sharp Fernseher der Zukunft neben dem HD-Ready Kleber noch einen "IMG IP incl." Kleber zu erwarten ;)

Gast
2007-01-29, 13:06:43
Hmm abwarten. Die Marke muss nur einer kennen. Sollten sie sich irgendwann einen Namen gemacht haben, wie z.B. Fouradja oder Realta, dann wird auch damit geworben.

haifisch1896
2007-01-29, 16:37:59
Die machen unter anderem auch erstklassige DAB-Radio Chips.

Man kann auch sagen sie (http://www.imgtec.com/Products/index.asp) ( Imagination Technologies) sind Spezialisten im SoC-Bereich mit starken Fuß im Video (http://www.imgtec.com/News/Release/index.asp?ID=657)/Audio (http://www.puredigital.com/Releases/Release.asp?ID=224)bereich.

Es geht um mehr als schlichtes 3D ... aber das #47 will scheinbar keiner hier (http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5186208&postcount=47) hören

MFG Bobo(2007)

Hören bzw. lesen schon. Allerdings habe ich es erfolgreich überlesen.

Ailuros
2007-01-29, 21:00:35
http://www.theinquirer.net/default.aspx?article=37251

*floet* :biggrin:

Godmode
2007-01-29, 21:47:33
http://www.theinquirer.net/default.aspx?article=37251

*floet* :biggrin:
"Reprogramable" = FPGA? Ist doch schwachsinn, oder gibt es schon solch mächtige FPGAs?

Ailuros
2007-01-29, 21:59:32
"Reprogramable" = FPGA? Ist doch schwachsinn, oder gibt es schon solch mächtige FPGAs?

"Re-programmable" ist nur Marketing-Dudelei; entweder kann es die HW oder eben nicht. Nichtdestominder eine gewisse IP Firma haette schon einen solchen Kandidat ;)

Coda
2007-01-29, 22:07:48
FPGAs brauchen für die gleiche Logik soweit ich weiß min. 10x soviel Platz. Nur so als Denkansatz...

Godmode
2007-01-29, 22:31:18
FPGAs brauchen für die gleiche Logik soweit ich weiß min. 10x soviel Platz. Nur so als Denkansatz...

Ja das hab ich auch gleich gedacht. Siehe Wikipedia: http://de.wikipedia.org/wiki/FPGA

Aber für was soll Reprogramable wirklich stehen?

Ailuros
2007-01-29, 22:50:56
Aber für was soll Reprogramable wirklich stehen?

http://www.forum-3dcenter.org/vbulletin/showpost.php?p=5205595&postcount=136

Thowe
2007-01-29, 23:59:34
Ich weiss ja nicht aber das Ganze erinnert mich stark an den Savage2000 ;). Mit reinem Intel Know-How wird das nix mit HighEnd auf absehbare Zeit.

Der Savage 2000 hatte aber wirklich recht "defekte" Hardware, genaues weiß ich aus dem Kopf nicht mehr, aber AFIR hat man mehr eingespart als hätte sein dürfen und somit lief er mehr schlecht als recht und mit weniger Leistung, als er hätte liefern können.

Bei INTEL sehe ich eher das Problem, dass wenn sie einen IGP in Petto haben oder gar schon draußen, sie nicht gerade sich Freunde bei den großen Auftragsfertiger machen und das sind nun mal ASUStek und Microstar, die eben nicht nur die größten Mainboard-Hersteller, sondern eben auch die größten Grafikkarten-Hersteller sind. Aus den Kopf heraus hat ASUS > 10.000.000 Grafikkarten im Jahr 2005 produziert, der Großteil davon sind nun einmal für den Low-End bis Mid-Range-Markt.

Man stelle sich vor, INTELs IGP würde den Mid-Range Markt von der Geschwindigkeit bequem abdecken und zusätzlich mehr Features bieten, als dieser Markt aktuell hat. Was für Umsatzeinbußen wären das für Firmen wie MSI, ASUS, GIGABYTE etc. und ich für mich gehe davon aus, dass genau da auch das Problem mit dem X3000 liegt. Er könnte vermutlich mehr, wenn INTEL wollte, die Alternative wäre natürlich immer noch, dass sie das Ding tatsächlich versaut haben. Für den Markt spielts aber keine Rolle.

Die Zukunft für INTEL, die aus meiner Sicht gar keine andere Wahl haben als sich eben vermehrt um Grafik zu kümmern, vor allem, wieviel CPU Power bleibt denn heute ungenutzt? Wo sind die "Wunderapplikationen" (außer Vista :D ) die wirklich mehr diese fordern? Klar, es kommt jetzt HD-Video, was für die Wohnzimmer mehr CPU benötigt - sofern die Grafikkarte hier nicht entlastet. Alle anderen Applikationen sind eher bequem bedient. Mehr CPUs und mehr Power verkaufen wird in Zukunft nur schwer möglich werden, was bleibt sind die Märkte, die noch wachsen und vermehrt wachsen werden und hier sehe ich für Grafik mehr Möglichkeiten als für reinen Rechenleistung auf X86-Basis.

Also wird INTEL eben Grafikkarten produzieren müssen, damit sie ihre großen Kunden nicht ärgern.

Sie werden vermutlich spezielle IGPs bringen mit hoher Grafikleistung, die aber deutlich mehr kosten werden als die aktuellen - nur damit der Mehrpreis für die Grafikkarte verschwindet. Diese sind dann natürlich primär für Notebooks gedacht, INTEL kann aber nicht verhindern, dass sie es auf den Desktop schaffen und da ist der Preist ein gutes Mittel um sie da unattraktiver erscheinen zu lassen.

Die normalen IGPs werden vermutlich weiterhin relativ verkümmern, hier und da mal vielleicht etwas Leistung freigeschaltet - aus politischen Gründen und das wird es dann gewesen sein.

Ailuros
2007-01-30, 05:55:08
Man stelle sich vor, INTELs IGP würde den Mid-Range Markt von der Geschwindigkeit bequem abdecken und zusätzlich mehr Features bieten, als dieser Markt aktuell hat.

Geht nicht; ausser sie schnallen X IGPs zusammen.

Sie werden vermutlich spezielle IGPs bringen mit hoher Grafikleistung, die aber deutlich mehr kosten werden als die aktuellen - nur damit der Mehrpreis für die Grafikkarte verschwindet. Diese sind dann natürlich primär für Notebooks gedacht, INTEL kann aber nicht verhindern, dass sie es auf den Desktop schaffen und da ist der Preist ein gutes Mittel um sie da unattraktiver erscheinen zu lassen.

Die normalen IGPs werden vermutlich weiterhin relativ verkümmern, hier und da mal vielleicht etwas Leistung freigeschaltet - aus politischen Gründen und das wird es dann gewesen sein.

Sobald in der Zukunft Grafik Einheiten in die CPU integriert werden, werden wohl IGP eher redundant werden. Dann hat man beispielsweise 8 "mini-cores", 4 fuer generellen Mist und 4 fuer Grafik fuer ein "highest end" Beispiel und dann eben 6:2 oder 7:1 fuer etwas analoges eines heutigen IGP.

Fudo weiss gar nicht was er da geschnappt hat; wofuer stehen genau drei P in der Reihe?

Ailuros
2007-01-30, 06:07:55
WE ASKED SOME Intel lads about its plans to make discrete graphics cards. Josh Newman, chipset product marketing director, sent us a few answers.

INQ: Does Intel have any plans for GPU on CPU concept?

Intel: We continue to work relentlessly with the platform ecosystem to define, develop and deliver platform and technology enhancements that delight our customers. We regularly update the community on advancements in these areas at Intel Developer Forums. Intel hasn’t announced any products in these areas at this time.

INQ: Does Intel plan to make discrete graphic products?

Intel: We continue to work relentlessly with the platform ecosystem to define, develop and deliver platform and technology enhancements that delight our customers. We regularly update the community on advancements in these areas at Intel Developer Forums. Intel hasn’t announced any products in these areas at this time.

http://www.theinquirer.net/default.aspx?article=37249

AiL: Will your coming sollutions provide oral sex?

Intel: We continue to work relentlessly with the platform ecosystem to define, develop and deliver platform and technology enhancements that delight our customers. We regularly update the community on advancements in these areas at Intel Developer Forums. Intel hasn’t announced any products in these areas at this time.

:biggrin: ;D

Gaestle
2007-01-30, 10:17:35
solange Spiele jede verfügbare Mehrleistung dankbar abnehmen. Aber auch dort zeichnet sich langsam aber sicher eine Sättigung ab, wenn neueste High-End Grafikkarten nur noch in Extrem-Auflösungen und mit maximalem AA/AF-Level ihre Stärken ausspielen können und CPUs und Software mit der GPU-Entwicklung immer weniger Schritt halten.


Naja, aber da wird softwareseitig bestimmt noch einiges kommen:
http://www.anandtech.com/video/showdoc.aspx?i=2895&p=4

Eine wirkliche "Sättigung" sehe ich da nicht. Oblivion und Gothic3 gibt's ja z.B. auch noch.

Thowe
2007-01-30, 14:30:34
Geht nicht; ausser sie schnallen X IGPs zusammen.

...

Vorrausgesetzt das Design gibt das her, wo wäre das Problem für eine Firma, die die modernste Fertigungstechnologie zur Zeit am Start hat? Ob man nun 4 Prozessorkerne oder 4 Grafikkerne auf einen Chip packt sollte recht egal sein, wenn man es kann.

Sonyfreak
2007-01-30, 15:38:37
Dieser "IGP Scheiß" ist aber nunmal die aktuell am meisten verbreitete Bauform einer Grafik-"Karte". Grafik-Karten werden sich sicher noch eine Weile halten, solange Spiele jede verfügbare Mehrleistung dankbar abnehmen. Aber auch dort zeichnet sich langsam aber sicher eine Sättigung ab, wenn neueste High-End Grafikkarten nur noch in Extrem-Auflösungen und mit maximalem AA/AF-Level ihre Stärken ausspielen können und CPUs und Software mit der GPU-Entwicklung immer weniger Schritt halten.Das halte ich für ein Gerücht. Viele aktuelle Spiele bringen auch High-End Grafikkarten kräftig ins schwitzen. Mit neuen Spielen ist es problemlos möglich auch eine 8800GTX auf nicht mehr spielbare Frameraten zu bremsen. Wenn man keine Rücksicht auf die langsameren Karten nehmen müsste, dann hätten wir noch mehr Spiele, die da keine Probleme, High-End auszulasten.

Ich hab mir zumindest bei meiner GTS noch nie gesagt: "Oh mein Gott. Was soll ich nur mit all dieser Leistung machen...". ;)

mfg.

Sonyfreak

[](-__-)[]
2007-01-30, 18:48:19
Naja. Fusion soll ja nächstes Jahr auf den Markt kommen.

Vielleicht hat baut dann ATI (AMD) eine absolute Überlegenheit im Notebooksegment.

Wenn man jetzt bedenkt, dass 2007 die Absatzzahlen deutlich zu gunsten der Notebooks ausfallen werden, dann kann man sich ausmalen was das bedeutet!

Intel kann jederzeit nVidia aufkaufen, oder? Oder bekommen sie Probleme mit dem Kartellamt?

Weil, letztendlich muss nVidia die Grafikkeinheit (für Lowcost und Mainstream im Mobilsektor) in die CPU integrieren, sonst siehst düster aus.

AnarchX
2007-01-30, 18:56:08
(-__-)[];5208030']Naja. Fusion soll ja nächstes Jahr auf den Markt kommen.

Nein, Fusion kommt nicht vor 2009 (http://www.beyond3d.com/#news38156).

[](-__-)[]
2007-01-30, 19:05:35
Ok, aber das ändert wohl nicht viel am Problem, welches nVidia diesbezüglich hat. :)

SavageX
2007-01-30, 19:57:59
(-__-)[];5208030']Intel kann jederzeit nVidia aufkaufen, oder? Oder bekommen sie Probleme mit dem Kartellamt?


Würde mich wundern, wenn da das Kartellamt mitmachen würde.

Ailuros
2007-01-30, 22:56:05
Vorrausgesetzt das Design gibt das her, wo wäre das Problem für eine Firma, die die modernste Fertigungstechnologie zur Zeit am Start hat? Ob man nun 4 Prozessorkerne oder 4 Grafikkerne auf einen Chip packt sollte recht egal sein, wenn man es kann.

Das Problem ist dann eben dass theoretisch die Anzahl der noetigen cores fuer midrange Leistung wohl doch nicht auf nur 4 begrenzt sein wird.

Wir reden hier wohl nicht von 2007 sondern eher ein Jahr spaeter schaetzungsweise. Fuer dieses Jahr kannst Du in etwa =/>200 GFLOPs/s von solchen GPUs erwarten.

Thowe
2007-01-30, 23:12:11
Das Problem ist dann eben dass theoretisch die Anzahl der noetigen cores fuer midrange Leistung wohl doch nicht auf nur 4 begrenzt sein wird.

...

Nun, INTEL kann sich einen hohen Transistorcount leisten und ich denke, immer vorrausgesetzt es in PVR drin, er wird deutlich geringer sein als man meinen würde und am Ende wird dann trotzdem effiziente Leistung stehen. Für ein Notebook muss es ja nur für die Displaygröße = Auflösung eine ausreichend gute Leistung sein. Für eine richtige Grafikkarte, nun, gönnen wir ihnen da einfach mehr.

robbitop
2007-01-31, 09:36:35
Die Frage ist was mit dem Zusammenschustern von SGX Kernen gemeint ist. Wenn es um die Skalierung von Pipelines geht - ok kein Problem (solange das Trisetup und die Verteilerlogik das tragen koennen). Aber wenn man abgeschlossene GPUs clustern will, und nicht den Inkompatibilititaeten und Verschnitten von AFR/SFR unterliegen will, braucht es einen verdammt breiten Bus zwischen jeder einzelnen GPU zu allen anderen. Das waere viel aufwaendiger als bessere Voraussetzungen fuer die Pipeskalierung zu schaffen.

Thowe
2007-01-31, 11:42:01
... Das waere viel aufwaendiger als bessere Voraussetzungen fuer die Pipeskalierung zu schaffen.

Das so oder so, es ging mir dabei nur um die Tatsache, das INTEL am ersten die Technologie hat, wirklich High End lieferz zu können im Bezug auf die Fertigung, vom Design her z.Z. ganz sicher nicht selbst.

robbitop
2007-01-31, 11:46:03
Tja von der Fertigung her. Das ist die Frage. Dass GPUs andere Anforderungskriterien als CPUs haben hat man beim NV40 bei IBM gesehen. Die Yields waren lange im allerwertesten. Ausserdem nutzt man die besten Fertigungsanlagen lieber fuer CPUs als fuer GPUs aufgrund hoeherer Margen.

Ailuros
2007-01-31, 13:18:06
Das so oder so, es ging mir dabei nur um die Tatsache, das INTEL am ersten die Technologie hat, wirklich High End lieferz zu können im Bezug auf die Fertigung, vom Design her z.Z. ganz sicher nicht selbst.

Ich sage es selber nicht gerne, aber IMG hat genau wieviel bewiesene Erfahrung in den letzten paar Jahren mit high end Designs? Es haben grosse und erfahrene GPU IHVs Probleme mit der high end GPU Entwicklung und IMG haette in dem Fall den Zauberstab?

Natuerlich gibt es sehr viele Interpretationen was midrange oder sogar high end betrifft, aber ich glaube es erst bis ich eine solche von Intel erstmal sehe.

robbitop
2007-01-31, 13:27:23
Lies Thowes Posting nochmal ;)
Er sagt doch selbst, dass es vom Design her noch nicht passt. Nur die Fertigung und die Technologie.

Ailuros
2007-01-31, 13:43:06
Lies Thowes Posting nochmal ;)
Er sagt doch selbst, dass es vom Design her noch nicht passt. Nur die Fertigung und die Technologie.

Ich will wetten dass er IMG im Hinterkopf hatte; er sagte ganz sicher nicht selbst. Was wohl eher einen Mitarbeiter oder "externe Hilfe" andeuten wuerde.

Thowe
2007-01-31, 20:18:55
@robbitop,

ich denke INTEL hat da einfach bessere Karten als IBM, was zu einem die Komplexität der Designs angeht und zum anderen, wieviel Yields sie sich leisten können. Die Kosten entstehen ihnen ja in diesem Fall selbst, das Intresse ist dementsprechend hoch und die Mitarbeiter durchwegs fähig es in den Griff zu bekommen. Ich behaupte einfach, ohne es belegen zu können, dass z.Z. INTEL eher in der Lage ist soetwas in relativ kurzer Zeit zu fertigen als IBM oder sonst jemand. Früher hätte ich es genauer sagen können, da ich einen sehr guten "Spion" hatte, leider ist der nicht mehr greifbar. Der einzige der noch in Frage käme ist dermaßen biased das ich den niemals fragen würde, sofern er denn überhaupt noch mit mir redet.


@Ail,

ich weiß nicht wie die aktuellen Designs von IMG aussehen, aber ich traue ihnen durchaus zu etwas zu entwickeln, dass durchaus gut nach oben skalierbar ist. Einfach aus der Not heraus es tun zu müssen und als unfähig stufe ich sie sicher nicht ein. Allerdings habe ich kein Problem damit, die dementsprechende Abteilung von INTEL so einzustufen, die halte ich für ausgesprochen unfähig, seltsam und überflüssig. Weswegen ich auch weiterhin nicht glaube, dass der X3000 was mit denen zu tun hat oder das Ding eine komplette Lüge ist oder einfach verschwiegen werden soll.

robbitop
2007-01-31, 20:57:10
Ich sehe die Fertigungsanlagen von Intel nicht im Vorteil ggue TSMC. Du unterschaetzt wie unterschiedlich die Anforderungen von CPU und GPU sind. TSMC hat darin nun schon jahrelang Erfahrung. Mal eben ein 700 Mio Transistor ASIC in 65 oder gar 45nm zu fertigen ist eine ganz andere Anforderung. Hinzu kommen aber auch noch deutlich andere Schaltungscharakteristiken u.v.m.
Klar mittelfristig wuerden die das auch hinbekommen. Aber nicht von heut auf morgen.

Bokill
2007-01-31, 21:30:59
Ich sehe die Fertigungsanlagen von Intel nicht im Vorteil ggue TSMC. Du unterschaetzt wie unterschiedlich die Anforderungen von CPU und GPU sind. TSMC hat darin nun schon jahrelang Erfahrung. Mal eben ein 700 Mio Transistor ASIC in 65 oder gar 45nm zu fertigen ist eine ganz andere Anforderung. Hinzu kommen aber auch noch deutlich andere Schaltungscharakteristiken u.v.m. ... Dann rate mal was ein Chipsatz ist, das ist ASIC pur.

Zudem sollte man die Fertigung von Intels eigenen Chipsätzen unter Fertigungstechnischen Gesichtspunkten nicht unterschätzen. Nach derartigen Anlagen lecken sich Andere Hersteller die Finger ... für etwas angegraute Fertigungsanlagen gibt es einen eigenen Markt.

Was bei Intel Low-End ist (90 nm), das ist für Andere immer noch up2Date.

Was des Design angeht, auch da wird Intel genug "Rohpower" haben, um ASICs und Grafikchips zu fertigen.

Die Bedenken teile ich aber, wenn es darum geht in kurzer Zeit viele Entwicklungszyklen durchzuhalten ... Da ist NVIDIA und ATI gestärkt durch den schnellen Produktwechsel ...

So schnelllebig ist nur noch der Handychipmarkt ... und diese Sparte (rund um den Xscale) hat Intel ja im Sommer abverkauft an Marvell (http://www.forum-3dcenter.org/vbulletin/showthread.php?t=344762&highlight=Marvell).

MFG Bobo(2007)

Thowe
2007-01-31, 21:33:07
Ich sehe die Fertigungsanlagen von Intel nicht im Vorteil ggue TSMC. Du unterschaetzt wie unterschiedlich die Anforderungen von CPU und GPU sind. TSMC hat darin nun schon jahrelang Erfahrung. Mal eben ein 700 Mio Transistor ASIC in 65 oder gar 45nm zu fertigen ist eine ganz andere Anforderung. Hinzu kommen aber auch noch deutlich andere Schaltungscharakteristiken u.v.m.
Klar mittelfristig wuerden die das auch hinbekommen. Aber nicht von heut auf morgen.


Naürlich ist es zu einem Teil für INTEL Neuland, aber mit jedem neuen Fertigungsprozess gilt das für alle anderen auch. Hier hat INTEL aber den Vorteil, schon was "auf die Reihe" bekommen zu haben, was soetwas wie Stückzahlen abwirft. Das ist letztendlich alles nur eine Kostenfrage, die Ingenieure dazu haben sie aber sicherlich. Ich glaube auch nicht, dass sie morgen bereits eine Karte abliefern könnten die einwandfrei funktioniert und hohe Takte liefert, aber ich glaube daran, dass sie es werden.

Was nun die Transistoren angeht, den mittlerweile 1 Jahr alten Shuttle Chip aus Hillsboro mit seinen > 1 Millarden Transistoren würde ich auch nicht als Maßstab ansehen, aber er zeigt, dass sie durchaus Potential haben. Der Penryn liegt ja funktional bzw. gefertigt vor und addiert man den Umstand, dass es bald neue FABs gibt, frage ich mich, was INTEL da fertigen will und vor allem, was sie mit den "alten" Fabs vorhaben. Klar, WLAN etc. sind auch ein Markt, aber meines Wissen wachsen die Abnahmen nicht im gleichen Verhältnis wie die FABs bei INTEL aus den Boden spriessen. Ok, die Alternative bliebt, es gibt endlich keine Lieferenpässe bei den Chipsätzen mehr.

Wie gehabt, es ist alles spekulativ.

PS: Man sollte auch mal die Bilanz von INTEL im Auge behalten, sie müssen quasi neue Märkte abliefern.

robbitop
2007-01-31, 21:50:07
Ein Chipsatz ist ein Witz gegenueber einer HighEnd GPU. Auf kleineren ASICs Transistoren fertigt TSMC auch bereits mit 65 nm und kleiner.
TSMCs Fertigungsanlagen fuer High End GPUs sind keinesfalls alt oder angegraut. Die sind nicht umsonst Marktfuehrer in dieser Branche.

Bokill
2007-01-31, 22:16:57
... TSMCs Fertigungsanlagen fuer High End GPUs sind keinesfalls alt oder angegraut. Die sind nicht umsonst Marktfuehrer in dieser Branche. Hat auch keiner behauptet ;)

Ich denke, nicht Technologie, oder Design an sich ist das Problem, sondern der extrem schnelle Produktzykluswechsel ist das Problem für ALLE Grafikchip-Mitbwerber.

MFG Bobo(2007)

robbitop
2007-01-31, 22:20:34
Was nun die Transistoren angeht, den mittlerweile 1 Jahr alten Shuttle Chip aus Hillsboro mit seinen > 1 Millarden Transistoren würde ich auch nicht als Maßstab ansehen


Ja und der Grossteil davon sind keine Logiktransistoren sondern nur SRAM.

Thowe
2007-01-31, 22:46:22
Hat auch keiner behauptet ;)

Ich denke, nicht Technologie, oder Design an sich ist das Problem, sondern der extrem schnelle Produktzykluswechsel ist das Problem für ALLE Grafikchip-Mitbwerber.

MFG Bobo(2007)


Dito, ich sehe eigentlich eher in Zukunft ein Kostenproblem für viele, es heisst ja nicht umsonst, dass die Fertigungskosten explodieren und die Firmen faktisch gezwungen sind, immer schneller zu wecheln, damit die mögliche Ausbeute erhöht wird. INTEL hat hier nach eigenen Angaben rund 2 Jahre Vorsprung vor allen anderen, sicherlich aber 1 Jahr und das ist in den Bereich eine Menge.


Ja und der Grossteil davon sind keine Logiktransistoren sondern nur SRAM.

Klar, aber wer hatte vor einen Jahr sonst sowas?

robbitop
2007-01-31, 22:49:41
Ist dennoch nicht vergleichbar.

Thowe
2007-01-31, 23:42:26
Ist dennoch nicht vergleichbar.


Weswegen ich ja schrieb, dass ich es nicht als Maßstab sehen würde. Halt nur als Potential, genau wie der 80 Kern Prozessor den sie fertigten. Bis die anderen bei der Technologie aufgeholt haben, kann INTEL auch bei GPUs aufholen. Ich würde da nicht so das Problem sehen wollen.

reunion
2007-02-01, 10:33:25
Auch wenn die Anforderungen andere sind, glaube ich auch nicht, dass Intel damit große Probleme haben wird. IBM fertigte ja auch mal mit dem NV40 eine zum damaligen Zeitpunkt absolute High-End-GPU, und das, obwohl man sonst AFAIK auch nur Prozessoren herstellt. Und Intel ist hier sicher noch ein ganzen Stück höher einzuschätzen.

robbitop
2007-02-01, 10:40:54
Liest jemand ueberhaupt meine Postings oder ueberfliegt ihr sie alle nur?
Ich sagte ganz klar, dass Intel das mittelfristig schaffen wuerde mit Anstrengung. Aber nicht mal eben so von heute auf morgen.
IBM hatte uebrigens beim NV40 ziemlich bescheidene Yields. Das war einer der Hauptgruende, warum NV wieder zurueck zu TSMC zurueckwechselte. (obwohl das IBM Portfolio und deren Fertigungsanlagen, deren Prozesse und Know How auf dem Papier auch deutlich besser aussahen als TSMC)

Wenn Intel wirklich ernsthaft in den Grafikmarkt einsteigen wollen wuerde, waere das mittelfristig vermutlich kein Problem. Da man sowieso nicht von heut auf morgen ein fertiges Design hat, koennen die Prozesse auch langsam mitreifen. Dann kauft Intel mal eben 3D Ingenieure ein. Nach 2-3 GPU Genereationen waeren sie vieleicht dann auch dran.

Ich wuerde Intel nicht so arg zu ueberschaetzen. Auch die kochen nur mit Wasser. Um den jahrelangen Know How Vorsprung und die bestehenden und bewaehrten Strukturen anderer IHVs ungefaehr nachbilden zu koennen und aufzuholen wuerde es auch einige Jahre dauern.

Die Frage ist nicht ob sie es schaffen koennen, nur die Frage ob sie es wollen und wie lange sie brauchen. Und wie lukrativ ein so ressourcenlastiger Markt ist.

Bokill
2007-02-01, 13:44:37
... Die Frage ist nicht ob sie es schaffen koennen, nur die Frage ob sie es wollen und wie lange sie brauchen. Und wie lukrativ ein so ressourcenlastiger Markt ist. Jo ... so sehe ich das auch.

Was ich mir vorstellen kann ist, dass sie ein massives Flagschiff auf den Markt bringen, ganz einfach aus Marketinggründen, frei nach dem Motto: "Hey seht her" WIR haben den grössten Hammer ... WIR könnens ... ".

Um dann die nächsten Jahre davon zu zehren, und dieses Flaggschiff in die nächsten Chipsatzgenerationen (oder auch CPU) einfliessen zu lassen ... wäre nicht das erste Mal, dass Intel derartiges macht.

Wie gesagt: Ist Intel zusätzlich bereit auf Dauer den mörderischen Zykluswechsel mitzumachen? Genau das hat Matrox, PowerVR, 3DFX, SIS/XGI sterben lassen, bzw. sind nur noch unbedeutende Nummern am Grafikchipmarkt.

MFG Bobo(2007)

Avalox/Gast
2007-02-01, 18:04:52
Intel hat eigentlich gar keine andere Wahl als es so zu machen. Es könnte ja sein, dass AMD eine erfolgreiche Idee hat und Intel diese nur nicht sieht. Wenn nun Intel ebenfalls eine leistungsfähige GPU und das Know How im Portfolio hat können sie nicht wirklich was falsch machen. Ist es ein Fehler, na gut, dann hat AMD diesen auch gemacht. Der Abstand verrringert sich dadurch keinen Deut. Ist es ein Vorteil, dann gilt dieser für Intel und AMD im gleichen. Der Abstand verringert sich dann auch nicht.

Was Intel zu fürchten hat ist, dass AMD was richtig macht und Intel falsch. Denn das würde AMD aufholen lassen, welches aus Unternehmenssicht sicherlich nicht annehmbar ist.

Ist wie mit Aldi und Lidl. Da wo ein Aldi steht wird auch ein Lidl gebaut und umgekehrt. Könnte ja sein, dass der Marktbegleiter beim Standort den besseren Riecher gehabt hat. Also baut man auch dort und kann eigentlich nichts falsch machen.

Bokill
2007-02-01, 19:57:30
... Was Intel zu fürchten hat ist, dass AMD was richtig macht und Intel falsch. Denn das würde AMD aufholen lassen, welches aus Unternehmenssicht sicherlich nicht annehmbar ist. ... Es gab mal Zeiten, da hat Intels Standards und Trends gesetzt ... wo bleibt dann die Innovation?

MFG Bobo(2007)

haifisch1896
2007-02-01, 21:29:13
Standards? SSE-Familie.
Trends? ViiV
Innovation? Pentium Pro, Weiterentwicklungen eingeschlossen.

robbitop
2007-02-02, 10:43:22
Standards? SSE-Familie.
3dnow war vorher da. Dasselbe in gruen.


Trends? ViiV
stromsparende mobil CPUs in HTPCs einbauen. Welch Geistesblitz. AMDs CoolnQuiet war schon deutlich vorher in jedem Desktop PC mit AMD64 CPU.


Innovation? Pentium Pro, Weiterentwicklungen eingeschlossen.
Was war am PPro denn so besonders? Superskalare Einheiten? Gabs vorher auch schon.

PCGH_Carsten
2007-02-02, 11:25:17
Vielleicht will Intel auch in den Numbercruncher-Martk - da böte sich die Entwicklung eines massiv parallelen Vektorprozessors/Skalarprozessors ja geradezu an. Als ALU-Anhängsel für die rechenschwachen Grafikkerne von Intel könnte man's ja auch noch mißbrauchen

Coda
2007-02-02, 11:47:39
Was war am PPro denn so besonders? Superskalare Einheiten? Gabs vorher auch schon.

Out-Of-Order-Execution bei x87-Code ist wirklich eine Innovation gewesen. Das stellt sich nämlich wirklich als schwierig dar.

Aber du hast schon recht. Intel ist wirklich nicht sehr innovativ.

Ailuros
2007-02-02, 18:40:29
@Ail,

ich weiß nicht wie die aktuellen Designs von IMG aussehen, aber ich traue ihnen durchaus zu etwas zu entwickeln, dass durchaus gut nach oben skalierbar ist. Einfach aus der Not heraus es tun zu müssen und als unfähig stufe ich sie sicher nicht ein. Allerdings habe ich kein Problem damit, die dementsprechende Abteilung von INTEL so einzustufen, die halte ich für ausgesprochen unfähig, seltsam und überflüssig. Weswegen ich auch weiterhin nicht glaube, dass der X3000 was mit denen zu tun hat oder das Ding eine komplette Lüge ist oder einfach verschwiegen werden soll.

Das was an Geruechten bei B3D oeffentlich herumfloss (keine zuverlaessigen Quellen aber), ist dass man hinter geschlossenen Tueren einen angeblichen "8-pipe" Design vorzeigte das fuer PCs gedacht sein soll (eher vielleicht "Athena"); nach diesem Geblubber sollte das Ding jeglichen existierenden "8-pipe chip" zersaegen.

Nehmen wir mal an dass es kein kompletter BS ist und dass die vergleichbaren chips etwas in Richtung 6600GT waren. Glauben kann ich das Ganze schon, aber selbst bei 4*Mal dem hypothetischen Dingsbums skaliert mit multi-chip oder weiss der Geier was erscheint mir zukuenftiges D3D10 Midrange doch ein etwas zu hohes Ziel.

IMHO wenn Intel wirklich so hohe Ziele hat und das Zeug nicht selber entwicklen wird, muessten sie um einiges mehr Moneten bei IMG einfliessen lassen, damit sie auch ein wirklich konkurrenzfaehiges Resultat errreichen koennen. Uebrigens bin ich mir gar nicht mehr so sicher ob IMG trotz TBDR fuer rein hypothetisches ultra high end einem 512-bit am Ende diesmal entgehen koennte.

OT: aber wenn die ersten wahren Eurasia chips ankommen werden und die ersten Details bekannt sein werden, dann koennen wir fuer Dich endlich einen Grabstein ueber G965/X3000 legen; denn es ist und bleibt ein zu 100% Intel-Design. Du wirst Eurasia dann erst am wahren Featureset erkoennen koennen und ja nochmals SM3.0+ ist verdammt konservativ (mit Absicht angegeben).

haifisch1896
2007-02-02, 20:41:11
3dnow war vorher da. Dasselbe in gruen.

Mein gefährliches Halbwissen sagt mir, dass SSE ein aufgebohrtes MMX ist und das kam vor 3Dnow. Ich bitte, meinen Formfehler zu verzeihen.

stromsparende mobil CPUs in HTPCs einbauen. Welch Geistesblitz. AMDs CoolnQuiet war schon deutlich vorher in jedem Desktop PC mit AMD64 CPU.

Im Gegensatz zu einer einzelnen CPU bzw. Technologie , wie es die A64-Reihe darstellt, soll ViiV ein Konzept sein. Auch die Vermarktung mit Centrino, wo alles aus einer Hand war, ist ein Konzept, welches es vorher im Desktop-Markt nicht gab.
Ich stimme Dir aber zu, dass dies kein sonderlicher Geistesblitz war.

Was war am PPro denn so besonders? Superskalare Einheiten? Gabs vorher auch schon.

Eigentlich ging es mir mehr um die Nachentwicklungen, die aber den Ahnen PPro haben. Speziell den P III und C2D meine ich dabei. Massiv Rechenleistung zu einem vertretbaren Preis.

edit:
Mal ne Frage zum besseren Verständnis (für mich!):
Ist x87-Code nicht MMX/SSE? Denn wenn ja, dachte ich, das der PPro das noch nicht hatte.

Bokill
2007-02-02, 21:23:23
Mein gefährliches Halbwissen sagt mir, dass SSE ein aufgebohrtes MMX ist und das kam vor 3Dnow. Ich bitte, meinen Formfehler zu verzeihen. 3DNOW! war AMDs Ergänzung von Gleitkommaberechnungen (und weiteren Spezialbefehlen).

SSE nutzte vollkommen eigenständige Schaltungen. Der Umfang der Befehlsätze* von 3DNOW! + MMX war nahezu identisch mit SSE1.

Vektorberechnungseinheiten an sich sind aber weder einmalig, noch erstmalig bei x86 erschienen. Da waren andere schon früher dran.

Mal ne Frage zum besseren Verständnis (für mich!): ... Schau mal da rein:
http://www.sandpile.org/
http://www.sandpile.org/ia32/index.htm
http://www.sandpile.org/aa64/index.htm

Und bei Heise mal den Artikel mit "Cindey und Bert": Andreas Stiller (as)
Cindey und Bert (http://www.heise.de/kiosk/archiv/ct/99/05/124/)
Architekturen von Katmai (Pentium III) und Sharptooth (K6-III)
Know-how, Prozessoren , ISSE, 3Dnow!, SIMD-FP, Memory Streaming, Pipeline, Latenzzeit, Throughput, 3D-Transformation, Matrixmultiplikation, Shuffle
c't 5/99, Seite 124 So etwas schmeisst man nicht weg ...

MFG Bobo(2007)

* = Die Art der Rechenoperationen war nahezu deckungsgleich, nicht die implementierten (herstellerspezifischen) CPU Befehle. Siehe dazu Sandpile.org.

Coda
2007-02-03, 01:09:51
SSE nutzte vollkommen eigenständige Schaltungen.

Tut es nicht, es hat nur eigene Register. Es wurden schon immer die gleiche erste FPU für SSE und x87 verwendet, am Anfang hat man halt eine dazugeklebt und jetzt erst 3 (Conroe).

Leonidas
2007-02-03, 09:58:37
Dieser "IGP Scheiß" ist aber nunmal die aktuell am meisten verbreitete Bauform einer Grafik-"Karte".



Das hört sich so an, als würden deutlich mehr integrierte Lösungen verkauft als echte Grafikkarten - was nicht passt. Das Verhältnis ist irgendwo 1:1, insofern kann man sicher nicht davon sprechen, das extra Grafikkarten keine Relevanz hätten.

Richtig ist dagegen, daß LowCost-Grafiklösungen (egal ob integriert oder extra), die allerhöchstens beschränkt Spiele-fähig sind, einen Marktanteil von lockeren 60-70% haben.




Für Grafikkarten interessieren sich auch nur noch Spieler. Und die sind nur ein kleiner Teil des Gesamtmarktes, egal, wie du den market share misst.



Spieler sind momentan diejenigen, die den Hardware-Markt (abgesehen von Notebooks) überhaupt noch vorantreiben. Ohne die Spieler würden gar keine HighEnd-PCs mehr abgesetzt werden. Insofern kann ich Dir hier nicht zustimmen.

Außerdem reden wir von einigen Dutzend Millionen weltweit, die noch dazu deutlich häufiger ihre Hardware tauschen als der Schnitt und dafür auch mehr Geld ausgeben als der Schnitt. Diese Gruppe zählt zudem zu den üblichen Multiplikatoren, welche also die Hardware-Käufe auch für viele andere Personen inspirieren. Wer das außer acht läßt, ist ganz schnell weg vom Fenster.

Bokill
2007-02-03, 10:20:57
... Außerdem reden wir von einigen Dutzend Millionen weltweit, die noch dazu deutlich häufiger ihre Hardware tauschen als der Schnitt und dafür auch mehr Geld ausgeben als der Schnitt. Diese Gruppe zählt zudem zu den üblichen Multiplikatoren, welche also die Hardware-Käufe auch für viele andere Personen inspirieren. Wer das außer acht läßt, ist ganz schnell weg vom Fenster. So sehe ich das auch ...

Allerdings hat speziell AMD seine Aktivitäten zuungunsten ihrer einstmaligen Multiplikatoren verschoben. Das ist derzeit ein schon sichtbarer Trend (http://www.athlon.de/showpost.php?p=1018562&postcount=156) ...

Auf Dauer zählt viel Rechenleistung pro Die, zu fairen Preisen, bei niedrigem Stromeinsatz.

MFG Bobo(2007)

StefanV
2007-02-03, 10:26:06
Spieler sind momentan diejenigen, die den Hardware-Markt (abgesehen von Notebooks) überhaupt noch vorantreiben. Ohne die Spieler würden gar keine HighEnd-PCs mehr abgesetzt werden. Insofern kann ich Dir hier nicht zustimmen.
Das ist so nicht ganz richtig, gibt ja auch noch die wo die Rechenleistungen auch wirklich brauchen, genau wie die Grafikleistung...

Allerdings spielt für die Geld kaum eine Rolle, da Zeit = Geld und man am Ende etwas mehr spart, wenn man das beste wo gibt käuft...

ceed
2007-02-03, 17:00:17
Das hört sich so an, als würden deutlich mehr integrierte Lösungen verkauft als echte Grafikkarten - was nicht passt. Das Verhältnis ist irgendwo 1:1, insofern kann man sicher nicht davon sprechen, das extra Grafikkarten keine Relevanz hätten.



Also das stimmt nicht... Intel ist nicht umsonst deutlich Marktführer aber hast du schon mal eine Grafikkarte von denen gesehen ?

Hm hab jetzt auf die schnelle nur die Quelle bekommen

http://www.computerbase.de/news/hardware/grafikkarten/2003/oktober/grafikkarten_ati_marktanteile/

HOT
2007-02-03, 20:02:38
Also das stimmt nicht... Intel ist nicht umsonst deutlich Marktführer aber hast du schon mal eine Grafikkarte von denen gesehen ?

Hm hab jetzt auf die schnelle nur die Quelle bekommen

http://www.computerbase.de/news/hardware/grafikkarten/2003/oktober/grafikkarten_ati_marktanteile/
Intel hat 80-90% des Marktes an integrierten Grafiklösungen (bei PCs). Im Gesamtmarkt hat Intel ca. 40%, 1 zu 1 kommt also durchaus hin. Intel hat aber den OEM Markt nicht mehr so unter der fuchtel, wie es mal war (Kartellverfahren, AMDs Produktionskapazität), ist also bei integrierten Lösungen langfristig auf dem absteigenden Ast. Also müssen Grafikchips her, um die andere Hälfte des Marktes abdecken zu können, und Reputation bei den Retrailern zu sammeln (die den Markt immernoch bestimmen, da sie immernoch als Zugpferde gelten) und zwar relativ schnell.

Bokill
2007-02-03, 20:48:45
Das sind eher 50 - 70% als 90% bei den integrierten Chipsätzen.

http://www.xbitlabs.com/news/chipsets/display/20051130225721.html

In dem Feld konnten ATI, NVIDIA, VIA, SIS etwas abgrasen.

Die Meldung von XbitLabs ist zwar etwas über ein Jahr alt, aber zugewonnen wird Intel durch die Konkurrenz von ATI und NVIDIA ganz sicher nicht in dem Markt.

MFG Bobo(2007)

Bokill
2007-02-05, 22:15:39
@HOT

Hier mal eine Wasserstandsmeldung zum Grafikmarkt Anfang 2007:
... Rund 83,5 Millionen Grafikkomponenten für PCs haben die Großen der Branche im vierten Quartal 2006 ausgeliefert, schätzen die Martktforscher von Jon Peddie Research (JPR). ...

Dreiviertel davon sind integrierte Chipsätze (Mobilmarkt). Marktführer ist Intel mit 49,8 Prozent, gefolgt von AMD (ATI) mit 23,4 und Nvidia mit 22,9 Prozent. Nahezu 60 Prozent aller diskreten Grafikchips für Notebooks kommen nach Peddies Zahlen inzwischen von Nvidia, die AMD (ATI) damit erneut Boden abnehmen konnten. ...

(Desktop) Intel ist Marktführer von 31,8 Prozent vor Nvidia mit 31 Prozent und AMD (ATI) mit 22,8 Prozent. ...
"Laptops lassen Markt für Grafikchips wachsen (http://www.heise.de/newsticker/meldung/84806)" [heise.de].

VIA Technologies (6,7%), SIS (4,5%) sind Randerscheinungen, wobei SIS für ihre geringe Grösse sich noch gut halten konnte. VIA scheint hier meiner Meinung nach stark nachgelassen zu haben. ATI und NVIDIA scheinen hier die letzten Jahre besonders erfolgreich an den Marktanteilen von Intel und VIA geknabbert zu haben.

MFG Bobo(2007)

HOT
2007-02-06, 11:08:57
@HOT

Hier mal eine Wasserstandsmeldung zum Grafikmarkt Anfang 2007:

"Laptops lassen Markt für Grafikchips wachsen (http://www.heise.de/newsticker/meldung/84806)" [heise.de].

VIA Technologies (6,7%), SIS (4,5%) sind Randerscheinungen, wobei SIS für ihre geringe Grösse sich noch gut halten konnte. VIA scheint hier meiner Meinung nach stark nachgelassen zu haben. ATI und NVIDIA scheinen hier die letzten Jahre besonders erfolgreich an den Marktanteilen von Intel und VIA geknabbert zu haben.

MFG Bobo(2007)

Erstaunlich. Dann gibt es doch sehr viele IGPs auf dem Markt. Kein Wunder, dass NV jetzt auch bei Intel ein Stück abhaben möchte (NV IGPs für Intel). Da NV IGPs deutlich besser sind als Intels, kanns im lukrativen IGP Markt glatt eng für Intel. Ein Grund mehr, warum man PowerVR technik benötigt.

Gast
2007-02-06, 13:08:45
Intel hat in den letzten 10 Jahren keine Powervr Technik gebraucht, also warum sollten sie jetzt?

mapel110
2007-02-06, 13:11:47
Intel hat in den letzten 10 Jahren keine Powervr Technik gebraucht, also warum sollten sie jetzt?
Weil sie sie lizensiert haben?! :|

Gast
2007-02-06, 13:28:35
Das soll jetzt aber nicht ernsthaft eine Antwort auf die Frage sein, oder?

Man braucht etwas, weil man es lizensiert hat.... interessante Logik.

loewe
2007-02-06, 14:42:39
Das soll jetzt aber nicht ernsthaft eine Antwort auf die Frage sein, oder?

Man braucht etwas, weil man es lizensiert hat.... interessante Logik.

Sicher nicht besonders intelligent, aber:

Intel hat in den letzten 10 Jahren keine Powervr Technik gebraucht, also warum sollten sie jetzt?

ist auch nicht viel besser!

Ich brauche etwas nicht, weil ich es früher auch nicht gebraucht habe?!!

Wer nun damit angefangen hat ist ja egal.
AMD hat ATI gekauft, warum auch immer! ;D
Intel scheint nun vielleicht das Gefühl zu haben, dem allein nicht genug entgegen setzten zu können, also lizensieren sie Serie 5 von PowerVR. Ist doch nicht ganz unlogisch, oder? :)

HOT
2007-02-06, 18:28:51
Das soll jetzt aber nicht ernsthaft eine Antwort auf die Frage sein, oder?

Man braucht etwas, weil man es lizensiert hat.... interessante Logik.
Warum sonst sollte man tonnenweise Geld für eine PowerVR Lizenz ausgeben? Diese Lizenz berechtigt Intel dazu die Designs zu fertigen, warum sollte man sie kaufen ohne sie zu nutzen?

Gast
2007-02-06, 18:39:13
Steht denn schon fest, wofür Intel die Lizenz nutzen will? Vielleicht wollen die ja nur der Xbox Konkurrenz machen, eine Spielekonsole von Intel, warum nicht?

HOT
2007-02-06, 18:54:20
Steht denn schon fest, wofür Intel die Lizenz nutzen will? Vielleicht wollen die ja nur der Xbox Konkurrenz machen, eine Spielekonsole von Intel, warum nicht?
Fakt ist: Mit der Lizenz bekommen sie deutlich bessere Grafik hin als mit ihrer eigenen Technik und das ist auch der springende Punkt. Ich finde diese Spekulation unwahrscheinlicher, vor allem, da Intel ja selbst zugibt, an Grafikchips zu arbeiten und eigens deswegen die Grafiksparte ausgelagert hat.

haifisch1896
2007-02-06, 21:01:31
Darf man eigentlich ein lizensiertes Design abwandeln und auf den Markt bringen, wenn man brav weiterhin Lizenzgebühren zahlt? Oder ist sowas unüblich?

Bokill
2007-02-06, 21:14:41
Darf man eigentlich ein lizensiertes Design abwandeln und auf den Markt bringen, wenn man brav weiterhin Lizenzgebühren zahlt? Oder ist sowas unüblich? Das hängt vom Lizensierungsmodell ab ;)

ARM vergibt Lizenzen für ihre CPU.Kerne, lässt es aber zu wenn sie modellspezifisch abgewandelt werden. Solange diese Lizensierte CPU weiterhin sich an die Standards einer ARM ISA (Instruction Set Architecture) hält.

Sun machts mit ihrem "Niagara" auch so (ist sogar open source).

Chiphersteller wie Samsung, NEC, Texas Instruments machen ja vielfach nichts anderes, als die Grunddesigns anzupassen für ihre Chips/Anwendungsfelder, und machen deswegen auch Lizenzverträge mit ARM, MIPS, Power.org, SPARC International, ...

MFG Bobo(2007)

AnarchX
2007-02-07, 14:45:26
[Intel Discrete GPU Roadmap Overview]
Intel's Visual Computing Group (VCG) gave an interesting overview of the discrete graphics plans this week. There seems to be a few interesting developments down the pipeline that could prove quite a challenge to NVIDIA and AMD in 2 years time. As already stated on their website, the group is focused on developing advanced products based on a many-core architecture targeting high-end client platforms initially. Their first flagship product for games and graphics intensive applications is likely to happen in late 2008-09 timeframe and the GPU is based on multi-core architecture. We heard there could be as many as 16 graphics cores packed into a single die.[...]

http://www.vr-zone.com/index.php?i=4605

16 Cores auf einem Die? :| Da ist wohl eher Package gemeint, sonst macht es ja nicht unbedingt Sinn...

turboschlumpf
2007-02-07, 18:57:24
Ich sehe das eher umgekehrt.

Package ergibt keinen Sinn. Wie willst du dabei die Rechenlast sinnvoll verteilen und sicherstellen, dass der Datenaustausch zwischen den Cores entsprechend schnell vonstatten geht?

Ich denke Cores meint in diesem Zusammenhang eher so etwas wie die Streamprozessoren beim G80.

AnarchX
2007-02-07, 19:07:20
Ich sehe das eher umgekehrt.

Package ergibt keinen Sinn. Wie willst du dabei die Rechenlast sinnvoll verteilen und sicherstellen, dass der Datenaustausch zwischen den Cores entsprechend schnell vonstatten geht?


Nunja, mit einzelnen Cores die man dann eben erst auf einem Package zusammenstellt, hätte man halt Vorteile bei der Ausbeute und könnte entsprechend gut skalieren, ohne dass man mehr als diesen einen Chip entwickeln muss.

Ich denke schon, dass hier mit Core ein mehr oder weniger vollwertige GPU gemeint ist.

Genau in diese Richtung scheint in Zukunft ATi und auch S3 zu gehen.

Gmax
2007-02-07, 19:46:02
Richtig, hat der ex Europachef von ATI schon bestätigt, der R700 wird ein Multicore.

loewe
2007-02-07, 19:54:05
Wenn ich mal davon ausgehe das das hier alles was mit PowerVR Technologie zu tun hat, denke ich diese Cores sind wesentlich komplexer als die Streamprozessorren des G80, aber auch keine vollständigen GPUs.

Wie bekannt wird die Szene bei PowerVR ja im Tile Accelerator (TA) gesammelt und dort wird dann auch als Ergebnis die Displayliste erzeugt. Durch so einen TA muss immer die komplette Szene durch, davon brauche ich aber auch nur genau einen!
Die Displayliste wird anschließend durch Einheiten aus Image Synthesis Processor (ISP) und Texturing and Shading Processor (TSP) bearbeitet, wobei im ISP je Pixel das sichtbare Dreieck bestimmt wird und dieses dann im TSP texturiert wird. Solch eine Einheit aus ISP und TSP bearbeitet zur Zeit genau ein Tile, hier spricht nichts dagegen davon mehrere zu haben, es ruft eigentlich geradezu danach. Der Verwaltungsaufwand sollte sich in Grenzen halten und PowerVR hat damit ja auch schon Erfahrung (Naomi 2). Das das heute alles von entsprechenden Shadereinheiten unterstützt werden muss versteht sich.
Es würde sich also anbieten neben einem TA mehrere ISP/TSP Cores zu haben, je nach Leistungsfähigkeit des Systems.

Coda
2007-02-07, 20:39:22
Richtig, hat der ex Europachef von ATI schon bestätigt, der R700 wird ein Multicore.
Quelle?

robbitop
2007-02-07, 21:14:09
Weil sie sie lizensiert haben?! :|
Das blöde ist, dass sie Lizenzgebühren pro verkaufter Einheit auch noch abdrücken müssten. Das wäre bei ner IGP reichlich.

robbitop
2007-02-07, 21:18:21
Wie bekannt wird die Szene bei PowerVR ja im Tile Accelerator (TA) gesammelt und dort wird dann auch als Ergebnis die Displayliste erzeugt. Durch so einen TA muss immer die komplette Szene durch, davon brauche ich aber auch nur genau einen!
Den man aber auch richtig dimensionieren muss. Intel zeigt mit ihrem Zone Rendering (was ja ein echter TBDR ist), dass man den TA auch im Verhältnis zum Pixelteil unterdimensionieren kann. Daran hängt das ganze Teil.

Gmax
2007-02-07, 21:24:39
Quelle?

Folglich will sein Unternehmen in kommenden GPU-Generationen den Stromverbrauch deutlicher im Auge behalten, und dazu auch auf mehrere Kerne in einem Grafikchip setzen. Aber, so Edinger "das ist nichts, was sie gleich in der nächsten Generation sehen werden - aber in der übernächsten."


http://www.golem.de/showhigh2.php?file=/0608/47044.html

mapel110
2007-02-07, 21:34:49
http://www.golem.de/showhigh2.php?file=/0608/47044.html
Ich wäre mir nicht so sicher, dass R700 schon mehr als DX10 hat. Da wäre ja m$ schön blöd, wenn sie wieder die API jetzt jedes Jahr(oder alle 2 Jahre) updaten. Das wollten sie doch nicht mehr?!
Das blöde ist, dass sie Lizenzgebühren pro verkaufter Einheit auch noch abdrücken müssten. Das wäre bei ner IGP reichlich.
Dann kann man den Laden immernoch kaufen. Meine Meinung dazu wie es laufen wird, hab ich ja schon geschrieben.

robbitop
2007-02-07, 22:11:31
Kauf mal eine Ltd/GmbH. ;) Da musst du dich dann mit den Gesellschaftlern "einigen" (also Begleitservice ahoi)

Ich glaub kaum, dass man nur wegen der IGP Sache den Laden aufkaufen würde. Intels IGPs genügen dem Markt. Der fordert Features und keine Leistung.

loewe
2007-02-07, 22:37:47
Den man aber auch richtig dimensionieren muss. Intel zeigt mit ihrem Zone Rendering (was ja ein echter TBDR ist), dass man den TA auch im Verhältnis zum Pixelteil unterdimensionieren kann. Daran hängt das ganze Teil.

Über intels Zone Rendering will ich nicht sprechen.

Wenn es etwas gibt was PowerVR gut im Griff hat, dann sind es "well balanced chips", das ist zum einen das Können der Ingenieure, zum anderen die Technologie. Der TA bekommt die Leistung die er braucht, bei META nennen sie es AMA (Automatic MIPS Allocation).
Keine Angst, sie werden den TA schon so leistungsfähig machen, wie er sein muss. :)

mapel110
2007-02-07, 22:52:00
Ich glaub kaum, dass man nur wegen der IGP Sache den Laden aufkaufen würde. Intels IGPs genügen dem Markt. Der fordert Features und keine Leistung.
Hast du den Thread verfolgt?
Intel will Desktopstandalone-Chips/Karten bringen. Ich seh das so, dass Intel erstmal versucht, Grakas zu bauen und wenn dann die Treiber gut sind, basteln sie anhand der vorhandenen Erfahrungen IGPs noch dazu. IMO sind IGP-Treiber durch Vista stark in ihrer Bedeutung gestiegen, da jetzt dort nicht nur 2D, sondern endlich auch 3D funktionieren muss. Das war ja bei Intel häufiger nicht der Fall.
Aber das hatte ich auch schon weiter vorne im Thread geschrieben.
p.s. und wenn dann eben alles rund läuft, kaufen sie PowerVR eben. Egal, was es kostet. Jeder ist käuflich, vorallem in dem Bereich. Und das Kartellamt sollte da auch keine Einwände haben. Die beiden Unternehmen spielen ja in unterschiedlichen Bereichen.

Ailuros
2007-02-08, 07:50:09
Das blöde ist, dass sie Lizenzgebühren pro verkaufter Einheit auch noch abdrücken müssten. Das wäre bei ner IGP reichlich.

Aber nicht den "Zuschuss" von ca. $10Mio gell? ;)

Ailuros
2007-02-08, 08:04:42
Hast du den Thread verfolgt?
Intel will Desktopstandalone-Chips/Karten bringen. Ich seh das so, dass Intel erstmal versucht, Grakas zu bauen und wenn dann die Treiber gut sind, basteln sie anhand der vorhandenen Erfahrungen IGPs noch dazu. IMO sind IGP-Treiber durch Vista stark in ihrer Bedeutung gestiegen, da jetzt dort nicht nur 2D, sondern endlich auch 3D funktionieren muss. Das war ja bei Intel häufiger nicht der Fall.
Aber das hatte ich auch schon weiter vorne im Thread geschrieben.
p.s. und wenn dann eben alles rund läuft, kaufen sie PowerVR eben. Egal, was es kostet. Jeder ist käuflich, vorallem in dem Bereich. Und das Kartellamt sollte da auch keine Einwände haben. Die beiden Unternehmen spielen ja in unterschiedlichen Bereichen.

Merkwuerdigerweise spricht Intel von standalone GPUs irgendwo ab 2008 und rein zufaelligerweise steht auf IMG's roadmap der SGX555 zur etwa gleichen Zeit.

Falls Intel je etwas kaufen wuerde/koennte dann waere es IMG insgesamt; ihre Investition in IMG fuer die sich Intel ein kleines Prozentual in der Firma einkaufte zeigte in etwa wie hoch der Verkaufswert insgesamt sein koennte. Eine andere Alternative waere natuerlich mit dem Verlauf der Zeit ein noch groesseres Prozentual einzukaufen und IMG trotzdem unabhaengig lassen. Unter dem Intel Schirm wuerden sie nicht unbedingt 3d relevantes IP etwas schwerer an grosse Semis verkaufen. Ein ziemlich frisches Beispiel waere TV Schnickschnack fuer Sharp oder andere Semis:

http://www.imgtec.com/News/Release/index.asp?ID=662

Wobei wohl keiner so leicht erfahren wird in wievielen Fernsehern von Sharp, Samsung und dergleichen IMG IP dan drinsteckt.

Noch dazu kommt dass IMG ein gesundes Prozentual an Aktien in Frontier Silicon (fabless semiconductor fuer DAB/DVB-S/DVB-T/PVR) hat; jegliche moegliche Uebernahme von Intel wird sich die letztere wohl am Ende doch ziemlich scharf ueberdenken. Wenn es im besten Interesse beider Firmen sein wird dass IMG unabhaengig bleibt, um den IP Verkauf zu ihren bisherigen Partnern nicht zu gefaerden, wird es wohl auch so bleiben.

Ailuros
2007-02-08, 08:07:25
Den man aber auch richtig dimensionieren muss. Intel zeigt mit ihrem Zone Rendering (was ja ein echter TBDR ist), dass man den TA auch im Verhältnis zum Pixelteil unterdimensionieren kann. Daran hängt das ganze Teil.

Du kannst Zone Rendering von mir aus "TBDR" nennen; ich hingegen nenne es dann lieber "TBDR that sucks" :biggrin:

AnPapaSeiBua
2007-02-08, 08:39:35
http://www.computerbase.de/news/hardware/grafikkarten/2007/februar/intel_ausblick_grafikchips/

robbitop
2007-02-08, 10:34:16
Über intels Zone Rendering will ich nicht sprechen.

Aber ich. ;)
Ich habe dazu quasi einen Artikel in der Hinterhand, bzw im Kopf. Fehlt nur die Zeit und die Böcker, das umzusetzen. So schlecht ist intels Zone Rendering nicht, bis auf blöde Flaschenhälse.

Hast du den Thread verfolgt?
Intel will Desktopstandalone-Chips/Karten bringen. Ich seh das so, dass Intel erstmal versucht, Grakas zu bauen und wenn dann die Treiber gut sind, basteln sie anhand der vorhandenen Erfahrungen IGPs noch dazu. IMO sind IGP-Treiber durch Vista stark in ihrer Bedeutung gestiegen, da jetzt dort nicht nur 2D, sondern endlich auch 3D funktionieren muss. Das war ja bei Intel häufiger nicht der Fall.
Aber das hatte ich auch schon weiter vorne im Thread geschrieben.
p.s. und wenn dann eben alles rund läuft, kaufen sie PowerVR eben. Egal, was es kostet. Jeder ist käuflich, vorallem in dem Bereich. Und das Kartellamt sollte da auch keine Einwände haben. Die beiden Unternehmen spielen ja in unterschiedlichen Bereichen.
So ganz klar ist das nicht. Oder haben sie das genau so bestätigt? Ich habe bisher nur schwammiges Zeug gelesen, was UMPCs betrifft.
Ich sehe wenig Sinn in dedizierten 3D Karten beim jetzigen Markt für Intel. IGPs haben sie, UMPC IGPs kommen noch.

Aber nicht den "Zuschuss" von ca. $10Mio gell? ;)
Klingt nett, sofern sich IMG darauf einläßt. Genug zu tun haben sie ja mit ihrer SGX Serie eh. Intel will ja richtig R&D Aufwand haben, sofern sie IMG als Zugpferd nehmen. Da bleibt dann für SGX und deren Nachfolger wohl nichts mehr übrig.

Du kannst Zone Rendering von mir aus "TBDR" nennen; ich hingegen nenne es dann lieber "TBDR that sucks" :biggrin:
So würde ich das Teil auch nennen. X-D
Aber immerhin ist es unabhängig von der Qualität ein echter TBDR. Sowas ist ja eine echte Seltenheit im 3D Business. Aber für eine IGP Umgebung genau das Richtige, sofern gut umgesetzt.

http://www.computerbase.de/news/hardware/grafikkarten/2007/februar/intel_ausblick_grafikchips/
Da hat wieder jemand viel interpretiert, viel Halbwissen verwendet und keine genauen, glasklaren Quellen gehabt.

HOT
2007-02-08, 10:35:49
Das blöde ist, dass sie Lizenzgebühren pro verkaufter Einheit auch noch abdrücken müssten. Das wäre bei ner IGP reichlich.
Die Lizenzgebühren werden sich aber unterscheiden, also wenig Gebühren beim IGP, mehr bei HighEnd, je nachdem, welche Preise man nehmen kann.

HOT
2007-02-08, 10:38:51
Hast du den Thread verfolgt?
Intel will Desktopstandalone-Chips/Karten bringen. Ich seh das so, dass Intel erstmal versucht, Grakas zu bauen und wenn dann die Treiber gut sind, basteln sie anhand der vorhandenen Erfahrungen IGPs noch dazu. IMO sind IGP-Treiber durch Vista stark in ihrer Bedeutung gestiegen, da jetzt dort nicht nur 2D, sondern endlich auch 3D funktionieren muss. Das war ja bei Intel häufiger nicht der Fall.
Aber das hatte ich auch schon weiter vorne im Thread geschrieben.
p.s. und wenn dann eben alles rund läuft, kaufen sie PowerVR eben. Egal, was es kostet. Jeder ist käuflich, vorallem in dem Bereich. Und das Kartellamt sollte da auch keine Einwände haben. Die beiden Unternehmen spielen ja in unterschiedlichen Bereichen.

PowerVR alleine kann man nicht kaufen. Dann müsste Intel gesamt Imagination kaufen, was aber nicht so einfach ist, da es sich hier nicht um eine AG handelt.

HOT
2007-02-08, 10:39:13
doppelpost

Die gelbe Eule
2007-02-08, 10:40:25
So ganz klar ist das nicht. Oder haben sie das genau so bestätigt? Ich habe bisher nur schwammiges Zeug gelesen, was UMPCs betrifft.
Ich sehe wenig Sinn in dedizierten 3D Karten beim jetzigen Markt für Intel. IGPs haben sie, UMPC IGPs kommen noch.

Wenn ich nach NV rüberschaue, dann sehe ich die IGP Aufträge für Intel und auch gleichzeitig die Technologie für UMPC, wlche bereits funktioniert. Alleine daraus "kann" sich Intel in Richtung Treiber bewegen, sprich lernen. Ob Intel nun in den Desktopmarkt einsteigt, das wird sich erst dann zeigen, wenn man weiß ob nicht NV doch übernommen wird und dann Intel anstatt NV drauf steht. Schon ist Intel immer im Desktopmarkt gewesen ;)

Ailuros
2007-02-08, 10:46:26
Klingt nett, sofern sich IMG darauf einläßt. Genug zu tun haben sie ja mit ihrer SGX Serie eh. Intel will ja richtig R&D Aufwand haben, sofern sie IMG als Zugpferd nehmen. Da bleibt dann für SGX und deren Nachfolger wohl nichts mehr übrig.

Ich meinte das hier: http://www.theinquirer.net/default.aspx?article=34822

http://www.redherring.com/Article.aspx?a=18919&hed=Intel+Stakes+UK+Chip+Firm%3A+%2410M&sector=Industries&subsector=Computing

Oder hast Du diese "Kleinigkeit" damals verpasst?

HOT
2007-02-08, 11:07:22
Wenn ich nach NV rüberschaue, dann sehe ich die IGP Aufträge für Intel und auch gleichzeitig die Technologie für UMPC, wlche bereits funktioniert. Alleine daraus "kann" sich Intel in Richtung Treiber bewegen, sprich lernen. Ob Intel nun in den Desktopmarkt einsteigt, das wird sich erst dann zeigen, wenn man weiß ob nicht NV doch übernommen wird und dann Intel anstatt NV drauf steht. Schon ist Intel immer im Desktopmarkt gewesen ;)
Wenn Intel SGX5x5 Chips baut, wird Intel sich keine Sorgen um Treiber machen müssen ;).

Ailuros
2007-02-08, 11:12:32
Wenn Intel SGX5x5 Chips baut, wird Intel sich keine Sorgen um Treiber machen müssen ;).

Dann macht sich eben IMG dann Sorgen darueber, was wohl dann heisst dass IMG noch einige neue Mitarbeiter einstellen muss.

robbitop
2007-02-08, 11:21:42
Ich meinte das hier: http://www.theinquirer.net/default.aspx?article=34822

http://www.redherring.com/Article.aspx?a=18919&hed=Intel+Stakes+UK+Chip+Firm%3A+%2410M&sector=Industries&subsector=Computing

Oder hast Du diese "Kleinigkeit" damals verpasst?

How far does the collaboration go? On this matter both firms were vague to the point of opacity.

Nur schwammiger Kram. Das sagt alles und nichts.

Gast
2007-02-08, 11:22:38
PowerVR alleine kann man nicht kaufen. Dann müsste Intel gesamt Imagination kaufen, was aber nicht so einfach ist, da es sich hier nicht um eine AG handelt.


Naja, wenn du meinst.....

http://www.iii.co.uk/investment/detail?code=cotn:IMG.L&it=le

robbitop
2007-02-08, 11:40:09
Es gibt auch AGs, die nicht Börsennotiert sind (z.B. Fuhrländer AG) oder bei denen einfach nur ein Teil der Aktien auf der Börse ist.
Wenn Intel wollte, könnten sie IMG aufkaufen. Gar kein Problem. Ist nur die Frage, ob sie das wollen. für größere Pläne reichte allein IMG IMO nicht. Da müsste man noch gehörig nachrüsten.

Ailuros
2007-02-08, 12:36:25
Nur schwammiger Kram. Das sagt alles und nichts.

In welcher Sprache versuchen wir uns momentan zu verstaendigen dass ich auch dementsprechend umschalte? :rolleyes: Du hast irgendwas von IP Geldern geblubbert und dass es gerade fuer IGPs ausreichen wuerde und ich hab noch die ca. 10Mio $ Aktienkauf von Seiten Intel dazugeschoben.

Den Aktienkauf kannst Du als quasi "R&D Zuschuss" ansehen, wobei 5 Mio Pfund schon eine geraume Summe fuer eine IP Firma wie IMG ist. Da ich bezweifle dass IMG selbst Prototypen fuer solches Zeug bauen wuerde, sind die normalen Unkosten fuer IP Entwicklung extrem begrenzt.

Ja natuerlich sagt es alles und gar nichts, aber Intel ist auch nicht so bloed und schmeisst nur so mit Geld rum. Die Eurasia Lizenz betrifft nicht nur einen Core, was wohl eher auf mehrere Mio $ allen fuer die Lizenzen deutet.

Ailuros
2007-02-08, 12:41:55
Es gibt auch AGs, die nicht Börsennotiert sind (z.B. Fuhrländer AG) oder bei denen einfach nur ein Teil der Aktien auf der Börse ist.
Wenn Intel wollte, könnten sie IMG aufkaufen. Gar kein Problem. Ist nur die Frage, ob sie das wollen. für größere Pläne reichte allein IMG IMO nicht. Da müsste man noch gehörig nachrüsten.

Ob und was genau daraus wird weiss keiner; nichtdestominder stellt Intel momentan Personal fuer das Larabee Projekt ein.

robbitop
2007-02-08, 12:58:22
Wie du schon sagst: vieles ist möglich doch was am Ende passieren wird bleibt ungewiss. Ich bin jedenfalls sehr gespannt.

AnarchX
2007-02-09, 17:35:46
Meet Larrabee, Intel's answer to a GPU
Hello CGPUs, goodbye Nvidia

http://www.theinquirer.net/default.aspx?article=37548

Anarchy-HWLUXX
2007-02-09, 17:45:56
War ja klar das der Link kommt ... ich find die schlüsse die da gezogen werden einfach nur lächerlich. Also ob nVidia rumsitzt und nix tut ... intel muss auch schaun das se Hunderte Treiber Programmierer anheuern welche dann auch noch gescheite Treiber herstellen müssen denn ohne diese kann auch die bester Hardware garnix ...

Gast
2007-02-09, 20:49:26
Sofern es sich um IMG IP handelt, brauchen die sich um Treiber absolut gar nicht kümmern.

Tigerchen
2007-02-10, 07:37:21
Es gibt auch AGs, die nicht Börsennotiert sind (z.B. Fuhrländer AG) oder bei denen einfach nur ein Teil der Aktien auf der Börse ist.
Wenn Intel wollte, könnten sie IMG aufkaufen. Gar kein Problem. Ist nur die Frage, ob sie das wollen. für größere Pläne reichte allein IMG IMO nicht. Da müsste man noch gehörig nachrüsten.


Das reicht wirklich nicht. Schließlich hat man damals beim ersten Versuch auch einen 3D-Workshop gekauft. Real 3D nämlich die sogar einen T&L Chip in der Mache hatten. Was daraus geworden ist wissen wir alle. Ein teurer Flop.

robbitop
2007-02-10, 08:33:02
Nunja die Leute von Real3D machen für Intel TBDR IGPs und der GMA9xx ist so schlecht nicht für eine IGP.

StefanV
2007-02-10, 10:32:47
Wenn Intel wollte, könnten sie IMG aufkaufen. Gar kein Problem. Ist nur die Frage, ob sie das wollen. für größere Pläne reichte allein IMG IMO nicht. Da müsste man noch gehörig nachrüsten.
Nein, könnten sie nicht...

Einmal aufgrund der größe -> Preis entsprechend hoch -> Aktionäre bei Intel wirds nicht freuen
Zum anderen aufgrund der Kartell Behörden.
Glaubst du wirklich, das die britische Regierung zustimmen würde, die Phantasie zu verkaufen??
Wohl eher nicht...

Naja, wenn du meinst.....

http://www.iii.co.uk/investment/detail?code=cotn:IMG.L&it=le
Sind ja nur Aktien im Wert von 4,809,415 britische Pfund im Umlauf.
Pi mal Daumen wars doch x1,5 auf €uronen, oder??
Macht dann schlappe 7214122,5 €uronen...
Für eine Übernahme müsste man aber deutlich mehr löhnen...

Kurzum: das ist ein dicker Brocken an dem sich sogar Intel verschlucken kann!

robbitop
2007-02-10, 10:47:12
IMG ist ggü Intel ein kleiner Fisch. Das ist wie Millionen gegen Milliarden. IMG ist zu klein, als dass das irgendwelche Behörden aufregen würde (ist ja nicht ATI/NV).
Und was hat die britische Regierung mit einem mittelgroßen Privatunternehmen zu tun? Das ist eine Bude mit ein paar hundert Angestellten.

StefanV
2007-02-10, 10:51:14
IMG ist ggü Intel ein kleiner Fisch. Das ist wie Millionen gegen Milliarden. IMG ist zu klein, als dass das irgendwelche Behörden aufregen würde (ist ja nicht ATI/NV).
Und was hat die britische Regierung mit einem mittelgroßen Privatunternehmen zu tun? Das ist eine Bude mit ein paar hundert Angestellten.
Intel ist kein privat geführtes Unternehmen, die können nicht machen was sie wollen, das ist 'ne AG!!
Für alles was sie tun müssen sie ihren Aktionären Rechenschaft ablegen, die dann entweder zustimmen oder eben nicht.

Und gerade bei solch gewaltigen Übernahmen (na, wieviel müsst Intel wohl löhnen, 10-15 Milliarden US$??) gibts arge Probleme!
Einmal muss man die Aktionäre davon überzeugen, das das nötig ist, zum anderen gibts da noch die FTC und noch ein paar, bei denen Intel auf der Abschussliste steht...

Dazu kommen die britischen Gesetze, nach dem BMW Einstieg bei Rover werden die sicherlich nicht einfach so ein Unternehmen übernehmen lassen...
Zumal BMW Rover auseinandergenommen hat und die profitablen Bereiche entweder weiterverkauft (Landrover) oder behalten (Mini) hat...

Kurzum:
Eine Übernahme von ImgTec wäre das dümmste was Intel machen könnte zumal die EU eh was dagegen haben wird...
Von daher werden sie es auch garnicht erst versuchen...
Ganz ab davon lebt man ev. doch besser wenn man nur kleine Teile bei ImgTec kauft...

Gast
2007-02-10, 12:23:08
Intel ist kein privat geführtes Unternehmen, die können nicht machen was sie wollen, das ist 'ne AG!!
Für alles was sie tun müssen sie ihren Aktionären Rechenschaft ablegen, die dann entweder zustimmen oder eben nicht.


LOL, glaubst du wirklich irgendeine AG fragt ihre Aktionäre VOR so einer Entscheidung? Träum mal schön weiter.

reunion
2007-02-10, 12:27:35
IMG ist ggü Intel ein kleiner Fisch. Das ist wie Millionen gegen Milliarden. IMG ist zu klein, als dass das irgendwelche Behörden aufregen würde (ist ja nicht ATI/NV).


Wenn das mit den 4.809.415 britische Pfund stimmt, dann wäre IMG mehr wert als ATI oder nV.

Gast2
2007-02-10, 12:28:50
Stimmt aber nicht, es sind nur 235Mio Pfund, also Peanuts für Intel.

Gast2
2007-02-10, 12:29:47
btw. wie kommst du drauf dass es mehr wert als NV wäre, die liegen bei 11 Milliarden $ Börsenwert?

HOT
2007-02-10, 12:38:06
aber Stefan hat durchaus recht, Intel steht bei vielen Kartellbehörden auf der Abschussliste, gross einkaufen in Europe wird ein Problem für Intel. Zum Anderen muss sich die Investition auch rechnen, soviel Grafikkompetenz gibt es auf dem Markt nicht mehr, die man einfach aufkaufen könnte. Evtl. ist man bei Intel sogar davon überzeugt, dass Imagetech Lizenzen weniger kosten könnten als übernehmen, assimilieren und plattmachen.

robbitop
2007-02-10, 12:39:11
@Stefan
IMG Tech ist eine kleine Bude. Überhaupt nicht vergleichbar mit Intel oder BMW oder sonstwem. So ein mittelkleines Unternehmen schert niemanden.
Das ist eine Bude mit wenigen hundert Angestellten. Für Intel kein Problem.

Die Aktionäre dürften sehr einfach zu überzeugen sein, da man eh diese Art von Know How in nächster Zeit brauchen wird. Wenn AMD seine Investoren von ATI überzeugen konnte, dann wird Intel das ohne Probleme bei PVR schaffen.

Die Unternehmen unterscheiden sich um Faktor 1000! IMG ist ne kleine Nummer, mehr nicht. Solche Übernahmen sind üblicherweise an der Tagesordnung.

reunion
2007-02-10, 12:40:46
btw. wie kommst du drauf dass es mehr wert als NV wäre, die liegen bei 11 Milliarden $ Börsenwert?

Stimmt, momentan. Da sich das mit den Aktienkursen allerdings relativ schnell ändert, und ich noch ältere Zahlen im Kopf hatte, kam ich darauf.

HOT
2007-02-10, 12:40:52
Stimmt aber nicht, es sind nur 235Mio Pfund, also Peanuts für Intel.

Dann such doch mal die Zahlen raus bitte, das gleiche gilt für Stefan.

HOT
2007-02-10, 12:41:44
@Stefan
IMG Tech ist eine kleine Bude. Überhaupt nicht vergleichbar mit Intel oder BMW oder sonstwem. So ein mittelkleines Unternehmen schert niemanden.
Das ist eine Bude mit wenigen hundert Angestellten. Für Intel kein Problem.

Die Aktionäre dürften sehr einfach zu überzeugen sein, da man eh diese Art von Know How in nächster Zeit brauchen wird. Wenn AMD seine Investoren von ATI überzeugen konnte, dann wird Intel das ohne Probleme bei PVR schaffen.

Die Unternehmen unterscheiden sich um Faktor 1000! IMG ist ne kleine Nummer, mehr nicht. Solche Übernahmen sind üblicherweise an der Tagesordnung.

Was hat Imagetech für eine Rechtsform?

robbitop
2007-02-10, 12:57:14
Anscheinend ist's eine nicht börsennotierte AG.

Gast
2007-02-10, 12:59:26
Dann such doch mal die Zahlen raus bitte, das gleiche gilt für Stefan.


http://www.londonstockexchange.com/en-gb/pricesnews/prices/system/detailedprices.htm?sym=GB0009303123GBGBXSEAQ0930312IMG

Xmas
2007-02-10, 14:41:26
Es ist wirklich kurios was hier so Mancher denkt über ImgTec zu wissen (und das gilt für mehr als nur die Geschäftsseite). Dabei sind diese Informationen öffentlich zugänglich, man muss nur mal ein bisschen suchen statt wild herumzuspekulieren.

Imagination Technologies wird seit 1994 (http://www.imgtec.com/Investors/FAQs/index.asp) (damals noch als VideoLogic) öffentlich an der London Stock Exchange gehandelt. Aktuell gibt es ca. 215 Millionen Aktien, was bei einem aktuellen Kurs von 115 Pence eine Market Cap von ca. 247 Mio. Britischen Pfund (~370 Mio. €) ergibt.

Es gibt einen Unterschied zwischen Trading Volume und Market Capitalization. Und die siebte Stelle vor dem Komma (Punkt im Englischen) steht für Millionen.

HOT
2007-02-10, 15:44:58
Also stünde einem Kauf durch Intel kaum noch was im Wege. Damit wäre das geklärt.

Thowe
2007-02-10, 15:46:55
Also stünde einem Kauf durch Intel kaum noch was im Wege. Damit wäre das geklärt.


Eine Frage wie die Aktion verteilt sind, denke ich.