PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Das Ende der GPUs?


DR.ZEISSLER
2008-04-04, 13:32:24
http://www.tgdaily.com/content/view/36758/135/

People “probably won’t” need discrete graphics cards anymore – Intel Filed in Hardware

By Humphrey Cheung

Thursday, April 03, 2008 07:57
Shanghai (China) – The days of discrete graphics cards are coming to an end, according to an Intel representative we talked to at the Shanghai Intel Developer Forum. Ron Fosner, an Intel Graphics and Gaming Technologist and former video game programmer, told TG Daily that multi-core CPUs will put an end to multi-GPU madness and that people “probably won’t need” discrete cards in the future.

Video interview with Intel's Ron Fosner
Fosner made these comment while demonstrating Intel’s ‘Smoke’ demo at the Technology Showcase at IDF. We posted a short version of the demo a few days ago and you can watch that video here. Today we went back to get some more detailed answers.

The demo is actually an incomplete demo that was supposed to simulate fire fighters putting out a raging inferno. “We didn’t put in the fire fighters yet,” said Fosner. So instead of triumphant fire fighters, Intel chose to rain fiery destruction onto a house comprised of thousands of individual pieces, all simulated on a Nehalem 4-core, 2 threads per core, processor.

Nothing is pre-baked in this demo and the meteors don’t land in the same spot on each run. Lucky for us, Fosner managed to smash a meteor through the front porch of the shack. He explained that the demo then procedurally simulated fire as a particle emitter system with bounding boxes. When the particles hit a tree branch bounding box, the branch then becomes an emitter itself.

The demo also simulated animals like deer and rabbits running around on the ground. Dozens of birds are also flying around. Threads are devoted to creature AI and the animals try to run away, sometimes unsuccessfully, from the flames. Multi-core systems could lead to more realistic crowd animations and better weather and environment effects, according to Fosner.

Fosner told us that multi-core CPUs are more than capable of rendering complex scenes that used to be reserved for top-end graphics cards. He argued that Intel processors offered “more bang for the buck” and that it was more economical to go from single to multiple core processors versus popping multiple graphics cards into a machine. “The fact of the matter is that you’re going to have one graphics card, you may have a dual graphics card, but you’re not going to have a four graphics card or eight graphics card system,” said Fosner.

Another advantage to CPU graphics and physics programming is that people won’t need to continually keep up with the latest programming techniques of all the newest cards – this means futzing around with shader models and DirectX programming will be a thing of the past. Fosner said that “everybody” knows how to program for a CPU and that this new way of programming will “get rid of” a path of graphics obsolescence.

When asked if discrete graphics cards will be needed in the future, Fosner answered, “Probably not”. He explained that computer didn’t have discrete graphics in the 80s and that CPUs are becoming powerful enough to take over that role.

AtTheDriveIn
2008-04-04, 13:50:52
Imo größtenteils Marketinggeblubber.

Das eine CPU irgendwann schneller rendert als ein dann aktueller Grafikchip glaub ich eher nicht. Das man irgendwann aber alles von einem Chip kriegen kann, davon bin ich überzeugt. Wer keine besondere Grafikleistung braucht fährt damit dann sicherlich sehr gut und sparsam.

Allerdings sehe ich den Trend immer mehr Grafikkarten in ein System zu stecken auch kritisch.

Der_Korken
2008-04-04, 13:57:52
Imho werden diskrete Grafikchips so schnell bestimmt nicht überflüssig werden. Es mag durchaus Fälle geben, die auf CPUs viel effizienter ablaufen, als auf Grafikchips (z.B. KI), aber wenn es um die reine Rendering-Rohpower geht, können Prozessoren nicht mithalten. Selbst Midrange-Karten haben heutzutage eine theoretische Leistung von einem halben Teraflop - da werden auch Quad- und Octocores weit von entfernt sein.

Ich will ja nicht ausschließen, dass durch die vielen Cores eine Grafikkarte ersetzt werden kann, da für niedrige Grafikdetails nur sehr wenig Leistung erforderlich ist. Stellt man sich jedoch vor, zu was High-End-Chips in der Lage sind (siehe z.B. Crysis) kann ich mir einfach nicht vorstellen, sowas mittelfristig durch CPUs zu ersetzt zu sehen.

dilated
2008-04-04, 14:09:16
werbung...

erstaunlich wie echt das schon jetzt aussieht-.-

Gast
2008-04-04, 14:16:13
Tja Intel versucht Raytracing zu pushen.

adx
2008-04-04, 16:36:34
wieviel cpus solls denn dann geben ?
500 ?
also für jeden anspruch was sowohl cpu als auch gpu angeht ?

DR.ZEISSLER
2008-04-04, 17:07:41
warum wurde alan wake zurückgezogen ?
wird es das erste no-gpu game ?

doc

Coda
2008-04-04, 17:11:31
Alan Wake wurde nicht zurückgezogen sondern kommt raus 'when it's done', ist sogar noch Direct3D 9 und wird ganz sicher nicht das erste no-gpu game.

Meine Fresse...

DR.ZEISSLER
2008-04-04, 17:15:57
Alan Wake wurde nicht zurückgezogen sondern kommt raus 'when it's done', ist sogar noch Direct3D 9 und wird ganz sicher nicht das erste no-gpu game.

Meine Fresse...

warum so agressiv ?

tombman
2008-04-04, 17:16:10
Großes Bla um langfristig auf Raytracing einzuschwören.

Solange die ein Crysis nicht in 30fps mit Raytracing zeigen (mit einer <300$ CPU, mehr kostet auch ein Gespann aus CPU+GPU heutzutage nicht ;)), solange ist das nicht ernst zu nehmen.

Die sterilen 1000 Reflexionen in 1000 Reflexionen (wer braucht das schon :rolleyes:) techdemos sind Spielerei.

Coda
2008-04-04, 17:33:23
warum so agressiv ?
Weil's totaler Schwachsinn ist?

Anders kann man das schon nichmehr ausdrücken.

DR.ZEISSLER
2008-04-04, 17:35:32
na ja ok, aber das kann man auch anders rüberbringen, als "meine fresse".

ich habe nur mal meine gedanken so spielen lassen und da ist mir die alan wake demo mit der nutzung von 4 cores eingefallen,
da könnte man bei nem 8 core auch die restlichen 4 für die grafik nutzen.

war nur so ein gedanke, der sich mir aufdrängte und keinesfalls majestätsbeleidigung,
so wie das hier zurückschallt.

doc

Buzzler
2008-04-04, 17:35:57
Dass es im Grunde darum geht, dass auch jede MediMax-Drohne mal von RayTracing gehört hat und man sich für die Zukunftsicherheit unbedingt x->oo CPU-Kerne in den Rechner holen soll, ist ja nu klar.

"Schön" ist doch aber, wie kunstfertig man falsche Interpretationen auslösen kann, ohne tatsächlich offen zu lügen. Schließlich hat er nur "wahrscheinlich nicht" gesagt und von einem Zeitraum ist da auch nicht die Rede... ;D

DR.ZEISSLER
2008-04-04, 17:41:16
Dass es im Grunde darum geht, dass auch jede MediMax-Drohne mal von RayTracing gehört hat und man sich für die Zukunftsicherheit unbedingt x->oo CPU-Kerne in den Rechner holen soll, ist ja nu klar.

"Schön" ist doch aber, wie kunstfertig man falsche Interpretationen auslösen kann, ohne tatsächlich offen zu lügen. Schließlich hat er nur "wahrscheinlich nicht" gesagt und von einem Zeitraum ist da auch nicht die Rede... ;D

absolut; es geht mir hier nicht um werbung für intel und ich habe das nur zur offenen diskussion und natürlich auch spekulation reingestellt.

ich sehe schon potential für diese technologien, aber im high end spielbereich denke ich werden wir diese lösungen vorerst nicht finden.

vielleicht spart man die grafikkarte oder den onboard-grafik chip für die nutzer die keine oder so gut wie keine diskreten gpu's benötigen.

wer weis das heute schon.

doc

Coda
2008-04-04, 17:44:21
ich habe nur mal meine gedanken so spielen lassen und da ist mir die alan wake demo mit der nutzung von 4 cores eingefallen,
da könnte man bei nem 8 core auch die restlichen 4 für die grafik nutzen.
Mit 4 derzeitigen CPU-Cores bist du so auf dem GPU-Niveau von 2000-2001. Allerhöchstens.

Gast
2008-04-13, 01:25:59
Mit 4 derzeitigen CPU-Cores bist du so auf dem GPU-Niveau von 2000-2001. Allerhöchstens.Und NV wie auch bestimmt ATI werden alles daran setzen diesen Abstand beizubehalten.

Es könnte aber auch sein, Coda, daß es 6x Normalos und 2x Streaming- oder Vectorcores gibt. Dann siehts wieder anders aus.

Intel hat die GPU als Intelfind Nr.1 ausgemacht. Spätestens seitdem man mit ATIs Proteine falten konnte. Ich bin mit GPUs mein lebenlang gut gefahren. Intel hat auch mal AMD mit K8 und Speicherkontroller + AMD64 als Intelfeind Nr.1 ausgemacht. ColdReboot-Bugs nimmt man dagegen nichtmal wahr.
Ohne Frage versucht auch AMD in diesen Zug nach nirgendwo einzusteigen.

Ich werde mich gegen diese Entwicklung auf jeden Fall wehren. Sie ist für den Verbraucher kontraproduktiv.

IceKillFX57
2008-04-13, 01:56:32
loooooooooooool
8 Kerne.. alle mit ca. 80% ausgelastet und ne FPS von 18.... Das Knackt die 8800 GTX locker weg.. ich tippe mal auf mind 150 FPS.

ShadowXX
2008-04-13, 02:05:38
Und NV wie auch bestimmt ATI werden alles daran setzen diesen Abstand beizubehalten.

Es könnte aber auch sein, Coda, daß es 6x Normalos und 2x Streaming- oder Vectorcores gibt. Dann siehts wieder anders aus.

Selbst dann nicht...

Intel hat die GPU als Intelfind Nr.1 ausgemacht. Spätestens seitdem man mit ATIs Proteine falten konnte. Ich bin mit GPUs mein lebenlang gut gefahren. Intel hat auch mal AMD mit K8 und Speicherkontroller + AMD64 als Intelfeind Nr.1 ausgemacht. ColdReboot-Bugs nimmt man dagegen nichtmal wahr.
Ohne Frage versucht auch AMD in diesen Zug nach nirgendwo einzusteigen.

Ich werde mich gegen diese Entwicklung auf jeden Fall wehren. Sie ist für den Verbraucher kontraproduktiv.
Sie wissen auch ganz genau warum Sie diesen nonsense von sich geben....und Sie wissen auch ganz genau warum die die Erwartungen in Larabee etwas runterziehen.

Larabee wird nicht das werden was viele erwarten........zumindest nicht in dem Bereich den viele erwarten. Im Tesla-Bereich wird Larabee IMHO aber wohl wirklich Konkurrenz darstellen.

Gast
2008-04-13, 03:01:21
Im Tesla-Bereich wird Larabee IMHO aber wohl wirklich Konkurrenz darstellen.Aha. Im 2-Testal-Bereich oder im 3-Tesla-Bereich? Kannst du auch sinnvoll reden?

=Floi=
2008-04-13, 03:26:40
http://www.nvidia.de/page/tesla_computing_solutions.html

gibt es eigentlich auch für den normalen user EIN programm, dass dieses feature ausnützt? Auch in zikunft wird es extra grafikkarten geben und erst recht, je weiter wir an die 32/24nm grenze kommen. Die dice werden eher größer und da bleibt kein platz mehr die gleiche menge wie für die cpu selbt nochmal in einen grafikcore zu stecken. Speicheranbindung und kühlung sind ebenso unmöglich bei einer solchen konstruktion. Ich bin auch jetzt absolut zufrieden, da dieses system viel besser skarlierbar ist. (DC+GTX oder Extreme Quad CPU mit IGP)

Tigerchen
2008-04-13, 08:51:56
Und NV wie auch bestimmt ATI werden alles daran setzen diesen Abstand beizubehalten.

Es könnte aber auch sein, Coda, daß es 6x Normalos und 2x Streaming- oder Vectorcores gibt. Dann siehts wieder anders aus.

Intel hat die GPU als Intelfind Nr.1 ausgemacht. Spätestens seitdem man mit ATIs Proteine falten konnte. Ich bin mit GPUs mein lebenlang gut gefahren. Intel hat auch mal AMD mit K8 und Speicherkontroller + AMD64 als Intelfeind Nr.1 ausgemacht. ColdReboot-Bugs nimmt man dagegen nichtmal wahr.
Ohne Frage versucht auch AMD in diesen Zug nach nirgendwo einzusteigen.

Ich werde mich gegen diese Entwicklung auf jeden Fall wehren. Sie ist für den Verbraucher kontraproduktiv.

Schon 1997 hat Intel verkündet diskrete Beschleuniger mittels MMX überflüssig machen zu wollen. "MMX-Spiele werden kommen", so tönte es damals. Ich warte bis heute............:cool:

Nun kannst du dir denken was ich vom jetzigen Selbstlob Intel`s halte.

Mr. Lolman
2008-04-13, 09:25:24
Unreal1 hatte MMX-Unterstützung ;)

][immy
2008-04-13, 10:41:59
Schon 1997 hat Intel verkündet diskrete Beschleuniger mittels MMX überflüssig machen zu wollen. "MMX-Spiele werden kommen", so tönte es damals. Ich warte bis heute............:cool:

Nun kannst du dir denken was ich vom jetzigen Selbstlob Intel`s halte.


nun, ein spiel gab es was nur mit mmx damals lief und für damalige verhältnisse super aussah. Rebel Moon Rising hieß es glaube ich.

POD hat auch nur mit MMX oder halt ner voodoo spass gemacht.

aber ansich haste recht, das versprochene wurde nicht eingehalten. aber AMD hatte ja ähnliches mit 3DNow vor.

Captain Future
2008-04-13, 11:00:51
Unreal1 hatte MMX-Unterstützung ;)
...und lief phantastisch ohne discrete Beschleuniger, die Intel damit ablösen wollte.

Mr. Lolman
2008-04-13, 11:07:46
...und lief phantastisch ohne discrete Beschleuniger, die Intel damit ablösen wollte.
verglichen mit Prozzis ohne MMX, schon.

reunion
2008-04-13, 11:08:39
Mit 4 derzeitigen CPU-Cores bist du so auf dem GPU-Niveau von 2000-2001. Allerhöchstens.

Mit den derzeitigen CPUs wohl kaum, aber Labaree zielt ganz klar in diese Richtung.

Captain Future
2008-04-13, 11:11:12
verglichen mit Prozzis ohne MMX, schon.
Das war aber nicht das Ziel. Wenn ich eine Mission habe, muss ich mich dem Missionsziel stellen und da sah MMX ziemlich kacke aus

Captain Future
2008-04-13, 11:11:53
Mit den derzeitigen CPUs wohl kaum, aber Labaree zielt ganz klar in diese Richtung.
Ist Larrabee denn eine CPU?

reunion
2008-04-13, 11:13:49
Ist Larrabee denn eine CPU?

Intel spricht von vielen x86-Cores und bezeichnet Labaree als "many-core-CPU". Aber das ist dann natürlich Ansichtssache. Jedenfalls sollte man damit auch eine ordentliche Streamleistung zusammen bringen, so ungefährlich ist das denke ich nicht für die GPU-Hersteller. Intel hat die nötige Marktmacht und das nötige Kapital und so etwas durchzudrücken.

Gast
2008-04-13, 12:21:37
Jedenfalls sollte man damit auch eine ordentliche Streamleistung zusammen bringen, so ungefährlich ist das denke ich nicht für die GPU-Hersteller. Intel hat die nötige Marktmacht und das nötige Kapital und so etwas durchzudrücken.
Das auf jeden Fall

Exxtreme
2008-04-13, 12:50:14
Intel spricht von vielen x86-Cores und bezeichnet Labaree als "many-core-CPU". Aber das ist dann natürlich Ansichtssache. Jedenfalls sollte man damit auch eine ordentliche Streamleistung zusammen bringen, so ungefährlich ist das denke ich nicht für die GPU-Hersteller. Intel hat die nötige Marktmacht und das nötige Kapital und so etwas durchzudrücken.
Dazu muss es sehr viel besser sein als alle bisherigen Lösungen damit es überhaupt interessant wird.

Gast
2008-04-13, 13:11:04
Ist Larrabee denn eine CPU?
Wenn man den Cell als CPU bezeichnen darf, dann ja.

Gast Nr.1583753
2008-04-20, 04:45:56
Wenn man den Cell als CPU bezeichnen darf, dann ja.


Auf so etwas wie den CELL wird es wohl auch in Zukunft hinauslaufen! 3,4 vollwertige CPU-Kerne (mit Kernel-, User-Mode ect.) und jede Menge kleiner, primitiver Number-Chrunching Kerne.

AMD hat ja auch schon mal mit ihrem Projekt "Fusion" angefangen und NVidia wird auch zwangsläufig in den CPU/GPU Markt einsteigen müssen oder untergehen. Ihre aktuellen Hasstiraden gegen Intel, die es wagen die heilige "GPU - CPU" Aufteilung der Hardware anzuzweifeln, werden sie auch nicht retten!

Fehlt nur noch die neue, zugkräftige Killer-Applikation!
Ein Office Packet, dass 20 Kerne ausnutzt wird es wohl nicht geben und Moleküle berechnen ist auch nicht gerade eine Mainstream Beschäftigung. Da kommen Spieler gerade Recht!

Also, wann kommt das nächste "Crysis"? Ich will endlich wissen, warum ich wieder einen komplett neuen PC kaufen soll!

Gast
2008-04-20, 08:13:57
Wieso fragt niemand nach dem AF bzw. AA bei CPU's? Mag sein das die CPU Grafik super sein kann aber ohne AA/AF in 720p das ist eine Konsole!

Deshalb solange NV Highend anbietet wo das Spiel vor allem paar ältere Perlen in X-facher Auflösung mit X-fachem Antialiasing laufen gibts für Intel keine Chance.

Das Auge
2008-04-20, 13:29:38
Im Moment seh ich da nur viel Bla, aber sicher nicht das Ende der GPU's...
Klar, für Intel würde ein feuchter Traum wahr werden, wenn GPU's überflüssig würden, aber das sehe ich noch lange nicht. NV und AMD werden da schon auch noch ein Wörtchen mitreden.
Also nur eine weitere Allmachtsphantasie von den Blauen, mehr nicht.

Gast
2008-04-20, 13:58:20
Im Moment seh ich da nur viel Bla, aber sicher nicht das Ende der GPU's...
Klar, für Intel würde ein feuchter Traum wahr werden, wenn GPU's überflüssig würden, aber das sehe ich noch lange nicht. NV und AMD werden da schon auch noch ein Wörtchen mitreden.
Also nur eine weitere Allmachtsphantasie von den Blauen, mehr nicht.
Tun ja so, als wäre ihre Technik die wesentlich bessere. Heutige GPUs kranken ja hauptsächlich an der Tatsache, dass sie in Zukunft nicht mehr sich so erweitern lassen wie in der Vergangenheit, da die Fertigungstechnik nicht mehr so schnell voranschreitet. Das macht komplexere Chips schwierig und sehr teuer. Also muss auf Parallelisierung gesetzt werden. Hat aber Nachteile und der Leistungsbedarf in Form von elektrischer Energie wird auch nicht kleiner. Ich weiß jetzt nicht, wie Intel diese Faktoren mit ihrer Technik umschiffen will. Das sind die eigentlichen Probleme. Explodierende Transisorzahlen und wenig Verkleinerungen in den Herstellungsprozessen.

Coda
2008-04-20, 19:17:20
Moore's Law hat sich in den letzten Jahren überhaupt nicht verlangsamt. Wie kommst du darauf?


Schon 1997 hat Intel verkündet diskrete Beschleuniger mittels MMX überflüssig machen zu wollen. "MMX-Spiele werden kommen", so tönte es damals. Ich warte bis heute............:cool:

Nun kannst du dir denken was ich vom jetzigen Selbstlob Intel`s halte.

Eigentlich verwendet heute fast jedes Spiel die Vektorerweiterungen der CPUs.

Gast
2008-04-20, 19:41:00
lol, nur weil die differenzen bei den Produktionsprozesen kleiner werden ist das keine Verlangsamung. Stichwort Wurzel 2, denk nochmal drüber nach. Und die explodierenden Transistorzahlen sind doch das Ziel, wo siehst du das Problem?
Und davon abgesehen bei Intel steht die UV-Lithografie bereit um den 45nm Prozess zu beerben nächstes jahr, selbiges bei IBM & co.

Bis was anderes kommt vergehen noch einige Jährchen.

mrt
2008-04-20, 20:03:41
Silizium macht erst bei <= 10nm Probleme, dauert also noch knapp 10 Jahre :)

Coda
2008-04-20, 20:36:02
Intel spricht von vielen x86-Cores und bezeichnet Labaree als "many-core-CPU". Aber das ist dann natürlich Ansichtssache. Jedenfalls sollte man damit auch eine ordentliche Streamleistung zusammen bringen, so ungefährlich ist das denke ich nicht für die GPU-Hersteller. Intel hat die nötige Marktmacht und das nötige Kapital und so etwas durchzudrücken.
Larrabee hat vor allem ziemlich sicher auch einen Rasterizer und TMUs.

Avalox
2008-04-20, 21:15:43
Der Speicherzugriff ist das einzige Problem.

Der einzige Grund, weshalb es heute überhaupt externe 3D Grafikbeschleuniger gibt, sind letztendlich die erheblichen Anforderungen an den Grafikspeicher. Wenn genug Bandbreite bereit steht, ist es kein Problem die GPU in den Prozessor zu integrieren. Hätte ja auch sehr viele Vorteile.

Eigentlich wenig verwunderlich, dass grade Intel mit Aussagen aufgefallen ist, der Speicheranbindung der neuen CPUs ordentlich Beine machen zu wollen. Das Thema wird eben strategisch angegangen.

Coda
2008-04-20, 21:41:06
Der Speicherzugriff ist das einzige Problem.
Blödsinn.

Das Auge
2008-04-20, 21:43:01
Blödsinn.

Toll Coda. Gehts auch etwas ausführlicher, damit Laien wie ich auch verstehen _warum_ das Blödsinn ist?

Coda
2008-04-20, 21:46:08
TMUs und Rasterizer fehlen dann immer noch. Und ja, das ist ein Problem.

Avalox
2008-04-20, 22:01:43
TMUs und Rasterizer fehlen dann immer noch. Und ja, das ist ein Problem.

Ich denke bei der Betrachtung verdreht man Ursache und Wirkung.

Der Hardware Rasterizer fehlt, weil die Speicherbandbreite der CPU fehlt. Ist die Speicherbandbreite vorhanden, werden alle notwendigen Funktionen in die CPU wandern. Ob nun als eigene Einheit, oder als flexiblerer Lösung realisiert.

Coda
2008-04-20, 22:03:49
Sorum wird ein Schuh draus. Wobei es fraglich ist ob es jemals eine verschmelzung von General-Purpose- und Throughput-Cores kommt. Da muss man abwarten.

Gast Nr.1583754
2008-04-22, 08:39:11
Wobei es fraglich ist ob es jemals eine verschmelzung von General-Purpose- und Throughput-Cores kommt. Da muss man abwarten.


Das behauptet ja auch niemand!

Es geht nur darum, ob man beides auf dasselbe Stück Silizium packt!
Bzw. etwas allgemeiner gesprochen: Das Hauptproblem ist, dass sich Grafikkarten und CPUs in ihren Eigenschaften schon seit geraumer Zeit immer weiter annähern:

Die Shaderprozessoren der Grafikkarten wurden immer mächtiger/universeller, da die Spiele dies verlangten und inzwischen kann man, dank NVidias CUDA, C-Code darauf ausführen.
Bald auch in doppelter Fließkommagenauigkeit (für die Profi-Modelle der GF9 angekündigt), sodass die Karten "Rechenfarmen" wirklich gefährlich werden können.
Auf der anderen Seite werden in die CPUs immer mehr Kerne gesteckt, weil die GHz-Spirale schneller zuende war als geplant. Intel experimentiert im Labor bereits mit Architekturen mit über 100 Kernen. Wobei sie ironischerweise gleichzeitig fieberhaft immer noch "die Killerapplikation" für den Heimbereich suchen, für die solch eine CPU überhaupt nötig ist. Da kämen Spiele (bewiesenermaßen ein großer Hardwaremarkt) gerade Recht!

CPU und GPU sind zwangsläufig auf Kollisions- bzw. AMD würde sagen Fusions-Kurs.
Oder wie Intel es in einer Präsentation ausgedrückt hat: The war is on!

robbitop@work
2008-04-22, 10:48:10
IMO wird man damit nur LowCost GPUs und IGPs ersetzen können.
Denn gerade HighEnd-GPUs nutzen ja von der Transistoranzahl immer die Fertigungsprozesse voll aus. Das mit in die CPU zu integrieren und im 9 Monatszyklus zu aktualisieren, will bestimmt keiner mitbezahlen.
Hinzu kommt, dass die Bandbreitenspanne dann verdammt groß ist.
Vom Low-Cost Bereich bis zum Enthusiastbereich. Ebenso die Spanne der Leistungsaufnahme.
So rapide wachsende und sich verändernde Dinge wie GPUs sind schwierig auf standartisierte Plattformen zu packen.

Matrix316@Gast
2008-04-22, 12:07:13
Das Problem was ich da sehe ist, dass wenn alles mehr oder weniger in einen Chip wandert, also die CPU, hat man am Ende wieder sowas wie eine Spielkonsole, die eher schwer erweiterbar wäre. Mal abgesehen von der Kühlung, wenn CPU und GPU sich in einem Chip austoben...

Deinorius
2008-04-22, 21:27:57
CPU und GPU in einem Package werden (entfernt vorerst) nur für den Low-Cost Bereich rauskommen, wo es auch Sinn macht. Mainstream bis High-End GPUs sind zu komplex, als dass man in der nächsten Zeit überhaupt darüber nachdenken könnte. Selbst Intel macht das nicht, sie setzen als GPU halt eine MultiCPU-Lösung ein.
Insofern ist das Problem mit der schlechten Erweiterbarkeit wie bei der Konsole nicht gegeben. Und selbst wenn sollte man die interne GPU deaktvieren können. Heutzutage kann man die IGP ja auch deaktivieren, wenns gewünscht wird.

Matrix316
2008-04-22, 21:47:38
Mir gefallen integrierte Sachen nicht. Auch die integrierten Speichercontroller bei AMD und demnächst bei Intel gefallen mir nicht, weil man dann z.B. auch den RAM wechseln muss (wenn die neue CPU nur noch eventuell DDR3 supported). Lieber alles extra - da ist man am flexibelsten. Man hört ja das Jammern der Leute immer noch, die mal den Soundstorm vom Nforce hatten: Neues Board, neuer Chipsatz = kein Soundstorm mehr. Ar*** geleckt.

Coda
2008-04-22, 23:39:46
Du willst lieber auf 10-20% Performance verzichten damit du sinnloserweise eine neue CPU auf ein altes Board mit altem Speicher schrauben kannst?

Ach so: Kann sich bitte mal ein Admin erbarmen das Deppenapostroph und Geplenke aus der Überschrift zu entfernen...

Matrix316
2008-04-23, 12:29:57
Du willst lieber auf 10-20% Performance verzichten damit du sinnloserweise eine neue CPU auf ein altes Board mit altem Speicher schrauben kannst?
Wenn ich damit 100% Geld für ein neues MB und neuen Speicher sparen kann?

Gast
2008-04-23, 12:54:38
wie scheisse nicht polygon spiele aussehen sah man ja an Outcast oder den ersten Teilen der Deltaforce Reihe. ein geländeverlauf sieht in outcast jetzt noch immer besser aus als einer aus 100en polygonen in einem aktuellen spiel.

RavenTS
2008-04-28, 20:28:44
Das Problem was ich da sehe ist, dass wenn alles mehr oder weniger in einen Chip wandert, also die CPU, hat man am Ende wieder sowas wie eine Spielkonsole, die eher schwer erweiterbar wäre. Mal abgesehen von der Kühlung, wenn CPU und GPU sich in einem Chip austoben...

Eben, denke die ganzen Anschlussleitungen für die Rechenwerke müssten ja auch erstmal irgendwie entwickelt weil deutlich verbeitert werden, denn einfach physikalisch breitere Sockel oder Stecksysteme à la SlotX werden da wohl nimmer passen grad bei anspruchsvollen Systemen. Das würd vielleicht das ganze Design von PCs umkrämpeln...

Matrix316
2008-04-28, 20:46:42
Passend zum Thema, Nvidia: "Die CPU ist tot" http://www.tomshardware.com/de/Intel-GPU-E-Mail,news-240904.html ;)

DR.ZEISSLER
2008-04-28, 20:54:48
wie scheisse nicht polygon spiele aussehen sah man ja an Outcast oder den ersten Teilen der Deltaforce Reihe. ein geländeverlauf sieht in outcast jetzt noch immer besser aus als einer aus 100en polygonen in einem aktuellen spiel.

:| outcast sieht heute noch geil aus!

ps: hab die tage ein youtube video von assasins creed gesehen...hat mich irgendwie an outcast erinnert.