PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : In CPU integrierte GPU. Vorteil durch Cache?


][immy
2007-06-06, 00:12:11
Bisherige IGP chipsätze haben ja meistens das Problem das selbst wenn sie besser ausgestattet wären die Speicherbandbreite stark limitiert. Würde dieses Problem eventuell durch die immer größer werdenen CPU-Caches abgepuffert wenn sich der integrierte grafikchip in der CPU befindet?
schließlich arbeiten die CPU-caches sehr viel schneller als jeder andere speicher im system. zudem steigen besonders bei Intel die Cache-größen enorm an. zwar sind die caches für einen grafikchip etwas klein, aber die integrierten lösungen sollten ja eh allenfalls notlösungen sein.

aber rein theoretisch sollte doch dadurch für die integrierte GPU ein flaschenhals stark gedehnt werden, oder sehe ich das falsch?

AnarchX
2007-06-06, 00:18:03
Dafür sind die Caches viel zu klein, der Framebuffer sollte schon mindestens hineinpassen damit es sinnvoll ist.
Und wenn Intel zum CSI/IMC wechselt wird man wohl auch den L2-Cache pro Core etwas reduzieren.

Weiterhin wäre das Problem, dass der IGP ein Teil der CPU sein müsste, was aber wohl in den Anfangszeiten nicht so sein wird, sondern es wird eben ein weiterer Chip auf dem Package aufgelötet.

HOT
2007-06-06, 09:14:23
Vorteil duirch direkte Crossbaranbindung. Den Cache werden sich GPU und CPU sicherlich nicht teilen.

Gast
2007-06-06, 09:28:04
Vorteil duirch direkte Crossbaranbindung. Den Cache werden sich GPU und CPU sicherlich nicht teilen.

Im ersten Schritt nicht. Langfristig werden CPU und GPU allerdings vollständig verschmelzen und dann sicher auch gegenseitig gebraucht voneinander machen. Durch die stetig steigenden Cachegrößen und immer neueren techniken (Stichwort ZRAM) könnte der Cache als Framebuffer in Zukunft durchaus interessant werden. Aber nicht nur das. Streamprozessoren werden die Leistung nach jahrelanger gemäßigter Entwicklung in spezielisierten Bereichen regelrecht Explodieren lassen.

seahawk
2007-06-06, 09:51:04
Auch langfrisitg wird man zum Spielen eine eigene Grafikkarte haben. Fusion oder nicht Fusion.

HOT
2007-06-06, 11:18:10
Im ersten Schritt nicht. Langfristig werden CPU und GPU allerdings vollständig verschmelzen und dann sicher auch gegenseitig gebraucht voneinander machen. Durch die stetig steigenden Cachegrößen und immer neueren techniken (Stichwort ZRAM) könnte der Cache als Framebuffer in Zukunft durchaus interessant werden. Aber nicht nur das. Streamprozessoren werden die Leistung nach jahrelanger gemäßigter Entwicklung in spezielisierten Bereichen regelrecht Explodieren lassen.
Nein, das glaube ich nicht. Dazu sind CPU und GPU zu verschieden. Man wird langfrüstig höchstens den Grafikteil auch für andere Sachen verwenden können, man hätte also einfach nurnoch einen Skalar und einen Verktorteil quasi in der CPU. Ob sie sich den Cache teilen können halte ich für fraglich. Vielleicht ab L3 oder L4 Ebene, aber L2 Ebene ziemlich sicher nicht.
ZRAM hat nicht viel mit den klassischen L1 und L2 Caches heute zu tun, das käme höchstens als externe Cachelösung als L3 oder L4 Variante in Frage.

Gast
2007-06-06, 18:12:39
[immy;5561163']
aber rein theoretisch sollte doch dadurch für die integrierte GPU ein flaschenhals stark gedehnt werden, oder sehe ich das falsch?

ja, eine GPU ist ein streamprozessor, der viele daten sehr schnell braucht.

zwar lassen sich die datenzugriffe ziemlich gut vorhersehen und latenzen damit leicht verstecken, allerdings wird das gleiche datum nicht sehr oft wieder gebraucht, wodurch größere cachemengen ziemlich nutzlos sind.

nomadhunter
2007-06-10, 15:32:54
Auch langfrisitg wird man zum Spielen eine eigene Grafikkarte haben. Fusion oder nicht Fusion.
Das bezweifle ich. Larabee, Cell sowie AMD und NVIDIAs GPGPU-Pläne zeigen doch, dass die strikte Trennung zwischen CPU und GPU keine Zukunft mehr hat. Ich glaube eher, dass innerhalb der nächsten 5-10 Jahre Prozessoren kommen werden, die sowohl "normale Programme" ausführen als auch 3D-Grafik berechnen können werden (beides mit hoher Leistung).

=Floi=
2007-06-10, 18:44:15
die grafikkarten sind aber schon jetzt viel weiter was die leistung angeht

EcHo
2007-06-10, 19:45:40
die grafikkarten sind aber schon jetzt viel weiter was die leistung angeht
Und? GPUs sind hochgradig Parallelisierbar, das geht bei CPUs nicht so in dem Maße! Ich denke auch, dass die Zukunft den modularen Chips gehört, also verschiedene Einheiten je nach Zweck. Im Web-Server-Bereich CPUs mit mehr Integer-Einheiten, bei wissenschaftlichen Arbeitplätzen mehr FP-Einheiten im Video/Bild-Bereich mehr Vektor-Einheiten usw.

Langfristig, sehe ich die CPU und GPU nur noch als ein Chip. Meine Prognose:
5-10 Jahren: Ein Chip, nur noch im richtigen Gamerbereich externe Karten.
>10 Jahren: Keine externen Karten.

=Floi=
2007-06-10, 20:07:35
intels graka chip ist größer wie der ganze sockel 775 und von der bandbreite sind grakas auch ca um den fahtor 10 weiter

nebenbei wird damit der prozessorsockel zu einer immer größeren hitzequelle

der "2D" (eher low 3D/Desktop) bereich wird in den prozessor wandern dafür wird dann sicherlich der stromsparmodus bei den normalen grakas wegfallen und dort geht es ja im richtung 300watt

Gast
2007-06-11, 01:20:37
ich glaub auch, das in 5-10 jahre CPU und GPU miteinander verschmelzen. besonders wenn sich raytracing durchsetzen sollte. bis dahin werden wir ja schon bestimmt 32 cores oder noch mehr haben, die ja dann fürs raytracing wie gemacht sind und performancemäßig wohl auch für GPU berechnungen ausreichen sollten. :)

Gast
2007-06-11, 15:03:51
ich glaub auch, das in 5-10 jahre CPU und GPU miteinander verschmelzen.

als IGP-ersatz durchaus vorstellbar, im high-end werden spezialisierte karten immer schneller sein.