Archiv verlassen und diese Seite im Standarddesign anzeigen : Wann rechnet die IGP mit?
=Floi=
2013-03-31, 01:52:24
Hallo
warum gibt es im PC-bereich noch keine anstrengungen die IGP (für OCL und und DirectCU) mitrechnen zu lassen?!
mir ist schon klar, dass die IGPs heute noch nicht viel rechenleistung haben, aber bringen würde es doch sicherlich was. gerade um der cpu unter die arme zu greifen?! :rolleyes:
Skysnake
2013-03-31, 03:10:54
Gibt mehrere Punkte, die bisher dagegen sprechen:
-Kein gemeinsamer Adressraum bisher
-zu geringe Marktdurchdringung solche Chips
-Datendurchsatz
-usw
Hauptproblem ist aber vor allem die Marktdurchdringung solcher Chips. Wenn du so was wirklich sinnvoll implementierst, wird es schnell zu einem Must-have. Sprich ohne iGPU massive Einschnitte, und da hilft auch schell/oft die schnellste dedizierte GPU nichts, einfach weil man auf die iGPU Probleme packt, bei denen allein der Datentransfer auf die dedizierte GPU schon länger dauert, als das komplette berechnen auf der iGPU.
Daher wird sich das so schnell auch nicht durchsetzen.
Windi
2013-03-31, 08:59:59
Könnte das in Zukunft nicht nötig werden, wenn die neuen Konsolen anfangen die Vorteile des SoC ausnutzen?
-gemeinsamer Adressraum
-gemeinsamer Speicher
-niedrige Latenzen (kein PCIe)
-CPU und GPU können deutlich besser zusammen arbeiten.
Oder wird das einfach mit CPU-Rohpower erschlagen?
StefanV
2013-03-31, 09:31:26
Das Problem momentan ist eher, dass die iGPU deaktiviert bzw nicht genutzt wird, wenn eine dedizite GPU ins System gesteckt wird.
Bei der Marktdurchdringung muss ich aber Skysnake widersprechen, denn so ziemlich jedes aktuelle System, dass nicht auf LGA2011 basiert, hat auch eine (nicht sehr gute) iGPU. Bei AMD schaut es (noch) anders aus...
Nasenbaer
2013-03-31, 09:40:36
Das Problem ist IMO nicht die Verbreitung von IGPs. Die gibt es in nahezu jedem Notebook und in Millionen von Office-PCs. Die Frage ist doch wobei sie mitrechnen soll.
Für Spiele ist das wohl kaum geeignet, da man dort eh eine leistungsfähigere Grafikkarte für nutzt. Wenn man Teile der Berechnung auf der IGP auslagert, muss man bedenken, dass die Ergebnisse, dann nicht unmittelbar der Haupt-GPU zu Verfügung stehen. Außerdem könnte die IGP bremsen, weil ja nie klar ist wie gut die einzelnen Komponenten aufeinander abgestimmt sind - bei Konsolen weiß man das als Programmierer vorher.
Für Office-Anwendungen? Da lohnt sich wohl einfach der Aufwand nicht. Schaut man sich an wie wenig das aktuelle WinZip von OpenCL profitiert und das selbst bei einer HighEnd-GPU, dann bringt ne IGP warscheinlich herzlich wenig. Im Gegenzug holt man sich potentielle Gefahrenquellen rein: inkompatible oder fehlerhafte Treiber, generell eine aufwändigere Programmierung, oder Inkompatiblitäten zwischen unterschiedlichen Herstellern.
Und das für ein µ an Mehrleistung? So dumm ist kein wirtschaftlich orientiertes Unternehmen.
Skysnake
2013-03-31, 09:42:09
Und was bringt dir, wie du schon richtig festgestellt hast, eine iGPU, wenn diese deaktiviert wird, sobald ne dedizierte GPU verwendet wird?
Richtig rein gar nichts, es sei denn du verwendest Sie allein.
Zudem ist die SB iGPU nicht OpenCL tauglich, und meines Wissens nach kann Sie auch keine Compute-Shader, wobei das jemand aus dem Gameing-Bereich mal lieber beantworten sollte.
Wirklich relevant ist also erst IB, wenn überhaupt, das Problem mit der abgeschalteten iGPU bleibt ja, und für reine iGPU Nutzung ist Sie einfach zu schwach...
Zudem musst du die Unmengen an alten CPUs bedenken, angefangen bei Core2Duo bis hin zu nem S1366/S2011 oder Phenom IIx6. Überleg mal, wie viele Nutzer das sind. Die würdest du alle ausschließen, und wir haben noch nicht mal geschafft auf 64 Bit Technik um zu steigen, sondern gurken noch mit 32 Bit Programmen rum im Gameingbereich, und jetzt überleg dir mal, wie groß da die Marktdurchdringung ist ;)
Shink
2013-03-31, 10:33:16
Schaut man sich an wie wenig das aktuelle WinZip von OpenCL profitiert und das selbst bei einer HighEnd-GPU, dann bringt ne IGP warscheinlich herzlich wenig.
Man kann heute schon sehen, wie der Performance-Unterschied zwischen einer Lowend und Highend-GPU bei Winzip ist. Die Leistung der GPU ist offensichtlich nicht der limitierende Faktor.
Siehe z.B. hier (http://www.pcgameshardware.de/Grafikkarten-Hardware-97980/Tests/Winzip-165-mit-OpenCL-Beschleunigung-879762/).
Davon abgesehen ist Rechenleistung nicht wirklich das, was aktuellen IGPs ala Radeon HD 7660 fehlt.
Mark3Dfx
2013-03-31, 10:40:20
Und was ist mit
http://www.lucidlogix.com/index.html ?
Skysnake
2013-03-31, 11:23:06
Wiviele verwenden sowas?
Und bzgl.: Ich hab doch ne fette dedizierte GPU !!!111elf
Ja schön für dich, aber du vergisst die Latenzen, und den Overhead, um die Daten zu transferieren... Hast du eine Vorstellung davon, wie fucking groß die Problemgröße sein muss, um, selbst wenn man 10 mal schneller als mit der CPU ist, den ganzen Drecks Overhead zu kompensieren, um am Ende überhaupt schneller zu sein als mit der CPU?
Genau da ist der springende Punkt. Sooo große Probleme hast du nicht so einfach, und wenn, dann zieht dir das signifikant Leistung von deiner dedizierten GPU, die dann nicht mehr für 3D-Grafik zur Verfügung steht. Die iGPU hat das Problem in Zukunft nicht mehr. Da sind die Daten schon da, und der Austausch mit der CPU geht auch sehr sehr schnell, im Optimalfall können die Ergebnisse sogar direkt verwendet werden (ist bei der PS4 wohl so, wenn ich das richtig im Kopf habe, was ich zuletzt irgendwo gelesen habe).
iGPUs eröffnen komplett! neue Einsatzfelder, wofür ne CPU zu schwach ist, ne iGPU ist ja deutlich! leistungsstärker als ne CPU, aber sich eben nicht lohnen, da man den Overhead für ne dedizierte GPU einfach nicht kompensiert bekommt.
Botcruscher
2013-03-31, 11:46:11
Dann zeig mal eines dieser "komplett neuen Einsatzfelder" für die Masse der Nutzer. Mir fällt keine Killeranwendung ein. Mit dem Trend Richtung leistungsschwache Mobilgeräte scheint Rechenleistung auch nicht zu limitieren. Was soll der Normalo mit hoher paralleler Rechenleistung?
Skysnake
2013-03-31, 13:17:22
Wer redet denn von "hoch" (btw. wie definierst du hoch?)?
Alles wo man heute MMX/SSE/AVX nutzt, ist prinzipiell auch mal einen Blick für iGPUs, der Neuesten und vor allem der kommenden Generationen, wert.
Das ist ja eben der Punkt. Du brauchst bei iGPUs gar nicht die killer Probleme, die deine CPU nie schaffen würde, und selbst die dedizierte GPU gut auslasten. Du musst ja den ganzen Overhead am Anfang nicht erst kompensieren.
Aktuell hast du den 60Tonnen Schwerlaster (dedizierte GPU). Echt super für Schwerlasttransporte, aber für den Wochenendeinkauf total fürn Arsch. Da ist der kleine Stadtflitzer (iGPU) viel besser geeignet. Ich hoffe du verstehst die Analogie ;)
StefanV
2013-03-31, 13:52:02
Dann zeig mal eines dieser "komplett neuen Einsatzfelder" für die Masse der Nutzer.
KI in Games oder Physik.
Macht aber nur Sinn, wenn die IGP an der CPU dran hängt, einen Adressraum aht usw...
Was soll der Normalo mit hoher paralleler Rechenleistung?
Schon mal ein Blick in Richtung Ultra mobiler SoCs geworfen? Also ARM Dinger?
Wozu da die GPU genutzt wurd? Oh wait: die wird für so ziemlich alles genutzt, Browser, Oberfläche, überall...
Im Gegensatz zum PC, wo sehr vieles immer noch von der CPU erledigt wird...
aufkrawall
2013-03-31, 14:00:07
Schon mal ein Blick in Richtung Ultra mobiler SoCs geworfen? Also ARM Dinger?
Wozu da die GPU genutzt wurd? Oh wait: die wird für so ziemlich alles genutzt, Browser, Oberfläche, überall...
Im Gegensatz zum PC, wo sehr vieles immer noch von der CPU erledigt wird...
Bei den von dir genannten Beispielen aber nicht.
Twodee
2013-03-31, 15:39:23
KI in Games oder Physik.
Macht aber nur Sinn, wenn die IGP an der CPU dran hängt, einen Adressraum aht usw...
Schon mal ein Blick in Richtung Ultra mobiler SoCs geworfen? Also ARM Dinger?
Wozu da die GPU genutzt wurd? Oh wait: die wird für so ziemlich alles genutzt, Browser, Oberfläche, überall...
lol! Das "Überall" würde mich jetzt ganz genau interessieren.
Im Gegensatz zum PC, wo sehr vieles immer noch von der CPU erledigt wird...
Was gar nicht erst auf einem ARM SoC laufen würde....
Die UI auf smartphones/tablets wird von der gpu gerendert. Das war's dann aber auch. Nichts wirklich neues.
Im browser gibt es auch keine revolutionären Unterschiede zum Desktop.
Liszca
2013-03-31, 17:20:43
Windows 7 & Ubuntu seit Compiz rendern doch den ganzen Desktop mit GPU Unterstützung.
= Überall:confused:
Hallo
warum gibt es im PC-bereich noch keine anstrengungen die IGP (für OCL und und DirectCU) mitrechnen zu lassen?!
Weil Intel das momentan aus einem mir unersichtlichen Grund nicht will.
Wie will Intel das verhindern bei 3rd party devs?
Hast du momentan Zugriff drauf, wenn eine externe Grafikkarte verwendet wird?
Das ist schon für viele Hinderungsgrund genug.
Twodee
2013-03-31, 21:30:00
Weil Intel das momentan aus einem mir unersichtlichen Grund nicht will.
Warum kann dann die Ivy GPU OpenCL, wenn Intel nicht will?
lumines
2013-04-01, 16:44:57
Windows 7 & Ubuntu seit Compiz rendern doch den ganzen Desktop mit GPU Unterstützung.
= Überall:confused:
Compiz ist ein Window Manager und eher für die Effekte drum herum verantwortlich. Inwiefern die Oberflächen und angezeigten Inhalte von Anwendungen aber hardwarebeschleunigt sind, ist eigentlich eine gute Frage. Momentan ist das dank starken CPUs noch nicht so spürbar, aber falls hohe Pixeldichten wie am rMBP mal unter Linux und Windows populär werden, könnte das für manche Anwendungen schon problematisch werden.
Ich erinnere z.B. mal an Safari auf dem ersten rMBP, welcher massive Probleme hatte flüssig zu scrollen, weil die Oberfläche nicht besonders gut über die GPU beschleunigt wurde. Momentan merke ich auch einen starken Unterschied zwischen Safari und Chrome im Fullscreen (1920*1200), weil letzterer dabei deutlich langsamer rendert. Für stationäre Rechner ist das eher zu vernachlässigen, aber Notebooks und ihre Akkulaufzeit würden unter hoher CPU-Last durch irgendwelche uralten Anwendungen, die darauf keine Rücksicht nehmen, schon ein wenig leiden. So unproblematisch wie auf mobilen Geräten mit ihren sehr viel moderneren Frameworks ist das jedenfalls nicht.
Nasenbaer
2013-04-04, 17:25:40
Inwiefern die Oberflächen und angezeigten Inhalte von Anwendungen aber hardwarebeschleunigt sind, ist eigentlich eine gute Frage.
Wenigstens bei Qt schneint es nicht standardmäßig so zu sein aber die Antworten sind auch schon älter. Keine Ahung wie es mit Qt 5 aussieht. Und bei gtk noch weniger:
http://stackoverflow.com/questions/6493099/qt-rendering-using-opengl
Habs mal bei einer Anwendung per command line erzwungen aber da gabs AFAIR Renderingfehler.
Das GL-Lighthouse in Qt4 ist ein bissi buggy, in Qt5 funktionierts. Das sollte auch funktionieren, immerhin ist OpenGL bei QtQuick2 Pflicht.
Ansonsten gibts noch EXA & Co.
Compiz ist, wie auch zB Mutter, WM und Composite-Manager und das ist natürlich auch GL(ES)-Beschleunigt und nicht "nur" die Effekte.
PatkIllA
2013-04-04, 17:55:59
Gibt es bei APIs wie Direct Compute und OpenCL eigentlich spezielle Berücksichtigung von IGPs/APUs?
Insbesondere bei der Speicherverwaltung kann man da ja einiges sparen.
Skysnake
2013-04-04, 18:03:08
atkuell nicht das ich wüsste. Ist aber auch eher eine Treibersache. Zumindest in OpenCL.
robbitop
2013-04-05, 09:00:15
APUs werden wohl die Zukunft sein. Wenn CPU und GPU schnell miteinander angebunden sind (Bandbreite+Latenz) - also auf dem gleichen Kern sitzen und auf den gleichen Adressraum zugreifen können, ausreichend Bandbreite zum Speicher haben und gute Computefähigkeiten haben, sind die Voraussetzungen geschaffen.
AMD und Intel sind da fast angelangt. Dazu müssen noch ein paar Jahre vergehen, damit die Dinger verbreitet genug sind und die Entwickler den Kram nutzen.
Am Ende hast du dann die Möglichkeit, Spiele mit viel aufwändigerer Game-Physik (statt nur GPU Effektphysik) auszustatten. Ich könnte mir auch Simulationen wie Sim City in dann deutlich größerem und realistischerem Umfang vorstellen.
Es wird sicher auch im Nicht-Spielebereich super viele Anwendungsmöglichkeiten geben.
Dazu müssen noch ein paar Jahre vergehen, damit die Dinger verbreitet genug sind und die Entwickler den Kram nutzen.
Naja, ich denke mal das geht "etwas" schneller, oder wieviel Millionen PS4 will Sony nochmal bis Jahresende verkaufen?
Am Ende hast du dann die Möglichkeit, Spiele mit viel aufwändigerer Game-Physik (statt nur GPU Effektphysik)
Zwar nich so doll, aber Knack nutzt auch mehr Physik als bisher:
q59tHyhDMkI
Nasenbaer
2013-04-05, 18:35:08
APUs werden wohl die Zukunft sein. Wenn CPU und GPU schnell miteinander angebunden sind (Bandbreite+Latenz) - also auf dem gleichen Kern sitzen und auf den gleichen Adressraum zugreifen können, ausreichend Bandbreite zum Speicher haben und gute Computefähigkeiten haben, sind die Voraussetzungen geschaffen.
AMD und Intel sind da fast angelangt. Dazu müssen noch ein paar Jahre vergehen, damit die Dinger verbreitet genug sind und die Entwickler den Kram nutzen.
APUs steht aber nur den "langsame" Hauptspeicher zur Verfügung - dafür entfällt halt der Transfer zur Grafikkarte und zurück. Keie Ahnung was am Ende mehr bremst.
Am Ende hast du dann die Möglichkeit, Spiele mit viel aufwändigerer Game-Physik (statt nur GPU Effektphysik) auszustatten. Ich könnte mir auch Simulationen wie Sim City in dann deutlich größerem und realistischerem Umfang vorstellen.
Da ist doch das Problem, dass Physik sich halt nicht an vorhersehen lässt - gleiches Problem wie mit KI. Skripte sind für den Spielfortschritt einfacher zu handhaben als unvorhersehbare Ereignisse. Aber "richtige" Physikrätsel gab es doch schon in HL2.
IMO ist das Problem, dass man sich ersteinmal einen ordentlichen Spielablauf ausdenken muss wo Physik wirklich einen echten Mehrwert bieten kann. Ein paar Baustämme den Abhang runterjagen und damit Gegner umschubsen geht auch so. Ziel muss es ja sein das ganze nicht aufgesetzt wirken zu lassen.
Für ein paar Späßchen zur Aufheiterung kann man bestimmte Dinge auch skripten - dafür muss man weder teure Middelware anschaffen noch sich mit OpenCL/DirectCompute rumärgern. Gleiches gilt für aufwändige Simulationen. Bspw. könnte das Wasser heute schon realistisch simuliert werden - also bspw., dass Wellen an gebrochen und reflektiert werden usw. Aber welcher Spieler wird darauf Wert legen, wer wird es inbesondere deshalb kaufen?
fondness
2013-04-06, 09:36:09
Hier rechnet zum Beispiel bald die IPG mit: :)
AMD & Adobe Collaborate: Next Version of Premiere Pro Supports Hardware-Acceleration on AMD Graphics
http://www.tomshardware.com/news/Adobe-AMD-Premiere-FirePro-OpenCL,21872.html
Windi
2013-04-06, 09:59:37
Hier rechnet zum Beispiel bald die IPG mit: :)
AMD & Adobe Collaborate: Next Version of Premiere Pro Supports Hardware-Acceleration on AMD Graphics
http://www.tomshardware.com/news/Adobe-AMD-Premiere-FirePro-OpenCL,21872.html
Da geht es aber doch nur um die GPU-Unterstützung, oder?
Das soll ja auch auf allen möglichen AMD-Grafikkarten laufen. Da wird man wohl kaum die Vorteile einer APU mit ihren niedrigen Latenzen und gemeinsamen Speicherpool ausnutzen können.
robbitop
2013-04-06, 10:55:10
Naja, ich denke mal das geht "etwas" schneller, oder wieviel Millionen PS4 will Sony nochmal bis Jahresende verkaufen?
Zwar nich so doll, aber Knack nutzt auch mehr Physik als bisher:
http://youtu.be/q59tHyhDMkI
Naja die Launchspiele der PS4 werden das HSA Konzept noch nicht ausnutzen können. AFAIK ist die finale PS4 HW ja die erste, die das wirklich erlaubt. Die Devkits hatten die ja noch nicht. Wird also entweder CPU Physik sein oder Effektphysik.
Aber es wird auf der PS4/Xbox3 sicher kommen.
APUs steht aber nur den "langsame" Hauptspeicher zur Verfügung - dafür entfällt halt der Transfer zur Grafikkarte und zurück. Keie Ahnung was am Ende mehr bremst.
Das stimmt - aber auch diese wird offenbar gesteigert werden. Intel packt DRAM auf das Package, AMD geht auf GDDR5. Irgendwann kommen Memorycubes und Stacking. Bandbreite wird langfristig dazu kommen.
Da ist doch das Problem, dass Physik sich halt nicht an vorhersehen lässt - gleiches Problem wie mit KI. Skripte sind für den Spielfortschritt einfacher zu handhaben als unvorhersehbare Ereignisse. Aber "richtige" Physikrätsel gab es doch schon in HL2.
Es muss ja nicht alles vorhersehbar sein. Vielleicht muss man gewisse Restriktionen erstellen, damit der Spieler keine Probleme in der Kampagne bekommt. Aber man kann vieles an Umgebung (nicht alles!) interaktiver, zerstörbarer sein wird. Dinge wie Wind und Wasser besser simuliert werden. NPCs besser und im größeren Stil detailierter simuliert werden. Die Möglichkeiten sind vielfältig. Die Devs müssen es halt geschickt einsetzen und dosieren.
Ich denke, dass das ein wichtiger Schlüssel für die Weiterentwicklung des zukünftigen Spielerlebnisses abseits der reinen 3D Grafik sein kann.
dafür muss man weder teure Middelware anschaffen noch sich mit OpenCL/DirectCompute rumärgern. Gleiches gilt für aufwändige Simulationen. Bspw. könnte das Wasser heute schon realistisch simuliert werden - also bspw., dass Wellen an gebrochen und reflektiert werden usw. Aber welcher Spieler wird darauf Wert legen, wer wird es inbesondere deshalb kaufen?
Sowas muss sich halt entwickeln. Middlewares, Schnittstellen, Erfahrung. Es einfach nicht zu machen, ist keine Lösung. AMD und Intel wollen nicht grundlos APUs schaffen. Das wird sich IMO langsam in diese Richtung entwickeln. In 10 Jahren wird es vermutlich selbstverständlich sein, dass Compute auf einer APU regelmäßig genutzt wurd.
Naja die Launchspiele der PS4 werden das HSA Konzept noch nicht ausnutzen können. AFAIK ist die finale PS4 HW ja die erste, die das wirklich erlaubt. Die Devkits hatten die ja noch nicht. Wird also entweder CPU Physik sein oder Effektphysik.
Hmm, glaub ich weniger, sie zeigten doch auch die Havok Demo mit den zigtausend blauen Bällen, wobei sie betonten, dass das auf der GPU liefe.
Sieht mir auch bei dem Game zu kompliziert aus, als dass das die 8 Jaguar Kernchen berechnen könnten.
Aber schauen wir mal, ob mehr bekannt wird.
Ronny145
2013-04-06, 13:53:27
Support for features like Intel® Quick Sync Video and OpenCL* in systems with discrete graphics on Windows 8
o Now, one can use both Intel Quick Sync Video and OpenCL even when Intel® HD Graphics is not the primary
display adapter
o This requires Intel Graphics driver to be installed and will work only on Windows 8 platforms.
http://downloadmirror.intel.com/22652/eng/ReleaseNotes_Gfx_3071.pdf
Skysnake
2013-04-06, 13:55:26
Das ist doch kacke...
Warum nur mit Win8? :down:
http://downloadmirror.intel.com/22652/eng/ReleaseNotes_Gfx_3071.pdf
Na toll.
Da hätte sich das NDA ja richtig gelohnt. :udown:
aufkrawall
2013-04-06, 14:26:41
Das ist doch kacke...
Warum nur mit Win8? :down:
http://forum.doom9.org/showpost.php?p=1622794&postcount=1911
und folgende, vielleicht erfährt man da noch mehr.
robbitop
2013-04-06, 14:47:06
Hmm, glaub ich weniger, sie zeigten doch auch die Havok Demo mit den zigtausend blauen Bällen, wobei sie betonten, dass das auf der GPU liefe.
Sieht mir auch bei dem Game zu kompliziert aus, als dass das die 8 Jaguar Kernchen berechnen könnten.
Aber schauen wir mal, ob mehr bekannt wird.
Havok nutzt Compute. Aber das war nur ne Demo. Und das war auch nichts spielekritisches. Echte GPU Spielphysik einzubauen, ist ohne echte HW sicherlich nicht im großen Stil sofort so einfach.
Screemer
2013-04-06, 16:43:32
http://downloadmirror.intel.com/22652/eng/ReleaseNotes_Gfx_3071.pdf
hat das auch auf chipsätzen der p67-serie und X79-serie hin? also auf denen die gar keine gpu-unterstützung bieten?
Ronny145
2013-04-06, 17:49:23
Auf X79 definitiv nicht, deren CPUs besitzen keine iGPU. P67 vermutlich auch nicht, weil die Biose sicher nicht auf iGPU Support ausgelegt sind.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.