PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : ATI: Plötzlich ergibt es einen Sinn?


Demirug
2005-04-05, 22:06:36
Vor einiger Zeit hatten wir ja das Thema das ATI das Vertexprocessing von der CPU rechnen lassen möchte wenn diese sowieso auf die Grafikkarte warten muss. Dabei wurde ja zurecht der Sinn in Frage gestellt da eine Grafikkarte ja eher selten im Vertexshader limitiert. Schauen wir jetzt aber mal über den Tellerrand. Mit sehr hoher Wahrscheinlichkeit hat der XBox Grafikchip ja einen vereinten Shadercore. Mit diesem Patent (http://appft1.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&u=%2Fnetahtml%2FPTO%2Fsearch-adv.html&r=1&f=G&l=50&d=PG01&p=1&S1=20050068325&OS=20050068325&RS=20050068325) ist es ja schon fast sicher. Gleichzeitig hat die XBox II wohl auch sehr viel CPU Leistung.

Wenn nun in einem Chip das Pixelshading der limitirende Faktor ist könnte ein Chip mit verreinten Shadercores ja mehr Pixelshading Leistung freisetzten wenn er sich nicht mehr um das Vertexshading kümmern muss. Dafür könnte dann wiederum die überschüssige CPU Leistung herangezogen werden. Also Loadbalencing nicht nur im Grafikbereich sondern über das Gesamtsystem.

Im nächsten Schritt macht das ganze dann auf einem PC mit einer Multicore CPU und einem WGF 2.0 Chip auch Sinn. Gerade bei Spielen die den zweiten Core vielleicht gar nicht nutzen. Diesen nimmt man dann für einen Teil des Vertexprocessings und bekommt so mehr Pixelleistung. In Verbindung mit einer SFR Multichip Technik bringt das dann sogar noch mehr.

Godmode
2005-04-06, 00:19:11
Du meinst also das sich die GPU die ganzen Unified-Einheiten für die Pixelshading Sachen nimmt, und das andere einfach von der CPU gemacht wird? Warum dann überhaupt noch Vertex Shader? ;D

edit:
ist zwar OT, aber hast du gewust dass NV schon 2002 ein "Multi-configuration GPU interface device" patentieren ließ?
http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=/netahtml/search-bool.html&r=44&f=G&l=50&co1=AND&d=ptxt&s1=nvidia&OS=nvidia&RS=nvidia

Demirug
2005-04-06, 00:24:58
Du meinst also das sich die GPU die ganzen Unified-Einheiten für die Pixelshading Sachen nimmt, und das andere einfach von der CPU gemacht wird? Warum dann überhaupt noch Vertex Shader? ;D

Solange die GPU ja schneller ist soll sie auch das VS machen um die CPU nicht zu belaten. Zudem dürfte VS-Texturing auf der CPU echt lahm sein.

edit:
ist zwar OT, aber hast du gewust dass NV schon 2002 ein "Multi-configuration GPU interface device" patentieren ließ?

Natürlich. Das hat aber so wie es scheint eher etwas mit Mobilen GPUs und dem Speicher für diese zu tun.

kuj0n
2005-04-06, 00:30:27
Du meinst also das sich die GPU die ganzen Unified-Einheiten für die Pixelshading Sachen nimmt, und das andere einfach von der CPU gemacht wird? Warum dann überhaupt noch Vertex Shader? ;D

edit:
ist zwar OT, aber hast du gewust dass NV schon 2002 ein "Multi-configuration GPU interface device" patentieren ließ?
http://patft.uspto.gov/netacgi/nph-Parser?Sect1=PTO2&Sect2=HITOFF&p=1&u=/netahtml/search-bool.html&r=44&f=G&l=50&co1=AND&d=ptxt&s1=nvidia&OS=nvidia&RS=nvidia

Ich glaube die Möglichkeit die vorhandene Leistung immer genau dort einzusetzen wo sie gerade gebraucht ist an sich eine grandiöse Idee. Einem solch flexiblen System dürfte die Zukunft gehören.

Ich habe zwar keine Ahnung aber Vertexshader werden ja nicht auf einmal unnütz nur weil der Pixelshader gerade etwas mehr zu tun hat. Zumindest solange beide noch getrennt vorliegen.

Monger
2005-04-06, 09:14:57
Das hört sich doch auch allgemein ziemlich sinnvoll an...


Wenn irgendwann mal sämtliche Shader wirklich unified sind, kann man sie von beliebiger Hardware bearbeiten lassen, sofern diese gerade nicht ausgelastet ist...

Das ist natürlich wild dahingesponnen, aber möglicherweise wird man in Zukunft mehrere hochspezialisierte Chips haben, die man sich je nach Bedarf in den Rechner dazu packt. Spielefreaks könnten dann z.B. sich eine zusätzliche, besonders starke Pixelshader Einheit zusätzlich zum Onboard Chip kaufen, um eben die nötige Leistung für gewisse Spiele zu kriegen. Die CPU würde halt dann immer einspringen, wenn es irgendwo Engpässe gibt.

Gasssssttttt
2005-04-06, 09:31:11
Im nächsten Schritt macht das ganze dann auf einem PC mit einer Multicore CPU und einem WGF 2.0 Chip auch Sinn. Gerade bei Spielen die den zweiten Core vielleicht gar nicht nutzen. Diesen nimmt man dann für einen Teil des Vertexprocessings und bekommt so mehr Pixelleistung. In Verbindung mit einer SFR Multichip Technik bringt das dann sogar noch mehr.

"Playstation 2"

Coda
2005-04-06, 09:44:17
Öh wie soll das gehen bei statischen Vertexbuffern im VRAM?
Bei der XBox 2 is das ja klar, solange sie unified memory hat, aber beim PC? :|

Demirug
2005-04-06, 09:59:08
Öh wie soll das gehen bei statischen Vertexbuffern im VRAM?
Bei der XBox 2 is das ja klar, solange sie unified memory hat, aber beim PC? :|

Einen ordentlichen Speichercontroller in die GPU und die CPU kann über PCIe auch schnell auf den Grafikspeicher zugreifen. Da sehe ich daher eigentlich kein wirkliches Problem.

mrdigital
2005-04-06, 10:15:39
Eben, Zugriffe auf den Grafikspeicher dürften nicht langsamer sein, als auf den Hauptspeicher, von einer größeren Latenz einmal abgesehen.

stav0815
2005-04-06, 11:34:59
Eben, Zugriffe auf den Grafikspeicher dürften nicht langsamer sein, als auf den Hauptspeicher, von einer größeren Latenz einmal abgesehen.
die Latenz dürfte aber niedriger sein als die Wartezeit biss alles zusammengerechnet is, also wird der Vorteil überwiegen, v.a. weil man ja das Vertex Shading in der GPU belassen kann falls es schneller is...

Fruli-Tier
2005-04-06, 12:16:47
Das hört sich doch auch allgemein ziemlich sinnvoll an...


Wenn irgendwann mal sämtliche Shader wirklich unified sind, kann man sie von beliebiger Hardware bearbeiten lassen, sofern diese gerade nicht ausgelastet ist...

Das ist natürlich wild dahingesponnen, aber möglicherweise wird man in Zukunft mehrere hochspezialisierte Chips haben, die man sich je nach Bedarf in den Rechner dazu packt. Spielefreaks könnten dann z.B. sich eine zusätzliche, besonders starke Pixelshader Einheit zusätzlich zum Onboard Chip kaufen, um eben die nötige Leistung für gewisse Spiele zu kriegen. Die CPU würde halt dann immer einspringen, wenn es irgendwo Engpässe gibt.

Und wer soll diese vielen lustigen Spezialchips synchronisieren? Da will ja jeder dann ein bisschen mitrechnen und braucht Daten, rechtzeitig. Da freuen sich die Hardwareentwickler :)

Oder seh ich das falsch?

Aber so gesehen ist das gar kein dummer Ansatz von ATi !

Gast
2005-04-06, 15:52:23
hört sich vor allem für eine konsole wo sowieso fast alles "unified" ist sinnvoll an.

aber auf dem pc, ich weiß nicht? schließlich muss da alles synchronisiert werden und dynamisches load-balancing zwischen gpu/cpu?. das load-balancen braucht schließlich auch einen algorithmus der es berechnet, und das braucht wieder cpu-zeit, ob da der vorteil nicht großteils wieder aufgefressen wird? (gut mit dual-core ergeben sich da wahrscheinlich einige sinnvolle möglichkeiten)

ich kann mir gut vorstellen dass man in den treiber spezialfälle sinnvoll integrieren kann, über applikationsspezifische optimierungen. vor allem wenn die 3d-situation immer gleich abläuft (3dmark ;) ) kann man da wohl eine schöne leistungssteigerung erziehlen, aber dynamisch kann ich mir das irgendwie nur schwer vorstellen.

Coda
2005-04-06, 16:39:01
Einen ordentlichen Speichercontroller in die GPU und die CPU kann über PCIe auch schnell auf den Grafikspeicher zugreifen. Da sehe ich daher eigentlich kein wirkliches Problem.+Longhorn?

Fruli-Tier
2005-04-06, 16:44:43
+Longhorn?
Klär mich mal auf, ich kann mit dem Stichwort grad nix anfangen ;(

*edit*
Ja, ich weiss, dass es ein Windows wird ;P
Ich mein eher inwiefern das ganze hinderlich (war deine Aussage so gemeint?) ist

ShadowXX
2005-04-06, 17:07:40
Klär mich mal auf, ich kann mit dem Stichwort grad nix anfangen ;(

*edit*
Ja, ich weiss, dass es ein Windows wird ;P
Ich mein eher inwiefern das ganze hinderlich (war deine Aussage so gemeint?) ist

Eher anderesherum....Longhorn wird wohl für sowas zwingend sein, da der PCI-e-Support von XP nicht sooooooo der Bringer ist.

Coda
2005-04-06, 18:19:10
Welcher Support? ;)

mrdigital
2005-04-06, 23:14:52
Was soll man an PCIe extra "supporten" müssen?

DrumDub
2005-04-07, 10:53:55
Was soll man an PCIe extra "supporten" müssen? das frage ich mich auch. :confused:

Demirug
2005-04-07, 11:18:33
Was soll man an PCIe extra "supporten" müssen?

Einiges: http://download.microsoft.com/download/1/8/f/18f8cee2-0b64-41f2-893d-a6f2295b40c8/TW04092_WINHEC2004.ppt

DrumDub
2005-04-07, 14:00:08
Einiges: http://download.microsoft.com/download/1/8/f/18f8cee2-0b64-41f2-893d-a6f2295b40c8/TW04092_WINHEC2004.ppt
ui... das ist ja interessant.

ShadowXX
2005-04-07, 14:07:26
Einiges: http://download.microsoft.com/download/1/8/f/18f8cee2-0b64-41f2-893d-a6f2295b40c8/TW04092_WINHEC2004.ppt

Danke Demi....ich hab die Folie in meinem Gewühl nicht mehr gefunden.

Und auf den MS-Seite finde ich irgendwie nie das, was ich suche.

Black-Scorpion
2005-04-07, 14:34:44
Habe es mal als .pdf gespeichert und hochgeladen. ;)

Mit rechts anklicken, speichern und von .jpg in .pdf unbenennen!

http://img3.picsplace.to/img3/1542/PCI-E_TW04092_WINHEC2004.jpg

PS. Falls es jemand interressiert, http://www.picsplace.to ist der einzige wo man umbennate Dateien hochladen kann.
Er meckert zwar rum, lädt sie aber trotzdem hoch.

Cyphermaster
2005-04-07, 14:54:44
Hm. Bei solchen "loadmorphing"-Ideen kommt mir die Wildcat-GPU mit ihren in umprogrammierbare Einzel-Recheneinheiten strukturierten P10 bzw. P9-Chips in den Sinn. Ich bin kein Experte für Chiparchitekturen, aber wäre das nicht auch schon ein passenden Puzzlesteinchen für so ein Vorhaben?

Insgesamt ergäbe sich aus lauter solchen universellen Untereinheiten ein quasi auto-optimierendes System, das die nutzbare Rechenleistung auf die aktuelle Aufgabe "maßschneidern" kann. Mit der "TurboCache"-Technologie (oder den entsprechenden Gegenstücken) verheiratet, könnte man so doch auch ein extrem modulares Konzept aufstellen - praktisch einen Slot, in dem nur noch die GPU-Karte sitzt, und ein angepaßtes Universal-Speicherarray.

Oder liege ich da völlig falsch? :confused: