PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: DirectX 12 erlaubt das Addieren des Grafikkarten-Speichers von GPUs


Leonidas
2015-05-28, 16:03:02
Link zur News:
http://www.3dcenter.org/news/directx-12-erlaubt-das-addieren-des-grafikkarten-speichers-von-mehreren-grafikchips

RaumKraehe
2015-05-28, 16:11:13
Wäre die Technologie nicht für VR (HMD) Applikationen interessant?

Dort könnte ich mir vorstellen das die Entwickler sich sehr wohl Zeit für die Optimierungen nehmen könnten.

bnoob
2015-05-28, 16:38:35
Ich bin mir sogar recht sicher dass es für die "jetzige" (nächste?) Generation von VR *zwingend* wird.

Und spätestens wenn sich Konsolenhersteller ernsthaft auf VR stürzen gibt es da noch einmal einen Software Know-How Schub. Die Ansätze die sie für die Current Gen haben scheitern allesamt an der Power.

PatkIllA
2015-05-28, 16:44:51
Wäre die Technologie nicht für VR (HMD) Applikationen interessant?Wenn du zweimal annährend den gleichen Bildinhalt auf je einer Karte berechnest musst du auf beiden die gleichen Daten im Zugriff haben. Da wäre also praktisch wieder alles doppelt.

MrSpadge
2015-05-28, 17:24:31
@PatkIllA: nicht, wenn die Arbeit an einzelnen Bilder unter den GPUs aufgeteilt wird.

Als Nebenfeature von DirectX 12 dürfte es "Explicit Multiadapter Rendering" dabei schon schwierig haben, überhaupt in Spiele-Engines integriert zu werden – ob sich dann jemand noch die Arbeit macht, speziell den Punkt einer idealen Lastverteilung von zwei Grafikkarten anzugehen, darf doch bezweifelt werden.
Das würde ich nicht so pessimistisch sehen: wenn man die Lastverteilung auf asymmetrischen GPUs hinbekommt (GPU + APU), denn ist es ein leichtes, diesen Algorithmus auch auf symmetrische Konfigurationen anzuwenden. Letzteres wäre eher ein guter Startpunkt, um irgendwann ersteres zu erreichen.

Eine zusätzliche Motivation für die Engine-Entwickler gibt es auch noch, sich dieser Technik zuzuwenden: automatisch verhinderte Mikroruckler (mit GSync oder FreeSync), gegenüber AFR verringerte bzw. gegenüber dem Normalfall nicht erhöhte Latenz und keine Probleme mit SLI/CF Treiber-Profilen.

Auch AMD & nVidia dürfte diese Möglichkeit freuen: je besser multi-GPU funktioniert, desto mehr Karten können sie verkaufen. Und desto weniger ist man auf teure Monsterchips angewiesen.

MrS

PatkIllA
2015-05-28, 17:26:45
@PatkIllA: nicht, wenn die Arbeit an einzelnen Bilder unter den GPUs aufgeteilt wird.Das wäre dann aber nichts was sich speziell für VR anbieten würde.

MrSpadge
2015-05-28, 17:53:13
Stimmt, dort bleibt dann nur der Bedarf nach mehr GPUs, weil doppelt so viel zu berechnen und darzustellen ist. Wobei ne bessere multi-GPU Skalierung natürlich allgemein hilft, dass VR in die Gänge kommt.

MrS

Alfa
2015-05-28, 20:41:32
Und so kommt nun auch der "Fiji" zu seinen 8 GB Speicher ;D

Spasstiger
2015-05-28, 21:30:13
Ja, schon ein "seltsamer Zufall", dass AMD diese Folie so kurz vor der Fiji-Vorstellung unters Volk wirft.
So langsam sind die Indizien für 4 GiB VRAM bei der nächsten High-End-Karte von AMD erdrückend.

OBrian
2015-05-28, 23:57:03
Wenn wir DX12 seit zwei Jahren schon hätten, dann würde das wohl reichen, aber alles, was jetzt an Karte auf den Markt kommt, wird sich noch seine ganze Lebenszeit mit DX11 rumschlagen müssen.

Aber ganz unabhängig von Fiji ist so eine bessere Nutzung von mehreren GPUs wirklich lange überfällig.

Gast
2015-05-29, 00:55:11
Wo ist die News? Dass DX12 entsprechendes leisten soll, ist längst bekannt. Mal schauen, was davon real brauchbar werden wird.

Die Grafik ist Mist, denn sie macht den potentiell halbierten RAM-Bedarf nicht deutlich.

Hammer des Thor
2015-05-29, 02:36:05
Wieso soll das nicht für Spiele gut sein? Grafik-Chips haben ja auch viel 2-Beschleunigungs-Funktionen. Wieso nicht die Graka für die 3D Berechnung und Ausgabe und die IGP für Video-Streaming im Spiel nutzen?

Hammer des Thor
2015-05-29, 02:40:04
Wenn wir DX12 seit zwei Jahren schon hätten, dann würde das wohl reichen, aber alles, was jetzt an Karte auf den Markt kommt, wird sich noch seine ganze Lebenszeit mit DX11 rumschlagen müssen.




Wieso das denn? Mantle geht ja auch auf aktuellen AMD-Karten. Selbst wenn diese DX-Funktionen 12 nicht komplett abdecken, könnte doch DX 12 zumindest die Mantle-Funktionen nutzen.

Elkinator
2015-05-29, 03:44:45
Wenn wir DX12 seit zwei Jahren schon hätten, dann würde das wohl reichen, aber alles, was jetzt an Karte auf den Markt kommt, wird sich noch seine ganze Lebenszeit mit DX11 rumschlagen müssen.
volles DX12 hat man ab GCN3, also nicht erst ab Fiji!

Buchbichler
2015-05-29, 09:57:08
Servus Elkinator, von dir hab ich echt schon lange nichts mehr gelesen :-)

Das ist doch ein 1a Feature für jede Marketingabteilung, das aber in der Praxis erst mal gar nichts und später vermutlich so gut wie nichts bringt.

Erstmal wird es wieder 1-2 Jahre dauern, bis sich Win10+DX12 als Standard durchsetzt. Nicht vergessen, die Konsolen sitzen auf DX11 fest.

Der reale Effekt dürfte sich in Grenzen halten, weil die Grafikkarten ja im Prinzip fast gleiche Bilder berechnen. Hier müssten die Entwickler viel Aufwand und Hirn reinstecken, um da wirklich Vorteile zu haben.
Und genau das ist das Problem, das lohnt sich nicht und es wird keiner machen. Wie groß ist den bitte im eh schon uninteressanten PC Bereich der Anteil der SLI/XFire Nutzer?

Die sind doch schon zu faul den Framelock für die PC Versionen zu entfernen, oder die Menüs zu optimieren. Ordentlicher Netcode, Matchmaking und dedicated Server währen viel wichtiger als das, und es macht auch kein Schwein. Gerade bei den >60,- Entwicklungen der großen Publisher ist das schon lang der Normalfall. Für eine Grafikkarte mit 0,05% Marktanteil machen die nur etwas, wenn es AMD bezahlt. Und das lohnt sich auch nur 1x für die Pressemeldungen, und dann nicht mehr.

Wer sich mitte 2015 eine 800,- Grafikkarte mit 4 GB oder noch schlimmer 2x4 GB Speicher kauft hat sie auch verdient. Das ist doch nur Bauernfängerei um die alten Karten noch zu verklopfen.

Gast
2015-05-31, 21:42:13
Man sollte allerdings nicht unerwähnt lassen, dass das Ganze nur mit entsprechender Softwareunterstützung funktioniert.
Nachdem die Marktdurchdringung von Multi-GPU-Systemen nicht gerade berauschend ist, ist es eher unwahrscheinlich dass es dafür auch eine breite Softwareunterstützung gibt, zumal dann auch die Software dafür verantwortlich ist eine ordentliche Skalierung zu bieten