PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia gibt die Unterstützung für "implicit SLI" mit dem ...


Leonidas
2020-09-18, 10:53:49
Link zur News:
https://www.3dcenter.org/news/nvidia-gibt-die-unterstuetzung-fuer-implicit-sli-mit-dem-jahresende-2020-auf

Gast
2020-09-18, 12:43:29
Was mich beim SLI/Crossfire Thema immer schon gewundert hat warum man dieses nicht bei Multi Display und VR zum Thema gemacht hat. Theoretisch waere es ja durchaus moeglich je Bildschirm (bei VR immerhin zwei) je eine GPU dediziert ihren Job machen zu lassen. Bei Flugsimulatoren und anderen Simulatoren im Multimonitor Betrieb waere es grandios. Primaer und Sekundaer Bildschirme koennten sogar unterschiedliche Aufloesungen und Refreshrates fahren ohne das es stoert.

Oder ist an mir vorbei gegangen das dies bereits moeglich ist.

Mr.Smith
2020-09-18, 13:50:52
lange dachte ich dass mit dx12 oder vulcan multi-gpu weitergehen würde.. war wohl ein irrglaube, dass damit alles besser werden würde.

Entweder sowas ist ein allgemeiner Standard und einfach zu implementieren oder abstellgleis.

Flusher
2020-09-18, 14:39:49
Was mich beim SLI/Crossfire Thema immer schon gewundert hat warum man dieses nicht bei Multi Display und VR zum Thema gemacht hat. Theoretisch waere es ja durchaus moeglich je Bildschirm (bei VR immerhin zwei) je eine GPU dediziert ihren Job machen zu lassen. Bei Flugsimulatoren und anderen Simulatoren im Multimonitor Betrieb waere es grandios. Primaer und Sekundaer Bildschirme koennten sogar unterschiedliche Aufloesungen und Refreshrates fahren ohne das es stoert.

Oder ist an mir vorbei gegangen das dies bereits moeglich ist.

Das wundert mich auch - ist ja prädestiniert für diesen Anwendungsfall

Rabiata
2020-09-18, 15:07:10
Was mich beim SLI/Crossfire Thema immer schon gewundert hat warum man dieses nicht bei Multi Display und VR zum Thema gemacht hat. Theoretisch waere es ja durchaus moeglich je Bildschirm (bei VR immerhin zwei) je eine GPU dediziert ihren Job machen zu lassen. Bei Flugsimulatoren und anderen Simulatoren im Multimonitor Betrieb waere es grandios. Primaer und Sekundaer Bildschirme koennten sogar unterschiedliche Aufloesungen und Refreshrates fahren ohne das es stoert.

Oder ist an mir vorbei gegangen das dies bereits moeglich ist.
Was wäre der Vorteil daran, dies mit SLI zu machen? Dasselbe geht auch mit zwei unabhängig angesteuerten GraKas, jede berechnet das Bild für einen Bildschirm. Und jeder der Bildschirme hat seinen eigenen HDMI-Anschluß an die jeweilige GraKa.

Mag sein, daß SLI besser ist, wenn die beiden GPUs zusammen am selben Bild rechnen sollen. Für unterschiedliche Bilder erschließt ich mir der Sinn nicht.

Gast
2020-09-18, 15:32:45
Was wäre der Vorteil daran, dies mit SLI zu machen? Dasselbe geht auch mit zwei unabhängig angesteuerten GraKas, jede berechnet das Bild für einen Bildschirm. Und jeder der Bildschirme hat seinen eigenen HDMI-Anschluß an die jeweilige GraKa.

Mag sein, daß SLI besser ist, wenn die beiden GPUs zusammen am selben Bild rechnen sollen. Für unterschiedliche Bilder erschließt ich mir der Sinn nicht.

Ich meinte nicht das dies ueber konventionelles SLI/Crossfire geloest wird, sondern das Thema generell wurde soweit ich mich erinnere nie angesprochen (Multi GPU + Multi Display). Ich habe ja auch geschrieben das jede GPU sich um ihren eigenen Viewport (Display) kuemmert und nicht gemeinsam ein Viewport/Bild rendert.

pixeljetstream
2020-09-18, 15:42:10
Gerade im Profi Bereich nutzt man multi GPU für VR oder multi Display (Flug Simulatoren haben multi projection etc.). Hab mehrere Kollegen die Firmen dabei helfen. NV vermarktet ersteres als VR-SLI.
NVIDIA hatte das auch in dem unreal branch, weiss aber nicht ob das noch aktuell ist.

Für consumer market ist einfach die Kombi aus SLI und VR zu sehr Nische dass sich das kaum lohnt im Entwicklungsaufwand.

Gast
2020-09-18, 15:48:57
Mal eine blöde Frage: Wenn NV implicit SLI für die 3090 streicht und nur noch explicit SLI unterstützt, unterstützt dann die 3080 explicit SLI auch nicht? Ist das dann im Treiber gesperrt, oder wie?

Leonidas
2020-09-18, 16:51:59
Die 3080 ist ganz ohne SLI-Support geplant. Es fehlt ja auch NVLink.

Schnäppchenjäger
2020-09-18, 17:36:51
Gerade im Profi Bereich nutzt man multi GPU für VR oder multi Display (Flug Simulatoren haben multi projection etc.). Hab mehrere Kollegen die Firmen dabei helfen. NV vermarktet ersteres als VR-SLI.
NVIDIA hatte das auch in dem unreal branch, weiss aber nicht ob das noch aktuell ist.

Für consumer market ist einfach die Kombi aus SLI und VR zu sehr Nische dass sich das kaum lohnt im Entwicklungsaufwand.Interessant.
Spielen da die Frametimes bezüglich Microruckler keine Rolle? :confused:

Wie sieht es da mit der Mehrperformance aus ? Bei herkömmlichem SLI waren das ja manchmal nur 20-30%... bestenfalls 50% oder so :freak:

Zum Thema: Endlich! Multi-GPU im Consumbereich war einfach nur nonsense, die doppelte Leistung kriegt man eh nie und Spiele müssen dafür optimiert werden, was immer wieder zu Problemen führt. Wenn man das Affentheater ganz beendet werden auch wieder mehr Entwicklerressourcen frei, die für wichtigeres verwendet werden können :smile:

pixeljetstream
2020-09-18, 17:46:44
Die Ruckler kommen ja in erster Linie bei Alternate Frame Rendering (AFR) einem impliziten SLI Verfahren vor.

Bei VR oder Multidisplay gibt es das Problem nicht so direkt, es wird ja explizit von der Anwendung selbst implementiert. Jedes Auge/Ansicht (pro GPU) kommt fuer sich ganz normal vollstaendig aus und hat die daten des vorherigen frames.

So bekommt man sehr hohe Skalierungsfaktoren, im Prinzip muss bei VR das Bild von einem Auge einmal uebertragen werden, was mit NVLINK ganz gut klappt, und dann gibt es noch bissl Overhead der VR runtime, also ganz 2x wirds nicht aber dennoch sehr gut.

https://on-demand.gputechconf.com/gtc/2017/presentation/s7459-vr-rendering-improvements-featuring-autodesk-vred.pdf
Die blaue slide mit der Hauptueberschrift "VR SLI results" suchen (Slide 45)

Gast
2020-09-18, 18:01:28
Wer riskiert denn schon eine Kernschmelze und baut sich zwei solcher Heizkraftwerke in den Rechner?! Was Nvidia durch die billigeren 8nm Wafer einspart(~30$ pro Chip), wird durch die hohen Kosten für den Kühler(~150$) wieder aufgefressen.:facepalm:
Die AIBs freuen sich bestimmt darüber. Damit die RMA-Kosten nicht explodieren, verbaut Asus sogar extra LED, um dem Kunden anzuzeigen, wenn der Rechner abstürzt, weil das Netzteil zu schwach war. Auch werden da wohl ein paar neue Kraftwerke gebaut werden müssen, wenn Nvidia Millionen von GPUs verkauft die ~100Watt mehr verbrauchen als bei den letzten Generationen.:uup:

RLZ
2020-09-18, 18:12:41
Die paar Versuche mit VR-SLI in Spielen waren nicht so sensationell, da viele Daten (prominent Shadowmaps) unabhängig vom Blinkwinkel sind und so für beide Augen verwendet werden können. Valve hatte glaub mal von max 30-50% Performancezuwachs berichtet. Allerdings hängt das halt auch immer vom Bottleneck ab.

pixeljetstream
2020-09-18, 18:55:30
Die paar Versuche mit VR-SLI in Spielen waren nicht so sensationell, da viele Daten (prominent Shadowmaps) unabhängig vom Blinkwinkel sind und so für beide Augen verwendet werden können. Valve hatte glaub mal von max 30-50% Performancezuwachs berichtet. Allerdings hängt das halt auch immer vom Bottleneck ab.

Ja absolut. Wir sehen eher jenseits der 50%, aber der Content hat auch nicht die Dynamik wie ein Spiel, bzw. Weniger hohe Latenzanforderungen bei Änderungen der Szene/Beleuchtung.

Theoretisch geht mit raytracing dann auch "mehr" aber Szenenupdates hat man da dann auch pro GPU.

Gast
2020-09-18, 20:23:04
Es fehlt ja auch NVLink.
Ist der NV-Link nicht nur für implicit SLI gedacht? Bei exclicit SLI über die Engine müsste doch eigentlich auch alles über die Spiele Engine gemanaged werden und die Daten auf beide Karten über PCIe transferiert werden. So war zumindest mein Verständnis.

Platos
2020-09-18, 22:00:55
@Pixeljetstream:

Wäre denn bei VR möglich, dass im SLI auch der Speicher wirklich verdoppelt wird ? Wenn jede GPU wirklich ein Display berechbet, dann bräuchte doch GPU 1 auch nicht Daten aus dem Speicher der GPU 2, oder?

Und würde das mikrorucklerfrei gehen? G-Sync gleicht ja die Frameausgabe der Displayaktualisierung an. Bei VR müssten aber gleich 2 Signale zuerst aufeinander abgestimmt werden und dann nochmals jeweils mit der Refreshrate der Displays synchronisiert werden.

Wäre sowas überhaupt möglich? Irgendwie muss man ja wissen, welches Frame (links) mit dem richtigen Frame (rechts) zusammenpasst.

Und eine Einschätzung von dir: Denkst du, ein Chiplet-Verfahren wie bei Zen wäre bei GPUs möglich bzw. realistisch (für die nächsten 2-4 Generationen)? also ich meine bezüglich Mikroruckler. Und auch bezüglich der generellen Machbarkeit. Denn bei mehreren DIEs müssten die ja miteinander kommunizieren und bei GPUs fallen ja erheblich grössere Datenmengen an, wie bei z.B AMDs CPU Chiplets.

Vlt. sind das jetzt etwas viele fragen :D

Gast
2020-09-21, 20:15:21
@Pixeljetstream:

Wäre denn bei VR möglich, dass im SLI auch der Speicher wirklich verdoppelt wird ? Wenn jede GPU wirklich ein Display berechbet, dann bräuchte doch GPU 1 auch nicht Daten aus dem Speicher der GPU 2, oder?


Siehst du auf beiden Augen unterschiedliche Szenen? Wenn du diese Frage beantworten kannst, sollte das auch deine vorhergehende Frage beantworten.


Und würde das mikrorucklerfrei gehen? G-Sync gleicht ja die Frameausgabe der Displayaktualisierung an.


Bei VR gibt es kein VRR, da gibt es effektiv nur VSYNC.


Wäre sowas überhaupt möglich? Irgendwie muss man ja wissen, welches Frame (links) mit dem richtigen Frame (rechts) zusammenpasst.


Wie gesagt VR bedeutet immer aktives VSYNC, und damit es keine Einbrüche gibt muss die Grafikkarte deutlich schneller als die Refreshrate der Displays rendern.

Was die Karte Rendert bekommt diese ja von der CPU "gesagt", und diese kann wird natürlich für jeden Frame einen Snapshot eines bestimmte Zeitpunktes in der Gameloop machen und damit und kann dann an beide Karten den Auftrag senden jeweils ein Auge zu rendern, zum gleichen virtuellen Zeitpunkt in der Spielsimulation.

Gegenüber "dummen" VR-Rendern, was wirklich einfach 2 Bilder unabhängig voneinander berechnet wäre man damit auch annähernd 2x so schnell. Wobei das aufgrund von VSYNC eigentlich auch nicht der Fall ist, du kannst in VR nicht schneller rendern als die Displays refreshen, wohl aber kannst du innerhalb deiner Renderzeit schöner Rendern wenn du mehr Leistung hast.

In Wirklichkeit kann man aber auch in VR sehr viele Berechnungen gemeinsam für beide Augen machen, und gegen optimiertes VR-Rendern wirst du mit 2 Karten niemals annähernd 2x schneller sein.

Und eine Einschätzung von dir: Denkst du, ein Chiplet-Verfahren wie bei Zen wäre bei GPUs möglich bzw. realistisch (für die nächsten 2-4 Generationen)? also ich meine bezüglich Mikroruckler. Und auch bezüglich der generellen Machbarkeit. Denn bei mehreren DIEs müssten die ja miteinander kommunizieren und bei GPUs fallen ja erheblich grössere Datenmengen an, wie bei z.B AMDs CPU Chiplets.

Vlt. sind das jetzt etwas viele fragen :D[/QUOTE]