PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 31. März 2021


Leonidas
2021-04-01, 05:52:22
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-31-maerz-2021

Gast
2021-04-01, 06:27:13
Kleiner Fehler:
Die gemoddete Geforce 16 GB - Karte ist keine 3060.

Leonidas
2021-04-01, 07:55:52
Sondern eine 3070 ... verschrieben (und gefixt).

WedgeAntilles
2021-04-01, 09:25:36
Igorslab bringt zu R-Bar leider deutlich negativere Ergebnisse - da sich Nvidias R-BAR wohl NEGATIV auswirken kann, falls es nicht unterstützt wird.
Wie bei TombRaider.

Dabei verliert man dann mal kurz ein paar Prozentpunkte an Leistung.

https://www.igorslab.de/resizeable-bar-auf-der-msi-geforce-rtx-3090-suprim-24-gb/

Damit ist die Nvidia-Umsetzung natürlich schlicht und ergreifend Murks.
Falls es unterstützt wird gewinne ich ein paar Prozent.
Falls es nicht unterstützt wird verliere ich ein paar Prozent.
Nur: Ich kann das ja nicht mal in den Optionen kurz ein und ausstellen (was schon nervig genug wäre) - ich muss es im Bios machen.
Was soll das also?

Falls etwas nicht überall unterstützt wird - egal, solange man keinen Nachteil davon hat.
Falls ich aber da, wo es nicht unterstützt wird ggf. sogar Nachteile habe - dann ist es unbrauchbarer Murks.


Wie es richtig geht zeigt DLSS bei CP.
DLSS wird nicht unterstützt - kein Nachteil für mich.
DLSS wird unterstützt - Performanceplus von 70%.

Den Aufwand RT für AMD Karten zu implementieren hätte sich CDP sparen können (müssen?).
AMD Karten sind ohne DLSS schlicht nicht in der Lage genügend Frames zu liefern um RT zu aktivieren.
Das ist jetzt aber auch keinerlei Überraschung - selbst die 3090 ist ohne DLSS Unterstützung ja kaum in der Lage RT mit genügend Frames zu liefern.
Bei Nvidia kein Problem, es GIBT ja DLSS. Damit erhöht man bei RT halt mal kurz die Performance um ca. 70% - und hat damit genügeng Frames.

Wie aber AMDs schwächeres RT OHNE DLSS das leisten soll? Einfache Antwort: Gar nicht. Kann nicht funktionieren.
Das war jetzt aber kein Geheimnis sondern doch wirklich jedem klar.
Wieso hat CDP da überhaupt Arbeitsstunden reingesteckt?

(Zumal doch sowieso jeder AMD Nutzer RT bei CP furchtbar scheiße findet - jedenfalls falls dieses Forum hier ein Maßstab ist...)

Leonidas
2021-04-01, 09:27:42
Sollte nicht die White List von NV da greifen?

y33H@
2021-04-01, 09:37:31
Das wiederum ist der Nachteil von NVIDIAs Software-basierter Umsetzung, während es der Hardware-Lösung von AMD egal ist. Hmmm ... ist dem denn so?

GerryB
2021-04-01, 09:37:44
So richtig interessant wirds doch erst auf den 8GB-Grakas!

Die Mehrbelegung durch rBar muss ja von NV erstmal durch anderes Streamen kompensiert werden.
(für mich werden wohl in Zukunft vor Allem die Frametimeverläufe interessant in den Reviews und ne
qualitative Einschätzung zum Aufploppen von Texturen)

Das in Valhalla auf ner 3090 ca. 1000MB mehr belegt werden ist ein Fingerzeig für FutureGames.

btw.
Die Whitelist sollte ja nem Fertig-PC-Käufer reichen.
Es braucht keiner selbst rBar on/off rummehren.
Nur für ältere PC´s muss man halt mal updaten.

Wann werden eigentlich die Parcours auf den Stand der Technik gebracht?

WedgeAntilles
2021-04-01, 10:10:46
Sollte nicht die White List von NV da greifen?

Falls das so funktioniert, wäre das eine gute Lösung.
Ich habe da keine Ahnung und habe nur das Wiedergegeben, was ich beim Igor gelesen hatte^^

Gast
2021-04-01, 10:15:38
Jene zeigen eine generell steigende Framerate, wobei nach der Detailbetrachtung die Frage im Raum steht, ob der Spieleentwickler hierbei nicht über ein deutlich aggressiveres LOD-Verfahren "nachgeholfen" hat.

So gut wie jede Performanceverbesserung in Software wird dadurch erzielt, dass man Berechnungen einspart.
Die Frage ist nur wie gut man diese Einsparungen vor dem Betrachter versteckt.

Gast
2021-04-01, 10:16:21
(Zumal doch sowieso jeder AMD Nutzer RT bei CP furchtbar scheiße findet - jedenfalls falls dieses Forum hier ein Maßstab ist...)

Verstehe nicht warum immer wieder dieses Krawall-zündeln sein muss.
Ich denke weder jeder - noch nur - AMD Nutzer. Sachlich bleiben und ernst genommen werden zu können geht zumindest anders.

Gast
2021-04-01, 11:21:42
So richtig interessant wirds doch erst auf den 8GB-Grakas!

Die Mehrbelegung durch rBar muss ja von NV erstmal durch anderes Streamen kompensiert werden.

Warum sollte die Speicherbelegung mit rBAR zwangsweise steigen?

Es wird dadurch ja nicht mehr in den VRAM gelegt, es sind nur weniger Operationen dafür notwendig, da man prinzipiell den gesamten VRAM auf einmal voll machen kann anstatt in mehreren Schritten.

Und wenn der Speicher knapp wird sollte rBAR eher helfen, da es ja genau das hin und herschieben von Daten zwischen RAM und VRAM effizienter macht.

Denniss
2021-04-01, 13:58:17
AMD's RT bei Cyperbunk ist bestenfalls als lauffähig einzuschätzen, weit entfernt von irgendeiner Optimierung. Der Programmierqualität von Cyberpunk nach ist das wohl eher hingerotzt um im Zeitplan zu bleiben.
AMD wird da im Treiber wohl auch nicht viel mehr rausholen können wenn die Implementierung im Spiel nicht stimmig ist.

Gast
2021-04-01, 14:35:59
AMD's RT bei Cyperbunk ist bestenfalls als lauffähig einzuschätzen, weit entfernt von irgendeiner Optimierung. Der Programmierqualität von Cyberpunk nach ist das wohl eher hingerotzt um im Zeitplan zu bleiben.


Cyberpunk benutzt DXR, es kann nicht sein dass ein Softwareentwickler der eine generische API verwendet unterschiedliche Implementierungen entwickeln muss je nachdem welche Hardware dahinter steckt.

Der Sinn einer API ist es genau solche Implementierungsdetails vom Softwareentwickler zu verstecken und die Notwendigkeit von extrem zeitaufwändigen Optimierungen auf eine spezifische Hardware unnotwendig zu machen. Das wäre auch ziemlich dämlich, wenn das jeder Softwarehersteller machen müsste, weil man dann die Software für jede neue veröffentlichte Hardware erneut anpassen müsste, das könnte auch eine neue Generation des selben Herstellers sein sofern sich die Hardware zu stark ändert.

Die potentiell schlechte Programmierqualität von Cyberpunk betrifft alle Hardwarehersteller gleich.

Das Ergebnis war auch so zu erwarten, alles was man bisher gesehen hat, ist die RT-Implementierung von RDNA2 nicht mal auf Turing Niveau, und von Ampere noch viel weiter weg.

Je nachdem wie sehr die Gesamtperformance eines Spiels von der Rasterizing und RT-Leistung abhängt kann RDNA2 bei Spielen die Raytracing eher sparsam einsetzen zumindest mit Turing ganz gut mithalten. Das liegt aber an der überlegenen Rasterizing Leistung, und nicht an der Raytracing-Implementierung von AMD.

Die Spiele, bei denen AMD mit RT einigermaßen mithalten kann setzen ausnahmslos Raytracing nur eher sparsam meistens nur für einen Effekt ein.
Und in allen bisherigen Spiele die stark auf Raytracing setzen liegt AMD extrem deutlich zurück.

Alles deutet darauf hin, dass die RT-Lösung von AMD in Hardware einfach deutlich schwächer ist, und die "Optimierung" von Softwareherstellern für AMD-Hardware hauptsächlich darin besteht nur wenige Strahlen zu verwenden.

Wäre ja alles nicht so schlimm, wenn nicht AMD Hardware in den ganzen Konsolen verbaut wäre, und damit die RT-Verbreitung wahrscheinlich für die nächsten 10 Jahre ausgebremst wird.

Leonidas
2021-04-01, 15:19:54
RT auf Konsolen ist IMO zu früh, hätte man lassen sollen. Leider kann man solche Zeitpläne manchmal nicht aussuchen.

Lehdro
2021-04-01, 15:38:53
Alles deutet darauf hin, dass die RT-Lösung von AMD in Hardware einfach deutlich schwächer ist, und die "Optimierung" von Softwareherstellern für AMD-Hardware hauptsächlich darin besteht nur wenige Strahlen zu verwenden.
Schwächer sicherlich, dafür aber auch flexibel. Zudem steckt da sicherlich noch einiges an Verbesserungspotenzial drin. Das hatte doch sogar ein Dev auf Twitter so bestätigt, mit wenigen Änderungen gab es deutliche Performancesteigerungen. Muss den Tweet noch mal raussuchen.

Wäre ja alles nicht so schlimm, wenn nicht AMD Hardware in den ganzen Konsolen verbaut wäre, und damit die RT-Verbreitung wahrscheinlich für die nächsten 10 Jahre ausgebremst wird.
Jo, dann lieber gar kein RT. :freak:
Dann hat NV immer noch den "hat RT"-Bonus, aber sonst hat niemand was davon - vor allem nicht die breite Kundschaft die eben keine NV Hardware (Konsolen) hat und eben nicht nur dieselben dutzend Triple A Titel mit RT spielt. Vielleicht sollten die Entwickler auch einfach mal die RT Features an die Leistung anpassen? Was bringt mir RT wenn es nur auf den Topkarten vernünftig läuft? Mit den Konsolen sind sie gezwungen auf einen niedrigeren Leistungsnenner zu optimieren - das kommt auch NV Usern (an 2070/3060 denken) zu Gute. Ansonsten haben wir nur das nächste Crysis, sieht auf max. toll aus, kann aber fast keiner so spielen, großartig. Es spricht doch nichts dagegen die RT Modi besser anzupassen, so das z.B. "low" auch mal lohnt, anstatt wie jetzt nur "high" und "ultra".

Gast
2021-04-01, 15:51:44
Schwächer sicherlich, dafür aber auch flexibel.

Was genau soll an AMDs RT "flexibler" sein?

Gast
2021-04-01, 16:00:39
Vielleicht sollten die Entwickler auch einfach mal die RT Features an die Leistung anpassen? Was bringt mir RT wenn es nur auf den Topkarten vernünftig läuft?


Wiederspielwert, ich kann mich noch gut an die 2000er Jahre erinnern, als es üblich war, dass Spiele erst mit beim Erscheinungsdatum zukünftiger Hardware auf max. wirklich Brauchbar liefen. Damals hat man gerne nach einem Hardwareupgrade ein altes Spiel noch mal durchgespielt, einfach weil es dann viel besser war, sei es in Optik oder Performance.

Heute wird ja gleich mal "faule Entwickler geschrieen" wenn ein Spiel auf Upper Mainstream Hardware nicht mit Full Details gut läuft.


Mit den Konsolen sind sie gezwungen auf einen niedrigeren Leistungsnenner zu optimieren - das kommt auch NV Usern (an 2070/3060 denken) zu Gute.


Dank DLSS hat NV kein wirkliches Leistungsproblem mit Raytracing. Oftmals läuft RT + DLSS sogar schneller als nativ ohne RT, und der enorme Optikgewinn von Raytracing überwiegt den minimalen Verlust durch die schnelleren DLSS Modi (abseits von Ultra Performance, das ist nicht wirklich brauchbar) bei weitem.

Platos
2021-04-01, 16:39:22
An die Leistung anpassen :D ? Was wollen sie machen, zaubern ? Die RT Leistung ist halt zu gering und muss steigen.

GerryB
2021-04-01, 16:39:39
Warum sollte die Speicherbelegung mit rBAR zwangsweise steigen?


guuuckste hier:
https://www.youtube.com/watch?v=xL28RQiu8dM&t=627s

iamthebear
2021-04-01, 16:41:00
Die grundsätzliche Frage bei rBar ist, ob dieses die Performance der GPU verbessert oder der CPU Overhead senkt.
Bei den meisten Reviews deutet es darauf hin, das beides passiert, bei den letzten computerbase Tests sieht es so aus als wäre es hauptsächlich der CPU Overhead:
https://www.computerbase.de/2021-03/treiber-und-bios-updates-nvidia-aktiviert-rbar-auf-rtx-3090-3080-3070-und-3060-ti/

Ich denke, das man nicht pauschal sagen kann "rBar bringt X Prozent".Das wird wohl stark von der Systemkonfiguration abhängen und ob die CPU oder doe GPU bremst.

GerryB
2021-04-01, 17:10:11
zumindestens spart man sich sinnlosen Traffic und Schreib-/Lesevorgänge auf dem vergleichsweise langsamen Ram

btw.
Das die 3090 sogar in 4k profitiert macht eigentlich klar, das nachfolgende Gens dann "ohne" gar net mehr konkurrenzfähig wären.
Nach m.E. kann nur eine GFX profitieren, die noch Wartetakte einsparen bzw. ungenutzte Shader füttern kann.
D.h. vor allem die schnelleren+breiteren GFX profitieren.
(die kleine 3060 ist schon an der Kotzgrenze und kann daher net mehr zulegen)

Gast Ritis
2021-04-01, 18:25:11
Der Sinn einer API ist es genau solche Implementierungsdetails vom Softwareentwickler zu verstecken und die Notwendigkeit von extrem zeitaufwändigen Optimierungen auf eine spezifische Hardware unnotwendig zu machen. Das wäre auch ziemlich dämlich, wenn das jeder Softwarehersteller machen müsste, weil man dann die Software für jede neue veröffentlichte Hardware erneut anpassen müsste, das könnte auch eine neue Generation des selben Herstellers sein sofern sich die Hardware zu stark ändert.
...
Wäre ja alles nicht so schlimm, wenn nicht AMD Hardware in den ganzen Konsolen verbaut wäre, und damit die RT-Verbreitung wahrscheinlich für die nächsten 10 Jahre ausgebremst wird.

Mit DXR von Microsoft wird nur ein grundlegender Funktionsumfang und Aufbau für RT-Berechnungen vorgegeben. Der BVH-Tree kann verschiedentlich aufgebaut und optimiert werden, ebenso die bei Strahlentreffern verzweigte Weiterberechnung. Hier sind wir immer noch am Anfang und niemand sagt ernsthaft er hätte bereits die beste Methode gefunden.
AMD hat ein HW-Modell, das die direkte Auswertung eines Hits und davon abhängige weitere Berechnungen bevorzugt. Im Gegensatz dazu ist der Nvidia-Weg mehr Strahlen im Paket ohne Rücksicht auf Hits zu berechnen.
Bei AMD ist hohe Performance zudem nur erwartbar, wenn der Teil des BVH-Trees für die Berechnungen auch in den IF-Cache passt während dort auch andere Daten liegen, bei Nvidia sollten insgesamt wiederum die 8GB VRAM nicht gerissen werden. Bei AMD ist die Berücksichtigung der shared L1-Caches für die DualCUs auch wichtig, während für Ampere auf die 64er Warps wie bei Vega mit 64er Waefronts hin optimiert werden müsste ist es bei RNDA der 32er wie bei Pascal.

Das führt unweigerlich zu unterschiedlichen RT-Shader Optimierungen und RenderBatch Optimierungen. Auch bisher waren unterschiedliche Code-Pfade für CPU-Typen und GPU-Typen üblich, z.B. für HW-passende Textur-Komprimierung, oder Async-Compute nur auf modernen Beschleunigern einzusetzen. Die Liste wäre wohl lang würde man die letzten 20 Jahre zurückgehen.

Das gute heute an den neuen Konsolen mit RT ist, dass es überhaupt eine breite "milionenfache" Nutzerbasis gibt, die RT nutzen kann. Da ist der Erfolg von Sony PS-VR nur ein kleiner Fingerzeig, was das insgesamt der Entwicklung von Software helfen kann, denn jeder grosse kommerzielle Entwickler muss sich jetzt damit intensiv auseinandersetzen, nicht nur technisch wie es geht, sondern auch inhaltlich wo es Sinn macht.

Persönlich würde mir belibig fein aufgelöster korrekter Schattenwurf statt Fake-Schatten schon genügen. Die Welten könnten endlich glaubhaft dynamischer werden und dramatischer ausgeleuchtet werden wo sich im Zweifel alles bewegen lässt und nicht nur die Player und volumetrische Effekte. Global Illumination im Tag-Nachtwechsel kann auch schöner werden und ohne Vorberechnungen mehr individuelle Dynmik erlauben, ohne dass z.B. exakt im Gameplay in der Storyline voregeben wurde welches grosse Objekt exakt wo hinzugefügt wird oder verschwindet...

Im übrigen wird auch mit VRS und SSD-Disk speed noch einiges mehr an neuen Ideen und Leistungszuwachs zu erwarten sein, sicherlich auch mit Sampler Feedback von DX12Ultimate... Da bremst eher der Mainstream-PC als Zielplattform als die Konsole. Hoffen wir mal auf echte aufwändige Exklusivtitel und dass der PC-Mainstream (scheint immer mehr Laptops zu betreffen) das in 5 Jahren aufgehohlt hat.

Gast
2021-04-01, 18:36:13
guuuckste hier:
https://www.youtube.com/watch?v=xL28RQiu8dM&t=627s

Allocated VRAM != benötigter VRAM

GerryB
2021-04-01, 19:46:09
Allocated VRAM != nicht unbedingt benötigter VRAM

guuuuuuuuuuuuuuuuuuck halt mal länger!

auch dedicated=erforderlich steigt an mit rBar

btw.
Die Grakas vom Suez sind bei MF eingetroffen.
(nur Wer kauft jetzt noch ne 8GB)

gedi
2021-04-01, 21:07:26
Wundert mich, dass für solch Vergleiche noch immer PCGH zu Rate gezogen wird. Ich mein, das was die messen entspricht nie der Realität, außer vielleicht in den 30 Sek. auf denen den die ihre immergrüne Behauptung stützen.

Vielleicht sollte man Raff und Kollegen mal mitteilen, dass ihr Urteil so gar nix mit Umweltschutz zu tun hat :mad:!

Gast
2021-04-01, 21:17:55
auch dedicated=erforderlich steigt an mit rBar


Dedicated ist genauso wenig benötigter VRAM.

Allocated VRAM = Angeforderter VRAM.
Dedicated VRAM = Wieviel vom angeforderten VRAM im physischen VRAM reserviert wird.

Keiner dieser Werte sagt aus wieviel VRAM wirklich benötigt wird.

Gast
2021-04-01, 22:06:51
Mit DXR von Microsoft wird nur ein grundlegender Funktionsumfang und Aufbau für RT-Berechnungen vorgegeben.
Der BVH-Tree kann verschiedentlich aufgebaut und optimiert werden, ebenso die bei Strahlentreffern verzweigte Weiterberechnung. Hier sind wir immer noch am Anfang und niemand sagt ernsthaft er hätte bereits die beste Methode gefunden.
AMD hat ein HW-Modell, das die direkte Auswertung eines Hits und davon abhängige weitere Berechnungen bevorzugt. Im Gegensatz dazu ist der Nvidia-Weg mehr Strahlen im Paket ohne Rücksicht auf Hits zu berechnen.


https://i.imgur.com/pEsk1ls.png

DXR definiert das Programmiermodell und das Zusammenspiel der einzelnen Shader.

Alle Optimierungen die du erwähnst sind Aufgabe des IHV und deren Treiber und nicht der vielen ISV.

JVC
2021-04-01, 22:18:52
Unter $K ^^ ne falsch... uner 4K geht nicht mehr wirklich.... somit ist für mich RT noch völlig nutzlos.
Abgesehen davon, bin ich ein paar Jahre im Zockrückstand. (alte Perlen "Aufblasen")
Für mich sehe ich das bessere Gesamtpaket noch immer bei der 6800XT, wenn man mal eine zu nem Angemessenen Preis bekommen würde :mad:

M.f.G. JVC

Gast Ritis
2021-04-02, 06:58:51
https://i.imgur.com/pEsk1ls.png

DXR definiert das Programmiermodell und das Zusammenspiel der einzelnen Shader.

Alle Optimierungen die du erwähnst sind Aufgabe des IHV und deren Treiber und nicht der vielen ISV.

Und was hat das mit Codeoptimierung für HW zu tun? Was macht denn dein individueller Anyhit Shader?

Die Algorithmen werden letztlich noch immer von den ISV definiert, inclusive der Entscheidung ob der BVH gar statisch oder dynamisch ist, wie der geteilt ist, oder wie beim Anyhit weiter gerechnet wird.

Da du das Bildchen gefunden hast wirst sicherlich auch die Unterschiede der Empfehlungen für die Raytracing Optimierung für ISVs von den IHVs Nvidia vs. AMD herausfinden können.

Raff
2021-04-02, 10:10:02
Wundert mich, dass für solch Vergleiche noch immer PCGH zu Rate gezogen wird. Ich mein, das was die messen entspricht nie der Realität, außer vielleicht in den 30 Sek. auf denen den die ihre immergrüne Behauptung stützen.

Vielleicht sollte man Raff und Kollegen mal mitteilen, dass ihr Urteil so gar nix mit Umweltschutz zu tun hat :mad:!

Da ich vor allem nach vielen Überstunden etwas gegen Rufmord habe: Bitte schick mir eine PN mit deinem genauen Problem.

MfG
Raff

MasterElwood
2021-04-02, 10:20:21
RT auf Konsolen ist IMO zu früh, hätte man lassen sollen. Leider kann man solche Zeitpläne manchmal nicht aussuchen.

MOMENTAN ja. Sollte AMD es schaffen FidelityFX Super Resolution auf die Konsolen zu bringen (und wenn das Ding auch was kann), könnte es durchaus was werden damit.

MasterElwood
2021-04-02, 10:24:11
btw.
Das die 3090 sogar in 4k profitiert macht eigentlich klar, das nachfolgende Gens dann "ohne" gar net mehr konkurrenzfähig wären.


Dein Ernst? Das SUPER-FEATURE von dem alle seit Monaten reden - der Messias - bringt gerade mal paar einstellige Prozent? Und ohne dem solls nicht mehr gehen? :biggrin:

Raff
2021-04-02, 10:44:30
Nach meinem Verständnis profitiert die RTX 3090 in UHD nur, weil das ein grundlegendes Architekturmerkmal von Ampere ist: Die ALUs werden in niedrigen Auflösungen nicht optimal ausgelastet, daher müssen's Pixel richten. Egal ob mit oder ohne rBAR. AMD bekommt die Rohleistung in geringen Auflösungen besser auf die Straße (weniger FP32-ALUs zu füttern) und bricht daher in höheren Auflösungen stärker ein. Vor einigen Jahren war's umgekehrt. :)

MfG
Raff

Gast Ritis
2021-04-02, 11:06:01
MOMENTAN ja. Sollte AMD es schaffen FidelityFX Super Resolution auf die Konsolen zu bringen (und wenn das Ding auch was kann), könnte es durchaus was werden damit.

Nein, ganz und garnicht zu früh.

Es war immer von Hybrid Rendering die Rede um mit RT Effekten ein Eye-Candy für Beleuchtung oben drauf zu packen wo PreBaked nicht funktioniert. Ganz Minecraft in einen RT-Shader zu packen oder RT Quake sind nur Marketing-Aktionen. Das ist hoffentlich jedem klar, dass das für AAA und volles RT auf 4k noch etliche Jahre mit minimen Inkrementen im Fortschritt als "Schneckentempo" benötigt und jetzt erst mal albern irgend welche RT Gimmiks schnell auf das fertige Game geklebt wurden. "Hahaaaaa wir haben Spiegelungen die auch Hein Blöd erkennt"

Jetzt schon RT auf den Konsolen abzusprechen zeugt auch nicht gerade von viel Erfahrung was die Softwarezyklen für Konsolen in (Un)Abhängigkeit von Mainstream-Engines angeht.

Spiderman ist für ein Schnellschuss schon einmal ganz ok obwohl dort auch RT völlig übertrieben eingesetzt wird. Nun gut ist ja "Comic".

Schaut euch aber mal The Riftbreaker mit vs ohne RT an falls ihr euch das in der Theorie nicht vorstellen könnt, das ist eigentlich nur ein Indie Titel.

Gast
2021-04-02, 12:04:26
Und was hat das mit Codeoptimierung für HW zu tun? Was macht denn dein individueller Anyhit Shader?


Gar nichts, genau das soll es auch zeigen. Es ist nicht die Aufgabe des ISV für bestimmte Hardware zu optimieren, er sieht nur das High-Level Shader Konstrukt, das er mit Shader in Hochsprache füttert.
Er sieht nicht nicht wie diese nun in Hardware ausgeführt werden.


Die Algorithmen werden letztlich noch immer von den ISV definiert, inclusive der Entscheidung ob der BVH gar statisch oder dynamisch ist, wie der geteilt ist, oder wie beim Anyhit weiter gerechnet wird.


Richtig, der Softwarehersteller kann den Algorithmus so weit optimieren um mit möglichst wenig Berechnungen ans Ziel zu kommen.

Wie die Berechnungen die der Softwarehersteller für seinen Algorithmus braucht dann tatsächlich in Hardware ausgeführt werden ist nicht mehr seine Aufgabe, sondern die des jeweiligen Hardwareherstellers.

Diesem steht es natürlich frei die jene Befehle die er von der Software bekommt so anzupassen (sofern das Ergebnis gleich bleibt) damit diese auf seiner Hardware möglichst effizient ausgeführt werden.

Es ist ein Unterschied einen Algorithmus selbst effizienter zu machen, das ist natürlich Aufgabe des Softwareentwicklers, oder dafür zu sorgen dass ein bestehender Algorithmus möglichst effizent in Hardware ausgeführt wird, letzteres ist Aufgabe des jeweiligen Hardwareentwicklers.

Alles andere macht auch keinen Sinn, Hardware ändert sich ständig, in Software werden vorhandene Algorithmen dagegen oft sogar über Jahrzehnte weiterverwendet.
Es wäre eine extreme Ressourcenverschwendung bei jeder neuen Hardware die Algorithmen unzubauen nur damit diese auf neuer Hardware besser laufen. Generell ist es schlechtes Softwaredesign das selbe Problem in einer Software auf unterschiedliche Arten zu lösen, das führt langfristig zu fehleranfälliger und unwartbarer Software.

Eine Anpassung der Software auf eine bestimmte Hardware ist nur dann Sinnvoll wenn garantiert werden kann, dass sich die Hardware auf längere Zeit nicht ändert. Also gerade nicht für PCs in denen man mehr oder weniger alles mit jedem kombinieren kann.

Man müsste sich nur mal vorstellen es gäbe nicht nur 2 Grafikkartenhersteller (und wenn Intel es auf die Reihe bekommt haben wir hoffentlich bald zumindes 3), sondern 4 oder 5 und du müsstest für jeden eigene Algorithmen schreiben. Der Aufwand Software zu schreiben und vor allem zu testen würde sich vervielfachen, das ist wirtschaftlich einfach nicht machbar und auch nicht sinnvoll.

JVC
2021-04-02, 15:31:28
Mir reicht RT für gute Licht und Schatten Effekte. Und auch der Sound kann davon profitieren.
Muss doch nicht gleich Alles "superglänzig" sein, den das ist m.M.n. eher unrealistisch.

M.f.G. JVC

Gast Ritis
2021-04-02, 15:51:27
Gar nichts, genau das soll es auch zeigen. Es ist nicht die Aufgabe des ISV für bestimmte Hardware zu optimieren, er sieht nur das High-Level Shader Konstrukt, das er mit Shader in Hochsprache füttert.
Er sieht nicht nicht wie diese nun in Hardware ausgeführt werden.

Völlig naive Wunschvorstellung. Entweder das ist für Nvidia optimiert oder für AMD oder für beide oder es läuft nur theoretisch und gleich alle Fanbois fangen an zu weinen.

Troyan
2021-04-02, 17:27:03
Völlig naive Wunschvorstellung. Entweder das ist für Nvidia optimiert oder für AMD oder für beide oder es läuft nur theoretisch und gleich alle Fanbois fangen an zu weinen.

Erkläre doch mal, wie man für Hardware optimieren soll, die nur die Hälfte der Leistung besitzt.

Gast Ritis
2021-04-02, 17:55:25
Erkläre doch mal, wie man für Hardware optimieren soll, die nur die Hälfte der Leistung besitzt.
Was soll denn dieses BS Trolling?
(fanboi detector pip pip pip)

Ist doch völlig egal welche Leistung die HW besitzt für die optimiert wird.

Lehdro
2021-04-02, 18:26:49
Erkläre doch mal, wie man für Hardware optimieren soll, die nur die Hälfte der Leistung besitzt.
Da muss halt mal NV selber ran. Kann ja der Engine/Spieleentwickler nichts dafür wenn NV Treiber so viel CPU Power braucht. :freak:

Wie du siehst, das Argument funktioniert in beide Richtungen. Es wird sich auch bei RT schon noch etwas tun, entweder kommen die Herren Softwareentwickler mithilfe der Konsolen und schwächeren PC Hardware mal auf die Optimierungsidee, oder RT bleibt weiterhin ein Randthema. Ich weiß welche Option ich für wahrscheinlicher halte.

Troyan
2021-04-02, 18:47:21
Aha. Also das ich dein Quatsch verstehe: Die Leistung der Hardware ist nicht relevant, sondern nur die Software. Heißt also, dass es nie ein GPU-limitierendes Szenario gibt, wo die Hardware komplett ausgefahren wird.

Gotcha.

Was soll denn dieses BS Trolling?
(fanboi detector pip pip pip)

Ist doch völlig egal welche Leistung die HW besitzt für die optimiert wird.

Stimmt. Ist völlig egal. Denn Hardware unterscheidet sich nie. :eek:

Lehdro
2021-04-02, 18:54:37
Aha. Also das ich dein Quatsch verstehe: Die Leistung der Hardware ist nicht relevant, sondern nur die Software. Heißt also, dass es nie ein GPU-limitierendes Szenario gibt, wo die Hardware komplett ausgefahren wird.

Gotcha.
Weiter daneben könntest du nicht liegen.
Derzeit haben wir den Fall das es auf NV mit Biegen und Brechen gerade so gut läuft (DLSS + quasi nur die Highend Karten), während der Rest desselben Vendors(!) sowie die Konkurrenz es praktisch gesehen nur als Checklistenfeature haben. Kommt dir das nicht auch ein wenig sinnfrei vor, wenn man eigentlich auf die breite Adoption des Features seitens der Software hoffen sollte?


Stimmt. Ist völlig egal. Denn Hardware unterscheidet sich nie. :eek:
Tust du nur so? Natürlich unterscheidet sich die Hardware - aber eine Optimierung ändert doch daran rein gar nichts. Sehr wohl aber an der Performance die ich daraus erzielen kann - für beide Seiten. Das Schnellere wird noch schneller, das Langsame aber auch. Das ist jetzt wirklich nicht so schwer zu begreifen, oder?

Schnitzl
2021-04-12, 10:31:12
Irgendwie schade, dass der Test der 3070 16GB hier untergegangen ist.
Dabei wäre doch das genau das, was interessieren würde, ob die 8GB der regulären 3070 nun zuwenig sind oder nicht ...?
(bzw. auch die 10GB der 3080)
Die erste Frage hier ist doch: funktioniert die Karte einwandfrei mit den kompletten 16GB?
Leider verstehe ich kein Russisch...

Lehdro
2021-04-12, 14:01:44
Dabei wäre doch das genau das, was interessieren würde, ob die 8GB der regulären 3070 nun zuwenig sind oder nicht ...?
Da wir realistische Einsatzszenarien haben (PCGH hat da was schönes getestet (https://www.pcgameshardware.de/Geforce-RTX-3060-Grafikkarte-277122/Specials/RTX-3060-Was-bringen-12-GByte-1367634/), mehr im Heft) in denen eine 3060 12 GiB eine 3070 abzieht, kann man diese Frage eindeutig mit Ja beantworten. Die Frage ist aber immer ob dir die 8 GiB reichen - je nach dem was du damit halt so machst. Wenn du zum Beispiel kaum RT nutzt, entspannt sich die Lage natürlich schon einmal.