PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Microsoft bringt das DirectX Feature-Level 12_2 mit ...


Leonidas
2020-08-30, 13:02:56
Link zur News:
https://www.3dcenter.org/news/microsoft-bringt-das-directx-feature-level-122-mit-verpflichtendem-support-von-raytracing-und-s

Dampf
2020-08-30, 14:10:21
Ich hoffe mal, dass Turing GTX Nutzer trotzdem in den Genuss der DX12U Features, abseits von RT, kommen. Schließlich sollten die ja Hardwareseitig unterstützt werden.

aufkrawall
2020-08-30, 14:15:09
Warum sollten diese Features nur wegen fehlendem Hardware-DXR nicht nutzbar sein? Die Karten sind so nicht als 12_2 gelabelt, aber das sollte es dann auch gewesen sein.

JVC
2020-08-30, 14:19:58
Ich habe ne TuPa und bin der Meinung das sie nicht wirklich gut DX12 kann ^^
https://www.pcgameshardware.de/Pascal-Codename-265448/News/DirectX-12-Asynchronous-Compute-Schwaeche-Maxwell-1190461/ (27.03.2016)
"Nvidia Pascal & DirectX 12: Asynchronous-Compute-Schwäche von Maxwell geerbt?"
Ist aber ne wirklich gute DX11 Karte und wird als diese im "W7/Retro" bleiben.

M.f.G. JVC

Edit: wieder mal was verwechselt...

Leonidas
2020-08-30, 15:07:41
Ich hoffe mal, dass Turing GTX Nutzer trotzdem in den Genuss der DX12U Features, abseits von RT, kommen. Schließlich sollten die ja Hardwareseitig unterstützt werden.

Warum sollten diese Features nur wegen fehlendem Hardware-DXR nicht nutzbar sein? Die Karten sind so nicht als 12_2 gelabelt, aber das sollte es dann auch gewesen sein.


Das ist beiderseits eine gute Frage. Technisch ist es zweifelslos möglich. Aber wird diese extra Wurst gebraten? Es betrifft ja nur die GeForce-16-Serie, danach wird alles 12_2 sein.

Aber davon abgesehen: Vermutlich wird 12_2 so schnell kein Spieledesigns als Minimum setzen. Ergo wird immer irgendwo ein niedrigerer Pfad existieren.

Gast Ritis
2020-08-30, 16:37:38
Tier 0.9 Ist natürlich der Schenkelklopfer schlecht hin, wer sich das wohl wieder ausgedacht hat, ggf. die Erfinder die sich ärgern dass Nvidia beim Sampler Feedback nicht vollen Support konnte. ;D

Ansonsten ist das mit den Feature Levels ohnehin mittlerweile irgendwie Kokolores. Eine Engine wird nicht den FL abfragen sondern einzelne Features soweit sinnvoll einsetzbar. Sonst würde auch künftig Turing RT komplett brach liegen. Und ob nun auf der Verpackung 12_1 oder 12_2 steht wird im Laden auch keinen Käufer umstimmen...

Gast
2020-08-30, 17:28:58
Ich hoffe mal, dass Turing GTX Nutzer trotzdem in den Genuss der DX12U Features, abseits von RT, kommen. Schließlich sollten die ja Hardwareseitig unterstützt werden.

Ich würde sogar sagen, dass Turing vollständig kompatibel sein sollte.

Eine API ist eine Schnittstelle, und eine Schnittstelle definiert nur war reinkommt und was wieder rauskommt, das "Wie" bleibt der Implementierung überlassen.

Nachdem ja Turing durchgehend RTX unterstützt (wenn auch mit er 16er Reihe ohne Hardwarebeschleunigung) sollte das kein Ausschlussgrund sein.

iamthebear
2020-08-30, 22:55:27
Dass alles auch in Software möglich ist sollte klar sein. Die Frage ist nur ob Nvidia will:
.) Bei nein: Nur die 20er Karten aufwärts können Raytracing. Bitte kauf das neueste Topmodell um viel Geld
.) Bei ja: Sieh her die 20er Karten sind 5 Mal so schnell (bei Raytracing): Bitte kauf das neueste Topmodell um viel Geld

Man wird sehen für was sich Nvidia entscheiden wird.

zockerX
2020-08-30, 23:10:19
Das ist beiderseits eine gute Frage. Technisch ist es zweifelslos möglich. Aber wird diese extra Wurst gebraten? Es betrifft ja nur die GeForce-16-Serie, danach wird alles 12_2 sein.

Aber davon abgesehen: Vermutlich wird 12_2 so schnell kein Spieledesigns als Minimum setzen. Ergo wird immer irgendwo ein niedrigerer Pfad existieren.
Wird es wirklich nur die GTX 16 betreffen? RTX macht auch bei einer 3050 (abwärts) wenig Sinn und selbst bei einer 3060 (die definitiv RTX haben wird) muss sich der Sinn von RTX erst zeigen. Die 2060 war für RTX praktisch unbrauchbar.
Ich würde sagen es dauert noch locker 3-5 Jahre, bis es ein paar Spiele geben wird, 12_2 voraussetzen werden. Dementsprechend wenige wird es geben, die es überhaupt nutzen. Mehrere APIs einzubauen macht wenig Sinn, der optische Unterschied dürfte zu gering sein.

Leonidas
2020-08-31, 05:45:14
Ampere soll RTX durch die Bank sein (bis GA107-Chip). Ab einem gewissen Zeitpunkt macht es auch keinen Sinn mehr, weiterhin zwei Feature-Gruppen zu pflegen.

Gast
2020-08-31, 19:13:52
Dass alles auch in Software möglich ist sollte klar sein. Die Frage ist nur ob Nvidia will:

Nvidia hat schon. Sowohl klein Turing als auch der Großteil von Pascal unterstützt RTX.

Mit Ausnahme der Tensor-Ops ist klein Turing vollständig Kompatibel zu groß Turing.

iamthebear
2020-08-31, 20:19:16
Ob es Sinn macht wird in erster Linie eine individuelle Entscheidung sein. Man darf nicht vergessen: Es gibt auch Leute, die mit 22" Monitor spielen und 1920x1080 und DLSS Performance sind das gerade einmal 960x540 interne Auflösung. Mit der gesteigerten RTX Leistung von Ampere und durch die Bank höhere Grundperformance ist auch bei den kleinen Karten ein paar RTX Effekte nicht ein großen Problem.

Ob es die paar Spiegeleffekte wert sind, ist wieder ein anderes Thema.

Gast
2020-09-01, 19:10:29
Ob es Sinn macht wird in erster Linie eine individuelle Entscheidung sein. Man darf nicht vergessen: Es gibt auch Leute, die mit 22" Monitor spielen und 1920x1080 und DLSS Performance sind das gerade einmal 960x540 interne Auflösung.

Wobei DLSS für gute Qualität anscheinend zumindest eine gewisse Mindestauflösung braucht.

In 4k kann man beispielsweise sogar Performance kaum von Quality unterscheiden, wogegen in FullHD Performance (was dann 960x540 Renderauflösung wäre) nicht mehr so wirklich gut aussieht.

Grob würde ich aus eigener Erfahrung sagen, dass DLSS mindestens FullHD als Renderauflösung verwenden sollte, dann sieht es richtig gut aus.