PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: RayTracing in Battlefield V läuft mit guten Frameraten a.a.d. Titan V


Leonidas
2019-01-02, 03:06:28
Link zur News:
https://www.3dcenter.org/news/raytracing-battlefield-v-laeuft-mit-guten-frameraten-auch-auf-der-titan-v

Lowkey
2019-01-02, 06:55:36
An der Stelle ist es interessant, dass die Redaktionen der Hardwaretester weltweit nicht das Kapital haben um die teuren Karten zu kaufen. Natürlich sind die Karten wegen des Preises für 99,9% User uninteressant. Wird sich der Trend hin zum Amazon-Kunden-Testbericht weiter verstärken?

Leonidas
2019-01-02, 07:10:57
Aber selbstverständlich. Der Zahn der Zeit wird vermutlich alles aushöhlen, was einstmals als Standard Gang und Gäbe war. Dauert halt nur seine Zeit.

pixeljetstream
2019-01-02, 08:51:37
Es wäre noch gut zu schreiben von welcher Karte die anderen Zahlen stammen.

Ätznatron
2019-01-02, 09:15:50
Dabei darf die eigentliche Aufregung gar nicht einmal dem Fakt gelten, das dies grundsätzlich funktioniert – denn dies sollte derart so sein, RayTracing über DirectX 12 funktioniert auch in einem Software-Modus, bedingt keine dedizierte Hardware.

Klar, jede "Hardwareverdrahtung" lässt sich in Software abbilden, insofern nichts Neues. Dazu braucht es hier nicht mal Volta.

Der Preis ist halt eben ein Geschwindigkeitsnachteil.

Und zumindest im "Rotterdam"-Level ist der Unterschied zwischen soft- und hardwarebasiert dann doch ziemlich deutlich.

Leonidas
2019-01-02, 09:27:04
Es wäre noch gut zu schreiben von welcher Karte die anderen Zahlen stammen.


Steht da - Titan RTX.

Redirion
2019-01-02, 09:39:28
im Computerbase-Forum wurde ein alter Artikel (2001) von 3DCenter verlinkt (https://www.computerbase.de/forum/threads/battlefield-v-auf-turing-durch-dlss-angeblich-mit-raytracing-so-schnell-wie-ohne.1845619/page-3#post-22108935).

Die RT-Cores werden wohl den gleichen Tod sterben wie andere Fixed Function Teile im GPU-Bereich (Hardware T&L, PhysX, AMD TrueAudio).

pixeljetstream
2019-01-02, 09:40:09
Steht da - Titan RTX.
Die battlefield Karte/Map meine ich. Einmal steht Rotterdam dabei, einmal nicht.

JVC
2019-01-02, 11:39:46
"Selbst wenn andere RayTracing-Ansätze (beispielsweise der noch ausstehende von AMD) primär auf die Shader-Einheiten setzen, dürften immer für gewisse Teile der RayTracing-Berechnung dedizierte Einheiten zur echten Beschleunigung sinnvoll und somit vonnöten sein."

Notwendig sind sie definitiv nicht.
Wie "sinnvoll" die RT Kerne sind (Platzbedarf/Kosten/Nutzen), weis man noch nicht.

Ich glaube schon das spezialisierte RT Cores efektiver sind,
vielleicht weniger Platz brauchen...

Wie viel effektiver ist eigentlich eine RT-Einheit gegenüber einer Shader-Einheit ?

m.f.g. JVC

hmmm
2019-01-02, 12:16:32
Wieviel "Shader" hätte eine Karte ohne "RT Cores" mehr? Wie optimiert ist "only Shader RT" in BFV?
Die Optimierung bis jetzt für rtx in BFV war ja hauptsächlich weniger RT.

Troyan
2019-01-02, 12:16:49
im Computerbase-Forum wurde ein alter Artikel (2001) von 3DCenter verlinkt (https://www.computerbase.de/forum/threads/battlefield-v-auf-turing-durch-dlss-angeblich-mit-raytracing-so-schnell-wie-ohne.1845619/page-3#post-22108935).

Die RT-Cores werden wohl den gleichen Tod sterben wie andere Fixed Function Teile im GPU-Bereich (Hardware T&L, PhysX, AMD TrueAudio).

Nö, werden sie nicht. Moores Law entschleunigt sich. Damit werden spezialisierte Cores viel bedeutender als früher.

Godmode
2019-01-02, 12:32:12
Del

Timbaloo
2019-01-02, 12:33:57
im Computerbase-Forum wurde ein alter Artikel (2001) von 3DCenter verlinkt (https://www.computerbase.de/forum/threads/battlefield-v-auf-turing-durch-dlss-angeblich-mit-raytracing-so-schnell-wie-ohne.1845619/page-3#post-22108935).

Die RT-Cores werden wohl den gleichen Tod sterben wie andere Fixed Function Teile im GPU-Bereich (Hardware T&L, PhysX, AMD TrueAudio).
Und warum soll das der Fall sein? Weil irgendein "Spezialist" aus dem Computerbase-Forum das meint? Wie wäre es mit einer Argumentation?

hmmm
2019-01-02, 12:39:19
Spezialisierte Cores müssen dann aber auch deutlich schneller sein, nicht nur im Teilergebnis wie hier sondern im Endergebnis (FPS).
Und eben da scheinen wir noch nicht zu sein. Noch sind mir die flexibleren Shader lieber. :)

Troyan
2019-01-02, 12:44:30
Also 10x schneller reicht nicht? Die Leute feiern hier doch schon Async-Compute für 10% Gewinn. Lmao.

aufkrawall
2019-01-02, 12:49:29
"10x" ist halt auch nur eine relative Angabe und somit ggf. völlig wertlos. Bisher gab es nur Reflexionen zu sehen, und das auch eher schlecht als recht. An der Grafik in BF5 gäbe es auch ohne RT so viel mehr zu verbessern, und das müsste nicht mal abartig teuer sein...

Troyan
2019-01-02, 12:55:10
Der Wert ist ein Maßstab zur Orientierung. Es kann auch viel höher sein. Es hängt einzig davon ab, was man macht.

Dazu kommt, dass für Raytracing auch das Speichersystem immens wichtig ist. Volta/Turing wurden hier gegenüber Pascal massiv ausgebaut.

JVC
2019-01-02, 13:38:50
Dazu kommt, dass für Raytracing auch das Speichersystem immens wichtig ist. Volta/Turing wurden hier gegenüber Pascal massiv ausgebaut.

Leider hat man vergessen die Speichermenge zu erhöhen ...

Aktives RT benötigt scheinbar viel zusätzlichen Speicherplatz,
wodurch die seit ~2016 nicht gestiegene Speichermenge, in meinen Augen,
doppelt ungünstig wirkt.

Gerade bei der Preisgestaltung hätte ich:
~8Gb für die 2060
~12Gb für die 2070/2080
~16Gb für die 2080Ti/Titan
erwartet.

Eben in Anbetracht dessen, das Ray-Tracing merklich mehr Grafikkartenspeicher benötigt.

m.f.g. JVC

p.s.: Für mich ist Tu. irgendwie nicht Fisch, nicht Fleisch ...
Ich hoffe das die 7nm Gpu´s dann wieder einmal für ordentliche Performancesprünge sorgen können :)

Redirion
2019-01-02, 13:43:57
Und warum soll das der Fall sein? Weil irgendein "Spezialist" aus dem Computerbase-Forum das meint? Wie wäre es mit einer Argumentation?

weil es die Geschichte uns lehrt?

Hardware T&L wurde ohne Ende gehypt, war aber bei DX7 schon nur optional und bei DX8 schon wieder durch programmierbare Pixel- und Vertexshader abgelöst.

Das gleiche gilt für die beiden anderen Beispiele von mir:
PPUs für PhysX gab es gerade mal rund 2 Jahre, bevor sie vom Markt verschwanden und durch GPU-Shader ersetzt wurden.
AMD hatte mit GCN2 einen Audio ASIC (TrueAudio). Mit GCN4 ist das nun auch über die Shader gelöst.

Keine dieser Beispiele hatte Bestand. Warum sollte es bei einem RT-ASIC anders sein?

Troyan
2019-01-02, 14:02:34
Weil RT Cores erheblich schneller sind. RTX2080TI ist bis zu 5x schneller als Volta, wenn man Schatten oder AO berechnen will. Um die selbe Leistung zu erreichen, kannst du 10 Jahre warten...

Aus dem selben Grund existieren alle anderen Fix-Function Einheiten seit 20 Jahren weiter. Sie sind viel zu effizient, um durch normale Recheneinheiten ersetzt zu werden.

Darkman.X
2019-01-02, 14:03:51
weil es die Geschichte uns lehrt?

Hardware T&L wurde ohne Ende gehypt, war aber bei DX7 schon nur optional und bei DX8 schon wieder durch programmierbare Pixel- und Vertexshader abgelöst.

Das gleiche gilt für die beiden anderen Beispiele von mir:
PPUs für PhysX gab es gerade mal rund 2 Jahre, bevor sie vom Markt verschwanden und durch GPU-Shader ersetzt wurden.
AMD hatte mit GCN2 einen Audio ASIC (TrueAudio). Mit GCN4 ist das nun auch über die Shader gelöst.

Keine dieser Beispiele hatte Bestand. Warum sollte es bei einem RT-ASIC anders sein?


Ich weiß nicht. Fast alle Beispiele sind aus einer Zeit, wo man noch starken Leistungswachstum für die Zukunft erwarten konnte. Man konnte also erwarten, dass generische Shader die Arbeit irgendwann übernehmen können. Aber das kann man Stand heute meiner Meinung nach für die Zukunft nicht mehr erwarten, es haben ja jetzt schon einige Hersteller Probleme mit 7/10 nm. Das wird zukünftig nur schwerer.

Die TITAN V kann schon mit 5120(?) Shader-Einheiten nicht mithalten (von den BF V-Benchmarks ausgehend). Und wir sind erst am Anfang von RT. Das ganze noch 4k-fähig machen und Leitungssteigerungen für einen intensiveren Einsatz in der Hinterhand haben, dann brauchst du mindestens (geschätzt/geraten) die 4-5x Shader-Menge/Power um die RT-Cores überflüssig zu machen. Woher sollen die kommen?

JVC
2019-01-02, 14:10:47
Die TITAN V kann schon mit 5120(?) Shader-Einheiten nicht mithalten (von den BF V-Benchmarks ausgehend). Und wir sind erst am Anfang von RT.

meine beste 2080Ti (ich hatte mehrere und einige auch gleichzeitig für nvlink)
braucht im mittel ein aufgebortes 380W bios und ne wasserkühlung um gegen volta @300W anzustinken.

2080Ti @380W H2O - 69fps
rtx titan @320W H2O - 69fps
titan V @300W H2O - 69fps


Sieht für mich eher so aus, wie wenn die 2080Ti mit ach und krach und wesentlich höherem Verbrauch, an die alte Titan-V heran kommen würde ...
Selbst die RTX Titan ist um ~7% "ineffizienter" (Performance/Watt) als die alte Titan-V.
( wenn man allen GPU´s die gleichen 380W und das gleiche Fertigungsverfahren ("12nm") gönnen könnte, wäre der Vorsprung der -V sicherlich noch offensichtlicher )

m.f.g. JVC

Timbaloo
2019-01-02, 14:38:42
Den Artikel hast aber schon gelesen? Oder liest du nur was dir ins Konzept passt?

Ex3cut3r
2019-01-02, 14:40:56
Bei alle ehre, aber Tobis Benchmarks sind eigentlich mit großer Vorsicht zu genießen, da er einfach den MP gebencht hat, und Reproduzierbarkeit gegen null geht. Es reicht schon aus, wenn man Rotterdam spielt, und es schon aufgrund des Dynamischen Wetters eine etwas andere Beleuchtung gibt.

Timbaloo
2019-01-02, 14:43:09
Da hast auch wieder recht.

Ex3cut3r
2019-01-02, 14:46:26
Da hast auch wieder recht.

;) Frohes neues, du hast aber auch nicht unrecht.

Desweiteren läuft DX12 auch einfach trotz High End CPU + RAM einfach unsauber im Vergleich zu DX11.

Screemer
2019-01-02, 14:46:42
Raff hatte ihm ja einen worst case im sp von bfV genannt. Dort gibt es bis auf die Nachkommastelle reproduzierbare Ergebnisse. Vielleicht bencht er ja die Stelle noch Mal nach. Das wäre dann wirklich aussagekräftig.

|MatMan|
2019-01-02, 14:58:22
weil es die Geschichte uns lehrt?

Hardware T&L wurde ohne Ende gehypt, war aber bei DX7 schon nur optional und bei DX8 schon wieder durch programmierbare Pixel- und Vertexshader abgelöst.

Das gleiche gilt für die beiden anderen Beispiele von mir:
PPUs für PhysX gab es gerade mal rund 2 Jahre, bevor sie vom Markt verschwanden und durch GPU-Shader ersetzt wurden.
AMD hatte mit GCN2 einen Audio ASIC (TrueAudio). Mit GCN4 ist das nun auch über die Shader gelöst.

Keine dieser Beispiele hatte Bestand. Warum sollte es bei einem RT-ASIC anders sein?
Ein Gegenbeispiel sind die Video De- und Encoder in CPUs und GPUs. Die werden von Generation zu Generation weiterentwickelt und nicht durch eine Lösung über die Shadereinheiten ersetzt (aus der Richtung kam man ja), eben weil diese extra Hardware dies viel energieeffizienter und schneller kann.
Energieeffizienz kann neben der reinen Geschwindigkeit auch ein Argument für RT-Cores sein. Wir wissen einfach zu wenig darüber. Wahrscheinlich sind die RT-Cores gar nicht so riesig und lohnen sich dadurch für Faktor 5-10 mehr Leistung. Das schlägt halt nur durch, wenn wirklich viele Strahlen zu tracen sind, also in den professionellen Anwendungen.

Dass die RT-Cores nicht soo wichtig für Spiele sind, ist doch an sich super positiv. Das erhöht die Chance RT-Effekte in den nächsten Konsolen zu bekommen, wenn die sowas wie Tensor Cores für das Denoising haben.

Gast
2019-01-02, 15:00:42
weil es die Geschichte uns lehrt?

Hardware T&L wurde ohne Ende gehypt, war aber bei DX7 schon nur optional und bei DX8 schon wieder durch programmierbare Pixel- und Vertexshader abgelöst.
... AMD hatte mit GCN2 einen Audio ASIC (TrueAudio). Mit GCN4 ist das nun auch über die Shader gelöst. ...

T&L wurde durch Vertex Shader ersetzt und Pixel Shader haben tbc ersetzt, da hast du Recht ..
Programmierbare Shader sind am Ende des Tages aber auch wieder "Hardware" ... nur halt programmierbare und flexibler einsetzbare Hardware. Wo liegt da also das Problem, es wird ja nichts wirklich mit Software emuliert und ist dadurch langsam und ineffizient ...

Einfache Surround-Sounds werden heute ohne Probleme von CPU's berechnet, früher hätte das noch ordentlich FPS gekostet + Microsoft hat dem ganzen böse mitgespielt.

TrueAudio ist inzw. tot, zu TrueAudio Next (Steam Audio) kann man noch wenig sagen und ich finde auch nicht gut dass das teils ordentlich fps kostet durch die 4*x CU's Blockierung.. Aber dass der Sound im Raum besser und flexibler werden sollte, ist schon lange überfällig, da könnte man ohne Probleme auf Software setzen und 2 CPU Kerne opfern oder halt CU's in der Grafikkarte, je nach Rechner.


Oder krasses Beispiel FÜR Hardwareimplementierungen sind Videos. Da willst du nicht in Software arbeiten...

Redirion
2019-01-02, 15:15:00
Den Artikel hast aber schon gelesen? Oder liest du nur was dir ins Konzept passt?

ganz schön harscher Ton, der da bei dir mitschwingt. Du verlangst, Aussagen argumentativ zu begründen. Das habe ich getan. Du bist an der Reihe. Bitte sage mir, was ich falsch verstanden habe.

Timbaloo
2019-01-02, 15:18:48
ganz schön harscher Ton, der da bei dir mitschwingt. Du verlangst, Aussagen argumentativ zu begründen. Das habe ich getan. Du bist an der Reihe. Bitte sage mir, was ich falsch verstanden habe.
Der von dir zitierte Post bezog sich eindeutig nicht auf dich. Das hast du zum Beispiel falsch verstanden.

Leonidas
2019-01-02, 15:21:02
Die battlefield Karte/Map meine ich. Einmal steht Rotterdam dabei, einmal nicht.


Mißverständnis, hatte das Wort "Karte" anders aufgefasst. Weiss ich aber leider nicht.





Wie viel effektiver ist eigentlich eine RT-Einheit gegenüber einer Shader-Einheit ?



Das ist die große Preisfrage.

pixeljetstream
2019-01-02, 15:25:11
Der gute alte Rasterizer ist auch noch fixed function, und alles drum herum was Datenfluss, Arbeitsteilung, scheduling etc. angeht. Texture Units gibt's auch immer noch ;) Tiled Caching, binning rasterizer etc. alles war nicht der Rede wert, aber nun wird die Lupe ausgepackt.
Imo zeigen die pica pica werte von SEED ganz gut die Vorteile von Turing vs Volta.

Timbaloo
2019-01-02, 15:35:56
https://www.chaosgroup.com/blog/what-does-the-new-nvidia-rtx-hardware-mean-for-ray-tracing-gpu-rendering-v-ray

Der Artikel dürfte dem ein oder anderen ein wenig beim Verständnis helfen.

Der_Korken
2019-01-02, 16:21:22
Interessant. Ich habe mich schon seit Release gefragt, wie sich alle non-Turing-Karten in RT schlagen würden, wenn sie die Arbeit der RT-Cores über die normalen ALUs schieben. Das Shading kostet ja nach wie vor viel Rechenzeit.

Vielleicht wandern Schnittpunkt-Berechnungen zwischen Gerade und Dreieck auch als Spezial-Operationen in die normalen ALUs, die das dann in einem Takt durchjagen können, ohne daraus drölfzig Additionen und Multiplikationen zu machen.

pixeljetstream
2019-01-02, 16:39:15
Es geht bei den HW units nicht so sehr um Ray/ "ein" Triangle Test, diese Mathematik ist nicht so schlimm. Es geht mehr um bvh traversal und dass die unit bei nem "near miss" selbst weiter machen kann den treffer zu suchen async zum Rest. Das ist auch so im whitepaper illustriert. Es hat etwas mehr von einem Texturzugriff, der auch die "fertigen" (dekomprimiert & interpoliert) Daten zurückgibt.

Gast
2019-01-02, 17:34:14
Wenn man die 3 Jahre alte Konkurrenz von IMG zum Vergleich nimmt, müsste Turing (100-facher Verbrauch bei etwa gleicher RT-Performance wie der 28nm Raytracer von IMG) eigentlich viel schneller/effizienter beim Raytracing sein. Im DXR-Benchmark ist Turing aber nur ~5x schneller gegenüber Pascal und in der Praxis kommt davon offenbar weniger als die Hälfte an.

Auch bei Render-Software ist Turing noch weit von der versprochenen RT-Beschleunigung entfernt:
"In our testing, the RTX 2080 Ti scored 360 in Octane bench, almost 80% faster than the GTX 1080 Ti. Without RT acceleration, the RTX 2080 Ti is about 40% faster than the GTX 1080 Ti on CUDA core performance alone."
https://www.forbes.com/sites/moorinsights/2018/09/25/nvidia-geforce-rtx-2080-2080-ti-very-fast-with-untapped-potential/

PS: Unter "Software-RayTracing" versteht man eigentlich CPU-Raytracing und nicht GPGPU-Raytracing, wie es bei den TitanV-Benchmarks der Fall ist.

hmmm
2019-01-02, 17:53:21
@pixeljetstream
Hier geht doch niemand etwas mit der Lupe suchen.
Nur, wenn man sich BFv so anschaut und dann die "10 GigaRays/Sec" sucht, dann "findet" man die eben nicht. Hybrid-Rendering MIT "10 GigaRays/Sec" scheint so nicht möglich.

Nvidia könnte die "RTX API" (auch Beta) und die "RTX SoftwareImplementierung" veröffentlichen, dann wird uns das alles klar sein. :)

pixeljetstream
2019-01-02, 19:17:47
Okay. Das tracing selbst ist deutlich flotter, was man ja zbsp anhand pica pica Daten, star wars demo, Rotterdam werten sieht, ergo lohnt es sich schon dafür dedizierte HW zu bauen. Darum geht es mir, das man als solches in Frage stellt dass sich spezialisierte Units nicht lohnen, was ich eben als übertrieben empfinde gerade weil die Chips voll davon sind.

Was die grundsätzliche Performance von RT in Spielen/Erwartungshaltung etc. angeht so ist das imo eine andere Diskussion wo es weniger um die konkrete Umsetzung, als das "warum überhaupt" geht. Das ist imo mehr dem schleppenden Start (ein Titel muß bei Gaming für alles herhalten) als der Technik selbst geschuldet. Und wie Du meinst da brauch man keine Lupe.

Hoffe der Unterschied zwischen beiden Themen ist nachvollziehbar? Vielleicht bin ich da zu sehr Techniker.

Ich persönlich fand die 10 Gigarays auch suboptimal, und hab mich auch hier so geäußert, weil das von zu vielen Faktoren abhängt. Das ist das gleiche wie mit anderen datenabhängigen Durchsatzwerten.

Freestaler
2019-01-02, 19:39:46
Ja, jedoch sind wir doch auch mit dedizierte HW Einheiten nicht nur 2 oder 3 Generation von vollwertigen (nicht nur Spiegelungeb) "live" Raytracing weg (mmn. min. Fullhd 60fps). Da sind wir seit 20 Jahren auf der Reise. Und daher ist mmn. die Frage legitim, ob nun wo man Fertigungstechnisch an grenzen stöst, wirklich fläche für nur eine Aufgabe drauf gehen lassen muss. Und dies immer im Bezug gaming. Den auch hier muss man offensichtlich die nächsten Jahren genau gleich "bescheissen" um genung Leistung zu finden.

pixeljetstream
2019-01-02, 19:57:03
Ja, jedoch sind wir doch auch mit dedizierte HW Einheiten nicht nur 2 oder 3 Generation von vollwertigen (nicht nur Spiegelungeb) "live" Raytracing weg (mmn. min. Fullhd 60fps). Da sind wir seit 20 Jahren auf der Reise. Und daher ist mmn. die Frage legitim, ob nun wo man Fertigungstechnisch an grenzen stöst, wirklich fläche für nur eine Aufgabe drauf gehen lassen muss. Und dies immer im Bezug gaming. Den auch hier muss man offensichtlich die nächsten Jahren genau gleich "bescheissen" um genung Leistung zu finden.
Evolution über Iterationen müsste doch auf einem technisch orientiertem Forum klar sein? Erste Version einer API etc. Die Evolution beim rasterizer/generisches compute (was unter Volta/Turing besonders zulegte) geht ja auch immer noch weiter, nur halt zäher. Bei raytracing/ai sind die Sprünge leichter im Verhältnis zur Fläche.
Wie viele Iterationen es braucht um vollends akzeptiert zu sein, wird man sehen, ist ja recht subjektiv.

Ich war nicht auf der Gamescom, aber auf der Siggraph und bei den Leuten dort kam das ganze gut an. Kritik hier und da eher an API Design weniger am Sinn es in HW zu gießen. Aber hier konnten die Anwesenden vermutlich besser das Marketing rausfiltern ;)

Real-Time wird immer die hohe Kunst der trickserei bleiben, der Inhalt der Werkzeugkiste ändert sich halt über die Jahre :)

Gast
2019-01-02, 20:44:58
Bei der endgültigen Performance des Raytracing ist auch immer die Frage was limitiert.

Die dezidierten RT-Cores beschleunigen bzw. machen ja nur die Suche im BVH-Tree nebenläufig.

Das ganze shading muss ja weiterhin in den herkömmlichen ALUs gemacht werden.

Auch der Aufbau des BVH-Trees muss anderwertig passieren.

Wenn jetzt nicht die Suche im BVH-Tree der performancelimitierende Faktor ist, ist auch logisch, dass die GPU mit dezidierter Hardware um dieses zu beschleunigen sich nicht besonders absetzen kann.

Andererseits zeigt es aber auch, das Raytracing in Battlefield V noch reichlich supotimal ist, wenn man das beispielsweise mit dem Performanceunterschied in der Starwars-Demo vergleicht.

Freestaler
2019-01-02, 20:49:37
Als ehemaliger 3Dler (Konstrukteur) ist mir klar warum man auf der Siggraph abgeilt. Raytracing hat sich ja schon lange durch gesetzt (das war im letzten Jarhtausend! Software Raytracing mit UG (Ideas), 30min bis 90min ein Bild, Dual Pentium Pro, eine Seite im Katalog). Da red ich nicht drum rum. Die neue Quadro kannst da abfeiern. Das ganze nun "live" ind er Vorschau bereits korrekt. Geile Sache.

Nur wir schauen im Moment doch als Gamer auf die Chips. Und ich sehe pers. nicht, das wir auch nur schon mit einer RTX 6000er. dann genung Power für volles Raytracing haben werden. Die Chipfläche gibt das auch mit 3nm nicht her. Und da die Fläche beschränkt bleiben wird, sehe ich fixe "Zuweisung" als suboptimal an.

Und ganz ehrlich, Spiegelung sind mir egal, für korrekte Beleuchtung und Ausleuchtung feiere ich dann Raytracing auch in EgoShooter ab. Das wird geil.

Troyan
2019-01-02, 20:52:29
Volles Raytracing ist auch so eine sinnlose Aussage. Was ist denn "volles Raytracing" bitte? 1 SPP? Damit will doch niemand spielen.

Davon abgesehen schafft eine 2080TI schon "volles Raytracing" in 1080p mit 30FPS: https://www.chaosgroup.com/blog/profiling-the-nvidia-rtx-cards

Timbaloo
2019-01-02, 20:57:36
Und ganz ehrlich, Spiegelung sind mir egal, für korrekte Beleuchtung und Ausleuchtung feiere ich dann Raytracing auch in EgoShooter ab. Das wird geil.
Geht mir ähnlich. Weswegen ich immer noch der Meinung bin, dass BF V kein gutes Demoobjekt für RTX ist (auch wenn Troyan das wieder nicht gerne hören wird :D). Enlisted/Gaijin dagegen macht das imho genau richtig. GI und Schatten. Keine überzogene und verspielte Effekthascherei. Ich hoffe da hört man bald wieder was von, ist derzeit etwas ruhig...

pixeljetstream
2019-01-02, 21:04:45
@Troyan 1SPP ist genau das womit man meist spielt, der Rest macht der denoiser ;)
Bei dem verlinkten Artikel waren die "vollen" offline raytracer im Sekunden Bereich und dann halt sehr viele Strahlen.

Troyan
2019-01-02, 21:13:02
Denoising ist jedoch auch nur eine Trickserei.

In BF5 erhält man mit "Ultra"-Einstellung bis zu 40% Rays basierend auf der Pixelanzahl. Man erhält also "volles Raytracing" solange die Flächen ingesamt nicht 40% überschreiten.

Freestaler
2019-01-02, 22:15:58
@Troyan, die Beispiele in deinem Link sind weit von 30fps (max.33ms) weg. Die DXR Beispiele sind zudem stark vereinfacht, Auflösung unbekannt usw. Wenn das mit FullHD und 30FPS gehen wurde, dann wäre dies im Minimum im BF V so zu sehen.

Ich bin mir sicher, du weißt, dass in BF V bei weitem nicht alles was Licht ist per Raytracing berechnet wird. Und ich bin mir auch sicher, dass genau ahnst was mit vollem Raytracing gemeint ist. Definitiv nicht dein 40% Beispiel und deren Spiegelungen. Du willst mich missverstehen und RTX in den Himmel loben.

Wenn du schon mich falsch verstehen willst, dann hör wenigsten auf die anderen. Die haben ahnung und ua. auch auf der Lohnliste von NV.

][immy
2019-01-03, 01:42:01
Normalerweise sollte die softwareemulation seitens dx12 rein cpu basiert sein.
Könnte auch erklären warum mit rtx due karten weniger Energie benötigen und die cpu Anforderungen stark steigen. Aktuell läuft wohl noch viel "unbeschleunigt" auf der cpu und ohne rt cores dann alles.
Wenn dem so ist dürfte der energiebedarf der titan v noch weiter abfallen als die der rtx karte.

Wenn dem so ist dürfte 7nm mit dieser art des ray tracings durch noch mehr cpu kernen deutlich besser laufen. Das könnte auch erklären warum amd bisher nicht den weg der extra hardware auf den karten gehen wollte.
Und wenn sich da was über die shader realisieren lassen würde, könnte das für die relativ schlecht ausgelastete gcn arch ein segen sein (zumindest bei den großen karten).

Der performancevorsprung in turing kann auch an der verbesserten arch liegen, wo die shader einfach besser mit dem workload umgehen können ohne nutzung der rt cores.
Wie dem auch sei, die rt cores werden immer mehr zu einem marketing gag. Im besten fall ist der nutzen einfach nicht so groß wie uns nvidia bisher klar machen wollte.

Okay. Das tracing selbst ist deutlich flotter, was man ja zbsp anhand pica pica Daten, star wars demo, Rotterdam werten sieht, ergo lohnt es sich schon dafür dedizierte HW zu bauen. Darum geht es mir, das man als solches in Frage stellt dass sich spezialisierte Units nicht lohnen, was ich eben als übertrieben empfinde gerade weil die Chips voll davon sind.

Was die grundsätzliche Performance von RT in Spielen/Erwartungshaltung etc. angeht so ist das imo eine andere Diskussion wo es weniger um die konkrete Umsetzung, als das "warum überhaupt" geht. Das ist imo mehr dem schleppenden Start (ein Titel muß bei Gaming für alles herhalten) als der Technik selbst geschuldet. Und wie Du meinst da brauch man keine Lupe.

Hoffe der Unterschied zwischen beiden Themen ist nachvollziehbar? Vielleicht bin ich da zu sehr Techniker.

Ich persönlich fand die 10 Gigarays auch suboptimal, und hab mich auch hier so geäußert, weil das von zu vielen Faktoren abhängt. Das ist das gleiche wie mit anderen datenabhängigen Durchsatzwerten.

Und genau da lohnt extra hardware nur für den einen zweck nicht, da sie halt bei allem anderen nutzlos wäre. Daher sind ja shader einheiten so beliebt, zwar nicht immer optimal geeignet, aber man kann die inzwischen für alles mögliche einsetzen. Dadurch lässt sich einfach skalieren und viele Fälle lassen sich mit der gleichen hardware abdecken und beschleunigen. Es muss wirklich erhebliche Vorteile geben bis es dich lohnt etwas extra in hardware zu gießen.
Gut grundsätzlich sind die rt cores auch nur kleine rechenwerke ...

BeetleatWar1977
2019-01-03, 05:42:25
Das Fallback geht über Compute-Shader, wenn jemand viel Zeit und Muse hat: https://github.com/Microsoft/DirectXShaderCompiler/tree/master/lib/DxrFallback

pixeljetstream
2019-01-03, 09:11:28
Die titanv benutzt nicht das MS Fallback, sondern hat eine eigene Implementierung, ebenfalls via compute shader.
Eine CPU implementierung bei dedizierter gpu wäre fatal wegen der Synchronisation zwischen gpu und CPU, man würde diese auch in gpuview sehen. Mit Optix und radeonrays haben beide gpu Hersteller seit Jahren Apis die zeigen dass man flotter als CPUs ist.

TobiWahnKenobi
2019-01-03, 10:56:39
Bei alle ehre, aber Tobis Benchmarks sind eigentlich mit großer Vorsicht zu genießen, da er einfach den MP gebencht hat, und Reproduzierbarkeit gegen null geht. Es reicht schon aus, wenn man Rotterdam spielt, und es schon aufgrund des Dynamischen Wetters eine etwas andere Beleuchtung gibt.

guter hinweis! als ich gesagt habe, dass ich BFV auf der titan v gut mit rtx-on spielen kann, ging es in keinster weise darum, in dem spiel irgendwo worstcases zu suchen, wo die titan rtx von 100 auf 50fps einbricht oder die titan v von 80 auf 40. es wäre auch wider meiner natur x-100-euro für hard- und software auszugeben, nur um dann die stellen zu suchen, die den spaß daran vergrätzen. :biggrin: ist auch viel zu zeitaufwendig. ich habe lediglich gute spielbarkeit angemerkt und meine einstellung zur laufzeit des spiels mitgefrapst.. thats all.

das RTX in BFV sehe ich eher als mittel zum zweck, um ssr loszuwerden. das kann nämlich vergleichbar nervig auffallen, wie anno dunnemals die af-bugwelle. mit der einstellung hoch ist die alte titan gut dabei. wer viel auf den problematischen maps spielt, geht halt auf rtx-mittel runter; das ist kein dramatischer einschnitt und trotzdem hübscher als ssr.

was jetzt das auffinden der worstcases samt gegenüberstellungen angeht, so wäre ich nicht uninteressiert, es irgendwo zu lesen - wenn ich aufm klo sitze oder so - aber das jetzt selbst zu basteln ist im moment nicht meine baustelle. ich habe keine ahnung, wann ich das machen soll.



(..)

mfg
tobi

Gast
2019-01-03, 16:32:06
100% Raytracing in Echtzeit ist das hier (1080p@20fps) (https://www.youtube.com/watch?v=uxE2SYDHFtQ).

Würde man den Raytracer von IMG auf die gleiche Chipgröße wie Turing mit 12nm und 1800 Mhz skalieren, hätte man etwa die 50x RT-Leistung. In 7nm bekäme man etwa 200x RT-Leistung und damit ca. 480 Rays pro Pixel bei 60fps in 1080p. Wenn das noch nicht reichen würde, könnte man entsprechend mehr davon verbauen. In ein HEDT-System könnten sogar 8 Chips (https://www.youtube.com/watch?v=Zw3vwCBOjQ0) passen und man wäre bei ca. 3840 Rays per Pixel bei 60fps in 1080p.

Ex3cut3r
2019-01-03, 19:53:16
guter hinweis! als ich gesagt habe, dass ich BFV auf der titan v gut mit rtx-on spielen kann, ging es in keinster weise darum, in dem spiel irgendwo worstcases zu suchen, wo die titan rtx von 100 auf 50fps einbricht oder die titan v von 80 auf 40. es wäre auch wider meiner natur x-100-euro für hard- und software auszugeben, nur um dann die stellen zu suchen, die den spaß daran vergrätzen. :biggrin: ist auch viel zu zeitaufwendig. ich habe lediglich gute spielbarkeit angemerkt und meine einstellung zur laufzeit des spiels mitgefrapst.. thats all.

das RTX in BFV sehe ich eher als mittel zum zweck, um ssr loszuwerden. das kann nämlich vergleichbar nervig auffallen, wie anno dunnemals die af-bugwelle. mit der einstellung hoch ist die alte titan gut dabei. wer viel auf den problematischen maps spielt, geht halt auf rtx-mittel runter; das ist kein dramatischer einschnitt und trotzdem hübscher als ssr.

was jetzt das auffinden der worstcases samt gegenüberstellungen angeht, so wäre ich nicht uninteressiert, es irgendwo zu lesen - wenn ich aufm klo sitze oder so - aber das jetzt selbst zu basteln ist im moment nicht meine baustelle. ich habe keine ahnung, wann ich das machen soll.



(..)

mfg
tobi

Ist auch alles legitim, mache dir auch überhaupt keinen Vorwurf! Im gegenteil sehr löblich von dir zu benchen, aber super ernst sollte man die Ergebnisse wahrscheinlich nicht nehmen. Es zeigt eine gewisse Richtung, gewiss. :wink:

TobiWahnKenobi
2019-01-03, 20:51:41
ich habe heute trotzdem mal auf die schnelle in den SP reingeschaut und die franzosenmission beäugt.. die, die raff erwähnte.

tirailleur, checkpoint "schalte die geschützte bei schanze 66 aus" ein paar minuten auf der titan v mitgefrapst.. dann durfte ich den fernseher wieder an andere familienmitglieder abtreten :-P ist halt ne doofe uhrzeit für ballerspiele im wohnzimmer..


03-01-2019, 20:30:38 bfv.exe benchmark completed, 17411 frames rendered in 221.062 s (GV100, SP, WQHD, ultra, DXR mittel)
Average framerate : 78.7 FPS
Minimum framerate : 54.2 FPS
Maximum framerate : 105.4 FPS

03-01-2019, 20:40:35 bfv.exe benchmark completed, 26493 frames rendered in 476.359 s (GV100, SP, UHD, ultra, DXR mittel)
Average framerate : 55.6 FPS
Minimum framerate : 39.4 FPS
Maximum framerate : 77.0 FPS

edit
und auf die schnelle auch noch TREX im selben abschnitt

04-01-2019, 10:40:52 bfv.exe benchmark completed, 35359 frames rendered in 378.406 s (TREX, SP, WQHD, ultra, DXR mittel)
Average framerate : 93.4 FPS
Minimum framerate : 76.5 FPS
Maximum framerate : 118.1 FPS


(..)

mfg
tobi

Gast
2019-01-03, 22:38:04
100% Raytracing in Echtzeit ist das hier (1080p@20fps) (https://www.youtube.com/watch?v=uxE2SYDHFtQ).

Würde man den Raytracer von IMG auf die gleiche Chipgröße wie Turing mit 12nm und 1800 Mhz skalieren, hätte man etwa die 50x RT-Leistung. In 7nm bekäme man etwa 200x RT-Leistung und damit ca. 480 Rays pro Pixel bei 60fps in 1080p. Wenn das noch nicht reichen würde, könnte man entsprechend mehr davon verbauen. In ein HEDT-System könnten sogar 8 Chips (https://www.youtube.com/watch?v=Zw3vwCBOjQ0) passen und man wäre bei ca. 3840 Rays per Pixel bei 60fps in 1080p.

Und schonwieder der selbe Schwachsinn zum IMG Prototyp der nie wirklich erschienen ist. Ich weiß garnicht wo ich da anfangen soll.


Turing besteht bei weitem nicht nur aus RT Einheiten da mit der Flächen um sich zu werfen und diese 1:1 zu vergleichen um dann zu extrapolieren ist grober Unfug.
Desweiteren skalieren Designs nicht linear mit der Größe, das ist der selbe falsche Ansatz den Leute machen wenn sie die Performance von nem Arm V8 soc der 3W braucht auf komplexe CPUs hochrechnen und dann Behauptung das alles viel besser sein wurde mit den Dingern .

Ich Frage dich warum macht's dann keiner und warum saufen arm Server CPUs ähnlich viel wie klassische xeons bei vergleichbarer Leistung ohne deren Kompatibilität mitzubringen ?

Schau dir Mal die leistungsaufnahme einer Turing mit und ohne die Benutzung der RT Cores an , da siehst du was die ca. Saufen und das ist ein winziger Bruchteil vom ganzen powerbuget.

Wenn das was du hier in jedem 2. Turing Threads immer postulierst stimmen würde dann frag ich dich warum das Ding in der Versenkung verschwand und nicht weiterentwickelt und einfach nach oben skaliert wurde weil's ja so einfach ist.denn dafür gab es auch damals schon den Markt und die Nachfrage.

JVC
2019-01-04, 11:19:17
... dann frag ich dich warum das Ding in der Versenkung verschwand und nicht weiterentwickelt und einfach nach oben skaliert wurde weil's ja so einfach ist.denn dafür gab es auch damals schon den Markt und die Nachfrage.
Soviel ich weis, hat NV das doch gekauft ?
( so wie PhysX )

Und ganz ehrlich, Spiegelung sind mir egal, für korrekte Beleuchtung und Ausleuchtung feiere ich dann Raytracing auch in EgoShooter ab. Das wird geil.
Das "spiegelt" auch meine Meinung wieder ;)

Völlig egal sind mir Spiegelungen zwar nicht, aber Beleuchtung und Schatten für die Stimmung, sind auch mir wichtiger.
( das bis jetzt gezeigte an Spiegelungen begeistert mich nicht wirklich, wirkt auf mich eher unrealistisch/ungewohnt ... )

m.f.g. JVC

p.s.: Die einzigen Spiegelungen die ich jeden Tag sehe, bewusst wahrnehme und auch nutze ... sind Spiegel.
Die restlichen Spiegelungen, die wir im im Alltag wahrnehmen, sind eher störend.
( spiegelnder Bildschirm, blendendes/spiegelndes beim Autofahren(z.b.nasser schwarzer Asphalt, tiefe sonne)...)

TobiWahnKenobi
2019-01-04, 14:56:49
ich bin viel draußen, weil ich hunde habe. ich schaue schon immer auf spiegelungen.. auf und von meinem auto.. auf wasser und eisflächen.. seit RTX mehr denn je. das sieht schon echt gut aus.


(..)

mfg
tobi

Gast
2019-01-04, 16:22:30
Soviel ich weis, hat NV das doch gekauft ?
( so wie PhysX )

Das wäre mir neu, wo hast du das her ?

Die wurden 2017 gekauft nachdem Apple ausgestiegen ist aber nicht von NV,

Quelle Wiki: "On 22 June 2017, Imagination Technologies' board of directors announced it was putting the entire company up for sale[32] and, on 25 September 2017, the board of directors announced that the company was being acquired by Canyon Bridge, a China-aligned private equity fund.[33] In November 2017 the sale to Canyon Bridge was approved in a transaction which valued the business at £550 million (£1.82 per share)."

Ihre RT Tech ist liezensierbar , NVIDIA aber nicht aufgeführt.
Im übrigen frass allein schon das DEMOboard das 2016 gezeigt wurde mehr als 3 mal soviel wie die 3W des reinen RT Chips was ja ganz normal ist, gibt aber no grobe Idee das solche Designs nicht linear skalieren umso komplexer sie werden.

Gast
2019-01-04, 18:11:44
Schwachsinn
...
grober Unfug

Wenn das jemand verbreitet, dann offensichtlich du. Du versuchst verzweifelt davon abzulenken, dass Nvidia für die ca. gleiche RT Performance 100-fachen Verbrauch benötigt. Dich stört offenbar, dass das Nvidia alt aussehen läßt. Deswegen reagierst du so unsachlich. Dass die dedizierte RT Hardware von Nvidia in der Praxis nur ~2x effizienter als die Nutzung von GPGPU-Raytracing bei Pascal ist, zeigt aber auch unabhängig davon deren niedrige Effizienz. Informiere dich mal darüber, welche Effizienzsteigerungen dedizierte Hardware in anderen Bereichen erzielt. Auch ignorierst du, dass Nvidia über ein Vielfaches an Ressourcen, die bessere Fertigung und mehr Zeit verfügt hat als IMG.

Deine Ausreden zeigen, dass du dich nicht informiert hast. Der Chip von IMG besteht auch nicht nur aus RT Einheiten. Dass das Design linear skaliert, habe ich überhaupt nicht vorrausgesetzt. Du baust da einen Strohmann. Auch handelt es sich nicht um eine CPU, die natürlich viel schlechter skaliert, sondern um eine GPU.

Der Grund dafür, dass es diesen Raytracer im Gegensatz zum Vorgänger nicht zu kaufen gab, ist das zweifelhafte Geschäftsgebaren von Apple. Dadurch hat IMG die Hälfte seiner Einnahmen verloren. Ob daran weiter gearbeitet wird, ist unbekannt. Allerdings sollen einige Mitarbeiter, die daran gearbeitet haben, jetzt bei AMD sein.

JVC
2019-01-05, 16:36:41
ich bin viel draußen, weil ich hunde habe. ich schaue schon immer auf spiegelungen.. auf und von meinem auto.. auf wasser und eisflächen.. seit RTX mehr denn je. das sieht schon echt gut aus.
Klar, es gibt viele Spiegelungen in der Umwelt.
Einige davon sind zwar schön, aber die Meisten eben nicht nützlich ...
(manche behindern/blenden einen sogar)

Wahrscheinlich ist es Geschmackssache.
Ich brauche auf jeden fall keine übertrieben störenden Spiegelungen in Spielen.
( es ist eben die Frage, ob man wie in Echt alles spiegelt was eben spiegeln kann,
oder ob man eben, dem Spieler zuliebe, auf "unangenehme Spiegelungen" verzichten soll )

In BFV z.b. wirken für mich viele Spiegelungen wie wenn die
spiegelnde Fläche gerade eben noch auf Hochglanz poliert worden wäre ...
Auch Pfützen wirken oft so als ob sie total klares Wasser beinhalten würden
und die 100% plane Oberfläche kein Lüftchen trüben könnte.
( beides ist für mich nicht realistisch, schon gar nicht in einem Kriegsgebiet )

Gerade bei Egoshootern sind wir vermutlich sehr schnell an dem Punkt,
wo manche "Grafik Details" reduzieren/deaktivieren um dadurch "Vorteile" zu erlangen...
( gibt sicher jetzt schon RTX Besitzer die RT in BFV absichtlich nicht aktivieren )

The Witcher 3 könnte ich mir z.b. viel besser für RT vorstellen.
Auch jedes andere Spiel bei dem es "gemütlicher" zur Sache geht
und man Zeit hat um die Umgebung optisch etwas zu genießen.

Das bis jetzt gezeigte RT wirkt mir noch zu "künstlich/steril/intensiv/übertrieben...".
In der Natur erreicht eine Spiegelung qualitativ auch nicht das Original,
also sollte auch in Spielen die spiegelnde Oberfläche, je nach "Verschmutzungsgrad",
matter, stumpfer, blasser, unschärfer ... einfach weniger stark reflektieren.

Naja mal abwarten wie sich RT so entwickelt und wie es die Konkurenz löst :wink:
( NV´s Extra "RT-Kerne" sind wahrscheinlich patentiert ? )

m.f.g. JVC

Gast
2019-01-05, 16:42:55
Wenn das jemand verbreitet, dann offensichtlich du. Du versuchst verzweifelt davon abzulenken, dass Nvidia für die ca. gleiche RT Performance 100-fachen Verbrauch benötigt. Dich stört offenbar, dass das Nvidia alt aussehen läßt. Deswegen reagierst du so unsachlich. Dass die dedizierte RT Hardware von Nvidia in der Praxis nur ~2x effizienter als die Nutzung von GPGPU-Raytracing bei Pascal ist, zeigt aber auch unabhängig davon deren niedrige Effizienz. Informiere dich mal darüber, welche Effizienzsteigerungen dedizierte Hardware in anderen Bereichen erzielt. Auch ignorierst du, dass Nvidia über ein Vielfaches an Ressourcen, die bessere Fertigung und mehr Zeit verfügt hat als IMG.

Deine Ausreden zeigen, dass du dich nicht informiert hast. Der Chip von IMG besteht auch nicht nur aus RT Einheiten. Dass das Design linear skaliert, habe ich überhaupt nicht vorrausgesetzt. Du baust da einen Strohmann. Auch handelt es sich nicht um eine CPU, die natürlich viel schlechter skaliert, sondern um eine GPU.

Der Grund dafür, dass es diesen Raytracer im Gegensatz zum Vorgänger nicht zu kaufen gab, ist das zweifelhafte Geschäftsgebaren von Apple. Dadurch hat IMG die Hälfte seiner Einnahmen verloren. Ob daran weiter gearbeitet wird, ist unbekannt. Allerdings sollen einige Mitarbeiter, die daran gearbeitet haben, jetzt bei AMD sein.

Nvidia ist mir herzlich egal mir gehts um die Technik bitte lass den Fanboymist draussen.

Was ist so schwer daran zu verstehen das die 260W der 2080Ti als Systempower ungleich der Leistung sind die für RT benötigt wird !? --> daher auch der Verweis auf das Systemboard von 2016 das ohne etwas an der RT Performance zu ändern einfach mal der Verbrauch um den Faktor 3,333 hochgeschraubt hat um ausser ein paar fixed Fuktioneinheiten für RT einen funktionierenden Beschleuniger mit allem was dazu gehört präsentieren zu können.
Beim Upscaling in die höheren gewünschte Leistungklassen wird sich das noch potenziert ( mehr speicherbranbreite etc. ) da nicht nur stumpf die RT Einheiten erhöht werden können sondern auch der Rest mit wachsen muss.

Man kann sich jetz weiter im Kreis drehen und behaupten nein das Ding währe viel sparsamer auch in groß etc. PP ,Fakt ist man kann es nicht prüfen weil nicht erhältlich genauso wenig wie die gezeigten Demos verfügbar um einen Direktverglich zu ermöglichen.

Bisher sieht man für Turing lediglich das RTX on nicht das Powerbuget sprengt also die aktiven Einheiten neben dem Herkömmlichen Geraffel mit ins Power Buget passen und dementsprechen schon rein logisch deutlich weniger als die kolpotierten 260W verbraten können.

Vray gpu wird für Turing endlich Fakten liefern existiert aber erst als interner Build.

Klevapalis
2019-01-05, 17:30:18
In BFV z.b. wirken für mich viele Spiegelungen wie wenn die
spiegelnde Fläche gerade eben noch auf Hochglanz poliert worden wäre ...
Auch Pfützen wirken oft so als ob sie total klares Wasser beinhalten würden
und die 100% plane Oberfläche kein Lüftchen trüben könnte.
( beides ist für mich nicht realistisch, schon gar nicht in einem Kriegsgebiet )
Wer sowas behauptet, der hat offensichtlich RT nie in Aktion gesehen, sondern will einfach nur Trollen.

Gerade die Wasseroberflächen sind es, die mit RT 1000% realistischer sind, als die auch schon sehr guten SSR. Ist ja nicht so, als wäre BFV ohne RT nicht wegweisend.

aufkrawall
2019-01-05, 17:39:16
Die SSR in Frostbite sind komplett ineffizienter Müll.

JVC
2019-01-05, 18:30:18
Wer sowas behauptet, der hat offensichtlich RT nie in Aktion gesehen, sondern will einfach nur Trollen.

Gerade die Wasseroberflächen sind es, die mit RT 1000% realistischer sind, als die auch schon sehr guten SSR. Ist ja nicht so, als wäre BFV ohne RT nicht wegweisend.

Stimmt, kenne die RT Sachen nur aus Videos und Screens ...
Außerdem hab ich extra geschrieben, das es Geschmackssache ist ;)

Mir sind die Spiegelungen hald teilweise zu "steril" ...
ka wie ich das sonnst verständlich ausdrücken soll...

Mir würde es z.b. besser gefallen wenn die Spiegelungen ~10-20%
weniger Schärfe und/oder Farbsättigung aufweisen würden als das Original.
( saubere Spiegel ausgenommen im Spiel )
Ein "mattungs-regler" für "glänziges" wäre eine feine Sache
und würde jedem was bringen :smile:
( es sollen nicht weniger Flächen spiegeln, nur etwas weniger intensiv könnte es teilweise sein )

Spricht doch nichts gegen eine solche zusätzliche Einstellmöglichkeit unter den Grafikoptionen ?

m.f.g. JVC

Klevapalis
2019-01-05, 18:47:03
Stimmt, kenne die RT Sachen nur aus Videos und Screens ...
Vielleicht sollte man etwas erstmal selbst ausprobiert haben, bevor man sich eine Meinung bildet bzw viel krasser auch noch ein Urteil fällt. Von Verbesserungsvorschlägen Mal ganz abgesehen.

Würdest du dir RT Mal tatsächlich anschauen, würdest du sofort merken, was für einen unqualifizierten Unfug du hier schreibst.

JVC
2019-01-05, 19:19:02
Würdest du dir RT Mal tatsächlich anschauen, würdest du sofort merken...

Das ich Zuviel bezahlt hätte ^^
( ka obs anders aussieht wenn man selbst spielt )

Mir gefällt es in der jetzigen Form hald nicht so ganz ...
Aber es ist der Richtige Weg !
Und darum rede ich mit ;)

Ist die Idee wirklich so abwegig, einen zusätzlichen Regler
( so wie für Kontrast, Helligkeit, Farbsättigung )
für die Stärke der Reflektionen hinzuzufügen ?

m.f.g. JVC

Klevapalis
2019-01-05, 21:29:15
Das ich Zuviel bezahlt hätte ^^
( ka obs anders aussieht wenn man selbst spielt
Also keine Ahnung von der Leistung, aber der Preis soll zu hoch sein. Soso. Und das, wo doch vor ein paar Tagen die TitanV für 2500-3000€ so attraktiv gewesen ist.

Nun ist plötzlich ne 2080 für 800 zu teuer?

Aha.

Troyan
2019-01-05, 23:00:48
Hier hat jemand einen eigenen Test mit TitanV und Turing gemacht: http://www.pc-better.com/titan-v-dxr-analysis/

Sind 10ms Unterschied zwischen Turing und Volta. Das entspricht ungefähr dem, was man bei Reflektionen erwarten kann.

Gast
2019-01-06, 00:27:11
Nvidia ist mir herzlich egal mir gehts um die Technik bitte lass den Fanboymist draussen.

Mit deinen unsachlichen Vorwürfen vermittelst du nun mal diesen Eindruck. Du hast dich nicht informiert und baust wieder einen Strohmann. Der 28nm G6430 von IMG ist nur etwa 22,1 mm² groß. (https://www.anandtech.com/show/8562/chipworks-a8) Turing in 12nm ist mit 754 mm² ~34 mal größer. Selbst wenn man annimmt, die zusätzlichen Transistoren für die RT-Engine würden die Chipgröße des GR6500 auf 44,2 mm² verdoppeln, wäre Turing noch immer 17 mal größer. Bei linearer Skalierung (mit 1800 Mhz & 12nm) käme man dann auf über 100x RT-Leistung und nicht 50x.

Fakten existieren bereits, aber du versuchst mit deinen unsachlichen Ausflüchten verzweifelt davon abzulenken. Die 260W 2080TI ist beim Raytracing etwa 6x schneller (https://cdn.wccftech.com/wp-content/uploads/2018/10/NVIDIA-DirectX-Simple-Ray-tracing-Benchmark-RTX-2080-Ti-RTX-2080.jpg) als eine 980Ti. Der 3 Jahre alte 2W GR6500 ist mehr als 5x mal schneller (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120) beim Raytracing als eine 980Ti. Deine Ausreden werden nichts daran ändern, dass der GR6500 Nvidias RT-Versuch alt aussehen läßt.

JVC
2019-01-06, 08:34:06
Also keine Ahnung von der Leistung, aber der Preis soll zu hoch sein. Soso. Und das, wo doch vor ein paar Tagen die TitanV für 2500-3000€ so attraktiv gewesen ist.

Technisch gesehen, halte ich sie für ein interessantes Produkt ... abgesehen vom Preis :wink:

Würde mir auch gerne eine gönnen ^^
Aber das ist es mir nicht Wert, da ich momentan wenig spiele.



Nun ist plötzlich ne 2080 für 800 zu teuer?

Aha.
Nicht Plötzlich ... alles unter der 2080Ti von der neuen Serie
ist Leistungstechnisch unter der alten Serie und daher für mich nicht interessant.

Die Leistung ist, im Verhältnis zum Preis, sogar eher gesunken.
Es ist halt wirklich die erste neue Generation bei der man ein schlechteres Preis/Leistungsverhaeltnis hat.
Und für diese Leistung muss man NV nicht Händchen halten oder gar einen Preis überreichen.
( ich lasse, zur Belohnung für NV, die 20XX Serie aus ;) )

m.f.g. JVC

Gast
2019-01-06, 20:45:59
Mit deinen unsachlichen Vorwürfen vermittelst du nun mal diesen Eindruck. Du hast dich nicht informiert und baust wieder einen Strohmann. Der 28nm G6430 von IMG ist nur etwa 22,1 mm² groß. (https://www.anandtech.com/show/8562/chipworks-a8) Turing in 12nm ist mit 754 mm² ~34 mal größer. Selbst wenn man annimmt, die zusätzlichen Transistoren für die RT-Engine würden die Chipgröße des GR6500 auf 44,2 mm² verdoppeln, wäre Turing noch immer 17 mal größer. Bei linearer Skalierung (mit 1800 Mhz & 12nm) käme man dann auf über 100x RT-Leistung und nicht 50x.

Fakten existieren bereits, aber du versuchst mit deinen unsachlichen Ausflüchten verzweifelt davon abzulenken. Die 260W 2080TI ist beim Raytracing etwa 6x schneller (https://cdn.wccftech.com/wp-content/uploads/2018/10/NVIDIA-DirectX-Simple-Ray-tracing-Benchmark-RTX-2080-Ti-RTX-2080.jpg) als eine 980Ti. Der 3 Jahre alte 2W GR6500 ist mehr als 5x mal schneller (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120) beim Raytracing als eine 980Ti. Deine Ausreden werden nichts daran ändern, dass der GR6500 Nvidias RT-Versuch alt aussehen läßt.

Du extrapolieren aus verschiedenen Quellen ohne dir sicher seien zu können das die Daten überhaupt vergleichbar sind.
Die von dir angeführten Werte sind mM nur valide wenn gezeigt wird das ein Quervergleich in der Art möglich ist.
Sprich entweder man lässt auf beiden Systemen etwas standardisiertes Synthetisches laufen oder zu mindest die gleiche Demo Mal auf turing um das was du da lustig mit einander mischt vergleichen zu konnen.

Gast
2019-01-07, 18:36:14
Du suchst nur wieder verzweifelt nach Ausflüchten, weil du selbst keine Fakten vorweisen kannst und für dich nicht sein kann, was nicht sein darf. Ich mische nichts lustig miteinander. Anhand der Benchmarks kann man vergleichen, um wieviel schneller die dedizierten Raytracer gegenüber GPGPU-Raytracing einer 980Ti sind. Du ignorierst bei deiner Ausrede, dass ich mit dem DXR-Benchmark sogar den günstigsten Fall für Turing gewählt habe. In Rendersoftware wie Blender schneidet Turing noch viel schlechter ab (https://www.youtube.com/watch?v=4pCqlRC5-Mc&t=70). In Rendersoftware wie Octane erreicht die 2080Ti laut Forbes 360 Punkte. Das sind wenigstens ~2,8x soviel wie eine 980Ti. Deine Hoffnungen bezüglich V-Ray dürften enttäuscht werden.
Dass die dedizierte RT Hardware von Nvidia in der Praxis nur ~2x effizienter als die Nutzung von GPGPU-Raytracing bei Pascal ist, zeigt aber auch unabhängig davon deren niedrige Effizienz. Statt die Fakten zu ignorieren und dir neue Ausreden auszudenken, solltest du dich mal darüber informieren, welche Effizienzsteigerungen dedizierte Hardware in anderen Bereichen erzielt.