Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
aufkrawall
2018-08-25, 12:44:24
wie du schon sagtest, es ist ein offner standard seitens MS, von daher sollte es sofern AMD/Intel es korrekt implentieren auch gleich gut laufen/aussehen.
Das ist ein proprietärer Standard, für den die GPU-Hersteller die Unterstützung erlaubt wird. ;)
SKYNET
2018-08-25, 12:45:09
Die THG-Contra Meinung erinnert auch wieder mal an GPU-Physix und das es seit 2005 nur rund 70 Titel gab, die es unterstützen. Eine weitere exklusive Option für NVidia-Besitzer. Das Raytracing sollte nicht der maßstäbliche Grund sein, die Karten zu kaufen.
Da 7 nm schon winkt, wäre es wohl besser auf eine RTX 3080 zu warten und die 2000er-Reihe zu skippen.
ich denke eher die 3080 wird wohl eher 2085 heissen, da es nur ein shrink ist... obwohl, NV probierts sicherlich wieder als was "komplett neues" zu verkaufen X-D darum evtl doch 3080 :ulol:
Screemer
2018-08-25, 12:46:46
Das nicht mehr draus geworden ist bestreitet der Blog doch auch nicht (am Ende ist's bei den Partikeln geblieben)? Ein Hersteller wird immer seinen neuen Kram hypen und natürlich geht nicht alles auf (tegra smartphones).
Deswegen sind die technischen Punkte zu den Unterschieden von RT zu Physx doch nicht unwahr?
Das bestreitet doch auch niemand. Es war schlicht von der warte gesehen und auch gefragt ob rt den weg von GPU Physx gehen könnte und natürlich der Aussage "physx ist tot" und deinem "nein ist es nicht".
GSXR-1000
2018-08-25, 12:49:48
Es ist richtiges Raytracing.
Wenn es das wäre, würden sämtliche Spiegelungen und Schatten korrekt dargestellt. Dies ist offensichtlich (wie die Bilder beweisen) nicht der Fall.
Es ist also maximal ein teilweises RT, mit hybridem Ansatz. Das Problem für denjenigen der diesen Ansatz zu bewerten hat (auch in Form von Benchmarks) ist: da keiner von uns den softwarecode, treiberimplementierung und hardwareumsetzung im detail kennen, ist der Grad des per RT umgesetzten und dem rastarizing ansatz in jedem Anwendungsfall höchst spekulativ. Die wenigsten werden sich die Mühe machen (können) Bild per Bild auszuwerten.
Es ist offensichtlich nicht so, das per RT "on" alles über RT berechnet wird, was laut grober NV aussage über RT berechnet werden sollte. Wieviel und was genau ist reine spekulation. Somit ist der hybride Ansatz in jetziger Form potentiell genausoviel/wenig fake wie bisherige Lösungen auch.
Insofern: auch wenns weh tut, nein es ist kein "richtiges" vollständiges RT...auch wenn du der Lederjoppe gern jedes Wort vom Mund ablesen möchtest.
Screemer
2018-08-25, 12:53:17
wie du schon sagtest, es ist ein offner standard seitens MS, von daher sollte es sofern AMD/Intel es korrekt implentieren auch gleich gut laufen/aussehen.
Rtx ist nicht nur spiegelungen, schätzen, etc. Das ist ne bib aus allem möglichen, dass sich mit RT und AI basteln lässt. Ob dxr das bietet ist mir nicht bekannt .
pixeljetstream
2018-08-25, 12:55:49
Das bestreitet doch auch niemand. Es war schlicht von der warte gesehen und auch gefragt ob rt den weg von GPU Physx gehen könnte und natürlich der Aussage "physx ist tot" und deinem "nein ist es nicht".
Wo hab ich das bisher geschrieben? Ich teile die Meinung des Kollegen dass Physx nicht tot ist, aber wie er sagt der GPU Teil schon (das machen die Leute mit compute selbst).
Ich kriege aber dennoch die Connection nicht hin weil Raytracing Teil von Grafik ist und GPUs rendern, während bei physx man ein neues Domain jenseits Grafik aufmachen wollte und mit der proprietären Lösung dafür scheiterte. Dennoch finden wir in Spielen GPU Partikel die kollidieren. Das Gras das mit dem Spieler interagiert etc. Die Technik ist seinen Weg gegangen/geht ihn noch.
Wenn man diesen Hintergrund/Technik ignoriert kann man es als typisch Hersteller X treibt fürs neue Produkt Sau Y durch's Dorf sehen. Da widerspreche ich nicht.
Geächteter
2018-08-25, 13:09:26
Da 7 nm schon winkt, wäre es wohl besser auf eine RTX 3080 zu warten und die 2000er-Reihe zu skippen.
Vor Oktober 2020 würde ich damit weder bei den Roten noch bei den Dollargrünen rechnen. ;)
ChaosTM
2018-08-25, 13:12:25
Eine 2085er (mit mehr Speicher?) und/oder eine Titan werden sicherlich aus melktechnischen Gründen noch folgen, vor der nächsten Gen. Winter oder Frühjahr..
Wenn genug Leute die 2080ti vorbestellen, dann kommt sicherlich noch was .. weil dann weiß man, dass man noch ein Schäuflein drauflegen kann, punkto Preis.
unl34shed
2018-08-25, 13:22:57
Nicht nur das eine Dreieck, das wäre trivial, sondern auch erstmal das richtige Dreieck in der Suppe zu finden ;) (bvh traversal).
Jeder Strahl testet erstmal einen Szenenbaum aus Instanzen (Häuser, Autos) und dann den Geometriebaum der Instanz, dann ein paar Dreiecke darin. Manchmal muss der Strahl wenn es "knapp vorbei geht" ne andere Instanz/Dreieck etc. testen.
Die Aufteilung in zwei Bäume hat den Vorteil dass man Instanzen günstig verschieben/rotieren kann und nur einzelne Geometriebäume updaten muss wenn dort vertices deformiert werden (skinning, cloth, particles).
Versteh ich dich jetzt richtig? 1 Rays/sec bedeutet ein Polygon aus der Liste wurde ausgewählt und der Vergleich Ray->Polygon wurde durchgeführt (ob treffer oder nicht wird dann entschieden und weiter probiert) oder bedeutet es, dass immer ein hit berechnet wurde.
Im ersten fall sind Gigarays dann ziemlich wenig. Im zweiten Fall würde es dann ja für ein koplettes raytraced Spiel ausreichen in FullHD ausreichen. Mit 80 Hops bekommt man schon einiges hin.
Auch stellt sich mir die Frage, ob eine so allgemeine Angabe mit Rays/sec überhaupt möglich ist? Je komplexer die Szene/Objekte umso länger die Liste und umso länger muss gesucht werden.
Und die zweite Frage die sich mir jetzt natürlich stellt, wie kann der Fehler bei Battlefield (Scheinwerfer + hinterer Kotflügel) dann überhaupt passieren? Hier scheinen ja nicht alle Objekte berücksichtigt zu werden...
Versteh ich dich jetzt richtig? 1 Rays/sec bedeutet ein Polygon aus der Liste wurde ausgewählt und der Vergleich Ray->Polygon wurde durchgeführt (ob treffer oder nicht wird dann entschieden und weiter probiert) oder bedeutet es, dass immer ein hit berechnet wurde.
Im ersten fall sind Gigarays dann ziemlich wenig. Im zweiten Fall würde es dann ja für ein koplettes raytraced Spiel ausreichen in FullHD ausreichen. Mit 80 Hops bekommt man schon einiges hin.
Auch stellt sich mir die Frage, ob eine so allgemeine Angabe mit Rays/sec überhaupt möglich ist? Je komplexer die Szene/Objekte umso länger die Liste und umso länger muss gesucht werden.
Und die zweite Frage die sich mir jetzt natürlich stellt, wie kann der Fehler bei Battlefield (Scheinwerfer + hinterer Kotflügel) dann überhaupt passieren? Hier scheinen ja nicht alle Objekte berücksichtigt zu werden...
Die 1 oder 2 rays per pixel sind viel zu wenig um ein schönes Bild zu bekommen. Um eine perfektes Bild zu bekommen bräuchte man viel zu viel rays dass wäre in echtzeit nicht möglich. Dafür ist ja der Ai denoiser welcher die fehlenden Informationen so gut wie möglich einfügt um dann ein Bild zu bekommen ohne Noise.
Ailuros
2018-08-25, 13:32:05
@Ailuros Diesmal waren die Überreibungen aber allgegenwärtig. 3x so schnell hier, 10x so schnell da, 6x so leise, 100pflop hier und nur 2x so teuer. Da fühl ich mich verarscht.
Dann bist Du entweder zu jung oder Du hast bei vorigen IHV GPU launches (ja betrifft alle, dafuer war auch Larabee vor seinem launch "toll"....) nie richtig aufgepasst.
IMHO war das kein Launch sondern mehr ein Teaser.
@OT: Endlich lässt du dich wieder mal blicken. :wink:
Tut mir aufrichtig leid aber ich fuehl mich zu "alt" den Affenzirkus nochmal nach all den Jahren mit zu machen. Der Alltag im Kintergarten meiner Kleinen ist um einiges ernsthafter als das Theater hier. Wenn mir jemand hier einen relevanten thread ueber Turing zeigen kann bei dem ich einen sachlichen Post NICHT mit der Lupe suchen muss, trage ich gerne meinen Brei bei. Sonst ist es mir lieber meinen verwoehnten Hintern am Strand zu braten :P
Rancor
2018-08-25, 13:37:15
Woher soll man das jetzt wissen,wir wissen noch nicht mal ob AMDs 2019 Karten RT Cores bekommen oder nur AI.
Man kann nur hoffen, das sie ebenfalls RT und AI Cores bekommen.
uweskw
2018-08-25, 13:37:23
Das ist ein proprietärer Standard, für den die GPU-Hersteller die Unterstützung erlaubt wird. ;)
Bitte unmissverständlicher: Wer erlaubt? NV oder MS?
greetz
US
basix
2018-08-25, 13:40:12
Man kann nur hoffen, das sie ebenfalls RT und AI Cores bekommen.
AI kommt für Navi, das hat AMD mal gesagt. RT wird sich zeigen.
aufkrawall
2018-08-25, 13:41:28
Bitte unmissverständlicher: Wer erlaubt? NV oder MS?
Dazu habe ich überhaupt nichts gesagt, nur ist DirectX so oder so kein offener Standard.
ChaosTM
2018-08-25, 13:42:25
Dann bist Du entweder zu jung oder Du hast bei vorigen IHV GPU launches (ja betrifft alle, dafuer war auch Larabee vor seinem launch "toll"....) nie richtig aufgepasst.
So dumm wie heuer war es bisher noch nie und ich hab sie alle mitgemacht in den letzten 25 jahren ;)
Edgecrusher86
2018-08-25, 13:43:18
Da die Quadro RTX 5000 nur mit bis zu 50GB/s per NVLINK angebunden ist, dürfte die Bandbreite für die RTX 2080 auch halbiert sein oder?
Schade dass Memory Access nur Quadro only bleiben wird, gerade die 2080 hätte dann von effektiv 16GB profitiert. Natürlich auch die 2080 Ti ab 5K aufwärts, was in der Regel problemlos möglich sein dürfte für 60 fps.
https://www.nvidia.com/en-us/design-visualization/nvlink-bridges/
TurricanM3
2018-08-25, 13:44:58
2080 Ti BF V Rotterdam Gameplay mit RT:
KAvyMlqlb8M
Die Ruckler wurden bereits gefixt, das ist wohl noch ein älterer build.
Im Luxx meinte jemand das Spiel liefe in 4K auf einer 1080Ti besser als fullHD mit RT auf einer 2080 Ti. Hoffe zum Release läuft das ordentlich.
Ex3cut3r
2018-08-25, 13:44:59
Turing war ja angeblich mit dem Hintergedanken RT 10 Jahre in Entwicklung, wenn AMD da nicht auch solche Überlegungen hatte, dann glaube ich nicht, dass man RT innerhalb eines Jahres einfach so einbauen kann.
2080 Ti BF V Rotterdam Gameplay mit RT:
http://youtu.be/KAvyMlqlb8M
Die Ruckler wurden bereits gefixt, das ist wohl noch ein älterer build.
Im Luxx meinte jemand das Spiel liefe in 4K auf einer 1080Ti besser als fullHD mit RT auf einer 2080 Ti. Hoffe zum Release läuft das ordentlich.
Die Ruckler kommen vom DX12 Pfad, das gleiche hat schon BF1 im DX12 mode. Gefixt? Kaufe ich Ihnen nicht ab, in Bf1 ist es bis heute nicht gefixt, und die beiden Beta hatten es auch noch.
SKYNET
2018-08-25, 13:46:19
AI kommt für Navi, das hat AMD mal gesagt. RT wird sich zeigen.
dann hätten sie zumindest schonmal auch die option au fdas neue AA...
Die 1 oder 2 rays per pixel sind viel zu wenig um ein schönes Bild zu bekommen. Um eine perfektes Bild zu bekommen bräuchte man viel zu viel rays dass wäre in echtzeit nicht möglich. Dafür ist ja der Ai denoiser welcher die fehlenden Informationen so gut wie möglich einfügt um dann ein Bild zu bekommen ohne Noise.
Wenn seine 2. Variante zutrifft waeren aber auch mehr als 2 SPP moeglich, darum geht es ja gerade.
1920x1080*60 sind nur knapp 125 Mio., also liegt wie unl34shed schon gesagt hat noch ein Faktor 80 zwischen dem und den 10 Gigarays/s. Heisst man koennte bis zu 80 SPP benutzen, oder eben 80/(Anzahl bounces oder Transparenzschritte).
Damit koennte man schon ein relativ ordentliches Bild hinbekommen. Aber die 10 GR/s sind wohl ein theoretisches Maximum. Ich wuerde schon gerne mal ein Beispiel einer Implementierung sehen wo reines RT ueber die RT Cores gemacht wird. Wenn es rauscht, ist doch egal. Einfach nur um zu sehen, wo man steht.
Ex3cut3r
2018-08-25, 13:48:05
2080 Ti BF V Rotterdam Gameplay mit RT:
http://youtu.be/KAvyMlqlb8M
Die Ruckler wurden bereits gefixt, das ist wohl noch ein älterer build.
Im Luxx meinte jemand das Spiel liefe in 4K auf einer 1080Ti besser als fullHD mit RT auf einer 2080 Ti. Hoffe zum Release läuft das ordentlich.
Video schon down?
Ailuros
2018-08-25, 13:48:35
So dumm wie heuer war es bisher noch nie und ich hab sie alle mitgemacht in den letzten 25 jahren ;)
Den 5x,10x,100x,1000x Mal Duennschiss gab es schon immer und dieses egal von welcher Ecke. Marketing steht ueberall fuer durchgedachte Uebertreibungen wenn jemand "Luegen" zu schwer auf dem Magen liegen sollten. Fuer NV spezifisch gab es unter vielen anderen Beispielen auch angeblich >100 Spiele mit T&L ;)
ChaosTM
2018-08-25, 13:49:40
Das war auch witzig, ja. Subjektiv kam es mir heuer halt besonders arg vor.
TurricanM3
2018-08-25, 13:55:05
Video schon down?
Ja leider. Offiziell gibt's wohl erst am Montag Gameplay und ob mit RT weiß ich gar nicht. Ich habs noch offen und schaue gerade.
MasterElwood
2018-08-25, 14:11:30
Hast du dir die Nvidia Demo dazu angesehen, auch da gibt es die selben Effekte, schau dir mal das Kleid an, das Warpt ganz schön.
Nichts neues, zu Twixtor und Co.
Ja aber das Ding is Proof of Concept - nix wofür man seit Jahren ein schweinegeld verlangt. Das wird ja noch besser je besser es trainiert wird.
pixeljetstream
2018-08-25, 14:41:25
Versteh ich dich jetzt richtig? 1 Rays/sec bedeutet ein Polygon aus der Liste wurde ausgewählt und der Vergleich Ray->Polygon wurde durchgeführt (ob treffer oder nicht wird dann entschieden und weiter probiert) oder bedeutet es, dass immer ein hit berechnet wurde.
Im ersten fall sind Gigarays dann ziemlich wenig. Im zweiten Fall würde es dann ja für ein koplettes raytraced Spiel ausreichen in FullHD ausreichen. Mit 80 Hops bekommt man schon einiges hin.
Auch stellt sich mir die Frage, ob eine so allgemeine Angabe mit Rays/sec überhaupt möglich ist? Je komplexer die Szene/Objekte umso länger die Liste und umso länger muss gesucht werden.
Und die zweite Frage die sich mir jetzt natürlich stellt, wie kann der Fehler bei Battlefield (Scheinwerfer + hinterer Kotflügel) dann überhaupt passieren? Hier scheinen ja nicht alle Objekte berücksichtigt zu werden...
Der Strahl bis zum finalen Hit.
Praktisch ist die Leistung beim raytracing davon abhängig wieviele so "near misses" du hast, wie divergent, und was für zusätzliche Latenzen man sich einfängt. Ich würde auf den Wert so nix geben, sondern die Papers/Applikationen abwarten die das im Kontext von richtigem Content zeigen.
Imo reicht der nur Wert nur dazu die SKUs zu vergleichen. Das sagen auch unsere raytracing Experten auf Twitter.
Das mit den rtx-ops usw. ist imo halt marketing und etwas cheesy. Man wird sehen was sich dann als Maß so etabliert wenn andere Hersteller auch was haben. Denke wird dann halt auf gewisse Benchmark Scores rauslaufen wie sonst auch.
pixeljetstream
2018-08-25, 14:47:46
Da die Quadro RTX 5000 nur mit bis zu 50GB/s per NVLINK angebunden ist, dürfte die Bandbreite für die RTX 2080 auch halbiert sein oder?
Schade dass Memory Access nur Quadro only bleiben wird, gerade die 2080 hätte dann von effektiv 16GB profitiert. Natürlich auch die 2080 Ti ab 5K aufwärts, was in der Regel problemlos möglich sein dürfte für 60 fps.
https://www.nvidia.com/en-us/design-visualization/nvlink-bridges/
Imo sind das bloß alte Webseiten, noch wurde nicht alles an die neuen Produkte angepasst.
dildo4u
2018-08-25, 14:48:22
Da die Quadro RTX 5000 nur mit bis zu 50GB/s per NVLINK angebunden ist, dürfte die Bandbreite für die RTX 2080 auch halbiert sein oder?
Schade dass Memory Access nur Quadro only bleiben wird, gerade die 2080 hätte dann von effektiv 16GB profitiert. Natürlich auch die 2080 Ti ab 5K aufwärts, was in der Regel problemlos möglich sein dürfte für 60 fps.
https://www.nvidia.com/en-us/design-visualization/nvlink-bridges/
50 GB wird ewig reichen Nvidias SLI HB Bridge hat nur 3.2 GB/sec.
http://www.pcgameshardware.de/Pascal-Codename-265448/News/HB-SLI-Bruecke-Unterschiede-1204297/
pixeljetstream
2018-08-25, 14:51:48
Bitte unmissverständlicher: Wer erlaubt? NV oder MS?
greetz
US
DXR gehört MS. Die stellen auch das compute-shader basierte Fallback wenn ein Hersteller keinen spezialisierten Treiber macht.
Apple hat raytracing mit Metal2. Vulkan wird es erstmal nur mit NV Extension haben bis Khronos sich eine standardisierte Fassung überlegt.
Troyan
2018-08-25, 14:52:41
Wenn es das wäre, würden sämtliche Spiegelungen und Schatten korrekt dargestellt. Dies ist offensichtlich (wie die Bilder beweisen) nicht der Fall.
Es ist also maximal ein teilweises RT, mit hybridem Ansatz. Das Problem für denjenigen der diesen Ansatz zu bewerten hat (auch in Form von Benchmarks) ist: da keiner von uns den softwarecode, treiberimplementierung und hardwareumsetzung im detail kennen, ist der Grad des per RT umgesetzten und dem rastarizing ansatz in jedem Anwendungsfall höchst spekulativ. Die wenigsten werden sich die Mühe machen (können) Bild per Bild auszuwerten.
Es ist offensichtlich nicht so, das per RT "on" alles über RT berechnet wird, was laut grober NV aussage über RT berechnet werden sollte. Wieviel und was genau ist reine spekulation. Somit ist der hybride Ansatz in jetziger Form potentiell genausoviel/wenig fake wie bisherige Lösungen auch.
Insofern: auch wenns weh tut, nein es ist kein "richtiges" vollständiges RT...auch wenn du der Lederjoppe gern jedes Wort vom Mund ablesen möchtest.
Siehst du? Dein Posting macht genauso wie bei DLSS null Sinn. Raytracing wird z.B. in BF5 für Spiegelungen verwendet. Deine Behauptung, es handele sich nicht um "richtiges" Raytracing, weil Schatten unbehandelt bleiben, ist daher irgendwie absurd.
Und nVidia hat nie was anderes behauptet und bezeichnet diese Ära auch als "Hybrid-Rendering".
Und jetzt gilt wieder: EoD.
pixeljetstream
2018-08-25, 14:53:54
Turing war ja angeblich mit dem Hintergedanken RT 10 Jahre in Entwicklung, wenn AMD da nicht auch solche Überlegungen hatte, dann glaube ich nicht, dass man RT innerhalb eines Jahres einfach so einbauen kann.
Raytracing war schon lange ein Thema, auch bei anderen Herstellern. Diesmal gab's halt den großen Push.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11775634#post11775634
=Floi=
2018-08-25, 15:01:57
Das einfachste Ziel ist derzeit die RTX 2080 Ti, weil man hier relativ viel RT-Leistung bekommt. Das reicht natürlich im Leben nicht für pixelpräzises UHD-Raytracing, also muss man sparen.
wird man im treiber noch was einstellen/erzwingen können oder geht es nur über spiel und ist dem developer ausgeliefert?
ich glaube, wenn man das stufenweise einstellen kann und man performance bei normaler optik bekommt, steigt auch die akzeptanz.
Leonidas
2018-08-25, 15:05:50
Alles in allem: Sony und Microsoft sind sehr wahrscheinlich selbst daran interessiert, ähnliche Techniken auf die Konsole zu bringen. Dann wird es sich definitiv breit durchsetzen.
Das denke ich auch, keine Frage. Aber ich denke, für die kommende Konsolen-Gen ist der Zug bereits abgefahren. Deren Chipentwicklung dürfte durch sein - und wenn nicht AMD absolut heimlich an RT gearbeitet hat, wird es nix.
Zudem lohnen sich für Konsolen die Hybrid-Ansätze ja gar nicht wirklich. Die haben dei Möglichkeit, die Spieleentwickler zu ihrem Glück zu zwingen und können 100% RT machen. Aber dafür haben wir auch 2020 noch nicht die Chips.
pixeljetstream
2018-08-25, 15:06:05
@Floi, die Entwickler haben Dir ja auch für die restlichen Effekte Regler gegeben, die werden sich sicher was überlegen. Die müssen ja auch langfristig lösen dass es in paar Jahren von einfacherer hw bis highend skaliert.
Troyan
2018-08-25, 15:11:30
Das denke ich auch, keine Frage. Aber ich denke, für die kommende Konsolen-Gen ist der Zug bereits abgefahren. Deren Chipentwicklung dürfte durch sein - und wenn nicht AMD absolut heimlich an RT gearbeitet hat, wird es nix.
Zudem lohnen sich für Konsolen die Hybrid-Ansätze ja gar nicht wirklich. Die haben dei Möglichkeit, die Spieleentwickler zu ihrem Glück zu zwingen und können 100% RT machen. Aber dafür haben wir auch 2020 noch nicht die Chips.
Die nächste Konsolengeneration werden doch reine "Upscaling" Maschinen, um wirklich 4K@60FPS zu erreichen. Grafik wird dort eher eine untergeordnete Rolle spielen.
Digidi
2018-08-25, 15:16:42
Die nächste Konsolengeneration werden doch reine "Upscaling" Maschinen, um wirklich 4K@60FPS zu erreichen. Grafik wird dort eher eine untergeordnete Rolle spielen.
Kann Ihn jemand mal sperren. Das genau das ist Fläming! Hauptsache irgend eine Behauptung ohne Begründung nichts.
=Floi=
2018-08-25, 15:22:58
Wenn man die Werte der 2080Ti, 2080 und 2070 mit dem Takt und den RT-Cores berechnet, dann kommst grob auf 100Kilorays/mhz pro RT Core bei allen 3 GPUs. Natürlich mit etwas Fehler, weil die Gigaraywerte gerundet sind. Aber die Werte sind für alle 3 GPUs sehr ähnlich, daher passt der Ansatz, dass man den RT Core Durchsatz bei X Megahertz zum berechnen nimmt.
Sehr interessant
könnte man die RT-Cores dann auch eizeln erhöhen?!
Next Gen 3 RT-Corers pro cluster und danach wieder 3x mehr
wäre eine verneunfachung der leistung.
Armaq
2018-08-25, 15:26:34
@Floi, die Entwickler haben Dir ja auch für die restlichen Effekte Regler gegeben, die werden sich sicher was überlegen. Die müssen ja auch langfristig lösen dass es in paar Jahren von einfacherer hw bis highend skaliert.
Danke für die Auskunft vor ein paar Seiten.
Aus meiner Sicht ist die Verbreitung dennoch das elementare Thema jetzt. Ich hab aus der RMA ein brandneue 1080 bekommen. Ich würde gegen eine 2080 (ti) tauschen, wenn es Futter gibt. BfV ist für mich persl. erstmal okay, aber wenn jahrelang nichts passiert, dann kann man auch die next Gen nehmen.
Timbaloo
2018-08-25, 15:26:51
Ich verstehe ehrlich gesagt gar nicht warum die BFV-Demo so viel Aufmerksamkeit bekommt, ich finde was Gaijin mit Enlisted (Global Illumination) gezeigt hat wesentlich eindrucksvoller.
Ex3cut3r
2018-08-25, 15:30:01
Raytracing war schon lange ein Thema, auch bei anderen Herstellern. Diesmal gab's halt den großen Push.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11775634#post11775634
Danke für den Link, und die Folien. Sehr interessant.
grobi
2018-08-25, 15:32:11
Muss jetzt AMD seine eigene RT-Iplemenation machen, die dann nicht kompatibel ist? Hat Nvidia dazu was gesagt? Auf 2 getrennte Herangehensweisen habe ich keine Lust.
mfg grobi
Armaq
2018-08-25, 15:32:29
Ich verstehe ehrlich gesagt gar nicht warum die BFV-Demo so viel Aufmerksamkeit bekommt, ich finde was Gaijin mit Enlisted (Global Illumination) gezeigt hat wesentlich eindrucksvoller.weil ich das bald zocken kann und werde.
Troyan
2018-08-25, 15:39:34
Muss jetzt AMD seine eigene RT-Iplemenation machen, die dann nicht kompatibel ist? Hat Nvidia dazu was gesagt? Auf 2 getrennte Herangehensweisen habe ich keine Lust.
mfg grobi
DXR ist abstrahiert genug, dass jeder Hersteller ihre eigenen Süppchen kochen können. Ansonsten läuft es über den Compute-Fallbacklayer. Aber der muss von jedem Entwickler eingebaut werden.
MasterElwood
2018-08-25, 15:41:01
Die "großen" Engines wollen natürlich auch immer den Nerv der Zeit treffen, damit sie benutzt werden (hat ja auch ordentlich Marketing-Potential). Ist absolut ausgemachte Sache, dass alle RT nutzen werden.
Wäre Carmack noch für id zuständig, hätten wir wohl schon längst mal Kommentare von ihm dazu gehört. Das Paralleluniversum lässt grüßen...:D
Denn: So ein Quake oder Doom mit RT...geiler Scheiss!
Carmack wird das schon auf der OC erwähnen :-)
Eine 2085er (mit mehr Speicher?) und/oder eine Titan werden sicherlich aus melktechnischen Gründen noch folgen, vor der nächsten Gen. Winter oder Frühjahr..
Wenn genug Leute die 2080ti vorbestellen, dann kommt sicherlich noch was .. weil dann weiß man, dass man noch ein Schäuflein drauflegen kann, punkto Preis.
Mehr VRAM gibts nicht, aber eine Titan (seit 2013 jedes Jahr) kommt, passend zum Weihnachtsgeschäft
Unter 1769€ geht da aber nichts :D
GSXR-1000
2018-08-25, 16:09:50
Siehst du? Dein Posting macht genauso wie bei DLSS null Sinn. Raytracing wird z.B. in BF5 für Spiegelungen verwendet. Deine Behauptung, es handele sich nicht um "richtiges" Raytracing, weil Schatten unbehandelt bleiben, ist daher irgendwie absurd.
Und nVidia hat nie was anderes behauptet und bezeichnet diese Ära auch als "Hybrid-Rendering".
Und jetzt gilt wieder: EoD.
Ach liebchen. Wenn du doch einmal lesen würdest, was andere schreiben, ohne Schaum vor dem Mund zu bekommen:
- auf den Bildern ist recht eindeutig zu erkennen, das die Spiegelungen nicht korrekt sein !können! (auch hier sei nochmal gesagt: Mathematik ist in diesem Falle so simpel und so unbestechlich).
- damit kann diese Szene eben (anders als eigentlich vermarktet) nicht komplett mit RT für spiegelungen arbeiten.
-Somit ist es keine komplette RT Lösung in diesem Aspekt, sondern eine Hybridlösung, deren jeweilige Anteile uns, und jedem anderen ausser NV und dem Softwareersteller gänzlich unbekannt sind.
So schwer ist das nicht zu verstehen kumpel, das schaffst du schon. Du musst es nur wollen.
Troyan
2018-08-25, 16:16:24
Dann zeige doch bitte, wie die korrekten Spiegelungen aussehen müssten. Das möchte ich jetzt sehen. Denn jeder erkennt auf den Bildern, dass selbst Teile per Raytracing erfasst werden, die keinen Mehrwert aufweisen - siehe z.B. den Spiegel an der Hausfront auf der rechten Seite: http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Battlefield-5-Nvidia-RTX-2080-Ti-Raytracing-1263364/
Dann zeige jetzt mal, dass hinter deinen Worten mehr steckt. Ich warte hier eine detailierte Zeichnungen von der Umgebung, wo die Szene stattfindet - inkl. physikalisch korrekter Berechnungen, wie die Strahlen verlaufen und wie das Licht entsprechend aufgenommen werden.
GSXR-1000
2018-08-25, 16:20:44
Das denke ich auch, keine Frage. Aber ich denke, für die kommende Konsolen-Gen ist der Zug bereits abgefahren. Deren Chipentwicklung dürfte durch sein - und wenn nicht AMD absolut heimlich an RT gearbeitet hat, wird es nix.
Zudem lohnen sich für Konsolen die Hybrid-Ansätze ja gar nicht wirklich. Die haben dei Möglichkeit, die Spieleentwickler zu ihrem Glück zu zwingen und können 100% RT machen. Aber dafür haben wir auch 2020 noch nicht die Chips.
Exakt das ist der Punkt.
Weshalb der Aufwand in NVs jetzigen Alleingang einfach nur dem eigenen Marketing und vor allem der eigenen Kasse dient, nicht aber in relevanter Art dem Kunden.
Uns als Kunden hätte es vor allem gedient, wenn man sich zusammengesetzt hätte und nach möglichkeit sich auf einen gemeinsamen Standart, basierend auf DXR bzw dessen weiterentwicklung womöglich geeinigt haette. So sind die gesamten auf RT verschwendeten Ressourcen dieser Grakageneration ziemlich verschwendet, wobei sich NV dies trotzdem durch gutes Marketing vergolden lässt.
So hoch der Marktanteil von NV auch unter den PC Gamern sein mag, am Gesamtmarkt (Konsolen inklusive) ist ihr Anteil einfach zu niedrig, um diese Technologie durch marktmacht erzwingen zu können. Für die nächste Konsolengeneration fällt RT ziemlich sicher aus, und damit auch die breite Umsetzung in Games.
Wenns wirklich um Kundeninteresse und den grossflächigen Einsatz neuer Technologie gegangen wäre, hätte man sich gemeinsam darum bemüht. Dann wäre u.U. auch früher und schneller ein relevanter Vorteil/Nutzen für Kunden entstanden. So nutzt es erstmal nur NVs Marketing.
GSXR-1000
2018-08-25, 16:22:07
Dann zeige doch bitte, wie die korrekten Spiegelungen aussehen müssten. Das möchte ich jetzt sehen. Denn jeder erkennt auf den Bildern, dass selbst Teile per Raytracing erfasst werden, die keinen Mehrwert aufweisen - siehe z.B. den Spiegel an der Hausfront auf der rechten Seite: http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Battlefield-5-Nvidia-RTX-2080-Ti-Raytracing-1263364/
Dann zeige jetzt mal, dass hinter deinen Worten mehr steckt. Ich warte hier eine detailierte Zeichnungen von der Umgebung, wo die Szene stattfindet - inkl. physikalisch korrekter Berechnungen, wie die Strahlen verlaufen und wie das Licht entsprechend aufgenommen werden.
Die Bilder mit der entsprechenden Beschreibung der Fehler und detailierter Erläuterung aus dem Heise Forum sind hier schon mehrfach verlinkt. Du magst dich selbst des lesens bemühen. Danke.
Troyan
2018-08-25, 16:24:31
Nö. Ich erwarte von DIR eine Beschreibung. Ansonsten schreibe dein Zeug im Heise-Forum. Hier einfach zu sagen "bah, ist Fake" und dann auf die Aussage eines anderen Menschen zu verweisen, ist mehr als dreist.
Ich kann also ausgehen, dass du keine Erklärung liefern kannst?
fondness
2018-08-25, 16:26:49
Das denke ich auch, keine Frage. Aber ich denke, für die kommende Konsolen-Gen ist der Zug bereits abgefahren. Deren Chipentwicklung dürfte durch sein - und wenn nicht AMD absolut heimlich an RT gearbeitet hat, wird es nix.
Zudem lohnen sich für Konsolen die Hybrid-Ansätze ja gar nicht wirklich. Die haben dei Möglichkeit, die Spieleentwickler zu ihrem Glück zu zwingen und können 100% RT machen. Aber dafür haben wir auch 2020 noch nicht die Chips.
Auch ist die Performance noch fraglich nach den Rucklern bei der Live-Vorführung. Mal sehen wie das bei Turing läuft, aber wenn man eine 750mm² 2080Ti mit an die 300W braucht für halbwegs flüssiges Raytracing-Vergnügen, ist das in Konsolen selbst in 7nm eh nicht realistisch.
kunibätt
2018-08-25, 16:37:05
Also hier ist meine These: Hinter den festverdrahteten Einheiten für BVH-Traversal befinden sich in Wirklichkeit nur Massetransistoren, die den Chip groß erscheinen lassen um den Kaufpreis zu rechtfertigen, was letztendlich dazu dient, dass die Echsenmenschen (Gründungsväter von nvidia) noch reicher werden.
nairune
2018-08-25, 16:37:30
Nö. Ich erwarte von DIR eine Beschreibung. Ansonsten schreibe dein Zeug im Heise-Forum. Hier einfach zu sagen "bah, ist Fake" und dann auf die Aussage eines anderen Menschen zu verweisen, ist mehr als dreist.
Mein Gott, ihr stellt euch (beide) an...
Es geht um das hier, sollte mittlerweile klar sein. Und dass das ein Fehler ist, stellt doch wohl keiner in Frage.
Timbaloo
2018-08-25, 16:39:45
Exakt das ist der Punkt.
Weshalb der Aufwand in NVs jetzigen Alleingang einfach nur dem eigenen Marketing und vor allem der eigenen Kasse dient, nicht aber in relevanter Art dem Kunden.
Natürlich dient alles was NV macht der eigenen Kasse. Das ist die Definition eines Unternehmens ;D
Ob das für den Kunden relevant ist, das überlasse doch dem jeweiligen Kunden. Ich sehe dich nicht als Sprecher aller Kunden.
Uns als Kunden hätte es vor allem gedient, wenn man sich zusammengesetzt hätte und nach möglichkeit sich auf einen gemeinsamen Standart, basierend auf DXR bzw dessen weiterentwicklung womöglich geeinigt haette. So sind die gesamten auf RT verschwendeten Ressourcen dieser Grakageneration ziemlich verschwendet, wobei sich NV dies trotzdem durch gutes Marketing vergolden lässt.
Wer hätte sich zusammensetzen sollen? NV und AMD? Geht's noch bei dir? Und einen Standard gibt es doch, nennt sich DXR. Was ist dein Problem nun genau? Dass es ein ebenso proprietärer Standard wie DX12 ist?
So hoch der Marktanteil von NV auch unter den PC Gamern sein mag, am Gesamtmarkt (Konsolen inklusive) ist ihr Anteil einfach zu niedrig, um diese Technologie durch marktmacht erzwingen zu können.
Was heisst erzwingen? Irgendwann muss man Innovationen auch mal bringen, damit sie implementiert werden und Verbreitung finden. Wenn das deiner Meinung nach nur in Absprache innerhalb einer Art Kartell passieren darf, naja, dann ist es nicht weiter sinnvoll mit dir irgendwas zu diskutieren.
Für die nächste Konsolengeneration fällt RT ziemlich sicher aus, und damit auch die breite Umsetzung in Games.
Es scheint dich ja zu freuen, dass die Konsolen mal wieder die Innovationsbremse sind...
uweskw
2018-08-25, 16:41:10
Exakt das ist der Punkt.
Weshalb der Aufwand in NVs jetzigen Alleingang einfach nur dem eigenen Marketing und vor allem der eigenen Kasse dient, nicht aber in relevanter Art dem Kunden.
Uns als Kunden hätte es vor allem gedient, wenn man sich zusammengesetzt hätte und nach möglichkeit sich auf einen gemeinsamen Standart, basierend auf DXR bzw dessen weiterentwicklung womöglich geeinigt haette. So sind die gesamten auf RT verschwendeten Ressourcen dieser Grakageneration ziemlich verschwendet, wobei sich NV dies trotzdem durch gutes Marketing vergolden lässt.
So hoch der Marktanteil von NV auch unter den PC Gamern sein mag, am Gesamtmarkt (Konsolen inklusive) ist ihr Anteil einfach zu niedrig, um diese Technologie durch marktmacht erzwingen zu können. Für die nächste Konsolengeneration fällt RT ziemlich sicher aus, und damit auch die breite Umsetzung in Games.
Wenns wirklich um Kundeninteresse und den grossflächigen Einsatz neuer Technologie gegangen wäre, hätte man sich gemeinsam darum bemüht. Dann wäre u.U. auch früher und schneller ein relevanter Vorteil/Nutzen für Kunden entstanden. So nutzt es erstmal nur NVs Marketing.
Wenn Nvidia-RT nicht kompatibel zu DRX ist, können wir nur hoffen, dass es genau wie GPU PhysX als Rohrkrepierer endet. Wenn ich überlege wie viele sich nach dem Hype damals eine zusätzliche PhysX Karte in den Rechner gesteckt haben....
Interessanter finde ich als Normal-User da schon DLSS. Wenn ich mir anschaue wie schlechte Bilder da aufpoliert werden.... krass
greetz
US
Troyan
2018-08-25, 16:46:24
Mein Gott, ihr stellt euch (beide) an...
Es geht um das hier, sollte mittlerweile klar sein. Und dass das ein Fehler ist, stellt doch wohl keiner in Frage.
Dir ist klar, dass dies eine Reflektion von außerhalb der Szene sein kann? Heißt, das Auto reflektiert zum Panzer und der in die Scheinwerfer.
Siehe auch das Video auf Youtube: https://youtu.be/WoQr0k2IA9A?t=51
Des Weiteren ist die Reflektion voll dynamisch. Und das, sorry, kann man nicht faken.
Ex3cut3r
2018-08-25, 16:55:17
Gefakt ist es auch nicht, aber ich finde das Feuer sieht schwach aus, und die Reflektionen sind imo niedrig aufgelöst. Aber wahrscheinlich kostet es einfach immens an Rechenleistung die man versucht so zu sparen, wahrscheinlich braucht man nochmal die 10-Fache Giga Ray Leistung um das hochauflösender und mit 4K laufen zu lassen. 1440p wäre auch schon besser, Hauptsache kein FHD aka Fliegengitter.
pixeljetstream
2018-08-25, 16:56:48
@GSXR-1000 die dx12 Titel benutzen doch DXR. RTX ist der NV Marketing Name für den Treiber & HW Teil der das implementiert.
MS lädt jedes Jahr Hersteller und Entwickler ein wo diskutiert wird wie es weiter gehen soll. Die Hersteller bringen dabei ihre Vorschläge ein und nach Feedback aller entschiedet MS was es will. Bei Khronos hat NV auch sein System eingereicht dort dauert die Konsensfindung halt immer was länger.
Da alle Hersteller im Wettstreit sind versucht immer jeder die APIs zu seinen Gunsten zu beeinflussen. Jeder trägt die R&D Kosten ja auch für sich. Wenn man sich die OpenGL oder jetzt Vulkan Extension Historie anschaut, haben einzelne Hersteller immer oft erst proprietäre Lösungen zur Verfügung gestellt, ehe es Hersteller übergreifend was gab.
Irgendwer wäre immer der erste gewesen, im Fall von raytracing hatte es ja Imagination auch vor paar Jahren probiert, aber die waren im falschen Markt/zu klein.
Imo idealisiert ihr wie die anderen DX Versionen zu Stande gekommen sind. Jeder Hersteller will etwas haben mit dem er den anderen zumindest eine Zeitlang voraus ist.
Imo ist die Geschichte mit der Frontleuchte einfach eine erhöhte Startdistanz des Strahls.
Müssen alle Reflektionen vom raytracing kommen? Denke nicht, nur die, die halt ohne nicht möglich wären. Die Spielentwickler werden ein Maß finden. Schon jetzt ohne RT greifen sie ja je nach Konfidenz auf screenspace dynamische probes und statische probes zurück. Jetzt haben sie halt eine neue Alternative.
Das die hw und dxr das offensichtlich hergeben zeigen doch zig Demos und Entwickleraussagen. Wieso jetzt hier sich ein Detail rauspicken? Glaubt ihr MS, epic, ILM und die gesamte Industrie belügen die Fachwelt bei der Siggraph?
Oder alle Aussteller die dort Software auf Turing zeigten.
Afaik hat niemand behauptet dass jeder Pixel ausschließlich vom raytracing kommt bei den Spielen. Es war immer von Hybrid die Sprache.
GSXR-1000
2018-08-25, 16:59:14
Nö. Ich erwarte von DIR eine Beschreibung. Ansonsten schreibe dein Zeug im Heise-Forum. Hier einfach zu sagen "bah, ist Fake" und dann auf die Aussage eines anderen Menschen zu verweisen, ist mehr als dreist.
Ich kann also ausgehen, dass du keine Erklärung liefern kannst?
Ich glaube nicht, das es deine Aufgabe oder deine Obliegenheit ist, mir vorzuschreiben, wo ich mich an threads beteilige oder nicht.
Und bereits ausreichend niedergeschriebenes muss ich nicht nochmal wiederholen. Ständige Wiederholung ist eher deine sache.
Alles weiter hatte Nairun gesagt.
nairune
2018-08-25, 16:59:38
Dir ist klar, dass dies eine Reflektion von außerhalb der Szene sein kann? Heißt, das Auto reflektiert zum Panzer und der in die Scheinwerfer.
Wie kann es dann nur dort reflektiert werden und sonst nirgends? Schwaches Argument.
unl34shed
2018-08-25, 17:02:48
Mein Gott, ihr stellt euch (beide) an...
Es geht um das hier, sollte mittlerweile klar sein. Und dass das ein Fehler ist, stellt doch wohl keiner in Frage.
Der hintere Kotflügel wird mMn. auch teilweise in der Spiegelung an der Wagenseite daneben ignoriert.
Troyan
2018-08-25, 17:04:52
Wie kann es dann nur dort reflektiert werden und sonst nirgends? Schwaches Argument.
Vielleicht hat man das Limit der Reflektion erreicht? Vielleicht ein Programmfehler? Das musst du schon DICE fragen.
Ich antworte hier nur darauf, dass man wirklich glaubt, die Reflektion im Scheinwerfer wäre fake. Und dafür gibt es hier nicht mal ein Beweis.
GSXR-1000
2018-08-25, 17:08:01
Es scheint dich ja zu freuen, dass die Konsolen mal wieder die Innovationsbremse sind...
Eher nicht, da ich keine Konsole besitze oder je besessen habe.
Daher wäre mir hier mehr als einigen anderen an schneller Marktumsetzung neuer Technologien gelegen. Das wird aber auf diesem Weg nicht passieren.
Wenn man die anderen dabei nicht mitnimmt, wird das eben nix.
Auf jeden Fall wäre die Umsetzung schneller, wenn man gemeinsame Umsetzungen suchen wuerde.
Ja, DXR ist eine Basis, aber eben momentan auch nicht mehr als das. Darauf absetzend kann man mehrere technologische Ansätze suchen. Sobald das passiert, ist eine möglichst breite Umsetzung ausgeschlossen. Umgesetzt wird am Ende sowieso die Lösung die im weitaus grösseren markt der Konsolen Umsetzung findet. Da NV hier aller voraussicht nach nicht der bestimmende Faktor wird, ist dieser Alleingang hier eher weder zum Vorteil der PC Gamer noch zum vorteil des Gesamtmarkts im Sinne einer schnellen Marktumsetzung.
unl34shed
2018-08-25, 17:08:13
Aber wie kann DICE da ein fehler machen? Ist doch laut dir nur ein klick, dass zu implementieren :biggrin:
Troyan
2018-08-25, 17:10:36
Weil der "Fehler" hier niemanden interessiert? Weil 90% eine Verbesserungen darstellen und 10% lolig sind?
Man muss sich das hier nur mal auf der Zunge zergehen lassen: Man bezeichnet etwas als Fake, dass vollkommen dynamisch ist und dessen Grundlage eine Lichtquelle darstellt, die außerhalb der Szene sich befindet.
Im Grunde ist dieser Fehler ohne Raytracing überhaupt nicht möglich. Aber diesen kleinen Fakt ignoriert man entweder bewusst oder hat wirklich keine Ahnung, wie in heutigen Spiele so etwas wirklich gefaket wird.
GSXR-1000
2018-08-25, 17:11:42
Vielleicht hat man das Limit der Reflektion erreicht? Vielleicht ein Programmfehler? Das musst du schon DICE fragen.
Ich antworte hier nur darauf, dass man wirklich glaubt, die Reflektion im Scheinwerfer wäre fake. Und dafür gibt es hier nicht mal ein Beweis.
Wenn man unterstellt (und das tatest du in vorigen Posts) Das rasterizing eigentlich "fake" sei, muss das eben fake sein? Denn diese Spiegelungen werden imho offensichtlich NICHT durch RT erzeugt, ansonsten kann ich mir die falsche Darstellung nicht erklären. So falsch könnte man RT eigentlich nicht implementieren, zumal es anderen stellen ja funktioniert? Also hat man offensichtlich einen Hybrid mode, deren jeweilige Anteile keinem von uns bekannt sind. Also laut deiner definition: Mit unbekanntem Fake anteil...
Edit zum anderen Post:
"Im Grunde ist dieser Fehler ohne Raytracing überhaupt nicht möglich. Aber diesen kleinen Fakt ignoriert man entweder bewusst oder hat wirklich keine Ahnung, wie in heutigen Spiele so etwas wirklich gefaket wird."
Anders wird ein Schuh draus (man sieht wirklich, das du von den verwendeten Technologien wenig Kenntnis hast): Bei korrekter und 100%iger RT Implementierung wäre ein solcher Fehler schlicht nicht möglich.
Troyan
2018-08-25, 17:15:14
Wenn man unterstellt (und das tatest du in vorigen Posts) Das rasterizing eigentlich "fake" sei, muss das eben fake sein? Denn diese Spiegelungen werden imho offensichtlich NICHT durch RT erzeugt, ansonsten kann ich mir die falsche Darstellung nicht erklären. So falsch könnte man RT eigentlich nicht implementieren, zumal es anderen stellen ja funktioniert? Also hat man offensichtlich einen Hybrid mode, deren jeweilige Anteile keinem von uns bekannt sind. Also laut deiner definition: Mit unbekanntem Fake anteil...
Na, dann los. Da du ja bist jetzt nicht erklärt hast, wieso es an dieser Stelle keine Reflektion geben könnte, dann beschreibe doch bitte den Fake. Wie kann DICE also an dieser Stelle diesen dynamischen Effekt erzeugen.
Also etwas musst du schon hier liefern.
/edit: Und was faselt du dauernd von "hat man offensichtlich einen Hybrid Mode"? Natürlich hat DICE einen Hybrid-Renderer. Das ist doch der Sinn der Sache hier. Hoffentlich meinst du nicht, die haben einen Hybrid-Hybrid-Mode, wo man die Reflektionen per Rasterizing dynamisch faket... Lmao.
Menace
2018-08-25, 17:18:59
Wer hätte sich zusammensetzen sollen? NV und AMD? Geht's noch bei dir? Und einen Standard gibt es doch, nennt sich DXR. Was ist dein Problem nun genau? Dass es ein ebenso proprietärer Standard wie DX12 ist?
Deine Wortwahl ist beeindruckend. Und warum nicht zusammensetzen (oder wenn nicht zusammensetzen dann könnte man ja etwas öffnen, wie mantle -> vulkan. Aber Du hast Recht: Wer käme auf so eine absurde Idee und macht etwas für Spieler und Anwender für allen Markenhersteller... oh wait. :freak:
Natürlich wäre es toll, wenn man sich für gewisse Standards zusammensetzen würde. Würde Geld sparen und die Karten vielleicht günstiger machen. Funktioniert z.B. bei OpenCl-Anwendungen auch.
AffenJack
2018-08-25, 17:26:30
Deine Wortwahl ist beeindruckend. Und warum nicht zusammensetzen (oder wenn nicht zusammensetzen dann könnte man ja etwas öffnen, wie mantle -> vulkan. Aber Du hast Recht: Wer käme auf so eine absurde Idee und macht etwas für Spieler und Anwender für allen Markenhersteller... oh wait. :freak:
Natürlich wäre es toll, wenn man sich für gewisse Standards zusammensetzen würde. Würde Geld sparen und die Karten vielleicht günstiger machen. Funktioniert z.B. bei OpenCl-Anwendungen auch.
Das hat man doch gemacht? DXR ist doch Standard bei dem man sich zusammengesetzt hat und bei Vulkan ist man gerade dabei. Was soll man sich da noch mehr zusammensetzen. Die Implementierung ist Herstellersache. Soll man sich abstimmen beim Einbau der Einheiten in die GPU? Das wäre der Tod jeglicher Innovation und du würdest nochmal 10 Jahre länger warten bis sowas realisiert wird, da jeder nur minimale Kräfte da rein legen würde.
uweskw
2018-08-25, 17:32:23
Weil der "Fehler" hier niemanden interessiert? Weil 90% eine Verbesserungen darstellen und 10% lolig sind?
Man muss sich das hier nur mal auf der Zunge zergehen lassen: Man bezeichnet etwas als Fake, dass vollkommen dynamisch ist und dessen Grundlage eine Lichtquelle darstellt, die außerhalb der Szene sich befindet.
Im Grunde ist dieser Fehler ohne Raytracing überhaupt nicht möglich. Aber diesen kleinen Fakt ignoriert man entweder bewusst oder hat wirklich keine Ahnung, wie in heutigen Spiele so etwas wirklich gefaket wird.
welche Hunde bellen? Yep. Die getroffenen. Komm mal wieder runter und hör das bellen auf. Wird langsam peinlich....
Das hat man doch gemacht? DXR ist doch Standard bei dem man sich zusammengesetzt hat und bei Vulkan ist man gerade dabei. Was soll man sich da noch mehr zusammensetzen. Die Implementierung ist Herstellersache. Soll man sich abstimmen beim Einbau der Einheiten in die GPU? Das wäre der Tod jeglicher Innovation und du würdest nochmal 10 Jahre länger warten bis sowas realisiert wird, da jeder nur minimale Kräfte da rein legen würde.
darum geht es doch. Wenn NV RT mit DXR ohne Shit-Bremsanker kompatibel ist, dann passt das ja. Warum wehrt man sich dagegen, dass jemand NV dabei auf die Finger schauen soll?
greetz
US
pixeljetstream
2018-08-25, 17:36:49
@Menace laut der Logik hätte es Mantle aber auch erst gar nicht geben dürfen, sondern man hätte gleich nen Standard aus der Luft zaubern müssen.
@Troyan ich glaube ich verstehe GSXR's Argumentation. Für ihn darf man nicht von raytracing sprechen solange es kein path-tracer ist der voll simuliert (was in den Spielen offensichtlich nicht passiert). Er greift damit Deine Aussage an, dass das gezeigte kein "fake" sei. Aus dieser Sicht (sowas wie ground truth der Lichtsimulation) hat er trollig Recht und was wir sehen ist immer noch "Fake". Ob nun raytracing zum ergänzen fehlender Reflektionen genutzt wird oder nicht, ist ihm egal. Da "wir" uns auf den Einsatz von RT hw als solches konzentriert haben, ist's einfach aneinander vorbei. Er hat vorhin auch schon Recht spitzfindig argumentiert (Rekonstruktion etc.) ;)
Digidi
2018-08-25, 17:38:09
@Menace laut der Logik hätte es Mantle aber auch erst gar nicht geben dürfen, sondern man hätte gleich nen Standard aus der Luft zaubern müssen.
Da unterschlägst du aber das AMD vorher bei Microsoft und Nvidia schon hausieren war und keiner mitmachen wollte!
Troyan
2018-08-25, 17:43:56
Dann denkt man aber nur im Absoluten. Demnach wären auch korrekte Reflektionen an Stelle A) fake, weil durch Optimierungen an anderen Stellen eben weniger rechenintensiv gearbeitet wird.
Wir reden hier immer noch über Spiele. Die sind ja perse Fake und Battlefield 5 ist weit ab von jeder "realistischen Darstellung". Das Raytracing in dem Spiel ist jedoch eine massive Aufwertung. Ob dadurch nun andere Probleme entstehen, ist nebensächlich und eine Aufgabe der Entwickler diese zu lösen. Aber zu behaupten, weil Raytracing Probleme verursachen würde, wäre es kein "richtiges" Raytracing, ist einfach irrsinnig.
pixeljetstream
2018-08-25, 17:45:43
Da unterschlägst du aber das AMD vorher bei Microsoft und Nvidia schon hausieren war und keiner mitmachen wollte!
Ja damit unterstützt Du ja mein Argument, dass man erstmal was in den Markt bringen muss um Druck für Fortschritt zu erzeugen. Menace Aussage habe ich so interpretiert dass proprietäre Lösungen nicht geben darf. Ich sehe sie hier als notwendigen Schritt zu einem späteren Standard.
IrisGL > OpenGL, Cg > HLSL, Cuda driver > OpenCL, Mantle beeinflusste VK/dx12, Optix beeinflusst DXR und RadeonRays Metal2 raytracing api.
Wir hatten die Diskussion ja in nem eigenen Thread schon x Mal ;)
aufkrawall
2018-08-25, 17:50:02
Uh, Grafikeffekte über exklusive APIs und externe Libs war in der Vergangenheit eine ziemliche Bugschleuder. Selbst wenn der Bug auf Nvidias Treiberseite lag (Crashes in Far Cry 4...), haben Fixes teilweise Monate gebraucht. Auf so etwas hätte ich echt gar keinen Bock mehr...
Digidi
2018-08-25, 17:50:49
Ja damit unterstützt Du ja mein Argument, dass man erstmal was in den Markt bringen muss um Druck für Fortschritt zu erzeugen. Menace Aussage habe ich so interpretiert dass proprietäre Lösungen nicht geben darf. Ich sehe sie als notwendigen Schritt zu einem späteren Standard. Wir hatten die Diskussion ja in nem eigenen Thread schon x Mal ;)
Wenn AMD Nvidia und Microsoft vorher anfragt ob sie mitmachen wollen, ist das nicht erst mal eine proprietäre Lösung. Man ging ja offen mit dem Thema um.
pixeljetstream
2018-08-25, 18:00:15
Wenn AMD Nvidia und Microsoft vorher anfragt ob sie mitmachen wollen, ist das nicht erst mal eine proprietäre Lösung. Man ging ja offen mit dem Thema um.
Es geht hier um rechtliche Rahmen, Patente, Macht etc. Leider ist das alles unter NDA, will nur sagen die Story nach aussen mag netter klingen als es realistisch ist. Ich werfe da auch keiner Firma was vor.
=Floi=
2018-08-25, 18:07:09
Mein Gott, ihr stellt euch (beide) an...
Es geht um das hier, sollte mittlerweile klar sein. Und dass das ein Fehler ist, stellt doch wohl keiner in Frage.
ist es doch nicht, weil perspektivisch der flammenwerfer des panzers noch weiter vorne ist und so in den scheinwwerfer leuchtet.
Menace
2018-08-25, 18:15:54
@Menace laut der Logik hätte es Mantle aber auch erst gar nicht geben dürfen, sondern man hätte gleich nen Standard aus der Luft zaubern müssen.
Soweit ich mich erinnern kann, hat AMD von Anfang an gesagt, dass es offener Standard werden sollte. Was haben sich hier dann die typischen Strategen dann darüber beschwert, als sich das verzögert hat.
Ich hoffe doch, dass nicht nur MS und nVidia zusammen saßen; sondern dass es in großer Runde diskutiert wurde, wie RT in DXR implementiert wird.
Eigentlich wollte ich nur darauf hinaus, dass Timbaloo GSXR beleidigte, dass es ja ein absolute Unmöglichkeit sei, wenn sich Hersteller zusammensetzen würden um Standards festzulegen (mal davon abgesehen, dass ich diese persönliche Herabwürdigungen immer sehr nervig finde).
GSXR-1000
2018-08-25, 18:16:48
@Menace laut der Logik hätte es Mantle aber auch erst gar nicht geben dürfen, sondern man hätte gleich nen Standard aus der Luft zaubern müssen.
@Troyan ich glaube ich verstehe GSXR's Argumentation. Für ihn darf man nicht von raytracing sprechen solange es kein path-tracer ist der voll simuliert (was in den Spielen offensichtlich nicht passiert). Er greift damit Deine Aussage an, dass das gezeigte kein "fake" sei. Aus dieser Sicht (sowas wie ground truth der Lichtsimulation) hat er trollig Recht und was wir sehen ist immer noch "Fake". Ob nun raytracing zum ergänzen fehlender Reflektionen genutzt wird oder nicht, ist ihm egal. Da "wir" uns auf den Einsatz von RT hw als solches konzentriert haben, ist's einfach aneinander vorbei. Er hat vorhin auch schon Recht spitzfindig argumentiert (Rekonstruktion etc.) ;)
Im grunde hast du verstanden was ich meinte. Was du als "spitzfindig" und "trollig" bezeichnest, mag schlicht daher kommen, das ich eher aus der mathematisch wissenschaftlichen ecke komme und daher gewohnt bin, begriffe trennscharf und definitionsgemaess zu verwenden.
Man sehe mir das nach, aber ich dachte das diese diskussion schon auch einem solchen anspruch gerecht wuerde.
Zwischen rasterizing und rt so wie ich es kenne und verstehe gibt es einen wesentlichen unterschied:
Das erste ist vom ansatz her schon nur ein naeherungsweise ansatz, eine ungefaehr darstellung, waehrend RT eine absolute und genaue darstellung ist. Das ist der wesentliche vorteil des RT ansatzes, waehrend der rasteransatz den vorteil deutlich geringerer rechenlast hat.
Ich sehe den vorteil einer gemischten anwendung schlicht nicht, vor allem nicht bezogen auf einen aspekt, beispielsweise spiegelung, weil in diesem fall das ergebnis wiederum nur ein verwaessertes, naehrungsweises ist. Rt macht fuer mich dann sinn, wenn man es, mindestens bezogen auf einen aspekt der darstellung ausschliesslich und vollstaendig anwenden kann. Denn dann hat man den vorteil der absoluten darstellung und der rechenaufwand ist sinnvoll genutzt.
Nutzt man hingegen ein hybridmodell dieser zwei grundsaetzlich unterschiedlichen methoden, ist die gefahr durch entstehende artefakte (in form von nicht uebereinstimmenden informationen) recht gross. Wie man in den bildern zum beispiel sieht.
Deshalb begruesse ich den gewaehlten ansatz nicht mit derselben begeisterung wie andere es hier offensichtlich tun.
Armaq
2018-08-25, 18:18:07
Wenn AMD Nvidia und Microsoft vorher anfragt ob sie mitmachen wollen, ist das nicht erst mal eine proprietäre Lösung. Man ging ja offen mit dem Thema um.
Bin da auch voll für opensource, aber idR. nervt das manchmal hart. AMD hat für mantle ja auch anders agiert und OpenGL ist kein Vorbild.
Innovators Dilemma ist hier voll anwendbar, auch wenn etwas andere Regeln greifen.
Troyan
2018-08-25, 18:24:45
Nutzt man hingegen ein hybridmodell dieser zwei grundsaetzlich unterschiedlichen methoden, ist die gefahr durch entstehende artefakte (in form von nicht uebereinstimmenden informationen) recht gross. Wie man in den bildern zum beispiel sieht.
Kannst du dieses Hybrid-Modell bitte endlich beschreiben. Ich bin ganz interessiert, wie man Raytracing per Fake darstellen kann. :eek:
/edit: Nur so, da du Probleme mit Artefakten hast, ist also auch das Investieren in Fake-Rasterizing-Effekten für dich genauso sinnlos? Wäre irgendwie unlogisch, wenn verschwendete Rechenleistung hier dann wiederum okay wäre...
Timbaloo
2018-08-25, 18:39:36
Eigentlich wollte ich nur darauf hinaus, dass Timbaloo GSXR beleidigte, dass es ja ein absolute Unmöglichkeit sei, wenn sich Hersteller zusammensetzen würden um Standards festzulegen (mal davon abgesehen, dass ich diese persönliche Herabwürdigungen immer sehr nervig finde).
:confused:
Ich bin ja sicher nicht auf den Mund gefallen, aber wenn das in deinen Augen beleidigend war... Ohje...
Zur Sache: Merkst du nicht wie bescheuert das aus Sicht von NV wäre? "Hey, wir werden in 12 Monaten eine neue Hardwaregeneration mit RT-Support bringen, können wir uns da noch schnell mit euch von AMD zusammentun und einen Standard definieren?"
Spätestens hier sollte auch klar werden, warum Mantle/Vulkan ein denkbar dämlicher Vergleich zu RT/DXR/etc. ist.
Wirklich, eure Vorstellungen wie der "Markt" (in Anführungsstrichen weil es ja mehr planwirtschaftlichen Charakter hätte) funktionieren sollte sind vollkommen abstrus.
das ich eher aus der mathematisch wissenschaftlichen ecke komme
;D
pixeljetstream
2018-08-25, 18:53:38
Zur Sache: Merkst du nicht wie bescheuert das aus Sicht von NV wäre? "Hey, wir werden in 12 Monaten eine neue Hardwaregeneration mit RT-Support bringen, können wir uns da noch schnell mit euch von AMD zusammentun und einen Standard definieren?"
Naja man legt MS/GAB das ganze ja auch vor, ergo das Jahr ist schon realistisch. Durch das was man vorschlägt wissen die anderen ja in etwa was kommt. Und wann können die dann auch grob abschätzen. MS überrumpelt die Entwickler ja auch nicht so, die wollen ja auch Feedback, Tools etc.
Timbaloo
2018-08-25, 18:55:19
Es ist aber doch ein gewaltiger Unterschied ob man das MS (inlusive Geheimhaltungsvereinbarungen) zeigt, oder halt dem direkten Konkurrenten.
Troyan
2018-08-25, 18:59:58
Naja man legt MS/GAB das ganze ja auch vor, ergo das Jahr ist schon realistisch. Durch das was man vorschlägt wissen die anderen ja in etwa was kommt. Und wann können die dann auch grob abschätzen. MS überrumpelt die Entwickler ja auch nicht so, die wollen ja auch Feedback, Tools etc.
Die Frage ist ja vielmehr, ob AMD aus dem Vorschlag abstrahieren konnte, dass nVidia so etwas wie Turing bauen würde - also dedizierte Einheiten für RT-Berechnungen.
=Floi=
2018-08-25, 19:09:32
Ohne die konkurrenz geht es eh nicht.
Je eher das AMD kann, desto besser für die NV user. Für eine breite marktdurchdringung müssen es alle können.
Was ist denn die tolle shader technik? kommt bei nv jetzt auch 16bit?
Screemer
2018-08-25, 19:11:08
Ne ganz sicher nicht. Die bei AMD sind nämlich per se alle auf den Kopf gefallen.
Menace
2018-08-25, 19:15:56
Zur Sache: Merkst du nicht wie bescheuert das aus Sicht von NV wäre? "Hey, wir werden in 12 Monaten eine neue Hardwaregeneration mit RT-Support bringen, können wir uns da noch schnell mit euch von AMD zusammentun und einen Standard definieren?"
Spätestens hier sollte auch klar werden, warum Mantle/Vulkan ein denkbar dämlicher Vergleich zu RT/DXR/etc. ist.
Klar. Dämlicher Vergleich: RT ist nur ein kleiner neuer Bestandteil; Mantle/Vulkan eine komplette Grundlage (für lau).
Wobei wir ja noch nicht wissen (oder nicht sagen dürfen) wie das im einzelnen ausfällt. Vielleicht gibt es ja wirklich eine sauber DXR-Lösung wovon alle profitieren.
pixeljetstream
2018-08-25, 19:19:48
Es ist aber doch ein gewaltiger Unterschied ob man das MS (inlusive Geheimhaltungsvereinbarungen) zeigt, oder halt dem direkten Konkurrenten.
Ich meine damit schon den Teil vom DX Gremium wo alle Hersteller vertreten sind. MS will ja mit der Lösung überall erfolgreich sein.
https://twitter.com/Kaplanyan/status/936821388425314305?s=19 das GAB ist die Veranstaltung wo auch die Spielentwickler vertreten sind. Ohne die hätte man zur GDC dieses Jahr ja auch nix zeigen können.
Ein Jahr ist ja "nix", wenn ne normale Chip Entwicklung schon zwei Jahre dauert. Imo profitiert Intel nun beim Wiedereinstieg, haben dann quasi gleichen Vorlauf wie AMD in der Sache.
@Troyan imo war denen auch spätestens bei der GDC star wars demo klar, dass die nächste hw das in einem Chip schafft, warum sonst auf nen gaming Event medienwirksam ne so teure Workstation präsentieren. Und hatte NV nicht das gleiche mit Epic und "The good Samaritan" 3 Fach SLI dann single GPU schonmal gemacht?
Timbaloo
2018-08-25, 19:19:58
Klar. Dämlicher Vergleich: RT ist nur ein kleiner neuer Bestandteil; Mantle/Vulkan eine komplette Grundlage (für lau).
Nein, weil das eine ist eine reine Softwaremaßnahme ist, das andere eine Hardwaremaßnahme.
Aber gut, wenn für dich RT nur ein "kleiner neuer Bestandteil", dann weiß ja jetzt jeder was du hier willst...
Menace
2018-08-25, 19:26:22
Aber gut, wenn für dich RT nur ein "kleiner neuer Bestandteil", dann weiß ja jetzt jeder was du hier willst...
Siehst Du, Deine persönlichen Angriffe gehen durch die Bank durch weiter. Ich habe hier schon oftmals erwähnt, dass ich RT toll finde. Aber mit RT läuft zumindest in nächster Zeit) kein Spiel alleine. Oder behauptest Du, dass Vulkan = DXR = RT sei? :confused:
pixeljetstream
2018-08-25, 19:27:52
Zankt doch nicht wegen so Kleinigkeiten.
Vulkan ist nicht für "lau", wenn du kein Khronosmitglied bist, bist Du (als implementor, nicht als Konsument) allen Patenten die darin sind ausgesetzt. Die Mitgliedschaft dient quasi als Nichtangriffspackt. Genau wie MS für DX nen rechtlichen Rahmen schafft, tut das Khronos mit seinem IP framework auch.
Timbaloo
2018-08-25, 19:28:54
wtf???
pixeljetstream
2018-08-25, 19:32:08
Du kriegst ohne rechtlichen Rahmen die Firmen nicht einfach so zu gemeinsamen Projekten. Das sollte einleuchten. Sonst bräuchte es ja keine Khronos Gruppe.
Timbaloo
2018-08-25, 19:32:45
Du kriegst ohne rechtlichen Rahmen die Firmen nicht einfach so zu gemeinsamen Projekten. Das sollte einleuchten.
Das "wtf" war eine Antwort auf Menace, sorry für die Verwirrung.
Menace
2018-08-25, 19:40:35
Zankt doch nicht wegen so Kleinigkeiten.
Vulkan ist nicht für "lau", wenn du kein Khronosmitglied bist, bist Du (als implementor, nicht als Konsument) allen Patenten die darin sind ausgesetzt.
Was bedeutet das Konkret, den Patenten ausgesetzt sein? Wer mitmacht oder etwas implementiert muss zahlen? :confused:
Vulkan liefert doch wie DX oder OpenCl eine Schnittstelle, der man sich bedienen kann (z.B. läuft Teile meiner genutzten DMA-Software auch über DX (Bildanzeige)).
=Floi=
2018-08-25, 19:41:18
Imo profitiert Intel nun beim Wiedereinstieg, haben dann quasi gleichen Vorlauf wie AMD in der Sache.
die frage ist doch schon eher wie groß deren chips werden. Mit den 756mm2 hat NV extrem vorgelegt. Selbst wenn die anderen pro mm2 20-30% schneller wären reisst es die großere fläche wieder raus. :freak: :eek:
Bin auch gespannt wie intel auf turing reagiert und ob sie die consumer karten nicht gleich einstampfen.
SKYNET
2018-08-25, 19:48:15
und ob sie die consumer karten nicht gleich einstampfen.
intel hat aktuell erstmal ganz andere probleme... anleger rennen weg, aktienkurs seit 3 monaten im freien fall, kommenden 2 jahre keine CPUs die konkurrenzfähig sind, diverse sicherheitslücken die in der architektur gestopft werden müssen, werden weitere verzögerungen hervorrufen... intel ist auf gut deutsch, gerade extrem am arsch ;D
Fragman
2018-08-25, 20:03:13
intel ist auf gut deutsch, gerade extrem am arsch ;D
genau, intel ist am arsch, turing wird floppen und amd macht mit ihrer "nichtstun und nichts bringen" strategie alles richtig. wtf ist hier im thread los. :rolleyes:
Ex3cut3r
2018-08-25, 20:25:17
Bei solchen Leute frage ich mich das auch, Skynet hetzt gegen Nvidia Intel seit Wochen, steigt aber von einer 1070 auf eine 1080 dann auf eine 1080Ti und jetzt will er sich Turing holen. Hol dir doch am besten eine Vega dann sind wir dein dämliches Gelaber endlich los.
pixeljetstream
2018-08-25, 20:34:27
Was bedeutet das Konkret, den Patenten ausgesetzt sein? Wer mitmacht oder etwas implementiert muss zahlen? :confused:
Vulkan liefert doch wie DX oder OpenCl eine Schnittstelle, der man sich bedienen kann (z.B. läuft Teile meiner genutzten DMA-Software auch über DX (Bildanzeige)).
Als Benutzer, Softwareentwickler etc. Gibt es keine Probleme, da benutzt Du ja die Implementation eines Herstellers.
Als Hersteller der API verletzt Du aber eventuell Patente die für die Umsetzung zwingend notwendig sind.
Zum Beispiel konnte der Software-Renderer MESA lange Zeit kein volles OpenGL, weil dafür Patente zur Texturkompression notwendig waren. Erst als die abgelaufen sind ging das.
Wenn die Khronosmitglieder sich also auf die neuen Versionen eines Standards über das Stimmrecht einigen, legen sie auch untereinander etwaige Patente vor, die minimal nötig sind das umzusetzen. Ist die neue Version ratifiziert, darf kein Mitglied ein anderes mit diesen Patenten angreifen, sonst fliegt es komplett aus Khronos. Das ist Teil des Khronos IP Framework. Jeder Standard (VK, GL, CL...) ist da für sich.
Sonst könnte ja ein Hersteller sich stark für ein Feature machen und dann nachdem es zum Standard wurde alle verklagen ;)
Der Standard ist offen, weil jeder Khronos beitreten kann (der Betrag ist für Firmen auch nicht viel) und alle in ihrem Stimmrecht gleichberechtigt sind. Es gibt keine Abgaben die an ausgelieferte Geräte etc. gekoppelt sind. Aber da Demokratie halt was länger dauert zieht es sich mit Features immer bissl hin.
(Evtl verschieben wir die ganze Diskussion in den passenden Thread).
Das ganze Rechtszeug ist nicht ohne, einige Hersteller wußten von DXR, dürfen in Khronos aber nix dazu sagen, erst als es mit GDC öffentlich wurde, weil die DX Diskussion eben unter MS Regentschaft herrscht. Da hat Vulkan schonmal bissl Zeit verloren gegen DX. Und Sony evtl gegen MS, weil AMD darf denen dann ja auch nix sagen ;)
Ihr seht wenn ich meine dass die Mantle Sache außerhalb von Khronos/DX viele Implikationen gehabt hätte, wie das nun alles zu regeln ist. Wäre AMD der "Boss" hätten sie beide Konsolen und PC unter Kontrolle gehabt. Ergo es konnte imo nur so enden wie es ausging...
uweskw
2018-08-25, 20:46:51
Mich würde mal ein Statement von einem "NDA-Verweigerer" interessieren was konkret er nun schreiben darf das unter NDA nicht "gern gesehen" wäre......
ich weiß, ist kein guter Stil. :redface:
Irgendwo gab es doch mal ne Aufstellung wer alles NV-NDA-Verweigerer ist. Kann die mal jemand verlinken der weiß wo....?
greetz
US
BiZiNiZz
2018-08-25, 20:49:39
ich weiß, ist kein guter Stil. :redface:
Irgendwo gab es doch mal ne Aufstellung wer alles NV-NDA-Verweigerer ist. Kann die mal jemand verlinken der weiß wo....?
greetz
US
Ist irgendwo im entsprechenden Thread zu finden und hat hier absolut nichts zu suchen
crux2005
2018-08-25, 20:50:12
Uh, Grafikeffekte über exklusive APIs und externe Libs war in der Vergangenheit eine ziemliche Bugschleuder. Selbst wenn der Bug auf Nvidias Treiberseite lag (Crashes in Far Cry 4...), haben Fixes teilweise Monate gebraucht. Auf so etwas hätte ich echt gar keinen Bock mehr...
Die Crashes in FC4 wurden nie gefixed. Mit GameWorks Effekten an crashed das Spiel auch Heute noch.
Wird wahrscheinlich auch nicht anders mit den BF1/BFV lags sein.
MasterElwood
2018-08-25, 22:12:56
Hat irgendjemand eine gute Schätzung wann die Nachfolger RTX kommen?
Weil ich tendiere eher zur 2080 - aber wenns wirklich noch 2 Jahre dauert würde ich dann doch eher eine TI nehmen.
Dachte ja eigentlich 2019 ist eine sichere Sache weil 7nm steht ja vor der Tür und dass es die TI jetzt schon gibt wäre ja dann auch nur logisch.
Aber mehr und mehr höre ich 2020?
wolik
2018-08-25, 22:22:31
Hat irgendjemand eine gute Schätzung wann die Nachfolger RTX kommen?
Weil ich tendiere eher zur 2080 - aber wenns wirklich noch 2 Jahre dauert würde ich dann doch eher eine TI nehmen.
Dachte ja eigentlich 2019 ist eine sichere Sache weil 7nm steht ja vor der Tür und dass es die TI jetzt schon gibt wäre ja dann auch nur logisch.
Aber mehr und mehr höre ich 2020?
Ich denke es kommt zuerst noch Titan Xt (oder so ähnlich 1990€ ?) dann 3080 2019-2020. Wenn SLI mit NVLink und RT läuft, dann SLI 2080Ti beste Wahl bis die Titan Xt kommt.
Locuza
2018-08-25, 22:31:06
@GSXR-1000 die dx12 Titel benutzen doch DXR. RTX ist der NV Marketing Name für den Treiber & HW Teil der das implementiert.
[...]
Nur das oder noch mehr wie exklusive extra APIs obendrauf, damit es nur bei Nvidia exklusiv läuft?
Da fehlt mir aktuell die Transparenz, ob die RTX-Einbindung bei jedem Hersteller laufen kann, solange er DXR unterstützt oder ob es nur bei Nvidia funktionieren wird, egal ob mit oder ohne DXR-Treiber.
Das macht mir auch ein bißchen Sorge. Bei Nvidia heißt es
"Microsoft DXR enhanced with NVIDIA ray tracing libraries". Das heißt zwar noch nichts, aber Deinem Wunsch nach mehr Transparenz schließe ich mich mal an.
pixeljetstream
2018-08-25, 23:36:59
Die Hierarchie ist genau wie bei dx12. DXR oben auf, jeder Hersteller selbst verantwortlich. Die Grundfunktionen sind also für alle gleich.
Genau wie bei dx11/dx12... gibt es aber zusätzlich Sachen die der Hersteller liefern kann, denoising via gameworks etc.
Welche Spiele davon Gebrauch machen weiß ich nicht. Werden die Entwickler aber sicher selbst sagen.
RTX ist ein Sammelbegriff/Marketing Name seitens NV und keine API oder was sonst relevant wäre für andere Hersteller. Es soll alles ausdrücken was mit raytracing bei NV zu tun hat.
Microsoft wird sagen guckt das Spiel nutzt DXR und NV wird sagen es nutzt RTX.
Im Falle von Vulkan wird es tatsächlich erstmal nur was proprietäres geben bis das Standard feature fertig ist.
Ex3cut3r
2018-08-25, 23:57:37
Ganz ehrlich ich werde eine RTX 2080 oder Ti kaufen. Aber RT werde ich wahrscheinlich nie benutzen. Ich spiele in 3440x1440. Und nicht FHD oder ähnliches, RTX sehe ich wenn überhaupt erst mit der der nächsten Nvidia Gen (welche ist das eigentlich?) in 1440p machbar. 4K dann wohl erst in der übernächsten Gen?! Da finde ich das Ai "AA" wesentlich interessanter.
Die Hierarchie ist genau wie bei dx12. DXR oben auf, jeder Hersteller selbst verantwortlich. Die Grundfunktionen sind also für alle gleich.
Genau wie bei dx11/dx12... gibt es aber zusätzlich Sachen die der Hersteller liefern kann, denoising via gameworks etc.
Welche Spiele davon Gebrauch machen weiß ich nicht. Werden die Entwickler aber sicher selbst sagen.
RTX ist ein Sammelbegriff/Marketing Name seitens NV und keine API oder was sonst relevant wäre für andere Hersteller. Es soll alles ausdrücken was mit raytracing bei NV zu tun hat.
Microsoft wird sagen guckt das Spiel nutzt DXR und NV wird sagen es nutzt RTX.
Im Falle von Vulkan wird es tatsächlich erstmal nur was proprietäres geben bis das Standard feature fertig ist.
Unterstellen wir mal, dass alle bisher gezeigten RT-Spiele (SotTR, Metro, BF5 etc.) im Rahmen der Nvidia Developer Relations unterstützt werden. Dann werden die Entwickler dazu angehalten, von RTX statt DXR zu sprechen. Und dann werden sie wohl auch Calls Richtung "RTX" machen. Die Frage ist: Ist das technisch korrekt? Gibt es eine Schnittstelle über der Schnittstelle, einfach um eine Schnittstelle zu haben, die die Konkurrenz aussperrt? Und wenn dem so wäre, könnte AMD einen Wrapper schreiben, der die Calls Richtung RTX abfängt und Richtung AMDs DXR-Implementierung schickt? Das wäre dann immer ein Software-Fallback (sprich: ALU-Abarbeitung statt RT-Kerne) und langsam, aber mir geht's speziell um die Machbarkeit.
MfG,
Raff
Troyan
2018-08-26, 00:08:40
RTX ist nur nVidias Kunstname für das komplette Paket. Die API nennt sich DXR.
DXR ist abstrahiert genug, dass die API Calls vom Treiber auf die Hardware entsprechend gemappt werden kann. Siehe Volta gegen Turing.
Kannst du dieses Hybrid-Modell bitte endlich beschreiben. Ich bin ganz interessiert, wie man Raytracing per Fake darstellen kann. :eek:
Vergiß es, er hat keine Ahnung, und trollt IHMO hier nur rum, setz ihn auf ignore, mach ich schon ne Weile, und es liest sich entspannter. Ich hab auch keine Vorstellung, wie Nvidia RT faken soll. Wenn die Bildberechnung nicht per Strahlverfolgung erfolgen sollte, ist das ganz einfach kein RT. Und wie sollte man ohne RT diese gezeigten Reflexionen hinbekommen?
RTX ist nur nVidias Kunstname für das komplette Paket. Die API nennt sich DXR.
DXR ist abstrahiert genug, dass die API Calls vom Treiber auf die Hardware entsprechend gemappt werden kann. Siehe Volta gegen Turing.
Man kennt das ja schon, dass Abrufe zu Libraries gemacht werden, um eine bestimmte Mindestvoraussetzung künstlich zu erzwingen. War das nicht beispielsweise Halo 2 am PC mit D3D9Ex, oder so? Mir geht's, wie gesagt, um die Praxis, nicht um den gesunden Menschenverstand.
MfG,
Raff
Troyan
2018-08-26, 00:24:25
Die Praxis ist DXR. Wie die Calls gemappt werden, hängt vom Hardwarehersteller ab.
Menace
2018-08-26, 00:32:33
Im Falle von Vulkan wird es tatsächlich erstmal nur was proprietäres geben bis das Standard feature fertig ist.
DXR war rechtzeitig fertig. Vulkan bekommt etwas proprietäres; glaubst Du, nVidia geht dananch zurück auf einen Standard-Feature?
Mir schwant böses. Gameworks/RTX-Titel werden analog zum unterirdisch tesselierten Wasser bestimmte RT-Erweiterungen einbauen, die dann entsprechend wenig AMD schmecken dürften (wenn sie denn mal ihr RT-Zeugs in einigen Jahren auf die Beine stellen). Momentan wird RT sowieso ein nVidia-Only-Feature sein.
Orbmu2k
2018-08-26, 00:38:30
Unterstellen wir mal, dass alle bisher gezeigten RT-Spiele (SotTR, Metro, BF5 etc.) im Rahmen der Nvidia Developer Relations unterstützt werden. Dann werden die Entwickler dazu angehalten, von RTX statt DXR zu sprechen. Und dann werden sie wohl auch Calls Richtung "RTX" machen. Die Frage ist: Ist das technisch korrekt? Gibt es eine Schnittstelle über der Schnittstelle, einfach um eine Schnittstelle zu haben, die die Konkurrenz aussperrt? Und wenn dem so wäre, könnte AMD einen Wrapper schreiben, der die Calls Richtung RTX abfängt und Richtung AMDs DXR-Implementierung schickt? Das wäre dann immer ein Software-Fallback (sprich: ALU-Abarbeitung statt RT-Kerne) und langsam, aber mir geht's speziell um die Machbarkeit.
MfG,
Raff
Also wenn wir davon ausgehen dass die Entwickler direkt DXR ansprechen dann kann AMD zumindest eine RT Implementierung liefern die transparent ausgeführt werden würde. Wenn ich jedoch pixeljetstream richtig verstanden habe läuft das Denoising über Gameworks. Ohne Denoising wäre das Ergebnis aber völlig unbrauchbar. Also müsste der Spieleentwickler dafür einen eigenen Denoiser entwickeln oder AMD etwas vergleichbares liefern was dann auch erst eingebaut werden muss.
Troyan
2018-08-26, 00:46:44
Du kannst doch gleichzeitig Denoising machen. Das müsste doch dann über normale Compute-Shader gehen.
AI-Denoising würde bei nVidia sowieso nicht über DXR funktionieren, da das ganze über die TensorCores läuft. Das würde analog zu DXR über DML angesprochen werden.
Na ja, da die Gameworks DLLs ja dem Vernehmen nach ziemliche Blackboxes sein sollen und die Entwickler nicht auf die blöde (und ziemlich sicher illegale) Idee kommen werden, jene DLLs zu reverse engineeren, nur um einen vermeintlichen Geschwindigkeitsvorteil durch Direktansprache der so ermittelten Einsprungpunkte zu erzielen und bei jedem Gameworks-Update diesen (illegalen) Stunt wiederholen zu dürfen (lol), werden sie wohl brav das DXR-Api verwenden. Dann muß der Spieleentwickler doch gar nichts für AMD einbauen, sondern AMD muß "lediglich" einen Denoiser + Tensor Cores + gegen DXR gelinkte DLLs liefern. Oder übersehe ich was?
Dann muß der Spieleentwickler doch gar nichts für AMD einbauen, sondern AMD muß "lediglich" einen Denoiser + Tensor Cores + gegen DXR gelinkte DLLs liefern. Oder übersehe ich was?
Wer das berechnet, sollte egal sein, Tensor Cores sind dafür nicht nötig. Du brauchst nur was, was schnell genug das berechnet. ;)
Stimmt natürlich, aber da "Gott und die Welt" Tensor Cores verwendet, gehe ich mal einfach davon aus, daß sie das Mittel der Wahl sind. Aber Du hast Recht.
pixeljetstream
2018-08-26, 01:59:41
DXR war rechtzeitig fertig. Vulkan bekommt etwas proprietäres; glaubst Du, nVidia geht dananch zurück auf einen Standard-Feature?
Ja. wenn NV kein Interesse an den Standards hätte, hätte man es doch komplett sein lassen. NV engagiert sich maßgeblich in Vulkan und hat bisher GL und VK Versionen als einer der ersten unterstützt. Jeder Entwickler in Khronos und im Advisory Panel weiß das. Man versorgt Entwickler mit neuen Treibern unter NDA während die neuen Versionen definiert werden.
Warum es bei CL anders lief, hatten wir ja auch schon.
Natürlich wird es nachwievor auch Lösungen geben die lizensiert werden via Gameworks etc. aber dafür gibt die Firma ja auch die Entwicklung aus mit dem Geld seiner Kunden... das ist der Mehrwert den die Marke liefert. Die Firma ist keine reine HW Firma.
MS, die Spiele und Engineentwickler geben doch nicht NV zu Liebe das Geld für RT aus, die wollen etwas worauf sie langfristig bauen und großen Markt erreichen können.
AMD oder Intel liefern ihren eigenen Treiber für DXR. Was den Einsatz von denoising Technik angeht, so ist dies jedem Spielentwickler selbst überlassen was sie alles einsetzen. Das ist nicht Teil von DXR, sie könnten dafür WINML nutzen, oder nur compute shader oder eben Gameworks, oder mehreres.
Das alles ist den Entwicklern auch lange bewusst. Wie vorher geschrieben fällt sowas wie DXR nicht vom Himmel. Es gibt von MS Tagungen der HW Hersteller, Tagungen der Softwarehersteller etc.
Stimmt natürlich, aber da "Gott und die Welt" Tensor Cores verwendet, gehe ich mal einfach davon aus, daß sie das Mittel der Wahl sind. Aber Du hast Recht.
Denk an den Larrabee, der auch schon das Ziel verfolgte, RT mit mehreren Cores zu rechnen. Jedoch ist die x86er-Architektur dafür einfach nicht gut genug, und deshalb ist Intel damit auch gescheitert. Das was Nividia da geschafft hat, Tensor Cores für KI und RT tauglich zu machen, wenn sich das bewahrheiten sollte, ist wirklich eine besondere Leistung.
Leonidas
2018-08-26, 06:09:59
Kann Ihn jemand mal sperren. Das genau das ist Fläming! Hauptsache irgend eine Behauptung ohne Begründung nichts.
???
Ich denke schon, das man hier Behauptungen notfalls auch ohne Begründung aufstellen darf. Moderiert werden sollen persönliche Angriffe oder auch ein allgemein aggressiver Schreibstil, der die Diskussion vergiftet. Aber das? Sind wie hier in der Heiligen Inquisition oder bei den Stalinisten?
Sorry, musste gesagt werden. Wir können den Mods nicht noch die Arbeit aufhalsen, wertvolle von nicht wertvollen Beiträgen zu trennen. Aber wir können die Mods dadurch entlasten, gegen die Person gehende Kommentare gleich besser ganz zu unterlassen. Greift mit Argumenten die Sache an, nicht die Person.
GSXR-1000
2018-08-26, 08:04:06
Vergiß es, er hat keine Ahnung, und trollt IHMO hier nur rum, setz ihn auf ignore, mach ich schon ne Weile, und es liest sich entspannter. Ich hab auch keine Vorstellung, wie Nvidia RT faken soll. Wenn die Bildberechnung nicht per Strahlverfolgung erfolgen sollte, ist das ganz einfach kein RT. Und wie sollte man ohne RT diese gezeigten Reflexionen hinbekommen?
Liebster PHUV, auch wenn du immer vorgibst, mich auf ignore zu haben, beweist du oft genug das dem nicht so ist. Deshalb erlaube ich mir doch zu antworten.
Fakt ist: das ergebnis in besagten Bildern ist nicht korrekt.
Fakt ist auch: NV gibt vor die spiegelungen seien mittels RT berechnet worden.
Beides passt nicht zusammen.
Wie also kann das sein? bei korrekter implementierung von RT könnte das ergebnis der Berechnung nicht geometrisch falsch sein. Von einer grundsätzlich korrekten RT implementierung duerfen wir aber zugunsten von NV mal ausgehen.
Welche Möglichkeit besteht also, warum das ergebnis nicht korrekt ist? Nur eine: Es werden entweder nicht alle spiegelungen durch RT berechnet, oder sie werden nicht vollständig durch RT berechnet. Beides würde einen Hybrid modus darstellen. Beides wäre !im Ergebnis!, sprich im ausgabebild, derselbe "fake" (der begriff stammt übrigens von euch, nicht von mir, ich habe ihn lediglich aufgegriffen) wie durch reines rasterizing. Denn das Ausgabebild ist im Ergebnis nicht geometrisch korrekt, und somit genauso eine näherungsweise darstellung, wie es rasterizing ist. Der Mix beider berechnungsmethoden erhöht sogar die wahrscheinlichkeit für sichtbare Artefakte und unpassende Darstellung.
PHUV, du kommst doch eigenen Angaben aus der IT, so schwer ist das eigentlich wirklich nicht zu verstehen, wenn du mal deinen persönlichen Beef aussen vor lässt.
Leute gewöhnt euch doch diesen allgemeinen Meinungsfaschismus, den die Massenmedien an den Tag legen, nicht an. Etwas Respekt schadet einfach niemandem.
Wenn das Denoising proprietär bleibt, hat RT an sich ein Problem mit der Durchsetzung. Es braucht auch hier offene Standards. Das wird mit NV aber schwer machbar sein.
GSXR-1000
2018-08-26, 08:22:00
Wenn das Denoising proprietär bleibt, hat RT an sich ein Problem mit der Durchsetzung. Es braucht auch hier offene Standards. Das wird mit NV aber schwer machbar sein.
Auf den Punkt gebracht.
+1
mironicus
2018-08-26, 08:26:44
Am Ende wird es wohl so sein, dass RTX eine reine NVidia-Soße bleibt und exklusiv nur auf der eigenen Hardware läuft.
Der Standard kommt dann nachträglich von AMD und die nennen das ganze dann "Freetrace" und das läuft auf allen GPUs die DirectX 12.x unterstützen, inkl. aller zukünftigen Konsolen. :D
Mancko
2018-08-26, 08:46:00
Natürlich wird es nachwievor auch Lösungen geben die lizensiert werden via Gameworks etc. aber dafür gibt die Firma ja auch die Entwicklung aus mit dem Geld seiner Kunden... das ist der Mehrwert den die Marke liefert. Die Firma ist keine reine HW Firma.
Vielen Dank. Der letzte Satz ist der wichtigste im ganzen Thread hier und den sollten einige endlich mal zur Kenntniss nehmen. Bezieht sich ja nicht nur auf Gaming. Auch bei HPC/AI, Workstation und last but not least Automotive ist Nvidia zu einem erheblichen Teil ein Softwarelieferant und investiert extrem viel Geld in den Softwarestack. Demzufolge wird bei Produktvergleichen die Software auch immer eine Rolle spielen in Kombination mit der Hardware.
Armaq
2018-08-26, 08:52:52
Am Ende wird es wohl so sein, dass RTX eine reine NVidia-Soße bleibt und exklusiv nur auf der eigenen Hardware läuft.
Der Standard kommt dann nachträglich von AMD und die nennen das ganze dann "Freetrace" und das läuft auf allen GPUs die DirectX 12.x unterstützen, inkl. aller zukünftigen Konsolen. :D
Wirkt so. Wäre Schade, wird so kommen. Das werden alles gameworks Titel, da man den denoiser einfach ausklammert und so tut als wäre das Kleinkram.
dargo
2018-08-26, 08:57:41
Naja, wenn man DX12 einbaut, wieso sollte man da stoppen? DX12 ist ja auch eine PC-only Sache und mit Mehraufwand verbunden.
XB1 sowie XBX verwenden auch DX12.
Tja ich habe vorhin ja noch gedacht, Denoising wäre Teil von DXR, aber genau an der Stelle scheine ich ja dann in der Tat, was übersehen zu haben. Tja Schade, dann glaube ich auch nicht mehr an einen Erfolg von Ray Tracing in Games. Sind die Karten wohl doch in erster Linie für die Medienindustrie aufgelegt worden und nicht für die Gamer.
Troyan
2018-08-26, 09:24:03
Liebster PHUV, auch wenn du immer vorgibst, mich auf ignore zu haben, beweist du oft genug das dem nicht so ist. Deshalb erlaube ich mir doch zu antworten.
Fakt ist: das ergebnis in besagten Bildern ist nicht korrekt.
Fakt ist auch: NV gibt vor die spiegelungen seien mittels RT berechnet worden.
Beides passt nicht zusammen.
Wie also kann das sein? bei korrekter implementierung von RT könnte das ergebnis der Berechnung nicht geometrisch falsch sein. Von einer grundsätzlich korrekten RT implementierung duerfen wir aber zugunsten von NV mal ausgehen.
Welche Möglichkeit besteht also, warum das ergebnis nicht korrekt ist? Nur eine: Es werden entweder nicht alle spiegelungen durch RT berechnet, oder sie werden nicht vollständig durch RT berechnet. Beides würde einen Hybrid modus darstellen. Beides wäre !im Ergebnis!, sprich im ausgabebild, derselbe "fake" (der begriff stammt übrigens von euch, nicht von mir, ich habe ihn lediglich aufgegriffen) wie durch reines rasterizing. Denn das Ausgabebild ist im Ergebnis nicht geometrisch korrekt, und somit genauso eine näherungsweise darstellung, wie es rasterizing ist. Der Mix beider berechnungsmethoden erhöht sogar die wahrscheinlichkeit für sichtbare Artefakte und unpassende Darstellung.
PHUV, du kommst doch eigenen Angaben aus der IT, so schwer ist das eigentlich wirklich nicht zu verstehen, wenn du mal deinen persönlichen Beef aussen vor lässt.
Kannst du bitte diesen "Hybrid-Renderung" Modus erklären, wo man Raytracing per Fake darstellen kann?
/edit: Und du solltest dir wirklich angewöhnen den Begriff "Fake" zu erlernen. Wenn etwas nicht dargestellt wird, ist dies kein Fake.
mironicus
2018-08-26, 09:29:16
Sind die Karten wohl doch in erster Linie für die Medienindustrie aufgelegt worden und nicht für die Gamer.
Genau, das sind nur umgelabelte und beschnittene Quadro-Karten. Die Gamer erhalten teildefekte Chips die NVidia sonst nicht anders verwenden kann, und dann wird ein einziges Feature gepusht das nur 0,00005% aller Spieler sich in schnell gepatchten Games anschauen können. :freak:
y33H@
2018-08-26, 09:40:16
Denoising im Falle von BF5 ist ein Compute Shader laut Dice.
pixeljetstream
2018-08-26, 09:40:46
@GSXR-1000 andere und ich haben doch eine mögliche Erklärung zu dem einen Artefakt gegeben: der Strahl wird vom Entwickler mit nem Offset gestartet, trifft dadurch das Auto nicht. Es ist immer noch raytracing, aber halt kein Film-Qualität Path Tracer.
Es liegt am Entwickler, DICE, welchen trade-off sie in Sachen Geschwindigkeit und Qualität eingehen.
Deswegen bleibt es aber dennoch beim technischen Einsatz von raytracing.
Dass Du troyan vorwirfst dass es sich nicht um 100% Realismus handelt, kann ich nachvollziehen, aber dass wegen Qualitätsabstrichen kein RT zum Einsatz kommen soll, nicht.
Du irrst wenn Du Rasterisierung hier als gleichmächtig oder besser darstellst oder dass Hybridansätze Fehl am Platz seien. Wir haben doch jetzt schon zig hybrid Techniken mittels Compute.
Eben weil real-time engines es gewohnt sind unterschiedliche Ansätze zu verbauen die helfen sich dem Realismus anzunähern.
unl34shed
2018-08-26, 09:48:26
Kannst du bitte diesen "Hybrid-Renderung" Modus erklären, wo man Raytracing per Fake darstellen kann?
/edit: Und du solltest dir wirklich angewöhnen den Begriff "Fake" zu erlernen. Wenn etwas nicht dargestellt wird, ist dies kein Fake.
Interessant, dass du hier so an die Decke gehst, wenn jemand anderes als du "fake" sagt....
Die Spiegelungen in BF5 sind falsch dargestellt, das kann dir jeder mit etwas räumlicher Vorstellung sagen.
So wie das Auto gedreht ist, ignoriert die Reflektion im Scheinwerfer die andere hälfte des Scheinwerfers einfach komplett. Und nein, das ist auch keine Reflektrion des Panzers o.ä. Der Scheinwerfer müsste etwas auf der Rechten Seite der Szene reflektieren.
@GSXR-1000 andere und ich haben doch eine mögliche Erklärung zu dem einen Artefakt gegeben: der Strahl wird vom Entwickler mit nem Offset gestartet, trifft dadurch das Auto nicht. Es ist immer noch raytracing, aber halt kein Film-Qualität Path Tracer.
Es liegt am Entwickler, DICE, welchen trade-off sie in Sachen Geschwindigkeit und Qualität eingehen.
Deswegen bleibt es aber dennoch beim technischen Einsatz von raytracing.
Wenn man einen Offset braucht um überhaupt annäherd flüssige FPS in FHD zu bekommen, weil sonst zu viele Polygone getestet werden müssen, ist das doch auch kein Punkt der für RT (mit der RTX 2000 Serie) spricht.
dabad1
2018-08-26, 09:51:38
Kannst du bitte diesen "Hybrid-Renderung" Modus erklären, wo man Raytracing per Fake darstellen kann?
/edit: Und du solltest dir wirklich angewöhnen den Begriff "Fake" zu erlernen. Wenn etwas nicht dargestellt wird, ist dies kein Fake.
Beste Source die ich bisher finde konnte was NV im Detail macht (Paper aus 2017):
https://research.nvidia.com/sites/default/files/publications/dnn_denoise_author.pdf
3.1 Interactive Path Tracer
"We use an optimized path tracer to produce our noisy input images.
Traditional path tracers [Kajiya 1986] shoot rays through each pixel,
stochastically scattering according to the proile of the intersected
object’s reflectance, and continuing recursively until striking a light
source. We employ next event estimation to improve convergence
by deterministically connecting each path vertex to a light.
To accelerate visible surface determination, we leverage GPUs to
rasterize (instead of ray tracing) the first hit point from the camera
and store its associated shading attributes in a G-Buffer [Deering
et al. 1988]: we store the hit mesh id, mesh primitive id, triangle
intersection barycentric coordinates, material id, world-space position
and shading normal, diffuse and specular albedo, and motion
vectors. After this rasterization pass, we continue tracing the path
using an NVIDIA OptiX-based GPU ray tracer [Parker et al. 2010].
We choose to not consider depth of field and motion blur during
path tracing, since these effects can be effeciently implemented as
post-processes, and moreover, they introduce noise in the G-Buffer.
We use low-discrepancy Halton sequences [Halton 1964] when
sampling the light source and scattering directions, and apply path
space regularization to glossy and specular materials after scattering
[Kaplanyan and Dachsbacher 2013]. This significantly reduces
the number of sparse high-intensity outliers in glossy reections, at
the cost of a small bias.
We limit the number of indirect bounces to one for practical interactivity.
As such, our path tracer generates up to one direct lighting
path (camera-surface-light) and one indirect path (camera-surfacesurface-light)
at each pixel. The total input generation cost per pixel
comprises rasterization, three rays, two material evaluations, and
one material sampling. Throughout the paper, we call it a one-sample
image to emphasize that we trace one path, even though it has two
next event estimations along its way."
mironicus
2018-08-26, 09:53:25
Was macht denn jetzt AMD? Stellen sie entsprechende Treiberupdates zur Verfügung? DXR wird erst Ende September im nächsten Windows 10 Update erscheinen, aber es wäre gut wenn es dann Benchmarks mit allen Karten geben könnte.
Troyan
2018-08-26, 09:55:21
Interessant, dass du hier so an die Decke gehst, wenn jemand anderes als du "fake" sagt....
Die Spiegelungen in BF5 sind falsch dargestellt, das kann dir jeder mit etwas räumlicher Vorstellung sagen.
So wie das Auto gedreht ist, ignoriert die Reflektion im Scheinwerfer die andere hälfte des Scheinwerfers einfach komplett. Und nein, das ist auch keine Reflektrion des Panzers o.ä. Der Scheinwerfer müsste etwas auf der Rechten Seite der Szene reflektieren.
Nur als Denkanstoss, die Definition von Fake:
Als Fake (Engl., eigentlich Fälschung) bezeichnet man ein Imitat, einen Schwindel oder eine Vortäuschung falscher Tatsachen.
https://de.wikipedia.org/wiki/Fake
Die Spiegelung im Scheinwerfer wird korrekt dargestellt, da diese vom Ausgangseffekt abhängig ist. Es kann daher kein Fake sein, wie er heutzutage vorkommt. Ob die Spiegelung an sich dort dargestellt werden dürfte, ist eine andere Frage und hat nichts mit Fake zu tun. Dafür müsste man wissen, wie DICE vorgeht. Ein mathematischer Fehler ist auch kein Fake, wenn das Resultat zu weiteren Problemen führt. Es ist eine oder die Ursache.
Was hier betrieben wird, ist daher reiner Populismus. Und ehrlich sucht euch dafür einen anderen Thread.
Kriton
2018-08-26, 10:03:30
Kannst du bitte diesen "Hybrid-Renderung" Modus erklären, wo man Raytracing per Fake darstellen kann?
/edit: Und du solltest dir wirklich angewöhnen den Begriff "Fake" zu erlernen. Wenn etwas nicht dargestellt wird, ist dies kein Fake.
Es scheint mir doch offensichtlich was er meint. Dass die Spiegelungen nicht komplett durch RT gerendert wurden, sondern teilweise via Rasterizing. Und fake bezieht sich insoweit darauf, dass er meint, dass so getan wurde, als wäre es komplettes RT.
Die Fragen, um die es also letztlich geht:
1. Wurden die Spiegelungen komplett durch RT gerendert?
2. Falls nicht: War dies hinreichend transparent?
3. Falls (1.) ja: Woher kommt die Spiegelung rechts in dem (von uns aus gesehen) linken Scheinwerfer? (Edit: hinreichend erklärt - für mich).
Wenn ihr beide mal tatsächlich an einem inhaltlichen Austausch mit Erkenntnisgewinn interessiert wird, hättet ihr das schon vor einer Ewigkeit hinreichend klären können. Aber einer von Euch hat ja nur seine dunkelgrüne Brille auf, und dem anderen geht es scheinbar vornehmlich um das Gewinnen der Diskussion (wobei ich den Wert der sprachlichen Genauigkeit in einer Diskussion durchaus zu schätzen weiß, gerade wenn man wirklich daran interessiert ist die Erkenntnis zu erhöhen).
pixeljetstream
2018-08-26, 10:03:56
Wenn man einen Offset braucht um überhaupt annäherd flüssige FPS in FHD zu bekommen, weil sonst zu viele Polygone getestet werden müssen, ist das doch auch kein Punkt der für RT (mit der RTX 2000 Serie) spricht.
Das ist subjektiv, und das gleiche Argument kann man für jeden Effekt machen (wenn ich keine 4k in XYZ mit 144hz und downsampling schaffe, ist's mir das nicht wert, das wird ja auch von einigen ganz ohne RT gebracht). Andere werden sagen ich sehe lieber die visuell auffälligen Spiegelungen und kann mit solchen Fehlern leben.
Da wir aber bis jetzt mit wesentlich mehr Fehlern spielen, gehe ich davon aus dass es praktisch allen egal ist, sonst würde niemand etwas spielen ;)
Armaq
2018-08-26, 10:06:50
Denoising im Falle von BF5 ist ein Compute Shader laut Dice.
Das wäre lobenswert. Jetzt kann man nur hoffen, dass das nicht zuviel Performance kostet. Wäre ich Nvidia würde ich denoiser als Argument einbauen, aka Performance en masse via tensor core liefern.
unl34shed
2018-08-26, 10:09:32
@Troyan: Aber wenn da nicht richtig getraced wird, ist es doch "Vortäuschung falscher Tatsachen" oder nicht?
Troyan
2018-08-26, 10:12:45
Es scheint mir doch offensichtlich was er meint. Dass die Spiegelungen nicht komplett durch RT gerendert wurden, sondern teilweise via Rasterizing. Und fake bezieht sich insoweit darauf, dass er meint, dass so getan wurde, als wäre es komplettes RT.
1. Erkläre bitte, wie man solche Effekte per Rasterzing darstellen kann.
2. Niemand hat mit "kompletten RT" geworben.
@Troyan: Aber wenn da nicht richtig getraced wird, ist es doch "Vortäuschung falscher Tatsachen" oder nicht?
Nein, da man ja trayced. Die Spiegelungen sehen ja auch nicht 100% korrekt aus (grieseln, geringer aufgelöst etc.). Man wird einfach primäre Effekte haben wollen (Seite Auto) und mit den Anomalien der Implementierungen (fehlende, falsche etc.) leben. Das ist auch in Ordnung, da der optische Reiz von der Seite des Autos viel stärker zum Betrachten führt als sekundäre, minimale Darstellungen, die niemanden im Spiel auffallen.
Hier wird jedoch seit Seiten von einer Person behauptet, dass DICE kein "richtiges" Raytracing verwenden würde und man einfach Spiegelungen (sprich die Darstellungen und nicht ob diese richtig platziert werden würden) als Fake bezeichnen.
GSXR-1000
2018-08-26, 10:14:36
Es scheint mir doch offensichtlich was er meint. Dass die Spiegelungen nicht komplett durch RT gerendert wurden, sondern teilweise via Rasterizing. Und fake bezieht sich insoweit darauf, dass er meint, dass so getan wurde, als wäre es komplettes RT.
.
Genau das.
Es geht mir eigentlich um folgendes: Der Vorteil von RT ist eigentlich die absolute genauigkeit und korrektheit. Deshalb ist man überhaupt nur den Preis der hohen Rechenlast zu zahlen. Ist das Ergebnis, sprich das Bild, dann aber dennoch, selbst bezogen auf diesen einen Aspekt der spiegelung ungenau, naeherungsweise oder gar falsch, ist der erhöhte Rechenaufwand verschwendet. Weil den primärvorteil von RT nicht mehr hat. Offensichtlich ist dies hier der Fall. Offensichtlich ist dann auch, das der aspekt spiegelungen nicht from the scratch durchgängig via RT realisisert wird. Damit verkehrt sich halt die verwendung von RT in einen marketing gag, weil der primärvorteil dieser Berechnungsmethode im
Endergebnis nicht gegeben ist.
@ Troyan: Mein Kenntnisstand ist, das die Aussage von NV dazu war, das besagte spiegelungen explizit per RT erzeugt würden. Das macht nur dann sinn, wenn man dies "komplett" tut. Ansonsten ist der Effekt im ergebnis... siehe oben.
Gegenfrage übrigens: Sage mir bitte weshalb man solche Effekte nicht via Rasterizing erzeugen können sollte? Offensichtlich liegt doch ein Mixed mode vor, sonst wäre die Spiegelung korrekt (wenn sie nur durch RT erzeugt würde).
Im übrigen impliziert deine 2. Fragestellung doch explizit, das du selbst denkst das es einen mixed mode gäbe, denn wie sonst sollte das gehen, wenn du selbst infrage stellst, das es "komplettes RT" sei? Du widersprichst dir selbst.
AffenJack
2018-08-26, 10:16:12
Das wäre lobenswert. Jetzt kann man nur hoffen, dass das nicht zuviel Performance kostet. Wäre ich Nvidia würde ich denoiser als Argument einbauen, aka Performance en masse via tensor core liefern.
Ab Vega sollte das Denoising Leistungstechnisch kein so großes Problem darstellen. Klar ist Nv mit den Tensorcores da schneller, aber Vega hat auch schon 4xInt8 und ich meine gelesen zu haben, dass die Genauigkeit ausreicht dafür. Da biste dann schon 55 Tflops Int8 Leistung. Mit Vega20 und Navi wird man auch noch mehr in die Deap Learning Richtung gehen, da wird die Leistung dafür definitiv ausreichen. Raytracen wird da das deutlich größere Fragezeichen.
Aber wenn da nicht richtig getraced wird, ist es doch "Vortäuschung falscher Tatsachen" oder nicht?
Es gibt kein falsches raytracen. Je nach Programmierung kann da vielleicht ein Artefakt/Fehler entstehen, aber es ist trotzdem Raytracing.
unl34shed
2018-08-26, 10:19:54
Das ist subjektiv, und das gleiche Argument kann man für jeden Effekt machen (wenn ich keine 4k in XYZ mit 144hz und downsampling schaffe, ist's mir das nicht wert, das wird ja auch von einigen ganz ohne RT gebracht). Andere werden sagen ich sehe lieber die visuell auffälligen Spiegelungen und kann mit solchen Fehlern leben.
Da wir aber bis jetzt mit wesentlich mehr Fehlern spielen, gehe ich davon aus dass es praktisch allen egal ist, sonst würde niemand etwas spielen ;)
Natürlich, so waren bisherige Effekte auch immer nur Annäherungen und man hat sich damit arrangiert.
Aber wenn man sich dann auf der Bühne hinstellt, und es als heiligen Gral darstellt (was zwar stimmt) und dann sagt, dass das jetzt alles in Realtime funktioniert (1080p30!?) und dann dennoch so getrickst werden muss, damit es überhaupt irgendwie funktioniert.
Dann kann das doch sauer aufstoßen und wenn dann noch jemand um die Ecke kommt und hier im Forum vehement verteidigt, dass das alles so richtig und real ist....
Und noch mal, das was die 2080ti, mit deutlich mehr RT Leistung als eine 2070... naja wie ich schon mal gesagt, RT mit der 2000er Serie ist noch zu früh und nur eine nette Spielerei. Man hätte mMn. RT in den Quadros und evtl einer Titan lassen sollen und die Consumer chips kleiner und damit günstiger verkaufen sollen, hätten alle mehr davon gehabt.
Fragman
2018-08-26, 10:20:19
Wenn man einen Offset braucht um überhaupt annäherd flüssige FPS in FHD zu bekommen, weil sonst zu viele Polygone getestet werden müssen, ist das doch auch kein Punkt der für RT (mit der RTX 2000 Serie) spricht.
sorry, aber das ist laecherlich. hast du eine ahnung was pixar oder disney anstellen, um die bilder am ende rauszubekommen, die du auf der leinwand siehst? da ist nichts korrekt, wenn man denn auf diesem niveau diskutieren wollen wuerde. beide rendern eine sehr grobe version, die dann "hingebogen" wird.
ob das jetzt schon bei der ray generation, beim hit oder erst am ende beim denoising passiert, ist da egal. das (denoisete) ergebnis naehert sich der ground truth an und das wars dann. da rendert keiner "finale" bilder, das ist viel zu teuer und wuerde die tech nicht nutzbar machen (man vergleiche hier gerne mal die renderverfahren, die renderzeiten und den renderoutput von monsterU mit denen von cars3).
das spannende ist doch, wie bekommt man das so performant hin, um es in realtime zu nutzen. das man da genauigkeitsabstriche machen muss, bei der geringen anzahl von strahlen, ist doch logisch. das man tricks nutzen muss, um es performant zu halten, auch.
pixeljetstream
2018-08-26, 10:23:21
Genau das.
Es geht mir eigentlich um folgendes: Der Vorteil von RT ist eigentlich die absolute genauigkeit und korrektheit. Deshalb ist man überhaupt nur den Preis der hohen Rechenlast zu zahlen. Ist das Ergebnis, sprich das Bild, dann aber dennoch, selbst bezogen auf diesen einen Aspekt der spiegelung ungenau, naeherungsweise oder gar falsch, ist der erhöhte Rechenaufwand verschwendet. Weil den primärvorteil von RT nicht mehr hat. Offensichtlich ist dies hier der Fall. Offensichtlich ist dann auch, das der aspekt spiegelungen nicht from the scratch durchgängig via RT realisisert wird. Damit verkehrt sich halt die verwendung von RT in einen marketing gag, weil der primärvorteil dieser Berechnungsmethode im
Endergebnis nicht gegeben ist.
@ Troyan: Mein Kenntnisstand ist, das die Aussage von NV dazu war, das besagte spiegelungen explizit per RT erzeugt würden. Das macht nur dann sinn, wenn man dies "komplett" tut. Ansonsten ist der Effekt im ergebnis... siehe oben.
Gegenfrage übrigens: Sage mir bitte weshalb man solche Effekte nicht via Rasterizing erzeugen können sollte? Offensichtlich liegt doch ein Mixed mode vor, sonst wäre die Spiegelung korrekt (wenn sie nur durch RT erzeugt würde).
Im übrigen impliziert deine 2. Fragestellung doch explizit, das du selbst denkst das es einen mixed mode gäbe, denn wie sonst sollte das gehen, wenn du selbst infrage stellst, das es "komplettes RT" sei? Du widersprichst dir selbst.
Du widersprichst Dir auch. Mathematisch bleibt es RT selbst wenn der Strahl mit Offset gestartet wurde.
Zu sagen der Primärvorteil wäre weg, wenn die Demo offensichtlich viele Spiegelungen zeigt die vorher nicht da waren, so ist das imo Haarspalterei.
Wenn Rasterization das Maß der Dinge in Effizienz wäre, warum hat man in der Filmindustrie das aufgegeben (da wo jeder frame Geld kostet).
Und jetzt denke ich ist es wirklich Mal Zeit dass du uns erklärst wie man das Problem effizient löst ohne RT. Da wäre die ganze Fachwelt der Computergrafikindustrie brennend interessiert.
uweskw
2018-08-26, 10:34:56
Am Ende wird es wohl so sein, dass RTX eine reine NVidia-Soße bleibt und exklusiv nur auf der eigenen Hardware läuft.
Der Standard kommt dann nachträglich von AMD und die nennen das ganze dann "Freetrace" und das läuft auf allen GPUs die DirectX 12.x unterstützen, inkl. aller zukünftigen Konsolen. :D
Falls dem so kommt wird es doch keine 2080. Proprietäre Technikbremsen will ich nicht.
Das wäre dann wohl raus geschmissenenes Geld. Proprietär wird RTX ein Rohrkrepierer wie schon Hairworks, G-Sync und GPU-PhysX. Nur diesmal teurer für den Kunden.
AMD stellte mit TressFX die bessere Alternative da. Für alle ohne Abstriche verfügbar und zum Glück auch noch schöner anzusehen. Sonst hätten die Fachmagazine Hairworks wohl in den Himmel gehyped.
UND AUCH AMD IST EIN UNTERNEHMEN DAS GEWINN MACHEN MUSS UND WILL !!.
Das geht aber auch ohne die PC-Spielergemeinschaft zu spalten. Dabei hätte Nvidia so etwas als Marktführer überhaupt nicht nötig. Ich hoffe die Nerds haben genug Eier in der Hose um vorübergehend auf ein paar Eyecandys zu verzichten.
greetz
US
GSXR-1000
2018-08-26, 10:42:13
Du widersprichst Dir auch. Mathematisch bleibt es RT selbst wenn der Strahl mit Offset gestartet wurde.
Zu sagen der Primärvorteil wäre weg, wenn die Demo offensichtlich viele Spiegelungen zeigt die vorher nicht da waren, so ist das imo Haarspalterei.
Wenn Rasterization das Maß der Dinge in Effizienz wäre, warum hat man in der Filmindustrie das aufgegeben (da wo jeder frame Geld kostet).
Und jetzt denke ich ist es wirklich Mal Zeit dass du uns erklärst wie man das Problem effizient löst ohne RT. Da wäre die ganze Fachwelt der Computergrafik Industrie brennend interessiert.
Das Problem löst man nur mit RT. Hab ich was anderes behauptet? Aber man löst es DANN, wenn man die entsprechenden Algorithmen UND die notwendige Rechenpower hat, um es komplett mit RT zu machen. Denn ansonst gibt es den eigentlichen Vorteil von RT, nämlich den der korrekten Darstellung nicht.
Das ist auch genau der Grund, warum man bisher RT auch nur da einsetzt, wo man diese korrektheit braucht. Um den preis, das man evtl ein vielfaches der Rechenzeit benötigt und es eben NICHT in echtzeit machen kann.
Wenn man RT einsetzt, ohne den eigentlichen vorteil zu nutzen, dann kann man das leider nur als marketing bezeichnen. Es macht dann sinn, wenn man eben auch die Rechenleistung hat, um das dann auch durchgängig mindestens bezogen auf einen Aspekt zu tun. Behilft man sich mit offset oder mixed modes stellt RT keinen wirklichen Vorteil mehr dar.
pixeljetstream
2018-08-26, 10:45:52
Okay das mag für Dich subjektiv so sein, für den mehrheitlichen Rest der Echtzeitindustrie nicht. Da ist jedes Mittel was uns näher bringt recht.
AffenJack
2018-08-26, 10:51:17
Das Problem löst man nur mit RT. Hab ich was anderes behauptet? Aber man löst es DANN, wenn man die entsprechenden Algorithmen UND die notwendige Rechenpower hat, um es komplett mit RT zu machen. Denn ansonst gibt es den eigentlichen Vorteil von RT, nämlich den der korrekten Darstellung nicht.
Das ist auch genau der Grund, warum man bisher RT auch nur da einsetzt, wo man diese korrektheit braucht. Um den preis, das man evtl ein vielfaches der Rechenzeit benötigt und es eben NICHT in echtzeit machen kann.
Wenn man RT einsetzt, ohne den eigentlichen vorteil zu nutzen, dann kann man das leider nur als marketing bezeichnen. Es macht dann sinn, wenn man eben auch die Rechenleistung hat, um das dann auch durchgängig mindestens bezogen auf einen Aspekt zu tun. Behilft man sich mit offset oder mixed modes stellt RT keinen wirklichen Vorteil mehr dar.
Nach deinen Ansichten würden wir heutzutage wohl noch immer bei 2D Grafik sein. Schließlich ist alles was wir in 3D machen mit sovielen Fakes und Fehlern behaftet, dass wir lieber erstmal ordentliches 2D machen sollten und dann erst umsteigen sollten, wenn wir perfektes 3D haben?
Troyan
2018-08-26, 10:51:35
Okay das mag für Dich subjektiv so sein, für den mehrheitlichen Rest der Echtzeitindustrie nicht. Da ist jedes Mittel was uns näher bringt recht.
Ist auch logisch, da es eben keinen Urknall gibt, der uns 1000x schnellere Hardware liefert.
Seiner Logik folgend müsste man ja generell Rasterizing als sinnlos ansehen, da haufenweise Leistung für Fake-Effekte verplempert wird, die nichts mit einer realistischen Darstellung zu tun haben. :eek:
Sieht mir aus wie ein Sturm im Wasserglas, um einen technischen Fortschritt mit nicht vorhandenen Argumenten kritisieren zu können. Ich wüsste nicht, warum man sich über solche Effekte in Spielen beschweren sollte: https://twitter.com/NVIDIAGeForceES/status/1032704068215623681
GSXR-1000
2018-08-26, 10:53:34
Okay das mag für Dich subjektiv so sein, für den mehrheitlichen Rest der Echtzeitindustrie nicht. Da ist jedes Mittel was uns näher bringt recht.
Moment...du sprichst von der filmindustrie (siehe vorpost) von echtzeitindustrie? Ernsthaft? Genau in der filmindustrie ist der echtzeitaspekt nicht gegeben. Genau deshalb ist dort RT mittel der wahl.
GSXR-1000
2018-08-26, 11:00:31
Nach deinen Ansichten würden wir heutzutage wohl noch immer bei 2D Grafik sein. Schließlich ist alles was wir in 3D machen mit sovielen Fakes und Fehlern behaftet, dass wir lieber erstmal ordentliches 2D machen sollten und dann erst umsteigen sollten, wenn wir perfektes 3D haben?
Offensichtlich sind manche mit lesen deutlich überfordert. Sonst würden solche Unterstellungen nicht kommen. Nochmal: ganz simpel:
1. Rasterizing: näherungsweise Darstellung - weniger Rechenleistung
2. RT: absolute Darstellung, hohe Rechenleistung.
Es dürfte jedem Ersichtlich sein, welchen Sinn RT macht. Nämlich absolute und korrekte darstellung.
DAS ist der Vorteil den man sich mit massiv mehr Rechenleistung erkauft.
Wenn man nun hybridmodes verwendet, sprich RT (selbst bezogen auf einen Aspekt wie spiegelungen) nur teilweise verwendet, oder mittels offsets verfälscht, dann geht der einzige Vorteil verloren. Denn das Ergebnis ist wiederum nur eine näherungsweise darstellung, keine absolute.
Zudem vorhersehbar Artefakte.
Ich sehe nicht, welchen Sinn der Einsatz massiver rechenleistung macht, wenn das ergebnis ebenso näherungsweise ist, wie das aus rasterizing?
Ihr duerft das gerne anders sehen, nur bitte, wenn ihr euch schon auf mich bezieht, dann bitte auch auf meine Argumentation und nicht son wirres fanboy geblubber. Danke.
mironicus
2018-08-26, 11:03:00
Die Physik lässt sich nicht betrügen. Was wir an Effekten sehen, ist noch weit von der Realität entfernt. Im Übrigen hat mich die Battlefield-Demo nicht im geringsten beeindruckt. Schaut euch mal die anderen Details im Spiel und manche Effekte an (und die schlichte Konsolengrafik). Aber für den Spielfluss und worauf sich der Spieler konzentriert ist das genau so unwichtig wie Raytracing. Flüssig und verzögerungsfrei muss es sein und alles was den Spielfluss beeinträchtigen könnte wird abgeschaltet und nicht genutzt werden.
Troyan
2018-08-26, 11:08:51
Offensichtlich sind manche mit lesen deutlich überfordert. Sonst würden solche Unterstellungen nicht kommen. Nochmal: ganz simpel:
1. Rasterizing: näherungsweise Darstellung - weniger Rechenleistung
2. RT: absolute Darstellung, hohe Rechenleistung.
Es dürfte jedem Ersichtlich sein, welchen Sinn RT macht. Nämlich absolute und korrekte darstellung.
DAS ist der Vorteil den man sich mit massiv mehr Rechenleistung erkauft.
Wenn man nun hybridmodes verwendet, sprich RT (selbst bezogen auf einen Aspekt wie spiegelungen) nur teilweise verwendet, oder mittels offsets verfälscht, dann geht der einzige Vorteil verloren. Denn das Ergebnis ist wiederum nur eine näherungsweise darstellung, keine absolute.
Zudem vorhersehbar Artefakte.
Ich sehe nicht, welchen Sinn der Einsatz massiver rechenleistung macht, wenn das ergebnis ebenso näherungsweise ist, wie das aus rasterizing?
Ihr duerft das gerne anders sehen, nur bitte, wenn ihr euch schon auf mich bezieht, dann bitte auch auf meine Argumentation und nicht son wirres fanboy geblubber. Danke.
Nur so, dass wir uns hier verstehen: Du findest dies hier als keinen deutlichen, grafischen Mehrwert: https://twitter.com/NVIDIAGeForceES/status/1032704068215623681
Dir ist des Weiteren auch klar, dass Raytracing nach deiner Logik in Spielen nie Sinn machen würde, weil es per se immer Rechenintensiver ist als Fake-Effekte per Rasterizing. Demnach widerspricht du dich einfach mal.
pixeljetstream
2018-08-26, 11:16:10
Moment...du sprichst von der filmindustrie (siehe vorpost) von echtzeitindustrie? Ernsthaft? Genau in der filmindustrie ist der echtzeitaspekt nicht gegeben. Genau deshalb ist dort RT mittel der wahl.
Nein, ich widerspreche deiner These dass es eben nur bei nicht-Echtzeit Sinn macht.
Das schwarz/weiß von Dir (entweder alles Raster oder alles RT), ist nicht die Art wie entwickelt wird. Es ist ein inkrementeller Prozess, und manchmal macht die Technik größere Schritte.
Kriton
2018-08-26, 11:16:50
1. Erkläre bitte, wie man solche Effekte per Rasterzing darstellen kann.
Ich muss da nichts erklären, weil ich nichts dergleichen behaupte. Stattdessen habe ich lediglich erklärt worüber ihr diskutiert und welche Fragen dazu geklärt werden müssen. Eine Position dazu habe ich inhaltlich nicht bezogen.
Screemer
2018-08-26, 11:20:54
Moment...du sprichst von der filmindustrie (siehe vorpost) von echtzeitindustrie? Ernsthaft? Genau in der filmindustrie ist der echtzeitaspekt nicht gegeben. Genau deshalb ist dort RT mittel der wahl.
Jetzt reicht's aber bald wirklich mal. Du verstehst doch ganz genau was er meint oder du stellst dich absichtlich dumm, denn das bist du nicht. Willst du wirklich weiter so verfahren. Am Anfang der Diskussion war ich noch völlig bei dir aber du verrennst dich immer mehr in deinen Argumentationsketten.
Es geht um Echtzeit Visualisierung und da ist es für Editoren und andere Filmschaffende durchaus wichtig angenäherte Ergebnisse in Echtzeit im viewport zu sehen. Ob das nun 100% dem entspricht ist überhaupt nicht von Belang, denn der Annäherung reicht völlig zur Einschätzung ob der visuelle Stil passt oder kompletter Krebs ist. Das gleiche gilt für alle anderen Produkte wie MR, CAD, DCC und andere ebenso. Bei manchen ist es sogar nicht mal im Ansatz notwendig 100% korrekt zu sein. Hauptsache das Ergebnis ist besser als mit reinem rasterizing.
Obiges trifft auch auf die meisten Spieler zu. Lieber hab ich ne Annäherung an die Realität als weiterhin Stillstand. Was ich jedoch nicht will und was NV in seinen Marketingfolien und den Präsentation eindeutig gemacht hat, ist mit RT einfach Effekte weg zu lassen, die seit Jahren genutzt werden und so zu tun als gäbe es nicht auch eine optisch ansprechende alternative ohne RT.
Kriton
2018-08-26, 11:21:15
Genau das.
Es geht mir eigentlich um folgendes: Der Vorteil von RT ist eigentlich die absolute genauigkeit und korrektheit. Deshalb ist man überhaupt nur den Preis der hohen Rechenlast zu zahlen. Ist das Ergebnis, sprich das Bild, dann aber dennoch, selbst bezogen auf diesen einen Aspekt der spiegelung ungenau, naeherungsweise oder gar falsch, ist der erhöhte Rechenaufwand verschwendet. Weil den primärvorteil von RT nicht mehr hat. Offensichtlich ist dies hier der Fall. Offensichtlich ist dann auch, das der aspekt spiegelungen nicht from the scratch durchgängig via RT realisisert wird. Damit verkehrt sich halt die verwendung von RT in einen marketing gag, weil der primärvorteil dieser Berechnungsmethode im
Endergebnis nicht gegeben ist.
Möglicherweise ist Deine Prämisse subjektiv. pixeljetstream hat ja was dazu geschrieben, dass manche vielleicht bessere Reflexionen möchten, auch wenn sie noch nicht 100% korrekt sind (er verweist ja auf ein mögliches Offset).
Ich tendiere dazu, dass ich dazugehören könnte den Wert dessen auch ohne 100% Korrektheit zu erkennen und zu schätzen. Was nicht heißt, dass eine korrekte Lösung nicht noch besser wäre. Aber die Näherung (die IMHO über das Rasterizing in der Qualität hinausgeht) ist ein Fortschritt, den man honorieren kann, im Bewusstsein, dass es noch weiter geht. und auch der bisherige Fortschritt bereits ein erhebliches Maß an Aufwand bedeutet.
AffenJack
2018-08-26, 11:21:26
Wenn man nun hybridmodes verwendet, sprich RT (selbst bezogen auf einen Aspekt wie spiegelungen) nur teilweise verwendet, oder mittels offsets verfälscht, dann geht der einzige Vorteil verloren. Denn das Ergebnis ist wiederum nur eine näherungsweise darstellung, keine absolute.
Zudem vorhersehbar Artefakte.
Nein, der Vorteil hat nix mit teilweise oder ganz verwenden zu tun. Du hast schlicht Effekte durch Raytracing, die du durch Rasterisieren nicht darstellen kannst. Du möchtest die Technik nicht verwenden, bis sie perfekt ist. Sogar wenn du dadurch Dinge darstellen kannst, die sonst nicht möglich sind. Deshalb auch mein überspitztes Bsp mit 2D und 3D. Entweder du gehst in Richtung einer inperfekten Darstellung neuer Effekte oder du bleibst bei deiner alten Tech, aber hast die Effekte gar nicht. Ich hab lieber Innovation und neues, was über die nächsten Gens dann immer besser werden wird.
Ich sehe nicht, welchen Sinn der Einsatz massiver rechenleistung macht, wenn das ergebnis ebenso näherungsweise ist, wie das aus rasterizing?
Wir haben anscheinend eine andere Ansicht von näherungsweise. In meinen Augen ist Raytracing genauso immer eine näherungsweise Darstellung. Mit der Anzahl der Rays nährst du dich immer mehr dem wirklichen Bild an, aber auch wenn du bei 99,9999% bist, hast du ein Bild durch Näherungsweise und nicht irgendwie absolut. Du ziehst hier willkürlich eine Linie und betitelst das dann als absolutes Bild. Außerdem ist RT nun auch nicht irgendeine Magie, es reicht wenn irgendwie die Reflektion auf einer Oberfläche (Materialeigenschaft, KA wie das ganz genau geregelt ist) einen falschen Wert hat, dass du dann auch wieder ein "falsches" Bild hast.
Kriton
2018-08-26, 11:27:04
Ich sehe nicht, welchen Sinn der Einsatz massiver rechenleistung macht, wenn das ergebnis ebenso näherungsweise ist, wie das aus rasterizing?
Weil die Näherung zumindest besser ist als die, die Du mit Rasterizing erreichst. Wir sind ja auch beim AA bereit mehr Leistung dafür bereitzustellen, auch wenn das Ergebnis des (besseren) AA (im Vergleich zum schlechteren oder gar keinem) besser aber nicht perfekt ist.
IMHO ist das hier konzeptionell nichts anderes.
GSXR-1000
2018-08-26, 11:36:17
Wir haben anscheinend eine andere Ansicht von näherungsweise. In meinen Augen ist Raytracing genauso immer eine näherungsweise Darstellung. Mit der Anzahl der Rays nährst du dich immer mehr dem wirklichen Bild an, aber auch wenn du bei 99,9999% bist, hast du ein Bild durch Näherungsweise und nicht irgendwie absolut. Du ziehst hier willkürlich eine Linie und betitelst das dann als absolutes Bild. Außerdem ist RT nun auch nicht irgendeine Magie, es reicht wenn irgendwie die Reflektion auf einer Oberfläche (Materialeigenschaft, KA wie das ganz genau geregelt ist) einen falschen Wert hat, dass du dann auch wieder ein "falsches" Bild hast.
Den Unterschied finde ich nicht marginal.
Konzeptionell ist rasterizing schon auf kleinster Ebene eine annährungsweise darstellung.
RT hingegen beruht auf absoluter darstellung. Sprich jeder Ray ist (bei richtiger Umstzung) ein absolut korrekter wert. Natürlich ist das gesamtergebnis (wie bei jeder grafikberechnung) durch die Zahl der Rays abhängig, ebenso wie es andersrum die Zahl der polygone ist.
Jedoch ist es imho schon ein unterschied, ob ich konzeptionell mit absolut korrekten werten schon from the scratch arbeite, oder ob das konzept ansich schon eine näherung vorsieht auf kleinster ebene.
Deshalb befürworte ich die RT technik in jedem fall, ein traum, wenn dies mal vollständig auf die Bildberechnung angewendet werden könnte. Aber in der jetzigen Ausbaustufe halte ich die Rechenleistung für verschwendet und nicht zielführend. IMHO wäre es sinnvoller, diese Technik so zu verfeinern (und die Rechenleistung zu entwickeln) das wenigstens ein Aspekt komplett und korrekt in RT berechnet werden kann.
So zahlen die Kunden IMHO ein feature mit dieser Kartengeneration, was letztendlich eine early alpha darstellt. Wenn man das möchte, okay. Nur sollte man das dann eben marketingtechnisch auch richtig darstellen. Weil ich glaube, das viele sich da blenden lassen.
Troyan
2018-08-26, 11:40:52
Du behauptest also, dass die Spiegelungen in BF5 nicht "komplett und korrekt in RT berechnet" werden? Schaffst du wenigsten diese Behauptungen hier vernünftig zu erklären?
Ich sehe in BF5 "komplette und korrekt in RT" berechnete Spiegelungen, die ohne RT nicht möglich sind.
Screemer
2018-08-26, 11:43:54
Du behauptest also, dass die Spiegelungen in BF5 nicht "komplett und korrekt in RT berechnet" werden? Schaffst du wenigsten diese Behauptungen hier vernünftig zu erklären?
Ich sehe in BF5 "komplette und korrekt in RT" berechnete Spiegelungen, die ohne RT nicht möglich sind.
du siehst vielleicht annähernd korrekte spiegelungen und die auch nicht überall. korrekt ist da bei der geringen anzahl an rays gar nix und auf dieses terminologieproblem möchte gsrx wohl zum einen hinaus. zum anderen ist es ein nicht nur ein terminologie problem sondern auch ein technisches. weder sind alle oberflächen physikalisch korrekt und somit verhalten sich die rays auch dementsprechend unkorrekt. es gibt flächen und effekte die gar komplett heraus genommen werden. allein das schon mehrfach verlinkte auto hat viele "fehler" und trotzdem sieht es wirklich gut aus.
Troyan
2018-08-26, 11:52:06
Sie sind ja "korrekt" - nur in einer sehr geringen Qualität. Wir sind noch Jahre von RT-only oder eben auch GSXR-1000-korrekten RT entfernt. Das ändert jedoch nichts daran, dass DICE in BF5 über Raytracing "komplette und korrekte" Spiegelungen per RT einbauen kann, die schon heute eine Qualität liefern, die per Rasterizing nicht möglich ist. Selbst die Spiegelung im Scheinwerfer ist "komplett und korrekt".
ChaosTM
2018-08-26, 11:52:30
Ihr streitet seit 20 Seiten über eine "Schnellschussimplementation" eines neues Features innerhalb kürzester Zeit von DICE.
(edit.: da lag ich wohl falsch. DICE arbeitet angeblich schon seit Monaten daran und nicht seit ein paar Wochen..)
NATÜRLICH kann das noch nicht absolut korrekt sein.
Das wurde schnell mal zusammengeschustert für die NV Präsentation -- Jesus Ch...
Wie üblich geht es bestimmten Personen nur darum "das Internet zu gewinnen" und den anderen um ihre blinde Markentreue. Faszinierend.. eigentlich ;)
unl34shed
2018-08-26, 12:33:34
Hier auch ein gutes Beispiel, wie getrickst wird:
Reflexion von Minute: 5:40
Der andere Shot bei ~4:40
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Videos/Raytracing-Komplette-Praesentation-im-Video-1263434/
Es fehlt das Schild, dessen Schatten aber da ist, die Details der Fassade und mMn. auch das Auto vor dem Laden. Für so eine glatte Fläche eher ernüchternd...
https://i.imgur.com/fDqIrqu.png
https://i.imgur.com/b4idy0V.png
https://i.imgur.com/2UWBSCb.png
Troyan
2018-08-26, 12:45:17
Es kann nur reflektieren, was auch vorhanden ist. Dank dem LoD poppt das Schild eben erst später wieder auf. Sieht man ja schön, wenn man ab 5:40 weiter dran bleibt.
Das hat wiederum nichts mit Raytracing zu tun.
Freestaler
2018-08-26, 13:08:00
@unl34shed Danke für die Screenshot's.
@ChaosTM, gemäss Interview (Christian Holmquist, Technical Director DICE) wird bei Dice seit Anfang Jahr mit bzw. an Raytracing für BF V gearbeitet. Wieso dann die Aussage von wenige Wochen? Die Aussage Geistert hier auch schon zu lange rum. Gibts da andere Quellen?
Quelle: https://se7en.ws/dice-made-nvidia-s-ray-traced-gaming-dreams-a-reality-in-just-eight-months/?lang=en
"Given the dimensions of the problem that getting a brand new, never-before-seen game know-how right into a title the scale of Battlefield 5 represents, it’s not stunning DICE would’ve needed extra time. But ultimately its PC builders have solely had a bit of over eight month"
@Troyan, komm troll dich weg.
wolik
2018-08-26, 13:13:17
@ChaosTM
RTX ON :biggrin:
https://cdn.discordapp.com/attachments/253877865072820225/483185242438500354/CZY6g4Y.png
pixeljetstream
2018-08-26, 14:01:51
@unl34shed Danke für die Screenshot's.
@ChaosTM, gemäss Interview (Christian Holmquist, Technical Director DICE) wird bei Dice seit Anfang Jahr mit bzw. an Raytracing für BF V gearbeitet. Wieso dann die Aussage von wenige Wochen? Die Aussage Geistert hier auch schon zu lange rum. Gibts da andere Quellen?
Quelle: https://se7en.ws/dice-made-nvidia-s-ray-traced-gaming-dreams-a-reality-in-just-eight-months/?lang=en
"Given the dimensions of the problem that getting a brand new, never-before-seen game know-how right into a title the scale of Battlefield 5 represents, it’s not stunning DICE would’ve needed extra time. But ultimately its PC builders have solely had a bit of over eight month"
@Troyan, komm troll dich weg.
Die meiste Zeit haben sie mit der Titan-V gearbeitet (wie einige andere auch), der kürzere Zeitraum ist das Tuning für Turing und dementsprechend noch am Anfang.
basix
2018-08-26, 14:27:14
Beste Source die ich bisher finde konnte was NV im Detail macht (Paper aus 2017):
https://research.nvidia.com/sites/default/files/publications/dnn_denoise_author.pdf
Danke für das Paper. Da sieht man schön, das wirklich gutes RT noch ein langer Weg ist. Das 1spp + Denoising Bild ist doch noch ziemlich verwaschen im Vergleich zu den 2000/4000spp Bildern. Es fehlen zum Teil auch noch einige Details. Aber was mit 1spp geht ist schon extrem erstaunlich. Mit 5spp würde es aber vermutlich schon viel besser aussehen. Dazu in Zukunft noch besser trainierte und grössere Netze (das im Paper erwähnte Denoising-NN hat sagenhafte 3.2 Millionen trainierbare Parameter :eek:) und man wird mit evtl. 5nm Chips sehr gut aussehendes RT in 4k/60fps darstellen können. Nur schon, dass man für RT einen Horizont hat, ab wann es klappen könnte ist schon ziemlich nice.
Was im Paper ebenfalls kurz erwähnt wird: Bei höherer Objekt- und Geometriekomplexität steigt auch der Aufwand für RT ;)
Geächteter
2018-08-26, 14:29:46
Wenn man das möchte, okay. Nur sollte man das dann eben marketingtechnisch auch richtig darstellen. Weil ich glaube, das viele sich da blenden lassen.
Ist ja auch der Sinn von Marketing. Man fixed die Junkies lange vorher mit Häppchen und Verzögerungstaktik ständig an, bis der Puls und Verstand kurz vorm Explodieren sind, und dann wird bei Rausgabe des Stoffes, aber künstlich limitiert, die Chance zum finanziellen Abmelken ergriffen. Und dann das Spiel wiederholt. Shareholder's wet dream.
Armaq
2018-08-26, 14:36:22
Annäherung muss geschehen. Es kommt nicht Tag 1 und alles ist perfekt. Schaut euch nochmals die Grafik aus 1999 an. Grausam!
RT wird sich schneller entwickeln als Raster. Für mich bleibt die Frage offen, ob 1200€ wirklich sein müssen dafür. Einmal auf Seiten Nvidia oder ob das auch ohne Preisexplosion geht, dann auch auf Seiten des Implementierungsaufwands.hier zweifle ich viel eher, denn AMD und Co kommen auch. Nur wenn dann wieder gsync passiert, hat keiner etwas davon.
Mancko
2018-08-26, 14:58:26
Ihr streitet seit 20 Seiten über eine "Schnellschussimplementation" eines neues Features innerhalb kürzester Zeit von DICE.
(edit.: da lag ich wohl falsch. DICE arbeitet angeblich schon seit Monaten daran und nicht seit ein paar Wochen..)
NATÜRLICH kann das noch nicht absolut korrekt sein.
Das wurde schnell mal zusammengeschustert für die NV Präsentation -- Jesus Ch...
Wie üblich geht es bestimmten Personen nur darum "das Internet zu gewinnen" und den anderen um ihre blinde Markentreue. Faszinierend.. eigentlich ;)
Am Ende ist es doch eh scheiß egal. Ob nun Annäherung oder nicht. Hauptsache es sieht besser aus und das tut es erheblich.
LadyWhirlwind
2018-08-26, 15:02:42
Annäherung muss geschehen. Es kommt nicht Tag 1 und alles ist perfekt. Schaut euch nochmals die Grafik aus 1999 an. Grausam!
RT wird sich schneller entwickeln als Raster. Für mich bleibt die Frage offen, ob 1200€ wirklich sein müssen dafür. Einmal auf Seiten Nvidia oder ob das auch ohne Preisexplosion geht, dann auch auf Seiten des Implementierungsaufwands.hier zweifle ich viel eher, denn AMD und Co kommen auch. Nur wenn dann wieder gsync passiert, hat keiner etwas davon.
Ich denke Nvidia setzt RT in den Fokus weil sie das besser können als die Konkurrenz im Moment. Die wird aber nicht schlafen und die Gefahr ist da, dass in den meisten Fällen das nicht mehr eingesetzt wird, wie auf den NextGen Konsolen möglich.
Also gut möglich das man bei Nvidia viel Kohle zahlt für etwas was abseits von Showcase Deals nicht genutzt wird.
Ps: 1999 fand ich die aktuelle Grafik toll xD
Geächteter
2018-08-26, 15:05:02
Annäherung muss geschehen. Es kommt nicht Tag 1 und alles ist perfekt. Schaut euch nochmals die Grafik aus 1999 an. Grausam!
RT wird sich schneller entwickeln als Raster. Für mich bleibt die Frage offen, ob 1200€ wirklich sein müssen dafür. Einmal auf Seiten Nvidia oder ob das auch ohne Preisexplosion geht, dann auch auf Seiten des Implementierungsaufwands.hier zweifle ich viel eher, denn AMD und Co kommen auch. Nur wenn dann wieder gsync passiert, hat keiner etwas davon.
Eher nicht, weil halbleitermäßig für die Zukunft abseits von Marketing und heißer Luft nicht mehr viel zu erwarten ist. Im worst case muss man damit rechnen, dass man bis 2030 auf 7 nm hängenbleibt. Könnte man höchstens alte Teile des Chips opfern für mehr RT. Einen gewissen Charme hätte das, die Spielelevels wären zwar kleiner und weniger Auflösung als heute, aber "der Look" ist frisch. An der "alten" Grafik hat man sich mittlerweile satt gesehen und da bringt es auch nix, den alten Mist nativ mit 4k auf 40 Zoll zu rendern.
wolik
2018-08-26, 15:28:19
Annäherung muss geschehen. Es kommt nicht Tag 1 und alles ist perfekt. Schaut euch nochmals die Grafik aus 1999 an. Grausam!
RT wird sich schneller entwickeln als Raster. Für mich bleibt die Frage offen, ob 1200€ wirklich sein müssen dafür. Einmal auf Seiten Nvidia oder ob das auch ohne Preisexplosion geht, dann auch auf Seiten des Implementierungsaufwands.hier zweifle ich viel eher, denn AMD und Co kommen auch. Nur wenn dann wieder gsync passiert, hat keiner etwas davon.
Muss es für Top CPU Intel Core i7-6950X Extreme Edition € 1693,99 oder sogar AMD Epyc 7601, 32x 2.20GHz € 4386,92 bezahlt werden ? Ohne Mainboard und Speicher...
Platos
2018-08-26, 16:27:30
Eher nicht, weil halbleitermäßig für die Zukunft abseits von Marketing und heißer Luft nicht mehr viel zu erwarten ist. Im worst case muss man damit rechnen, dass man bis 2030 auf 7 nm hängenbleibt. Könnte man höchstens alte Teile des Chips opfern für mehr RT. Einen gewissen Charme hätte das, die Spielelevels wären zwar kleiner und weniger Auflösung als heute, aber "der Look" ist frisch. An der "alten" Grafik hat man sich mittlerweile satt gesehen und da bringt es auch nix, den alten Mist nativ mit 4k auf 40 Zoll zu rendern.
Lol, ihr seid doch alle blind, wenn ihr auf 40" ernsthaft nicht von 4k oder 8k profitiert. Mal ehrlich. Leute die das sagen, kann man nicht ernst nehmen. Kauft euch ne (neue) Brille.
Nicht, dass ich auch auf einer PS4 in FHD spiele und es ok aussieht, aber nix bringen ist bullshit ^^
Sie sind ja "korrekt" - nur in einer sehr geringen Qualität. Wir sind noch Jahre von RT-only oder eben auch GSXR-1000-korrekten RT entfernt. Das ändert jedoch nichts daran, dass DICE in BF5 über Raytracing "komplette und korrekte" Spiegelungen per RT einbauen kann, die schon heute eine Qualität liefern, die per Rasterizing nicht möglich ist. Selbst die Spiegelung im Scheinwerfer ist "komplett und korrekt".
Am Ende ist es doch eh scheiß egal. Ob nun Annäherung oder nicht. Hauptsache es sieht besser aus und das tut es erheblich.
Richtig. Man muß doch einfach bedenken, das solche Spiegelungen und Reflexionen in dieser Form in Echtzeit für Spieler bisher GAR NICHT möglich waren. Das wird nun die Spielergemeinschaft selbst entscheiden, ob sie nun bessere Effekte wollen oder nicht. Es ist doch keine Frage mehr, daß das, was Nvidia aktuell bietet, schlichtweg alles bisherige übertrifft. Ob das nun 100%ig RT ist oder nicht, ist doch egal, solange es den Effekt erzielt, was es erzielen soll: Bessere und realistischer Darstellungsqualität.
Und mir ist doch auch vollkommen klar, daß Marketing immer alles etwas "schöner" darstellt. Ebenso ist klar, daß Nvidia auch nicht zaubern kann und von heute auf morgen die 100%ige Lösung bietet. Klar wird etwas getricktst, und wie einige hier korrekt sagten, es wird einen iterativen Verbesserungsprozess geben.
Nur mal so, wer damals mit in den Anfängen von RT war, weiß doch noch genau, wie man die Anzahl der Reflexionen und Spiegelungen einstellen konnte, die Anzahl der Rekursion verkürzen, den Objektraum eingrenzen, so daß die Berechnung schneller erfolgen konnte, ohne große sichtbare Verluste. Und bei einem schnellen Spiel würde vollständig korrektes RT doch eh von den meisten im Eifer des Gefechtes gar nicht mehr wahrgenommen und erkannt werden. Daher verstehe ich nicht, warum sich einige hier über einige Tricks echauffieren.
basix
2018-08-26, 17:38:32
Am Ende ist es doch eh scheiß egal. Ob nun Annäherung oder nicht. Hauptsache es sieht besser aus und das tut es erheblich.
Der beste Kommentar dazu. Bringt es auf den Punkt, worauf es ankommt: Fortschritt ;)
akuji13
2018-08-26, 17:57:50
Sehe ich auch so.
Ist wie bei so vielen Dingen, z.B. der Sichtweite und den dargestellten Objekten.
Natürlich geht da noch viel mehr und das ist auch alles nicht so wie in der Realität, dennoch ist jede Steigerung zu begrüßen.
Auch wenn z. B. die Technik "nur" für bestimmte Bereiche genutzt werden wird um die fps höher zu halten.
Bin schon gespannt ob und wie sich RT in einem Spiel dann einstellen lässt in Sachen Umfang, Reichweite usw.
Armaq
2018-08-26, 18:03:41
Muss es für Top CPU Intel Core i7-6950X Extreme Edition € 1693,99 oder sogar AMD Epyc 7601, 32x 2.20GHz € 4386,92 bezahlt werden ? Ohne Mainboard und Speicher...
AMD geht viel billiger und besser. Threadripper ist auch ein schönes Beispiel. Wenn Entwicklung auf many core abzielt, haben alle etwas davon. Unabhängig welcher Hersteller, Adoption garantiert. Im CPU Bereich akzeptiert der Kunde den kleinen Fortschritt, aber SSE2 hat zu Lebzeiten der CPU keine Verbreitung erfahren.
Hübie
2018-08-26, 19:55:48
Ich bin neidisch, dass einige hier soviel Zeit haben um über totale Banalitäten seitenlange Diskussionen zu führen. Ich habe nicht mal die Zeit den Stuß...äääääähm die Diskussion zu lesen. :rolleyes: Das Leben ist zu kostbar um es mit so etwas zu verplempern.
Menace
2018-08-26, 20:10:26
Ich bin neidisch, dass einige hier soviel Zeit haben um über totale Banalitäten seitenlange Diskussionen zu führen. Ich habe nicht mal die Zeit den Stuß...äääääähm die Diskussion zu lesen. :rolleyes: Das Leben ist zu kostbar um es mit so etwas zu verplempern.
Sagt es und schreibt hier. :freak:
Ich hoffe, dass RTX 3070 RT dann in spielbare fps schafft. Düfte doch mit 7 nm schneller gehen, als dass man denkt.
basix
2018-08-26, 20:54:06
Ich hoffe, dass RTX 3070 RT dann in spielbare fps schafft. Düfte doch mit 7 nm schneller gehen, als dass man denkt.
7nm soll 0.3x Scaling und 0.4x Energieverbrauch bieten, ergo 3.3x höhere Density bei 2.5x Effizenzsteigerung. Sind zwar eher Best Case Werte direkt von der Foundry, aber wenn "nur" 2.5x und 2x davon ankommen, wird eine hypothetische RTX 3060er etwa so schnell wie eine RTX 2080 Ti ;)
Beispiel: Ausgehend von TU104, 550mm2 / 2.5 = 220mm2. Dazu noch +30% Takt und man hätte RTX 2080 Ti Leistung ;)
Timbaloo
2018-08-26, 21:12:49
Der Fehler ist zu glauben, dass ein Gx104 >350mm² bzw. ein Gx102 >500mm² wäre.
crux2005
2018-08-26, 21:18:14
7nm soll 0.3x Scaling und 0.4x Energieverbrauch bieten, ergo 3.3x höhere Density bei 2.5x Effizenzsteigerung. Sind zwar eher Best Case Werte direkt von der Foundry, aber wenn "nur" 2.5x und 2x davon ankommen, wird eine hypothetische RTX 3060er etwa so schnell wie eine RTX 2080 Ti ;)
Ehm, sicher nicht. Sonst esse ich einen Schoko Besen. ;)
Troyan
2018-08-26, 21:22:11
Ja, ist falsch: http://www.tsmc.com/english/dedicatedFoundry/technology/7nm.htm
Laut TSMC passen 60% mehr Transistoren auf die selbe Fläche.
TheGood
2018-08-26, 21:33:31
Richtig. Man muß doch einfach bedenken, das solche Spiegelungen und Reflexionen in dieser Form in Echtzeit für Spieler bisher GAR NICHT möglich waren. Das wird nun die Spielergemeinschaft selbst entscheiden, ob sie nun bessere Effekte wollen oder nicht. Es ist doch keine Frage mehr, daß das, was Nvidia aktuell bietet, schlichtweg alles bisherige übertrifft. Ob das nun 100%ig RT ist oder nicht, ist doch egal, solange es den Effekt erzielt, was es erzielen soll: Bessere und realistischer Darstellungsqualität.
Und mir ist doch auch vollkommen klar, daß Marketing immer alles etwas "schöner" darstellt. Ebenso ist klar, daß Nvidia auch nicht zaubern kann und von heute auf morgen die 100%ige Lösung bietet. Klar wird etwas getricktst, und wie einige hier korrekt sagten, es wird einen iterativen Verbesserungsprozess geben.
Nur mal so, wer damals mit in den Anfängen von RT war, weiß doch noch genau, wie man die Anzahl der Reflexionen und Spiegelungen einstellen konnte, die Anzahl der Rekursion verkürzen, den Objektraum eingrenzen, so daß die Berechnung schneller erfolgen konnte, ohne große sichtbare Verluste. Und bei einem schnellen Spiel würde vollständig korrektes RT doch eh von den meisten im Eifer des Gefechtes gar nicht mehr wahrgenommen und erkannt werden. Daher verstehe ich nicht, warum sich einige hier über einige Tricks echauffieren.
Man muss aber auch mal klipp und klar sagen, dass diese Spiegelung völlig übertrieben sind auf einem Autolack....
Ja es sieht cool aus, hat aber imho mit der Realität herzlich wenig zu tun.
GSXR-1000
2018-08-26, 21:34:49
Sagt es und schreibt hier. :freak:
.
Besser noch: er ist TS dieses Threads. Der viel Aufwand allein in die aktuelisierung des Startposts steckt. Insofern darf man diesen Post wohl als ziemlich lustigen Trollpost kategorisieren:))
basix
2018-08-26, 21:44:54
Ja, ist falsch: http://www.tsmc.com/english/dedicatedFoundry/technology/7nm.htm
Laut TSMC passen 60% mehr Transistoren auf die selbe Fläche.
Wenn schon die (absolut richtige) Quelle angeben, dann bitte auch richtig lesen:
1.6x gelten 7nm vs. 10nm ;) Den Rest kannst du dir selber zusammensuchen oder du klickst diesen Link an https://www.anandtech.com/show/12727/tsmc-details-5-nm-process-tech-aggressive-scaling-but-thin-power-and-performance-gains
Ausgehend von 16/12nm ist 7nm ein doppelter Full-Node Sprung, deswegen wird der Unterschied auch grösser als üblich ausfallen. 70% Flächenreduktion = 3.3x Density Erhöhung. Wie gesagt Foundry Angaben und real sicher tiefer. So 2x werden wir sicher sehen, da Vega V20 mit 2x Flächeneffizienz angegeben wird ausgehend vom etwas dichteren 14nm GloFo Prozess. Der wiederum entspricht etwa 12nm FFN von der Dichte her. Wie sehr dass V20 auf Fläche optimiert wurde ist aber ungewiss. Zudem kamen sogar noch ein doppeltes Speicherinterface gegenüber V10 dazu. Deswegen: 2...2.5x Flächenskalierung werden wir sehen.
Und an 3060er Leistung @ 2080 TI halte ich ebenso fest: Siehe V20 vs. V10 2x Erhöhung der Effizienz. Und wie viel schneller ist eine 1080 Ti vs. 1060? Hmm, ziemlich genau 2x :D Bleiben die TDPs der Karten gleich, wird es in ca. 2x Leistungssteigerung münden.
Der Fehler ist zu glauben, dass ein Gx104 >350mm² bzw. ein Gx102 >500mm² wäre.
Vielleicht. Da Nvidia mit 12nm Fläche definitiv nicht spart, könnte es ein wenig grösser als Pascal werden. Viel grösser wäre es nach meinem Beispiel nicht, etwa +10%. Die Preise sind ja eh hoch, deswegen sollte die Marge da sein. Vermutlich ist ein 750mm2 TU102 teurer als ein 500mm2 Gx102 in 7nm, auch wenn 7nm pro Fläche doppelt so teuer wäre. Momentan sieht es eher nach 60-70% teurer pro Wafer aus.
Ehm, sicher nicht. Sonst esse ich einen Schoko Besen. ;)
Den werde ich spendieren, falls dem so sein sollte :D
Man muss aber auch mal klipp und klar sagen, dass diese Spiegelung völlig übertrieben sind auf einem Autolack....
Ja es sieht cool aus, hat aber imho mit der Realität herzlich wenig zu tun.
Es ist eine Demo. :rolleyes: Meine Güte. Jetzt sucht Ihr alle wirklich nur das Haar in der Suppe, oder? Da will man doch zeigen, was technisch möglich ist. Mir reichts ja schon aus, daß man in Glas und Fenster endlich realistischere Spiegelungen sieht, und das die Schattenberechnung deutlich besser ist.
TobiWahnKenobi
2018-08-26, 22:28:00
also meine motorhaube taugt als spiegel..
https://abload.de/thumb/img_06516vflp.jpg (https://abload.de/image.php?img=img_06516vflp.jpg)
..das restliche auto auch. (https://abload.de/img/adam_s_nach_federn_260cf9.jpg)
;)
(..)
mfg
tobi
Bösewicht
2018-08-26, 22:56:51
also meine motorhaube taugt als spiegel..
https://abload.de/thumb/img_06516vflp.jpg (https://abload.de/image.php?img=img_06516vflp.jpg)
..das restliche auto auch. (https://abload.de/img/adam_s_nach_federn_260cf9.jpg)
;)
(..)
mfg
tobi
die harre das cap, schaut ein wenig nach michael mittemeier aus :biggrin:
die Reflektionen am auto sehen ja schon mal so aus wie in der BF Demo :D
Ich bin neidisch, dass einige hier soviel Zeit haben um über totale Banalitäten seitenlange Diskussionen zu führen. Ich habe nicht mal die Zeit den Stuß...äääääähm die Diskussion zu lesen. :rolleyes: Das Leben ist zu kostbar um es mit so etwas zu verplempern.
ich komme auch grade zur Erkenntnis das Foren inzwischen mehr und mehr Zeitverschwendung sind... nicht immer aber immer öfter!
Es gibt die einen die alles toll finden, dann gibt es die ich finde alles doof Fraktion und dann gibt es noch neutrale und die zwei fanboy seiten die anscheinend ein Großteil ihrer Zeit damit verbringen anderen ihre Meinung auf zu drücken.
wenn ich hier als interessierter in denn Thread komme und mich informieren will und 300 seiten lang das haar in der suppe gesucht wird denke ich mir doch nicht oh jetzt kaufe ich mal lieber amd sondern sage mir ne ne ich kaufe doch kein amd wenn deren Fraktion jeden Thread in ein Schlachtfeld verwandelt.
wie es in amd threads aus schaut weiß ich nicht aber es muss sich keiner wundern wenn nvidia all die Jahre über immer dominanter geworden ist.
in meinen Augen die denkbar schlechteste Werbung die man machen kann!
Hübie
2018-08-27, 00:51:01
Sagt es und schreibt hier. :freak:
Versteh nicht was du meinst. Ich möchte meine Zeit sinnvoll einsetzen, wie z.B. wichtige Infos in den Startbeitrag packen. Seitenlange Diskussionen die keine Erkenntnis schaffen, kosten Zeit und ich gehe jeden Beitrag durch (außer die von diesem GSXR-Typen) bzw. überfliege diesen.
Sollten also Infos noch in den Startbeitrag rein, bitte melden. :smile:
Ich schau mal ob morgen die Zeit ist die Folien mit einzupflegen.
Geächteter
2018-08-27, 03:02:49
Lol, ihr seid doch alle blind, wenn ihr auf 40" ernsthaft nicht von 4k oder 8k profitiert. Mal ehrlich. Leute die das sagen, kann man nicht ernst nehmen. Kauft euch ne (neue) Brille.
Nicht, dass ich auch auf einer PS4 in FHD spiele und es ok aussieht, aber nix bringen ist bullshit ^^
Natürlich sieht man das. :rolleyes:
Es ging mir darum, dass FHD bei weniger Fläche, beispielsweise max. 24", dafür "Next-Gen-Grafik" besser sind als altbacken, dafür hochauflösend und aufgeplustert auf ehemalige Fernsehendiagonalgrößen.
Beides kombiniert wäre noch besser, aber solange die Physik da wieder nicht mitspielen will, dann lieber das Gameboyfenster mit feinstem Raytracing als die Leinwand mit Standardkost.
matty2580
2018-08-27, 04:00:16
Hier sucht doch niemand ein Haar in der Suppe. :(
Raytracing als neue Technologie ist schon cool, auch interessant, auch die die anderen Features von Turing.
Die Chips sind aber deutlich größer als ihre Vorgänger, trotz nicht viel mehr Shader oder Takt, aber dafür unverhältnismäßig teurer laut UVP, und wahrscheinlich noch nicht einmal viel schneller unter DX11 als die Vorgänger, die ja nun weit über 2 Jahr alt sind.
Nvidia macht hier also über den Preis ein sehr extremes Raytracing-Experiment, mit ungewissen Ausgang, was sehr ungewöhnlich ist.
Wenn es statt dessen deutlich mehr Shader gegeben hätte, mit entsprechenden Leistungsgewinn, und etwas mehr Takt, würde sich hier niemand beschweren, und viele so gar die extremen Preise halbwegs akzeptieren. Wobei es auf Dauer auch nicht sein sollte, dass es mehr Leistung hauptsächlich durch Preiserhöhungen gibt.
Oder verdient ihr alle das Dreifache seit 10 Jahren?
Also ich (leider) nicht.....
Nvidia ist zum neuen Apple geworden, mit teilweise schon "kranken" Gewinnen seit Fermi, die alles andere als "normal" sind....
RoughNeck
2018-08-27, 05:21:17
Wer sagt denn das Turing unter DX11 nicht merklich schneller sein wird?
Einen Sprung wie von Maxwell auf Pascal wird es nicht geben aber das war auch schon bekannt. Klar, die Preise sind jetzt höher als gedacht, holen werde ich mir eine RTX TI dennoch.
Ich will einfach was neues haben.
Leonidas
2018-08-27, 05:54:18
Wenn schon die (absolut richtige) Quelle angeben, dann bitte auch richtig lesen:
1.6x gelten 7nm vs. 10nm ;) Den Rest kannst du dir selber zusammensuchen oder du klickst diesen Link an https://www.anandtech.com/show/12727/tsmc-details-5-nm-process-tech-aggressive-scaling-but-thin-power-and-performance-gains
Wurde doch alles hier perfekt aufbereitet:
https://www.3dcenter.org/news/tsmcs-5nm-fertigung-bringt-nur-unterdurchschnittliche-fortschritte
Cyphermaster
2018-08-27, 08:35:42
Nvidia macht hier also über den Preis ein sehr extremes Raytracing-Experiment, mit ungewissen Ausgang, was sehr ungewöhnlich ist.Nicht unbedingt. Es ist ja nicht immer so, daß man mit "+50%!!!" an Leistung wuchern kann, um die Käufer zu begeistern. Daher gab es schon immer auch parallel Versuche, Features der einen oder anderen Art stattdessen zu pushen. Man denke zum Beispiel an Tesselation auf der Radeon 8500 (!!!), das damals auch ein "Experiment mit ungewissem Ausgang" war. Oder Dinge wie Temporales AA, Free/G-Sync,... Nicht alles setzt sich durch, nicht alles kommt sofort - aber das sind die eigentlichen Innovationen.
Das "Dicke Ding", mit dem eigentlich geworben wird, wenn es um die Leistung von Turing geht, ist ja eher DLSS, weil man nicht bei der Rohleistung, sondern dort massivst mit "mehr Leistung" wuchert (und über den GF Experience-Zwang auch ein neues Verdienstmodell etabliert); RT ist mehr die zugehörige "Eyecandy"-Dreingabe für Vorführungen auf Events usw.. Für den DAU sieht's dann so aus, als wäre Turing der reinste Hammer-Chip, weil ja RT UND +50 bis +100% Mehrleistung rauskommen würden, irgendwie (weil's ja alles irgendwo steht)...
Godmode
2018-08-27, 09:53:43
Versteh nicht was du meinst. Ich möchte meine Zeit sinnvoll einsetzen, wie z.B. wichtige Infos in den Startbeitrag packen. Seitenlange Diskussionen die keine Erkenntnis schaffen, kosten Zeit und ich gehe jeden Beitrag durch (außer die von diesem GSXR-Typen) bzw. überfliege diesen.
Sollten also Infos noch in den Startbeitrag rein, bitte melden. :smile:
Ich schau mal ob morgen die Zeit ist die Folien mit einzupflegen.
Ignore-List nutzen. :biggrin:
Wer sagt denn das Turing unter DX11 nicht merklich schneller sein wird?
Einen Sprung wie von Maxwell auf Pascal wird es nicht geben aber das war auch schon bekannt. Klar, die Preise sind jetzt höher als gedacht, holen werde ich mir eine RTX TI dennoch.
Ich will einfach was neues haben.
Wenn das Ding in DX11 nicht merklich schneller ist, als Pascal, würden sie nicht so horrende Preise verlangen können. Die Tests werden es hoffentlich bald zeigen.
mironicus
2018-08-27, 10:13:44
Die einzige verfügbare Benchmarkliste die von NVidia freigegeben worden ist zeigen nur 4K-Benchmarks im Vergleich GTX 1080/2080. Die GTX 1080 hat eine HDR-Schwäche und in 4K wird vor allem die viel höhere Speicherbandbreite von GDDR6 einiges herausholen. Das wird in geringeren Auflösungen nicht mehr so hoch ausfallen.
Die Frage ist halt, ist der Mehrpreis der Karte die höhere Performance wert, und das ist immer noch das wichtigste, weil hiervon alle Spiele profitieren, während neue Features nur zukünftige Spiele betreffen. In den letzten Generationen hat NVidia auch immer die Speichermenge erhöht, das ist auch ein Nachteil bei den neuen Karten.
Hübie
2018-08-27, 10:15:29
Nicht unbedingt. Es ist ja nicht immer so, daß man mit "+50%!!!" an Leistung wuchern kann, um die Käufer zu begeistern. Daher gab es schon immer auch parallel Versuche, Features der einen oder anderen Art stattdessen zu pushen. Man denke zum Beispiel an Tesselation auf der Radeon 8500 (!!!), das damals auch ein "Experiment mit ungewissem Ausgang" war. Oder Dinge wie Temporales AA, Free/G-Sync,... Nicht alles setzt sich durch, nicht alles kommt sofort - aber das sind die eigentlichen Innovationen.
Das "Dicke Ding", mit dem eigentlich geworben wird, wenn es um die Leistung von Turing geht, ist ja eher DLSS, weil man nicht bei der Rohleistung, sondern dort massivst mit "mehr Leistung" wuchert (und über den GF Experience-Zwang auch ein neues Verdienstmodell etabliert); RT ist mehr die zugehörige "Eyecandy"-Dreingabe für Vorführungen auf Events usw.. Für den DAU sieht's dann so aus, als wäre Turing der reinste Hammer-Chip, weil ja RT UND +50 bis +100% Mehrleistung rauskommen würden, irgendwie (weil's ja alles irgendwo steht)...
Wenn die Geschichte ähnlich verläuft wie nPatches/TruForm, dann wird RT ja auch irgendwann ein subtiler Standard. Dieses Mal hat man den Vorteil, dass Devs weniger Arbeit / Aufwand haben und es eine gemeinsame API gibt. Tessellation ist heute Standard und kann (immer) selten(er) an- oder abgeschaltet werden. So betrachtet also kein schlechter Einstand.
@godmode: Ich habe hier iirc noch nie jemanden auf ignore gesetzt. Kenne unsere Pappenheimer ja ganz gut. ;D ;D
Traxx
2018-08-27, 10:29:54
also meine motorhaube taugt als spiegel..
https://abload.de/thumb/img_06516vflp.jpg (https://abload.de/image.php?img=img_06516vflp.jpg)
..das restliche auto auch. (https://abload.de/img/adam_s_nach_federn_260cf9.jpg)
;)
(..)
mfg
tobi
Nice! Meine Kiste ist dagegen eher RT-Off. :D
Rancor
2018-08-27, 10:33:58
Ich weiss nicht.
Laut Dice sind bei BF V 60 FPS das Ziel @ Full HD @ Raytracing on und das ganze sicher nicht mit einer 2070..
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Grundsolide-60-Fps-mit-aktivem-Echtzeit-Raytracing-in-Full-HD-Aufloesung-1263740/
Wer gibt denn 1250€ aus um nachher mit 60FPS und Full HD rumzugammeln? Das verstehe ich nicht.
Gut es gibt DLSS, man muss sehen wie gut das funktioniert. Aber wie schnell ist das ganze noch, wenn die Tensor Kerne parallel auch noch das Denoising fürs Raytracing übernehmen?
Es gibt keinerlei Info ob RT und DLSS zusammen überhaupt funktionieren..
Troyan
2018-08-27, 10:38:30
So what? Deaktiviere ein paar Effekte und schon läuft es besser mit Raytracing.
Es ist wohl offensichtlich, dass Next-Gen Effekte Next-Gen Leistung benötigen. Wer altmodisch spielen will, kann es dann ja auch in 4K mit 120FPS tun.
dildo4u
2018-08-27, 10:41:52
Es gibt keinerlei Info ob RT und DLSS zusammen überhaupt funktionieren..
Natürlich es gibt Games die Beides unterstützen.
https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing
Edgecrusher86
2018-08-27, 10:41:56
4K120 = RTX 2080 Ti SLI - aber bitte nicht in DX12 (@ BF V bzw. FB3). ;)
Ja, ich vermute, dass die 30 Series dann so 20-25 Gigarays als Target hat - da gehen dort dann vielleicht 1440p60. :)
CompuJoe
2018-08-27, 10:43:26
Ich glaube das muß man dann anders sehen, die Effekte sind dann egal, sobald RT aktiv ist bestimmt der wieviele max. FPS zusammenkommen und bremst das klassische rendering ein.
Man hat dann wohl in Zukunft 3 dinge, CPU Limit, GPU Limit und RT Limit wenn es aktiv ist.
Daredevil
2018-08-27, 10:43:36
Wer gibt denn 1250€ aus um nachher mit 60FPS und Full HD rumzugammeln? Das verstehe ich nicht.
Wahrscheinlich.... die Mehrheit?
Du musst echt mal aus der 3DCenter Blase raus kommen und dir die weite Welt anschauen.
FullHD@60hz ist nun einmal das verbreitetste Setting.
Die OneX User haben sich auch ne "Premium Konsole" gekauft und spielen bei maximal 60fps in verschiedenen Auflösungen zwischen FullHD und UHD.
Rancor
2018-08-27, 10:47:15
Wahrscheinlich.... die Mehrheit?
Du musst echt mal aus der 3DCenter Blase raus kommen und dir die weite Welt anschauen.
FullHD@60hz ist nun einmal das verbreitetste Setting.
Die OneX User haben sich auch ne "Premium Konsole" gekauft und spielen bei maximal 60fps in verschiedenen Auflösungen zwischen FullHD und UHD.
Die OneX User haben aber nur 500€ dafür gezahlt und nicht das 2,5x....
Auf einmal ist FullHD wieder ausreichend. Vor der RTX hieß es immer nur, Auflösung Auflösung, Full HD ist Augenkrebs etcc.... und jetzt auf einmal reicht das?... Und wer will schon Full HD auf seinem 4K Panel sehen....
Natürlich es gibt Games die Beides unterstützen.
https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing
Aber auch beides gleichzeitig, war meine Frage. Weil DLSS ja via Tensor Cores realisiert wird und das Denoising für RT ja ebenfalls. Und wenn ja, wie schnell das ganze ist.
So what? Deaktiviere ein paar Effekte und schon läuft es besser mit Raytracing.
Es ist wohl offensichtlich, dass Next-Gen Effekte Next-Gen Leistung benötigen. Wer altmodisch spielen will, kann es dann ja auch in 4K mit 120FPS tun.
Ja genau, ich kaufe mir ne 1250€ Karte um Effekte zu deaktvieren damit ich es in WQHD oder höher mit 60 FPS oder mehr spielen kann.... Passt schon Teschkov....
Merkt ihr eigentlich nicht, wieviele ungeklärte Fragen es noch zu den RTX Karten gibt?
Troyan
2018-08-27, 10:49:43
Wahrscheinlich.... die Mehrheit?
Du musst echt mal aus der 3DCenter Blase raus kommen und dir die weite Welt anschauen.
FullHD@60hz ist nun einmal das verbreitetste Setting.
Die OneX User haben sich auch ne "Premium Konsole" gekauft und spielen bei maximal 60fps in verschiedenen Auflösungen zwischen FullHD und UHD.
60FPS? Ha. Die spielen Monster Hunter World mit <=45FPS in 1080p. ;D
dargo
2018-08-27, 10:50:23
So what? Deaktiviere ein paar Effekte und schon läuft es besser mit Raytracing.
Welche Effekte? Die der Rasterizationsteil berechnet? Ich glaube kaum, dass dieser Teil bei einer 2080TI limitiert wenn mit RT das Target 1080p @60fps beträgt.
Edgecrusher86
2018-08-27, 10:51:30
Naja, die Leute, die jetzt noch mit FHD spielen, geben sicher keine 1259€ (oder mehr bei ener Custom) für eine RTX 2080 Ti aus - das sollte klar sein. :D
Als ehemaliger TITAN User (Kepler und Maxwell) hat mich die Preisgestaltung nicht so geschockt, wobei mir aber die Stagnation beim VRAM auch überhaupt nicht passt. Nun ja, wer GP102 hat und auch keine RTX Demos fahren möchte, der kann sich eigentlich noch entspannt bis 7nm zurück lehnen.
Die Rasterization-Mehrleistung abseits DX12+HDR dürfte wohl grob bei +4x % avg sein (GTX 1080 Ti auf RTX 2080 Ti). Das wäre mir dann doch zu viel des Guten, auch wenn man bei fordernden Titeln in 4K (bzw. 5160x2160 21:9 DSR), die nur SGPU Support bieten, vermutlich grob +20-25 fps addieren können dürfte.
Soviel spiele ich auch nicht mehr, dass ich das unbedingt mitnehmen müsste.
Timbaloo
2018-08-27, 10:53:41
Also die von Gaijin gezeigte techdemo von Enlisted zeigt flüssige Global Illumination via RTX in 4K. Will sagen: Es gibt mehr als BF5.
Fragman
2018-08-27, 10:59:22
7nm kann und wird kein rt bei 4k und 60 frames moeglich machen, SOLLTEN AKTUELL nur 30-40 frames in fhd drin sein. Das kann man sich ja leicht ausrechnen. Es macht mehr sinn, entweder mehr rays auf fhd oder vielleicht dann auf 1440p zu gehen. Ausser nv verbaut deutlich mehr rt einheiten als durch die schrumpfung allein moeglich. Was die chips aber wieder groesser macht und damit teurer. DAS argumemt fuer 7nm duerften aktuell eher die kosten sein und damit etwas guenstigere karten bei gleicher leistung.
TobiWahnKenobi
2018-08-27, 11:00:21
plöd irgendwie dass battlefieldv erst rauskommt, wenn die karten schon vier wochen bei den vorbestellern liegen.. plötzlich platzt die blase weil ein gros der spieler bemerkt, dass das nur ne techdemo zum gucken ist, die man in spielen einfach nicht nutzen kann und dann kann man nichtmal mehr das FAG ausnutzen.
btw,
wo storniert man bei NV doch gleich vorbestellungen?? *gg*
(..)
mfg
tobi
Nvidia macht hier also über den Preis ein sehr extremes Raytracing-Experiment, mit ungewissen Ausgang, was sehr ungewöhnlich ist.
Wenn es statt dessen deutlich mehr Shader gegeben hätte, mit entsprechenden Leistungsgewinn, und etwas mehr Takt, würde sich hier niemand beschweren, und viele so gar die extremen Preise halbwegs akzeptieren.
Es ist aber doch absurd. 20% Mehrleistung würden einfach verpuffen ohne dass man einen großen Bildqualitätsgewinn hat.
Abgesehen davon hat Nvidia das Problem, dass sie 2 neue Baustellen gleichzeitig aufgemacht haben und es immer wieder nur auf Raytracing reduziert wird. Es hätte vielleicht geholfen erst die Tensorcores in Gamerprodukten einzuführen und dann in der nächsten Generation die RT Units. Aber geschrien hätten viele dann wohl leider trotzdem.
Troyan
2018-08-27, 11:06:26
nVidia kann nicht mehr Einheiten verbauen. Sie hätten einzig die Die-Größe reduzieren können. Man bekommt hier Raytracing und TensorCores sozusagen Kostenlos hinzu. Der Preis wäre auch so unabhängig davon absurd hoch.
Daredevil
2018-08-27, 11:16:37
Naja, die Leute, die jetzt noch mit FHD spielen, geben sicher keine 1259€ (oder mehr bei ener Custom) für eine RTX 2080 Ti aus - das sollte klar sein. :D
Warum nicht?
Gute 4k -Gaming Monitore- sind rar gesähnt ( und sehr teuer ) und Monitore wechselt man deutlich seltener als Hardware. Da kann es durchaus vorkommen, dass man in FullHD/QHD bei 100fps+ spielt oder eben in 4k bei 60hz bzw. fps.
Ist ja nicht so, als könnte man mit Downsampling auf FullHD ne 1080ti nicht schon arg in Grenzen bekommen.
Genauso wie man ne OneX auf FullHD gut betreiben kann ( Eyecandy durch Downsampling ) , geht das auch mit einer HighEnd Karte und solange man kein 4k kennt, vermisst man es auch eher selten. Das gleiche gibts ja auch bei hohen Refresh Raten.
N Kollege von mir zockt an nem 60hz Fernseher mit VSync und "Cinema Mode" und versteht überhaupt nicht, was ich mit riesen Input Lag meine.
Man vermisst nur das, was man kennt. :D
Ich wüsste zumindest nicht, wieso ich meinen 144HZ FullHD Monitor gegen 4k eintauschen sollte, weil mir noch alles gut gefällt.
Die Marktanteile sprechen da ja ebenfalls ne klare Sprache.
Rancor
2018-08-27, 11:19:40
Warum nicht?
Weil es Unsinn ist? Und für die allermeisten, die ne 1080Ti haben, ein Downgrade in der Auflösung darstellt? Wer will schon interpoliert zocken?
Laien kaufen keine 1080TI...
Cyphermaster
2018-08-27, 11:20:25
Wenn die Geschichte ähnlich verläuft wie nPatches/TruForm, dann wird RT ja auch irgendwann ein subtiler Standard. Dieses Mal hat man den Vorteil, dass Devs weniger Arbeit / Aufwand haben und es eine gemeinsame API gibt. Tessellation ist heute Standard und kann (immer) selten(er) an- oder abgeschaltet werden. So betrachtet also kein schlechter Einstand.
Das ist so die große Frage: Totgeburt oder langfristig neuer Standard? TruForm auf der R8500 war auch nicht schnell genug, um plötzlich überall DER Gamechanger zu sein statt hier und da mal ein wenig Eyecandy unter massivem Performanceverlust - aber die Idee an sich war gut, und kam irgendwann wieder. Man weiß vielfach erst hinterher, wie gut oder schlecht so eine Idee ist, und manchmal kommt die Idee auch in veränderter Form (siehe TBR vs. IMR und deren jetziges HSR, wo in manchen Dingen doch wieder Tiles genutzt werden). Wirkich wissen werden wir es erst in 2-3 Jahren, frühestens - also zu Zeiten, wo man längst nicht mehr über die RTX/GTX 20xx reden wird, sondern über die 21xx/22xx/23xx.
Ich finde solche Innovationen schon per se interessant und wichtig. Denn damit wird die Technik an sich verbessert, nicht nur die Fertigung optimiert. Kritisch sehe ich bei Turing momentan nur die Geschichte, daß man DLSS wieder an separate Verträge bindet (fehlt nur noch, daß GF Experience dann Abo-Gebühren verlangt und/oder immer wieder Werbung einblendet, so wie W10 demnächst im Startmenü... :rolleyes:), und wie bei den xyz-Sync-Geschichten zunehmendem Proprietarismus Vorschub leistet, also effektiv einer ANTI-Standardisierung. Auf solche "Features" könnte (und im Notfall WERDE) ich gut verzichten.
Naja, die Leute, die jetzt noch mit FHD spielen, geben sicher keine 1259€ (oder mehr bei ener Custom) für eine RTX 2080 Ti aus - das sollte klar sein. :D
Doch theoretisch schon. Warum ich die 1259.- nicht ausgeben möchte, liegt eher an der Unverschämtheit seitens nV. FHD nutze ich nach wie vor aufgrund der high fps. Ich liebe das Feeling über mindestens 80fps inkl. G-Sync zu haben. Bei mir sieht das in etwas so aus V-Sync>fps>@Ultra>Auflösung.
Daredevil
2018-08-27, 11:21:27
Laien kaufen keine 1080TI...
Dann müsste es ja auch keine Komplettsysteme geben mit einer 1080ti, mh? ;)
Edgecrusher86
2018-08-27, 11:21:44
Ok, also Highend-HW und 1440p144/165 oder 1080p240 Monitore könnte ich mir natürlich vorstellen, wenn es um MP bzw. prof. Gaming wie ESL geht. Ersteres habe ich auch lange gefahren, weil es der beste Kompromiss (gegenüber 4K60 oder 2560x1080 21:9) war und sofern die Leistung gelangt hatte auch mal 4K-5K DSR gefahren wurde (idR dann im SLI).
Ja, insofern zieht das Argument natürlich auch, dass man jedwede GPU auch in 1080p @ 4K DSR richtig auslasten kann schon, da habt ihr Recht (so habe ich das ja damals auch oft gemacht mit 1080p120Hz Geräten - von 2011 bis 2015; von 2015 - 2018 nutzte ich einen WQHD144 Moni). :)
mironicus
2018-08-27, 11:33:54
Neue Fragen: Wenn man mit SLI die Raytracing-Leistung steigern kann, wieviel Karten benötigt man um die gleiche Leistung zu erhalten wie eine einzelne 2080Ti mit ausgeschalteten Raytracing?
Rancor
2018-08-27, 11:42:30
Dann müsste es ja auch keine Komplettsysteme geben mit einer 1080ti, mh? ;)
Wat? Was hat das damit zu tun?
Es gibt auch Leute die kaufen Komplettsysteme, weil sie kein Bock haben, den Scheiss selber zusammenzubauen.
Wie kommst du darauf, das nur Laien Komplettsysteme kaufen?
TobiWahnKenobi
2018-08-27, 11:44:15
Neue Fragen: Wenn man mit SLI die Raytracing-Leistung steigern kann, wieviel Karten benötigt man um die gleiche Leistung zu erhalten wie eine einzelne 2080Ti mit ausgeschalteten Raytracing?
ist halt die frage ob man im SLi dann nur die frames in FHD steigert und dann 90 statt 60 hat, oder ob es vllt. auch für höhere auflösungen bei 45fps reicht. an 60fps unter 1440p glaubt mein bauchgefühl auch irgendwie nicht.
aber hey.. wir haben noch nichts gesehen und darum ist der crap doch bestellt.. damit man es beäugen kann.
(..)
mfg
tobi
Kriton
2018-08-27, 11:52:03
Laien kaufen keine 1080TI...
Finanzielle Möglichkeiten korrelieren nicht automatisch mit entsprechenden (technischen) Interessen oder Kenntnissen.
monstar-x
2018-08-27, 11:57:57
Wahrscheinlich.... die Mehrheit?
Du musst echt mal aus der 3DCenter Blase raus kommen und dir die weite Welt anschauen.
FullHD@60hz ist nun einmal das verbreitetste Setting.
Die OneX User haben sich auch ne "Premium Konsole" gekauft und spielen bei maximal 60fps in verschiedenen Auflösungen zwischen FullHD und UHD.
So ein Unsinn, die wenigsten geben mehr wie 500€ für eine Grafikkarte aus.
1200€ werden noch mal viel weniger bereit sein.
Es werden nicht mal 1% der Grafikkarten 2080Ti sein.
NVIDIA GeForce GTX 1060 12.50%
NVIDIA GeForce GTX 1050Ti 9.59%
NVIDIA GeForce GTX 1050 6.17%
NVIDIA GeForce GTX 750 Ti 5.63%
NVIDIA GeForce GTX 960 4.29%
NVIDIA GeForce GTX 1070 3.56%
NVIDIA GeForce GTX 970 3.06%
NVIDIA GeForce GTX 1080Ti 1.19%
Merkst du was, die günstigen Karten unter 300€ dominieren die Steam Charts.
Rancor
2018-08-27, 12:00:23
Finanzielle Möglichkeiten korrelieren nicht automatisch mit entsprechenden (technischen) Interessen oder Kenntnissen.
Das ist richtig, jedoch wird der Anteil derjenigen, die das Geld und keine Ahnung haben, noch geringer sein, als der Teil, welcher das Geld und die Ahnung hat-
Eine 1080Ti ist heute auch keine Allerweltskarte. Die dürfte vllt in 2 - 3 % aller Gamingrechner stecken....
dargo
2018-08-27, 12:13:15
nVidia kann nicht mehr Einheiten verbauen. Sie hätten einzig die Die-Größe reduzieren können. Man bekommt hier Raytracing und TensorCores sozusagen Kostenlos hinzu.
Ist klar. ;D
ist halt die frage ob man im SLi dann nur die frames in FHD steigert und dann 90 statt 60 hat, oder ob es vllt. auch für höhere auflösungen bei 45fps reicht. an 60fps unter 1440p glaubt mein bauchgefühl auch irgendwie nicht.
aber hey.. wir haben noch nichts gesehen und darum ist der crap doch bestellt.. damit man es beäugen kann.
mfg
tobi
So isses. Und nebenbei bin ich neidisch, daß Du dir gleich 2 Flanders Ed. bestellt hast:redface: Konnte mir nach langem Kampf mit der Evga Site die kleinste 2080ti (EVGA GeForce RTX 2080 Ti XC GAMING, 11G-P4-2382-KR) ,vorbestellen, und der Preis war etwas geringer (10€). Ich wette da etwas auf Ref. PCB, weil sie eh unter Wasser soll und das garantiemäßig abgedeckt ist. Gehen Deine auch unter Wasser und wenn ja, welchen Block hast Du vorbestellt?
TobiWahnKenobi
2018-08-27, 12:37:24
ich hatte nach blöcken geschaut. in der vergangenheit hatte ich immer die EKWB. ob ich auch auf die 2080TI einen block schraube, ist im moment noch ungewiss. wahrscheinlich bestelle ich die wasserkühler (die schnell zwischen 250 und 300€ kosten) irgendwann später.. wenn sicher ist, dass ich die RTXen behalte. wenn ich meine TV nicht adäquat loswerde, wird es turing schwer bei mir haben. der verlust, die goldkarte in die ecke zu legen wäre mir zu herb - ich schlafe jetzt schon schlecht..
(..)
mfg
tobi
MiamiNice
2018-08-27, 12:40:26
Wasserblöcke gibt es noch keine, ich schaue schon seit Tagen. Aqua Computer hat seinen zum Release der RTX angekündigt - kommt für mich aber nicht in Frage. EK hat mir bisher nicht geantwortet. Ich hoffe die bekommen das Teil schnell auf den Markt.
https://twitter.com/EKWaterBlocks/status/1031898948531826688
Mit etwas Glück auch am 20.
EK Water Blocks
@EKWaterBlocks
22. Aug.
Mehr
We are doing pre-orders really soon. Today or tomorrow.
Ok, das läuft ;)
Eine Sorge weniger.
TobiWahnKenobi
2018-08-27, 12:45:10
die auslieferung der blöcke soll roundabout release der karte stattfinden, also ab dem 20.9.
angefangen pauschal von DHE auf wakü umzubauen habe ich erst, nachdem ich den DHE kannte und wenn auch sicher war, dass ich die jeweilige karte für mich selbst behalte. den neuen kühler kenne ich noch nicht und vllt. ist der ja gar nicht mal schlecht. mir gehts eh zur zeit nur um neugierde und befriedigung einer widerlichen neuanschaffungsangewohnheit. die stellung im orb auszubauen ist atm noch nicht auf meiner liste.
(..)
mfg
tobi
MiamiNice
2018-08-27, 12:46:39
@Topic:
https://abload.de/img/dlc4a-bu4aebtf57ecro.jpg
Matrix316
2018-08-27, 13:39:53
Ich glaube das Hauptproblem ist nur der Preis. Ich habe noch nie gesehen, dass ein gleiches Grafikkarten Modell plötzlich in der Nachfolgeneration 500 Euro mehr kostet. Ihr könnt mich gerne korrigieren (möglicherweise wars bei Geforce 2 zu 3 so, müsste man mal alte Preislisten raussuchen). ;)
MiamiNice
2018-08-27, 13:42:24
Klar ist DAS Problem der Preis. Wenn man mal überlegt was man mit 1300€ so alles anstellen kann ... kann wohl jeder verstehen das man andere Prioritäten hat. Andere kaufen sich dafür ein Auto oder fahren in den Urlaub.
Rancor
2018-08-27, 13:47:56
Ich glaube das Hauptproblem ist nur der Preis. Ich habe noch nie gesehen, dass ein gleiches Grafikkarten Modell plötzlich in der Nachfolgeneration 500 Euro mehr kostet. Ihr könnt mich gerne korrigieren (möglicherweise wars bei Geforce 2 zu 3 so, müsste man mal alte Preislisten raussuchen). ;)
Ist eben nicht nur der Preis. Wenn Sie im klassischen Rendering nicht siginifikant schneller sind, sind die Karten in Verbindung mit dem Preis einfach nur Müll.
Stell dir vor, du kaufst dir ne 2080 TI bezahlst 1250€. In Spielen mit Raytracing, ( du willst ja auch was haben von der neuen Technink ) musst du die Auflösung verringern ( alleine das ist schon :crazy2: ) , damit du überhaupt noch spielbare FPS bekommst ( 60 FPS ist das absolute Minimum, ansosten kann ich auch an der Konsole spielen ;) ), während du in Spielen, die kein Raytracing nutzen, vllt. 30 - 40% mehr FPS bekommst.
Einzig und alleine DLSS ist interessant. Das bleibt abzuwarten ,wie gut es wirklich aussieht und obs in Verbindung mit Raytracing überhaupt noch praktisch einsetzbar ist und wieviele Spiele es unterstützen werden.
Aber dieses gehype, bevor überhaupt irgendwelche validen Infos vorliegen, ist einfach nur extremst lächerlich.
Der Preis tut das nur sein übriges.
Troyan
2018-08-27, 13:49:35
Ich glaube das Hauptproblem ist nur der Preis. Ich habe noch nie gesehen, dass ein gleiches Grafikkarten Modell plötzlich in der Nachfolgeneration 500 Euro mehr kostet. Ihr könnt mich gerne korrigieren (möglicherweise wars bei Geforce 2 zu 3 so, müsste man mal alte Preislisten raussuchen). ;)
G92 zu GT200: Von $300 auf $650: https://www.anandtech.com/show/2549
Da wurde der Preis auch mehr als verdoppelt.
MiamiNice
2018-08-27, 13:53:21
Stell dir vor, du kaufst dir ne 2080 TI bezahlst 1250€. In Spielen mit Raytracing, ( du willst ja auch was haben von der neuen Technink ) musst du die Auflösung verringern, damit du überhaupt noch spielbare FPS bekommst, während du in Spielen, die kein Raytracing nutzen, vllt 30 - 40% mehr FPS bekommst.
Das ist bisher nur eine Mutmaßung von Dir ohne das Du das belegen kannst. NV spricht von +47% in klassischen Szenarios. RTX und DLSS klingen sehr interessant.
Wenn die Karten den normalen Preis tragen würden, würde sich niemand beschweren und einfach nur kaufen.
Hier, bei der RTX Generation, geht es nur um den hohen "Einsteigs"Preis.
Alles andere ist nur in Deinem Kopf und dem Kopf ein paar anders farbig denkender.
Timbaloo
2018-08-27, 13:55:29
Stell dir vor, du kaufst dir ne 2080 TI bezahlst 1250€. In Spielen mit Raytracing, ( du willst ja auch was haben von der neuen Technink ) musst du die Auflösung verringern ( alleine das ist schon :crazy2: ) , damit du überhaupt noch spielbare FPS bekommst ( 60 FPS ist das absolute Minimum, ansosten kann ich auch an der Konsole spielen ;) ), während du in Spielen, die kein Raytracing nutzen, vllt. 30 - 40% mehr FPS bekommst.
Flüssiges RT in 4K wurde gezeigt.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.