Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
MadManniMan
2018-08-24, 09:41:22
Darf nochmal an die 970er Affäre erinnern, gar nicht solange her ;)
Ich bin zwar selbst seit Jahren Nvidia User, aber bei deren Aussagen kann man ruhig skeptisch sein...
Was hat die Sache mit dem Speicher mit der konkreten technischen Umsetzung vom ersten Raytracing in Echtzeitspieleengines zu tun?
Armaq
2018-08-24, 09:43:29
Was hat die Sache mit dem Speicher mit der konkreten technischen Umsetzung vom ersten Raytracing in Echtzeitspieleengines zu tun?
Fake it till you make it.
MadManniMan
2018-08-24, 09:46:20
Fake it till you make it.
Ich verstehe die kritische Grundhaltung, sehe aber im konkreten Fall (noch) keinen echten Anlass, vom Apfel auf die Birne zu schließen. Daher nochmal: Link zur Kritik?
Screemer
2018-08-24, 09:51:20
Ich würde mich da nicht nur auf dlss versteifen, wenn es um Speicherersparnisse geht. Die neuen shading-techniken mit adaptivem Rendering sehr ich da auch noch als Speichersparer und auch als potentiell nicht zu unterschätzender Speedboost.
Armaq
2018-08-24, 09:52:48
Ich verstehe die kritische Grundhaltung, sehe aber im konkreten Fall (noch) keinen echten Anlass, vom Apfel auf die Birne zu schließen. Daher nochmal: Link zur Kritik?
Es ist nicht alles raytraced, das ist klar wenn du das Thema die Woche über verfolgt hast. Die Leistung reicht für sehr spezifische Aufgaben und der Implementierungsaufwand ist unklar - "you Just Turn ist on."
Dennoch ein Weg hybrid rendering zu pushen, bin also dafür.
Menace
2018-08-24, 09:56:16
Ich habe Nvidia auch explizit nach dem gefragt, was raufgeladen wird. Es werden jedenfalls keine Bilder oder Screenshots raufgeladen (falls überhaupt) und fast alles passiert eh über den Treiber und die Spieledateien. Der Rest kommt irgendwann im Detail als Whitepaper. DLSS funktioniert beim Spielen auch offline.
Danke. Hört sich aber schon an, dass Informationen hochgeladen werden.
MadManniMan
2018-08-24, 09:57:04
Es ist nicht alles raytraced, das ist klar wenn du das Thema die Woche über verfolgt hast. Die Leistung reicht für sehr spezifische Aufgaben und der Implementierungsaufwand ist unklar - "you Just Turn ist on."
Tatsächlich habe ich es nur punktuell verfolgt, daher wäre ich für Links zu Erläuterungen dankbar.
Bisher habe ich nur die Aussage gefunden, dass im Scheinwerfer in BF V was nicht stimmen würde - den Screenshot kenne ich inzwischen, sehe jedoch keine grundsätzlichen Probleme.
MasterElwood
2018-08-24, 10:02:15
Die spiegelt sich im Auto sogar an Stellen an denen sie sich eigentlich gar nicht spiegeln kann. Scheinwerfer vorne als bsp.
Die hatten gerade mal 2 Wochen Zeit um RTX vor der Präsentation einzubauen. Dass da noch nicht alles perfekt sein kann ist eh klar. Das is praktisch alpha stadium
][immy
2018-08-24, 10:04:09
DLSS wirds dann richten - was glaubst du warum der Leistungssrpung mit DLSS mit Raytracing gegen Raytracing ohne DLSS so hoch ausfällt...
Das neue "q-nix" also
4k ray tracing hätte much auch wirklich gewundert. Da entwickelt man seit jahren chips um ray tracing möglich zu machen un nvidia soll es plötzlich in 4k schaffen, was 4 titan v karten vor kurzem in der star wars demo nicht mal flüssig hinbekommen haben in 1080p.
MasterElwood
2018-08-24, 10:07:32
Es zeichnet sich ab, dass die RTX 2080 FE mit konventionellem Rasterizing ca. so schnell wie eine GTX 1080 Ti bis in Einzelfällen max. 15% schneller sein wird bei höherem Preispunkt und weniger Grafikspeicher.
.
NIX auf den Slides weist auf das hin. Lt. denen ist die Leistung deutlich höher. Und die Erfahrung zeigt dass NV bei Benches ziemlich korrekt ist.
Screemer
2018-08-24, 10:08:48
Die hatten gerade mal 2 Wochen Zeit um RTX vor der Präsentation einzubauen. Dass da noch nicht alles perfekt sein kann ist eh klar. Das is praktisch alpha stadium
Ersteres glaubst du doch wohl selber nicht. Seed arbeitet seit Ewigkeiten mit NV wegen RT und ai zusammen.
BigKid
2018-08-24, 10:09:15
[immy;11779938']Das neue "q-nix" also
4k ray tracing hätte much auch wirklich gewundert. Da entwickelt man seit jahren chips um ray tracing möglich zu machen un nvidia soll es plötzlich in 4k schaffen, was 4 titan v karten vor kurzem in der star wars demo nicht mal flüssig hinbekommen haben in 1080p.
Je länger ich darüber Nachdenke desto mehr finde ich das DLSS das eigentlich geniale an den RTX Karten ist. Mir fallen ständig neue Anwendugsmöglichkeiten ein. zB für Laptops als Max-Q 2.0 ... Stell dir mal vor du kannst die GPU auf 30fps@720p festnageln und bekommst aber (nahezu perfektes) 1080p@30fps ausgegeben... Das entlastet den Akku, die Kühlung... Hammer...
Das geht soweit, dass ich mich frage ob das Feature auf den kleineren Karten überhaupt kommt... Es katapulitiert die nämlich theoretisch in die höheren Leistungklassen wenn man bereit ist dass es eben nur "nahezu perfektes" Hochskalieren ist...
Da manche hier Probleme zu haben scheinen zu verstehen dass man etwas auch differentiert betrachten kann: DLSS ist TOLL (nach aktuellem Wissensstand)... NICHT GUT finde ich wenn NV vergisst bei seinen Balkenlängen zu erwähnen dass es mit DLSS nicht 4K ist sondern hochskaliert auf 4k... Sie scheinen sogar manchmal zu vergessen anzugeben "* mit DLSS"...
SKYNET
2018-08-24, 10:12:09
Die hatten gerade mal 2 Wochen Zeit um RTX vor der Präsentation einzubauen. Dass da noch nicht alles perfekt sein kann ist eh klar. Das is praktisch alpha stadium
NV hat denen vor nem jahr bescheid gegeben und vor bereits 8 monaten haben sie angefangen es reinzunudeln... sollte genug zeit sein das fehlerfrei hinzubekommen. :P
zum thema hochskalieren: wir werden sehen was die BQ experten dazu sagen, ich tendiere zu "augenkrebs" wie bei jedem hochskalierten bild/video...
pixeljetstream
2018-08-24, 10:26:15
es gibt viel Forschung zum upscaling mit neural networks, auch schon ne Weile https://www.youtube.com/watch?v=WovbLx8C0yA
Belg4rion
2018-08-24, 10:32:04
Laut den Infos auf https://developer.nvidia.com/rtx/ngx benötigt DLSS sehr wohl ein Bild in Originalgröße als Ausgangspunkt und mit Bewegungsvektoren.
So wie ich das verstehe verwenden sie dann die AI um die Kanten zu finden und diese dann mit AA zu versehen wobei hier als Zielbild eines mit 64 Samples verwendet wird (so wird wohl die bessere Qualität erreicht). Die Infos aus den Bewegungsvektoren werden dann für eine temporale Komponente verwendet um es mit dem Vorgängerbild zu korrelieren (vermindert Flimmern?). Die Performance kommt wohl daher, dass sie nur die gefunden Kanten auch mit AA versehen und nicht das komplette Bild. Zudem erwähnen sie, dass es mit mehreren Szenen eines Spieles trainiert werden muss für gute Ergebnisse (also doch pro Spiel und nicht pro Engine?).
Klingt alles sehr interessant und dürfte nicht so verschwommen sein wie TAA.
NVIDIA researchers have successfully trained a neural network to find these jagged edges and perform high-quality anti-aliasing by determining the best color for each pixel, and then apply proper colors to create smoother edges and improve image quality. This technique is known as Deep Learning Super Sample (DLSS). DLSS is like an “Ultra AA” mode-- it provides the highest quality anti-aliasing with fewer artifacts than other types of anti-aliasing.
DLSS requires a training set of full resolution frames of the aliased images that use one sample per pixel to act as a baseline for training. Another full resolution set of frames with at least 64 samples per pixel acts as the reference that DLSS aims to achieve. At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased. The motion vectors are used to temporally transform the previously anti-aliased frame to align with the current frame, enabling the algorithm to use temporal information. Training also requires a variety of scenes from the game in order to generate the best results.
Many games today support Temporal Anti-Aliasing (TAA), an anti-aliasing technology that combines high-quality Multi-Sample Anti-Aliasing (MSAA), post processes, and temporal filters. Unfortunately, the temporal aspect of TAA can deliver a blurry-looking image, especially in static scenes. TAA also suffers from flickering and ghosting that is inherent in the technology. DLSS by comparison provides sharp images and is temporally stable. The difference in clarity is dramatic.
Das Upscaling wird auf der Seite mit "AI Up-Res" bezeichnet. Hier werden tatsächlich dann Zusatzinformationen "erfunden" (leider gibt es hier nicht sehr viele Infos dazu).
Troyan
2018-08-24, 10:33:34
[immy;11779769']<br />
Mir ist klar das man das mit ray tracing nicht faken müsste (wenn man zumindest nicht optimiert) mir ging es aber darum das der effekt in der szene ohne rtx nicht mal gefaket wurde. Soweit ich mich erinnere haben in den letzten Jahren auch explosionen etc lichtspuren hinterlassen die nicht im direkt bild waren. Klar war das voher gefaked, aber mir geht es darum das hier sogar der fake weggelassen wurde wenn rtx nicht genutzt wurde. Das schönt natürlich das gezeigte endergebnis.
Hier wurde kein Fake weggelassen, da der Feuerstrahl dynamisch ist. Wie genau sollen sie den bitte faken, wenn die Lichtquelle außerhalb der Szene ist? Darum ging es.
Belg4rion
2018-08-24, 10:36:59
NV hat denen vor nem jahr bescheid gegeben und vor bereits 8 monaten haben sie angefangen es reinzunudeln... sollte genug zeit sein das fehlerfrei hinzubekommen. :P
Gibt es dazu eigentlich tatsächliche Entwickleraussagen zum Nachlesen oder schätz hier nur jeder selber? Kann mich da an nichts entsprechendes in der Präsentation errinnern ...
(ist nicht spezifisch auf dich bezogen)
Dural
2018-08-24, 10:38:42
Na die dürften schon seit Monaten da dran sein, das stimmt schon.
Das bedeutet aber nicht das es nicht noch besser werden kann. Neue Technologien brauchen immer ihre Zeit.
nairune
2018-08-24, 10:42:05
Die Performance kommt wohl daher, dass sie nur die gefunden Kanten auch mit AA versehen und nicht das komplette Bild.
Das ergibt doch gar keinen Sinn. Es sind sich alle sicher, dass es upscaling ist, weil es schneller als komplett ohne AA sein soll (da TAA quasi nichts kostet, aber die Balken viel höher/niedriger sind).
dargo
2018-08-24, 10:46:13
Die Performance kommt wohl daher, dass sie nur die gefunden Kanten auch mit AA versehen und nicht das komplette Bild.
Genau das ergibt aber keinen Sinn wenn schon TAA nichts kostet. Es sei denn das TAA in der UE4 Demo kostet ordentlich, in dem Fall wäre es was anderes. Ich kann in der Demo leider das TAA nicht deaktivieren um das beurteilen zu können. Ich kann nur Vergleiche von anderen Spielen/Engines ziehen was TAA angeht. Und dort kostet es extrem wenig.
BigKid
2018-08-24, 10:46:50
Laut den Infos auf https://developer.nvidia.com/rtx/ngx benötigt DLSS sehr wohl ein Bild in Originalgröße als Ausgangspunkt und mit Bewegungsvektoren.
Wenn das stimmt bin ich zurück bei der Frage wie ein AA verfahren 25% bringen soll...
Troyan
2018-08-24, 10:48:16
Dice oder besser EAs SEED arbeiten seit Monaten an Raytracing mit DXR. Aber die Implementierung in die Spiele hat erst vor ein paar Wochen mit den Turing-Karten stattgefunden.
BigKid
2018-08-24, 10:52:23
Wenn das stimmt bin ich zurück bei der Frage wie ein AA verfahren 25% bringen soll...
Ich denke das hier ist die Antwort:
At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased.
Bedeutet meiner Ansicht nach das DLSS die Verktorinformationen in der Zielauflösung braucht (aber nicht das voll gerenderte Image) + das Image das hochskaliert werden soll... Damit kann man auf jeden Fall schonmal mehr Anfangen als nur mit dem Bild... Somit kann das Ergebnis auch nochmal besser sein als zB beim Upscaling der Samsung 8k TVs...
Screemer
2018-08-24, 10:53:08
Hier wurde kein Fake weggelassen, da der Feuerstrahl dynamisch ist. Wie genau sollen sie den bitte faken, wenn die Lichtquelle außerhalb der Szene ist? Darum ging es.
Hä? Gab doch jetzt auch schon reflektionen im screenspace wo die Objekte und Lichter nicht in der Szene selbst zu sehen war.
Belg4rion
2018-08-24, 10:56:08
So würde es auch mehr Sinn ergeben für den Performance Schub, wenn ich mich korrekt errinnere hat Jensen ja bei der Infiltrator Demo etwas von 1440p und 4k erwähnt ...
Endlich wieder interessante Graka Tests mit Bildvergleichen :)
Troyan
2018-08-24, 10:59:30
Hä? Gab doch jetzt auch schon reflektionen im screenspace wo die Objekte und leichter nicht in der Szene selbst zu sehen war.
Von dynamischen Sachen, die sich Off-Screen bewegen?
Das ist genauso, wenn jemand schreiben würde: Wieso faked man nicht besseres SSAO statt VXAO zu nehmen. Oder wieso faked man nicht bessere Geometrie statt Tessellation zu nehmen.
Wäre das alles so einfach, dann bräuchten es kein Raytracing.
basix
2018-08-24, 11:05:59
Für DLSS wären vermutlich Teiler wie 1.5 bei 4k oder 1.33 bei 1440p als Zielauflösung am besten. Damit rendert man effektiv in 1440p (DLSS auf 4k) oder 1080p (DLSS auf 1440p). Wenn also RT nur in 1080p mit 60fps in genügend guter Qualität dargestellt werden kann, könnte eine 2080 Ti für 1440p/60fps und 2x 2080 Ti SLi für 4k/60fps reichen :D
Also wird man erst mit 7nm Karten 4k/60 @ RT mit nur einer Karte darstellen können. Ausnahme wäre, wenn man noch höhere Faktoren für DLSS verwenden kann, ohne dass das Bild unschön wird.
SKYNET
2018-08-24, 11:07:14
Gibt es dazu eigentlich tatsächliche Entwickleraussagen zum Nachlesen oder schätz hier nur jeder selber? Kann mich da an nichts entsprechendes in der Präsentation errinnern ...
(ist nicht spezifisch auf dich bezogen)
hatte es irgendwo in den news gelesen(CB oder HWL wars glaub ich)... ich such mal...
BigKid
2018-08-24, 11:24:08
hatte es irgendwo in den news gelesen(CB oder HWL wars glaub ich)... ich such mal...
IMHO kann man da ein recht komplettes Bild zusammensetzen wenn man die Info Happen zusammen nimmt...
Hier zB:
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-2080-Ti-Preview-1263488/
Mithilfe von sogenanntem Training wird ein neuronales Netzwerk solange mit Bildern gefüttert, bis es den Unterschied zwischen unerwünschter Low-Res-Qualität und Hi-Res-Bildern erkennt. Erkenntnis ist der erste Weg zur Besserung, hier in Form der Fähigkeit, einem Bild in Echtzeit zusätzliche Pixel zu spendieren. Der Algorithmus macht sich ergo die (Offline-)Erkenntnisse eines Supercomputers zunutze und wendet sie blitzschnell lokal am eigenen Rechner an.
Warum die Geforce RTX 2080 mit DLAA/DLSS schneller wird als ohne, können wir nicht mit Fakten belegen, eine Theorie haben wir jedoch auf Lager: Steuern die Tensor Cores zusätzliche Pixel bei, wird das Standard-AA deaktiviert, was die konventionellen Rechenwerke entlastet.
Ich versteh nicht wieso die Redaktion hier nicht 1:1 zusammenzaehlt und zumindest mal die spekuliert dass es sich hier quasi um (super sofisticated) upscaling handeln könnte...
Oder hier:
https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2080-performance-benchmark/
Zudem wurde bei der Demo ein Framecounter eingeblendet. DLSS wurde auf einer GeForce RTX 2080 Ti berechnet, das TAA-System war mit einer GeForce GTX 1080 Ti bestückt. Die neue Nvidia-Grafikkarte war je nach Szene etwa 20 bis 100 Prozent schneller. Bis zu doppelte Leistung zeigt sich in der ersten Nvidia-Folie bei den Spielen, die auch DLSS nutzen. Das ist aber nicht direkt miteinander vergleichbar, entsprechend sollten die „DLSS“-Balken diesbezüglich ignoriert werden. Was sich genau hinter DLSS verbirgt, wird ComputerBase im Launch-Review zu einem späteren Zeitpunkt klären.
Hier wird man zumindest Hellhörig...
Und zuletzt hier:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html
NVIDIA hat auch eine erste Einschätzung der Leistung von DLSS im Vergleich zu TAA ermöglicht. Während eine GeForce GTX 1080 Ti die Infiltrator-Demo in 4K-Auflösung mit TAA bei 38 FPS berechnet, schafft eine GeForce RTX 2080 Ti dies mit etwa 60 FPS. Schaltet man das TAA ab und verwendet stattdessen DLSS, erreicht die GeForce RTX 2080 Ti fast 80 FPS und damit doppelt so viele Frames pro Sekunde wie eine GeForce GTX 1080 Ti.
Darauf stütze ich mich ab wenn ich sage: Wo zur Hölle soll DLSS 20fps gegenüber TAA (auf der selben Hardware) herzaubern ! Dazu müsste TAA ja erstmal 20fps kosten...
Auf einem weiteren Bild gibt NVIDIA einige Leistungswerte für die GeForce RTX 2080 in 4K HDR mit 60 Hz an. Unbekannt ist, welche Qualitätseinstellungen NVIDIA hier gewählt hat. Ausgehend von den mindestens 60 FPS, die hier für alle Spiele genannt werden, dürften die Einstellungen recht niedrig gewählt worden sein.
... oder DLSS (aka Upscaling) genutzt werden...
Und NV sagt:
https://developer.nvidia.com/rtx/ngx
At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased.
Zum Training werden also die Hochauflösenden Images genutzt. Fürs ausführen dann das Trainierte Netz + Vektor Infos in Zielauflösung + zu bearbeitendes Image.
Bedeutet meiner Ansicht nach das DLSS die Verktorinformationen in der Zielauflösung braucht (aber nicht das voll gerenderte Image) + das Image das hochskaliert werden soll... Damit kann man auf jeden Fall schonmal mehr Anfangen als nur mit dem Bild... Somit kann das Ergebnis auch nochmal besser sein als zB beim Upscaling der Samsung 8k TVs...
Ich interpretiere das nach wie vor als Upscaling und vermute NV möchte das nicht gerne so bezeichnen ...
Ein anderer Erklärungsansatz wäre, dass mit DLSS nicht mehr jede Frame voll Berechnet sondern zwischenframes Approximiert würden...
Und da es leider nötig zu sein scheint das in jedem Post zu sagen: Ich bewerte DLSS als super Sache (wenn es tut wie angepriesen) - ich verurteile jedoch den sich IMHO abzeichnenden Versuch zu verschleiern dass es ein Upscaling (oder etwas anderes Pixelsparendes) ist und das veröffentlichen von Balken die nicht darauf hinweisen...
monstar-x
2018-08-24, 11:30:43
https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-offizieller-vergleich-mit-der-geforce-gtx-1080,3333813.html
Sollte das stimmen, dann kann man die Generation getrost überspringen. Wer will denn sowas?
Erklärt auch wieso die 2080 nur 8 GB Speicher hat, reicht bei FullHD die nächsten 10 Jahre :biggrin:
monstar-x
2018-08-24, 11:36:35
Dice oder besser EAs SEED arbeiten seit Monaten an Raytracing mit DXR. Aber die Implementierung in die Spiele hat erst vor ein paar Wochen mit den Turing-Karten stattgefunden.
Hat man dir nicht beigebracht das du nicht alles glauben sollst.
Denkst du NVIDIA ist blöd und macht ein Event wo sie das aktuelle Zugpferd vorstellen, und lässt das Techo Demo erst 2 Wochen vor dem Event mal schnell zusammen Schustern. Und wenn es nicht geklappt hätte, hätten Sie die Liveübertrag der HALMA Meisterschaft gezeigt.
Denkst du echt sie sind so Blöd.
Ganz sicher nicht.
Das ist RTX, mehr bekommst du auf den 2070/80er Karten nicht.
Matrix316
2018-08-24, 11:55:02
Erklärt auch wieso die 2080 nur 8 GB Speicher hat, reicht bei FullHD die nächsten 10 Jahre :biggrin:
Ich habs im anderen Thread schon mal erwähnt, aber das erinnert mich mehr an die Präsentation einer Spielkonsole als einer Gaming Grafikkarte.
60FPS bei Full HD ist PS4 Niveau. Am PC sollten es wenn schon 144 FPS bei 4K als Ziel sein. :);)
MiamiNice
2018-08-24, 11:58:38
Ich habs im anderen Thread schon mal erwähnt, aber das erinnert mich mehr an die Präsentation einer Spielkonsole als einer Gaming Grafikkarte.
60FPS bei Full HD ist PS4 Niveau. Am PC sollten es wenn schon 144 FPS bei 4K als Ziel sein. :);)
Ich glaube Du solltest Dich nochmal damit auseinander setzen, eher Du so etwas schreibst in Bezug auf Turing.
Tobalt
2018-08-24, 11:59:27
wenn man mal die Entwicklungen bei KI basiertem Denoising oder beim Interpolieren fehlender Bildstücke heranzieht, ist es ganz klar dass auch in der Echtzeit Computergrafik sowas einzughalten wird.
Zwar wird in der Computergrafik ein sehr hohes Maß an determinismus verlangt, aber dafür ist ja auch die ausgangslage extrem wenig variabel. es gibt immer ein bild mit exakter Auflösung und die Rahmenbedingungen des Zielbildes sind auch eng definierbar.
Da können neural nets eben subjektiv bessere und schnellere Ergebnisse liefern als einfache Filter und Box-AA.
auch upscaling bis zu faktor 2 und AA ist damit thematisch völlig zusammengewachsen. Ich würde das Hauptsinn der Tensorcores werten.
Raytracing ist doch ein davon unabhängiges feature. kann aber sein dass die zusatzhardware sich auch dafür eignet.
Timbaloo
2018-08-24, 11:59:57
Also die Experten hier im Thread haben mich überzeugt, Turing ist ein Rohrkreppierer. RT wird sich nicht durchsetzen weil die Konsolen es nicht einsetzen und es überhaupt nur Gebastel ist. DLSS funktioniert auch nicht und ist purer Betrug weil ja Bilder vom NV-Superrechner gestreamt werden müssen mit Onlinezwang und Abofalle inklusive. Und da NV diese "Features" jetzt mindestens 10 Generationen ungenutzt mitschleppen muss, kann nur noch AMD die Lösung sein. Ich kaufe mir jetzt eine Vega64 und die aktuelle Betrugskarte GTX 970 3.5GB Edition werde ich zu einem Mahnmal umrüsten. "Nie wieder NV".
robbitop
2018-08-24, 12:01:36
Was ich noch nicht verstanden habe: warum schließt DLSS TAA aus? DLSS erzeugt mehr Pixel pro Bild. TAA arbeitet mit mehren Bildern. Kann es daran liegen, dass die aufgefüllten Pixel keine Z-Werte haben? Die benötigt man ja auch.
TAA ist gegen Flimmern jeglicher Art sehr effektiv. Sicherlich effektiver als 4x Auflösung. Schade, dass man beides nicht kombinieren kann.
Turing wirkt auf mich wie die erste Generation von etwas neuem. Ich denke, die 7 nm Nachfolger werden RT dann erst breitflächig ermöglichen (deutlich mehr Leistung). Und bis dahin ist die Verbreitung von RT auch größer.
Wäre schön, zu wissen, wann Ampere(?) rauskommt. Wenn er sehr zeitig kommt, wäre eine 2080ti schon ein wenig mehr Geldverbrennung als sonst.
Es kribbelt aber, wie immer, in den Fingern. Ich würde gern mit dem 1440p Monitor auf 5K downsamplen (DLSS wäre hier hilfreich - und/oder mehr Leistung auch). Gerne auch mit >80 fps.
Troyan
2018-08-24, 12:04:04
DLSS hat eine temporäre Komponente. Es ist also nicht einfach nur ein Vergleich mit Bilder, die 64 Samples pro Pixel haben.
robbitop
2018-08-24, 12:05:58
DLSS hat eine temporäre Komponente. Es ist also nicht einfach nur ein Vergleich mit Bilder, die 64 Samples pro Pixel haben.
Ehrlich? Das ist mir neu. Gibt es dazu Informationen? Was geschieht denn dort temporal?
BigKid
2018-08-24, 12:09:16
Also die Experten hier im Thread haben mich überzeugt, Turing ist ein Rohrkreppierer. RT wird sich nicht durchsetzen weil die Konsolen es nicht einsetzen und es überhaupt nur Gebastel ist. DLSS funktioniert auch nicht und ist purer Betrug weil ja Bilder vom NV-Superrechner gestreamt werden müssen mit Onlinezwang und Abofalle inklusive. Und da NV diese "Features" jetzt mindestens 10 Generationen ungenutzt mitschleppen muss, kann nur noch AMD die Lösung sein. Ich kaufe mir jetzt eine Vega64 und die aktuelle Betrugskarte GTX 970 3.5GB Edition werde ich zu einem Mahnmal umrüsten. "Nie wieder NV".
Auch wenn ich mir nicht sicher bin ob du trollst: Ich würde mir DLSS zumindest in Aktion ansehen. Wenn es das tut was es verspricht dann hast du tatsächlich die Möglichkeit aus einer RTX quasi 25% (oder noch mehr) Mehrleistung ZUSÄTZLICH rauszuholen, VRAM Limits zu verhindern und ein gratis AA zu bekommen das besser ist als TAA - und das alles für einen vernachlässigbaren Quali Verlust... Das an sich wäre nur zu bergüßen...
Troyan
2018-08-24, 12:09:39
nVidia hat ein bisschen hier geschrieben: https://developer.nvidia.com/rtx/ngx
Alles weiteres gibt es dann am 14.
robbitop
2018-08-24, 12:10:42
Blöd ist, dass es (geht nicht anders) explizit vom Spiel unterstützt werden muss. DLSS ist also leider keine Universallösung. Aber man nimmt, was man kriegen kann. :)
robbitop
2018-08-24, 12:14:24
nVidia hat ein bisschen hier geschrieben: https://developer.nvidia.com/rtx/ngx
Alles weiteres gibt es dann am 14.
At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased. The motion vectors are used to temporally transform the previously anti-aliased frame to align with the current frame, enabling the algorithm to use temporal information.
Danke :) Macht absolut Sinn
Käsetoast
2018-08-24, 12:14:53
Ich denke, die 7 nm Nachfolger werden RT dann erst breitflächig ermöglichen (deutlich mehr Leistung).
Glaube ich ehrlich gesagt eher nicht. Ich denke, die Turings werden sich wegen der hohen Preise nur mäßig verkaufen was die Anzahl angeht bzw. die Verbreitung an RT fähigen Grafikkarten wird eher gering sein weil der Großteil der Kunden diese Preise nicht zahlen wird bzw. wenn Turing ja an sich schon schwächelt 60 fps bei 1080p zu erreichen, dann kann man sich vorstellen wie schwer sich eine 2070 da tun wird, die ja nur einen Teil der RT Leistung der 2080 Ti hat auf die sich die meisten Angaben sicher beziehen werden...
Ich denke 7nm wird in erster Linie dazu dienen die gigantischen Chips kleiner zu machen, damit man die zu Preisen verkaufen kann, die bei der Kundschaft eher Anklang finden werden. Klar wird es da in 7nm trotzdem Verbesserungen geben, aber ich denke der Fokus wird ganz klar darauf liegen die Chips wieder in bezahlbare Regionen zu holen, denn ich glaube nicht, dass Turing in der Gamer Branche weggeht wie warme Semmeln - das wird den meisten schlichtweg zu teuer sein. Ich sehe den RT Durchbruch da eher auf Jahre hinaus - das was nach 7nm kommt wird dann nochmal einen guten Performancesprung bringen und dann sehen wir mal was wird. Wahrscheinlich werden es die Konsolen sein, die den endgültigen RT Siegeszug dann einleiten, aber das wird dann wohl frühestens zu Zeiten einer Playstation 6 in zig Jahren passieren. Um Material zu haben, das auch schön anzusehen ist, braucht man eben ein Budget zur Produktion der Assets und das geht ja auch heute eigentlich nur noch über Multiplattform Produktionen wo die Konsolen immer der kleinste Nenner sind. Da heißt es halt abwarten, denn alleine schon bis wir die RT Leistung einer 1250 € teuren 2080 Ti in eine Konsole drücken können wird es noch sehr lange dauern und wie wir gehört haben ist eigentlich ja sogar ein wenig mehr als das wünschenswert...
mironicus
2018-08-24, 12:17:44
Es hängt eigentlich nur von Sony und Microsoft ab, wenn die sagen "das wollen wir auch in den nächsten Konsolen". Allerdings kommt die Lösung dann wohl eher von AMD, weil NVidia zu teuer ist. Ich sehe auch nicht das sich das ändert. Alle großen Player (Sony, Microsoft, Apple, Intel) verwenden GPUs von AMD.
BlacKi
2018-08-24, 12:19:14
Auch wenn ich mir nicht sicher bin ob du trollst: Ich würde mir DLSS zumindest in Aktion ansehen. Wenn es das tut was es verspricht dann hast du tatsächlich die Möglichkeit aus einer RTX quasi 25% (oder noch mehr) Mehrleistung ZUSÄTZLICH rauszuholen, VRAM Limits zu verhindern und ein gratis AA zu bekommen das besser ist als TAA - und das alles für einen vernachlässigbaren Quali Verlust... Das an sich wäre nur zu bergüßen...
das war sarkasmus in reinstform, ich fands göttlich.
BigKid
2018-08-24, 12:23:39
Danke :) Macht absolut Sinn
Ein anderer Ansatz wieso DLSS Leistung bringt wäre wenn es nicht upscaled sondern Zwischenbilder Approximiert! Bedeutet es würde nicht mehr jedes Bild berechnet...
Käsetoast
2018-08-24, 12:26:57
Es hängt eigentlich nur von Sony und Microsoft ab, wenn die sagen "das wollen wir auch in den nächsten Konsolen". Allerdings kommt die Lösung dann wohl eher von AMD, weil NVidia zu teuer ist. Ich sehe auch nicht das sich das ändert. Alle großen Player (Sony, Microsoft, Apple, Intel) verwenden GPUs von AMD.
Naja, "wollen" tun die das garantiert. RT ist aber einfach extrem rechenintensiv und das kostet Transistoren / Chipfläche. Momentan reden wir bei einer 2080 Ti halt von einer Karte, die das in 1080p ganz gut hinbekommt, nur ist die so riesig, dass die für 1250 € verkauft werden muss. Das in eine Konsole zu stecken, die sich nunmal für um die 400 € verkaufen muss kann man auf absehbare Zeit einfach vergessen, zumal man ja auch beim Rasterizing Teil eine höhere Performance braucht und da nicht stehen bleiben kann um nur Raytracing reinzupressen...
Ob AMD hier auf lange Sicht mithalten kann bleibt dann spannend abzuwarten. Das NVIDIA RTX Raytracing Ecosystem ist schon krass. Von Tensor Cores über RT Cores bis hin zu Supercomputern für die AI - ich weiß nicht ob AMD das in gleicher Form stemmen können wird, wenn sie schon beim Standard Rasterizing Probleme haben hinterherzukommen. Wenn NVIDIA jetzt noch im CAD & CGI Sektor Geld anfängt zu scheffeln wie blöde und die das in ihr R&D investieren glaube ich nicht, dass AMD gute Chancen hat in der RT Technologie aufzuschließen. Natürlich ist noch nicht aller Tage Abend, aber die RTX Plattform ist halt etwas wo verschiedene Sachen ineinandergreifen um das zu ermöglichen was jetzt möglich ist und bislang sehe ich bei AMD nur wenig Fortschritt auch nur auf einem dieser Sektoren wirklich vergleichbar weit zu sein und mit nur einem Teil des Ganzen wird das nix mit RT...
BlacKi
2018-08-24, 12:26:59
Ein anderer Ansatz wieso DLSS Leistung bringt wäre wenn es nicht upscaled sondern Zwischenbilder Approximiert! Bedeutet es würde nicht mehr jedes Bild berechnet...
i would take it! wenn die performance stimmt und die quali vergleichbar ist, würde ich es nutzen. aber wie schon im anderen fred, abwarten.
es wird genug tests geben die ins detail gehen.
Darkearth27
2018-08-24, 12:29:56
Genau das ergibt aber keinen Sinn wenn schon TAA nichts kostet. Es sei denn das TAA in der UE4 Demo kostet ordentlich, in dem Fall wäre es was anderes. Ich kann in der Demo leider das TAA nicht deaktivieren um das beurteilen zu können. Ich kann nur Vergleiche von anderen Spielen/Engines ziehen was TAA angeht. Und dort kostet es extrem wenig.
https://youtu.be/IG2wVjQUr3c?t=6717
Laut dem Bild (Standbild der Presentation) haben die Tensor Cores 110 TFlops Fp16
(Pascal hat 177 GFlops)
Der Gesamte Chip hat 14 TFlops
Da das DLAA / DLSS (wie auch immer man es nennen möchte) die TensorCores nutzt ist die Geschwindigkeit mit der es berechnet werden kann natürlich höher als wenn es auf dem eigentlich Grafikchip berechnet wird.
Daher eventuell die höhere Performance wenn man DLAA anhat im vergleich zu TAA
Außerdem geht DLSS / DLAA nur unter DX12 und die 1080Ti hat unter DX12 ~38FPS liefern können (in der Infiltrator Tech Demo) unter DX11 aber ~60FPS
Heißt für mich, die neuen Karten sind in DX12 nun weitaus schneller bzw gleich schnell in DX12 wie in DX11.
Nur so eine Vermutung meinerseits
ChaosTM
2018-08-24, 12:36:18
4k in Verbindung mit dem billigsten AA hat den selben Effekt wie Low Res + DLAA+ SAA+TAA+TXAA und ich kriege am Desktop keinen Pixel-Augenkrebs.
Kaufts euch gscheite Monitore...
(.. awaiting ****storm) ^^
basix
2018-08-24, 12:36:40
Blöd ist, dass es (geht nicht anders) explizit vom Spiel unterstützt werden muss. DLSS ist also leider keine Universallösung. Aber man nimmt, was man kriegen kann. :)
Nicht zwingend. Es steht ja folgendes in der Beschreibung von DLSS:
Training also requires a variety of scenes from the game in order to generate the best results.
Evtl. stellt Nvidia eine Art Universal-DLSS zur Verfügung, welches einigermassen gut für alle Spiele funktioniert, aber natürlich nicht an die Qualität eines spezifisch gelernten Netzwerks herankommt.
Nvidia hätte sogar die Super-Computer Horsepower im Keller, um für ausgewählte Blockbuster der letzten paar Jahre sogar spezifisch gelernte Netzwerke zur Verfügung zu stellen (z.B. Witcher 3 wird noch von vielen Seiten getestet). Ist ja nicht so viel anders wie "herkömmliche" Treiberoptimierung. Nur macht man sie nicht mehr von Hand ;-)
Was mich zu DLSS noch interessieren würde: Welche Genauigkeit wird hier benötigt? FP16 oder reicht INT8? Weil Pascal wäre sehr schnell in INT8 (4x FP32 Leistung). Wenn AMD irgendwann etwas ähnliches bringen sollte, hätte Vega 2x FP16 Performance.
TobiWahnKenobi
2018-08-24, 12:38:50
als rohrkrepierer sehe ich turing nicht. die 2080Ti liefert etwa 50% mehr UHD-frames (crossover sämtliche spiele) als die ehemals gleichteure titan Xp und bringt noch optionale spielereien mit. die nimmt man hin, wie andere gameworksspielereien auch. bin gespannt, ob sich mit der nvlink-bridge auch das mGPU-verhalten erträglicher gestaltet. habe mal TIs zwei geordert.
würde ich den preis noch weiter relativieren wollen, könnte man auch gv100 anführen. der leistet für ab 3.200€ das gleiche (abseits von RT), nur lässt sich hier die performance nicht mehr steigern (ist nicht SLi fähig).
(..)
mfg
tobi
wolik
2018-08-24, 12:42:52
NICHT GUT finde ich wenn NV vergisst bei seinen Balkenlängen zu erwähnen dass es mit DLSS nicht 4K ist sondern hochskaliert auf 4k... Sie scheinen sogar manchmal zu vergessen anzugeben "* mit DLSS"...
Bis jetzt es ist einzige Erklärung wieso auf Folien steht 2-3X Leistung von 1080Ti... So eine art verasche , nur wenn man unterschied nicht merkt... :wink: von mir ok.
Imo können sich 1080-Ti-Besitzer entspannt zurücklehnen und die Entwicklung des Marktes und der Spiele hinsichtlich Raytracing beobachten.
Wäre es so einfach... Ein neues Spielzeug nicht haben, wenn die andere damit spielen
Troyan
2018-08-24, 12:44:53
Turing wird in Zukunft weitaus schneller werden. Die 50% stellen doch erstmal nur einen Ist-Zustand dar. Turing verfügt ebenfalls über die Möglichkeiten über die FP32 mit veringerter Genauigkeit zu arbeiten. Außerdem soll der Chip erheblich mehr Dreiecke pro Sekunde berechnen können und kann variable pro Frame die Rechenleistung auf bestimmte Stellen fokusieren.
Es ist eine erheblich überarbeitete Architektur. Wir werden sehen, wann all das zum Zuge kommt.
ChaosTM
2018-08-24, 12:47:43
Turing is auch 6x so leise wie Pascal. Was immer das auch heißen mag. :D
Das Marketing gebrabbel wird leider immer schlimmer, was aber für alle Firmen gilt.
Schnoesel
2018-08-24, 12:48:19
Wie schon jeder die 50% auf einer Marketingfolie für bare Münze nimmt obwohl noch nix bestätigt ist und keiner auch nur die Settings bzw. Hardwarekonfigutration kennt. Euer blindes Vertrauen ist ... erstaunlich.
mironicus
2018-08-24, 12:51:39
Richtig interessant wäre, wenn es die Möglichkeit gäbe alte Spiele nachträglich mit Raytracing-Effekten zu modden. Skyrim, Witcher 3, Half Life 2...
mr coffee
2018-08-24, 13:00:47
Turing ist natürlich schon geil, aber es wird hiermit halt erst die Basis gelegt. Die Auswirkungen wird man aber halt erst vollumfänglich 1-2 Generationen später spüren.
Ailuros
2018-08-24, 13:02:04
Ich hab ehrlich gesagt den thread nicht verfolgt, aber vor einem vollen launch von Turing sind mir die bisherigen Daten zu wenig. Das heutige Material sieht IMHO trotz allem ziemlich versprechend aus.
Turing ist natürlich schon geil, aber es wird hiermit halt erst die Basis gelegt. Die Auswirkungen wird man aber halt erst vollumfänglich 1-2 Generationen später spüren.
So lange Turing in der hoechsten Aufloesung und maximalen settings >40% leistungsfaehiger ist im absoluten Durchschnitt im Vergleich zu Pascal in vorhandenen Spielen, liegt Turing genau auf dem Punkt wo man es erwartet haette. Bis zu 2x Mal so schnell ist das theoretische maximale Ziel jeglicher neuen Generationen (unter N Bedingungen) und wird wohl hier erreicht.
Screemer
2018-08-24, 13:07:44
Von dynamischen Sachen, die sich Off-Screen bewegen?
Das ist genauso, wenn jemand schreiben würde: Wieso faked man nicht besseres SSAO statt VXAO zu nehmen. Oder wieso faked man nicht bessere Geometrie statt Tessellation zu nehmen.
Wäre das alles so einfach, dann bräuchten es kein Raytracing.
Klar gibt's Spiegelungen von sich nicht in der Szene befindlichen beweglichen Objekten.
ChaosTM
2018-08-24, 13:07:48
Turing ist natürlich schon geil, aber es wird hiermit halt erst die Basis gelegt. Die Auswirkungen wird man aber halt erst vollumfänglich 1-2 Generationen später spüren.
Von den neue Features her absolut. Neue Sachen brauchen immer ein paar Generationen, bis sie vernünftig nutzbar sind.
Das beanstanden auch nur wenige, denen mehr Rohleistung lieber gewesen wäre, als neuer Features. Ist auch verständlich von einer gewissen Position aus.
Was die meisten aber nicht so dolle finden ist die Preisgestaltung und schlichtweg irreführende Marketing Aussagen.
TobiWahnKenobi
2018-08-24, 13:08:16
Wie schon jeder die 50% auf einer Marketingfolie für bare Münze nimmt obwohl noch nix bestätigt ist und keiner auch nur die Settings bzw. Hardwarekonfigutration kennt. Euer blindes Vertrauen ist ... erstaunlich.
die globalen +50% frameaufschlag unter UHD sind das auffälligste, was sich seit dem wechsel von TXp auf GV100 (beide mit ca. 2GHz unter wasser) auf meiner spielekiste bemerkbar gemacht hat. ich glaube huang dass 2080Ti genau das abliefert. die perfekte UHD/60Hz -karte, weil man den refresh echt überall erreicht bzw. übertrifft.
(..)
mfg
tobi
Ailuros
2018-08-24, 13:13:27
Von den neue Features her absolut. Neue Sachen brauchen immer ein paar Generationen, bis sie vernünftig nutzbar sind.
Das beanstanden auch nur wenige, denen mehr Rohleistung lieber gewesen wäre, als neuer Features. Ist auch verständlich von einer gewissen Position aus.
Nach 2 Generationen wird RT so schnell sein dass dann Turing im Vergleich zu diesen nur noch ein Witz sein wird. Schon seit Jahrzehnten ist es IHVs erstmal wichtig N Faehigkeit zuerst vorzustellen und dann bei spaeteren Generationen die Leistung dafuer zu beschleunigen.
Was die meisten aber nicht so dolle finden ist die Preisgestaltung und schlichtweg irreführende Marketing Aussagen.
Och marketing ist doch marketing egal von welcher Firma. Nach all den Jahrzehnten kann man sich daran gewoehnen und die Uebertreibungen einfach rausfiltern. Ja zur miesen Preisgestaltung aber ohne Konkurrenz leider auch wieder normal pffff.....
***edit:
uebrigens: https://forum.beyond3d.com/posts/2040780/
BigKid
2018-08-24, 13:15:44
https://youtu.be/IG2wVjQUr3c?t=6717
Laut dem Bild (Standbild der Presentation) haben die Tensor Cores 110 TFlops Fp16
(Pascal hat 177 GFlops)
Der Gesamte Chip hat 14 TFlops
Da das DLAA / DLSS (wie auch immer man es nennen möchte) die TensorCores nutzt ist die Geschwindigkeit mit der es berechnet werden kann natürlich höher als wenn es auf dem eigentlich Grafikchip berechnet wird.
Daher eventuell die höhere Performance wenn man DLAA anhat im vergleich zu TAA
Außerdem geht DLSS / DLAA nur unter DX12 und die 1080Ti hat unter DX12 ~38FPS liefern können (in der Infiltrator Tech Demo) unter DX11 aber ~60FPS
Heißt für mich, die neuen Karten sind in DX12 nun weitaus schneller bzw gleich schnell in DX12 wie in DX11.
Nur so eine Vermutung meinerseits
Nochmal: Laut der Quelle Quelle hier:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html
NVIDIA hat auch eine erste Einschätzung der Leistung von DLSS im Vergleich zu TAA ermöglicht. [...] die Infiltrator-Demo in 4K-Auflösung mit TAA [...] schafft eine GeForce RTX 2080 Ti dies mit etwa 60 FPS. Schaltet man das TAA ab und verwendet stattdessen DLSS, erreicht die GeForce RTX 2080 Ti fast 80 FPS [...]
Als reiner AA Modus kann DLSS einfach nicht 20fps bringen... Dazu müsste das TAA erstmal 20fps gekostet haben...
Was bleibt ist, dass DLSS etwas mehr tun muss... Es muss die GPU entlasten indem es irgendwie Pixel beisteuert... Was mir als Möglichkeiten einfällt ist Pixelsparen durch niedrigere Auflösung beim Render und dann Upscalen durch Tensor oder Pixelsparen durch Zwischenbildberechnung durch Tensor... Auf letzteres könnte hindeuten das Motion-Vektor Infos verwendet werden...
Darkearth27
2018-08-24, 13:21:45
Und genau das habe ich doch geschrieben, das wenn man das TAA abschaltet (Grafikchip wird nicht mehr belastet) und das DLAA hinzuschaltet (Tensor Cores übernehmen die Bildberechnung) ergibt das genau den Leistungszuwachs.
Außerdem ist die Aussage nicht wirklich korrekt, denn in der Presentation hat Huang von 78 FPS geredet, er musste jedoch den Beamer auf 60Hz cappen damit man Vsync hat.
https://youtu.be/IG2wVjQUr3c?t=8829
ChaosTM
2018-08-24, 13:23:30
@Ailuros Diesmal waren die Überreibungen aber allgegenwärtig. 3x so schnell hier, 10x so schnell da, 6x so leise, 100pflop hier und nur 2x so teuer. Da fühl ich mich verarscht.
monstar-x
2018-08-24, 13:37:20
Turing is auch 6x so leise wie Pascal. Was immer das auch heißen mag. :D
Das Marketing gebrabbel wird leider immer schlimmer, was aber für alle Firmen gilt.
Ist doch ganz einfach, die 1080 FE hatte 50Db auf dem Tacho, die 2080 mindestens 6 mal weniger, damit ist sie der Welt erste Schallinkubator (gefickt einschädelt Nvidia ;D).
Laut dem Black/Yellow/Whitepaper, bedeutet es so viel, das jeglicher Schall der im PC entsteht, entzogen wird und dem neuen DbX Chip zugeführt wird.
Um so lauter ein Lüfter ist, desto schneller kann der DbX rechnen, dabei soll er laut internen Nvidia Folien, die nicht gezeigt werden dürfen (NDA) so schnell rechnen können, dass das Licht um den Faktor 6 Beschleunigt wird.
Da es auf der Gamescom bekanntlich sehr laut ist, war das Licht so schnell das es in der Battlefield V TechDemo durch den Scheinwerfer des Auto geschossen ist. Da hat selbst Lederjacke gestaunt.
Was im die Idee zum Schallbeschleunigten Fluxkompensator gebracht hat
quelle: https://https:/nvidia.com/technology/white/black/yellowpapers/rtx2080_sonicincubator.html
Troyan
2018-08-24, 13:37:57
Wieviele Trollpostings willst du eigentlich hier noch schreiben?
unl34shed
2018-08-24, 13:42:13
Und genau das habe ich doch geschrieben, das wenn man das TAA abschaltet (Grafikchip wird nicht mehr belastet) und das DLAA hinzuschaltet (Tensor Cores übernehmen die Bildberechnung) ergibt das genau den Leistungszuwachs.
Außerdem ist die Aussage nicht wirklich korrekt, denn in der Presentation hat Huang von 78 FPS geredet, er musste jedoch den Beamer auf 60Hz cappen damit man Vsync hat.
https://youtu.be/IG2wVjQUr3c?t=8829
Ja, aber TAA kostet keine 25%, wenn du die Shader also durch abschalten von TAA nicht um mindestens diesen Wert entlasten kannst, wo soll die Leistung her kommen?
Armaq
2018-08-24, 13:51:57
Die gezeigten Neuerungen muss man nicht verarschen.
Sie führen einiges ein und das ist lobenswert. Das die Chips echte Flächenländer sind ist für den Preis nicht so toll. Dafür ist die Kühlung vll einfacher.
Wir sollten begrüßen, dass Nvidia das Geld auch in Gamer Innovation steckt. Ich würde mich freuen wenn die Karten nicht so sackteuer werden.
Darkearth27
2018-08-24, 13:53:32
Nochmal,
In der Presentation hat Huang nie etwas von einem Leistungsplus gesagt, sondern, dass das Bild mit DLAA besser aussieht als mit TAA.
Dazu kann Turing die Infiltrator Demo mit 78 FPS darstellen unter 4k, wohingegen die 1080Ti welche eh nur TAA kann, die gleiche Szene mit "30 Something" darstellt.
Also es geht hier eigentlich nur um die Bessere Darstellung. (Bezogen auf die infiltrator Demo)
Die andere Folie die NV beigesteuert hat wird halt genau deswegen so aussehen, weil TAA bei Pascal Leistung kostet und DLAA eben nicht bzw. die Tensor Cores die Bildberechnung übernimmt und den Grafikchip entlastet, sodass dieser weniger berechnen muss.
110 Tera Flops fp16 (Tensor Cores - Turing) stehen also 177 Giga Flops fp16 (Grafikchip - Pascal) gegenüber. Nun nimmt man halt den Performancevergleich zu Spielen / Demos etc. die kein DLAA unterstützen und rechnet das hoch.
Schon hat man die Folie die NV zeigt. (Sieht man an Mass Effect Andromeda, welches kein DLAA unterstützt)
BigKid
2018-08-24, 14:00:02
Hast du dir die Folien überhaupt angesehen?
Da gibts für verschiedene Games graue Balken - „alte“ GTX.
Dann dunkelgrüne RTX ohne DLSS.
Und hellgrüne RTX mit DLSS. Und letztere sind ca 25% länger als die Dunkegrünen.
Und alles in 4K „resolution“.
Also wie kommst du zu der Behauptung Nvidia würde nirgens sagen DLSS würde die Leistung steigern ?!?
Spasstiger
2018-08-24, 14:02:07
NIX auf den Slides weist auf das hin. Lt. denen ist die Leistung deutlich höher. Und die Erfahrung zeigt dass NV bei Benches ziemlich korrekt ist.
Ich vergleiche mit der 1080 Ti, auf den Folien wird lediglich mit der 1080 verglichen. Meine +15% zur Ti entsprechen exakt den max. +55% aus der Folie zur Non-Ti. Die 1080 Ti ist 30-35% schneller als die 1080 Non-Ti.
Und die DLSS-Benchmarks sind nicht vergleichbar.
Darkearth27
2018-08-24, 14:03:58
Ja habe ich.
Aber ich scheine mich nicht deutlich genug auszudrücken..
BALKEN A -> Alte GTX
BALKEN B -> RTX
BALKEN C -> RTX mit DLAA (welche zur Berechnung der Bilder nicht den Grafikchip, sondern die Tensor Cores nutzt)
Keine Tensorcore Unterstützung (DLAA) -> weniger Performance gewinn -> siehe die letzten 4 Games in der Folie
Cyphermaster
2018-08-24, 14:10:31
Die Frage wird nun sein: Wie lange dauert es, bis AMD-Karten mit einem entsprechenden DLAA-Verfahren ausgerüstet sein werden?
Ich seh schon den alten AF-Bildqualitätskrieg von vor Urzeiten wieder aufflammen und Fanboys zwanghaft Artefaktpixel bei 8K-Auflösung für einen Vergleich zählen... :rolleyes:
unl34shed
2018-08-24, 14:12:46
Keine Tensorcore Unterstützung (DLAA) -> weniger Performance gewinn -> siehe die letzten 4 Games in der Folie
Aber das DLAA ist ein zusätzlicher Rechenschritt im Post Processing, es wird also mehr gemacht. Wie soll das schneller sein?
BigKid
2018-08-24, 14:14:18
Danke :) Macht absolut Sinn
Ja habe ich.
Aber ich scheine mich nicht deutlich genug auszudrücken..
BALKEN A -> Alte GTX
BALKEN B -> RTX
BALKEN C -> RTX mit DLAA (welche zur Berechnung der Bilder nicht den Grafikchip, sonder ndie Tensor Cores nutzt)
Keine Tensorcore Unterstützung (DLAA) -> weniger Performance gewinn -> siehe die letzten 4 Games in der Folie
Tut mir leid aber bei Balken C werden doch die Tensor Cores nicht benutzt um Teile der „herkömmlichen“ Berechnung des Bildes zu übernehmen.
Die Tensor Cores können höchstens nachgeschaltete Schritte wie das AA zu übernehmen... Dabei liesse sich aber maximal einsparen was das herkömmliche AA gekostet hätte -> passiert hier mehr...
Ohne jetzt alles komplett Umzuschmeissen bleibt nur: Entlasten der GPU durch niedrigere Auflösung+Upscaling durch die Tensor Cores ... Oder Zwischenbildberechnung durch die Tensor Cores sodass quasi nur noch jedes Zweite Bild voll berechnet wird...
Troyan
2018-08-24, 14:18:37
Die TensorCores können nicht gleichzeitig verwendet werden. Genauso wie bei 8K AI-Upscaling für Ansel RTX, wird bei DLSS ein Bild in geringerer AUflösung erstellt. Danach werden die fehlenden Pixelinformationen nachträglich per TensorCores eingefügt. So hat man ein reales 4K Bild mit 4K Informationen. Entstanden eben nicht durch die Berechnung jedes einzelnen Pixels, sondern durch das Erlernen eines Netzwerkes.
Das ganze macht auch nur Sinn, wenn die TensorCores erheblich schneller sind als das reine Berechnen eines 4K Bildes.
Darkearth27
2018-08-24, 14:21:47
Wir werden es spätestens dann genau wissen wenn Nvidia dazu genaues preisgibt.
Alles andere ist eh nur mutmaßen und sich seinen eigenen Teil dazu denken.
Und damit bin ich dann raus. Spekulatius schmecken mir nicht. (Obwohl ich manchmal dran knabber wenn es nichts anderes gibt)
SKYNET
2018-08-24, 14:24:21
Die Frage wird nun sein: Wie lange dauert es, bis AMD-Karten mit einem entsprechenden DLAA-Verfahren ausgerüstet sein werden?
Ich seh schon den alten AF-Bildqualitätskrieg von vor Urzeiten wieder aufflammen und Fanboys zwanghaft Artefaktpixel bei 8K-Auflösung für einen Vergleich zählen... :rolleyes:
da müssen wir nix aufwärmen, das 2k/4k upscaling beschissener aussieht als nativ 4K/8k sollte auch dem dümmsten menschen klar sein. :freak:
die physik kann man halt nicht austricksen :wink:
unl34shed
2018-08-24, 14:28:00
Aber man hat doch AI bzw. DL dazu geschrieben, dass wird dadurch 1000x besser...
Troyan
2018-08-24, 14:35:46
Na, was für ein Glück, dass das Ausgangsmaterial mit 8xSSAA trainiert wird. Mal sehen, wie gut so ein natives 4K mit TAA dagegen aussehen wird.
Cyphermaster
2018-08-24, 14:54:58
da müssen wir nix aufwärmen, das 2k/4k upscaling beschissener aussieht als nativ 4K/8k sollte auch dem dümmsten menschen klar sein. :freak:
die physik kann man halt nicht austricksen :wink:Ich dachte da eher an "Waffengleichheit", also dem 2k/4k-Upscaling nach nVidia-AI versus 2k/4k-Upscaling nach (zukünftiger) AMD-AI.
ChaosTM
2018-08-24, 15:00:51
Na, was für ein Glück, dass das Ausgangsmaterial mit 8xSSAA trainiert wird. Mal sehen, wie gut so ein natives 4K mit TAA dagegen aussehen wird.
4k wir auf einem 4k Monitor immer besser aussehen als das bestmögliche AA/DSR/Upscaling auf Geräten mit niedrigerer Auflösungen. Da kann niemand zaubern -- falls du das meinst
BigKid
2018-08-24, 15:02:45
Aber man hat doch AI bzw. DL dazu geschrieben, dass wird dadurch 1000x besser...
Auch wenn du IMHO zu trollen versuchst: Genau das ist die große Unbekannte. Es ist in der Tat gespenstisch was man durch Deep-Learning hinbekommen kann. Du zeigst der AI nur (lowres) Quell und (highres) Zielbild und sagst so - nu find du mal selbst raus wie man von Quell zu Zielbild kommen kann. Und dann lernt/probiert die AI das. Am Ende hast du ein Neuronales Netz das genau das zu tun gelernt hat. Das Ergebnis KANN weit über jeden existierenden Algo hinaus gehen...
Die Leistung von Nvidia ist nun, dass sie Extra Einheiten spendiert und entwickelt haben, die ein solches Netz offensichtlich bis 4k in Echzeit anwenden kann...
Denk mal an die Deep-Fakes. Das ist was ähnliches... Da hat auch niemand einen Algo geschrieben der das Gesicht von Person A auf den Körper von Person B pappt und dabei sogar noch die Mimik von Person B beibhält. Aber genau das macht die Deep-Fake AI.
Beim Upscaling per AI glaubhafte/dem echten Image recht naheliegende Details zu erfinden und des revolutionär besser halte ich durchaus für möglich.
Troyan
2018-08-24, 15:18:22
4k wir auf einem 4k Monitor immer besser aussehen als das bestmögliche AA/DSR/Upscaling auf Geräten mit niedrigerer Auflösungen. Da kann niemand zaubern -- falls du das meinst
Dafür müsste dein 4K Bild mit einer ähnlichen relativ ähnlichen Anzahl an Samples bearbeitet werden.
Das Beispiel hier zeigt, wie nVidias AI Upscaling eben mehr Informationen erzeugt gegenüber dem Ausgangsmaterial: https://imgur.com/a/6EcQPSV
Bild wurde aus dem Reddit entnommen.
SKYNET
2018-08-24, 15:32:36
Ich dachte da eher an "Waffengleichheit", also dem 2k/4k-Upscaling nach nVidia-AI versus 2k/4k-Upscaling nach (zukünftiger) AMD-AI.
AMD soll ja nicht auch mit sowas anfangen... ich habe damals schon geflucht über die AF frechheiten die beide sich rausgenommen haben, alle texturen matschig, egal welche qualitätsstufe du eingestellt hast, erst mit der R300 wurde das beseitigt... haben sich was beschissene BQ anging, damals beide gegenseitig das wasser reichen können :mad:
und nochmal will ich sonen schrott bitte nicht, lieber ehrliche native auflösungen und texturen...
SKYNET
2018-08-24, 15:34:56
Dafür müsste dein 4K Bild mit einer ähnlichen relativ ähnlichen Anzahl an Samples bearbeitet werden.
Das Beispiel hier zeigt, wie nVidias AI Upscaling eben mehr Informationen erzeugt gegenüber dem Ausgangsmaterial: https://imgur.com/a/6EcQPSV
Bild wurde aus dem Reddit entnommen.
links fhd nativ, mitte nativ 4k(?) rechts upscaling fhd --> 4k?
BigKid
2018-08-24, 15:38:16
da müssen wir nix aufwärmen, das 2k/4k upscaling beschissener aussieht als nativ 4K/8k sollte auch dem dümmsten menschen klar sein. :freak:
die physik kann man halt nicht austricksen :wink:
links fhd nativ, mitte nativ 4k(?) rechts upscaling fhd --> 4k?
Nope: All UpRes ist mitte - die Mitte ist imho Hochgerechnet... Nur woher nimmst du 4k?
Warum es besser aussieht als das Native ist vermutlich das AA, das Quasi als Abfallprodukt umsonst kommt...
Aber das ganze ist ohne Kontext nicht zu gebrauchen und noch dazu Totkomprimiert.
SKYNET
2018-08-24, 15:44:43
Nope: All UpRes ist mitte - die Mitte ist imho Hochgerechnet... Nur woher nimmst du 4k?
Warum es besser aussieht als das Native ist vermutlich das AA, das Quasi als Abfallprodukt umsonst kommt...
Aber das ganze ist ohne Kontext nicht zu gebrauchen und noch dazu Totkomprimiert.
meintewegen auch upscaling 1440p ;)
erinnert mich irgendwie an polizei software wo verpixelte bilder wieder brauchbar gemacht werden...
BigKid
2018-08-24, 15:48:45
meintewegen auch upscaling 1440p ;)
erinnert mich irgendwie an polizei software wo verpixelte bilder wieder brauchbar gemacht werden...
Nicht deinetwegen :) da steht links und rechts 1080p
Und in der Mitte nur „AI UpRes“ was auch immer das dann ist...
Das meinte ich :)
Und ja - das ist wie diese Software nur in Echtzeit und „real existierend“.
BigKid
2018-08-24, 15:52:48
Nicht deinetwegen :) da steht links und rechts 1080p
Und in der Mitte nur „AI UpRes“ was auch immer das dann ist...
Das meinte ich :)
Und ja - das ist wie diese Software nur in Echtzeit und „real existierend“.
Edit... vlt ist es auch ein Upscaling das sich nicht einen Frame in niedrigerer Auflösung sondern 2 Frames ansieht und deshalb die Bewegungsvektoren braucht.
Sorry für Doppelpost - sollte ein Edit werden...
ChaosTM
2018-08-24, 15:59:53
Dafür müsste dein 4K Bild mit einer ähnlichen relativ ähnlichen Anzahl an Samples bearbeitet werden.
Das Beispiel hier zeigt, wie nVidias AI Upscaling eben mehr Informationen erzeugt gegenüber dem Ausgangsmaterial: https://imgur.com/a/6EcQPSV
Bild wurde aus dem Reddit entnommen.
Ein 1080p Monitor kann niemals den Detailgrad eines 4k Monitors ausgeben.
Dazu fehlt ihm 4x die Auflösung - um bei NV`s Terminologie zu bleiben ;)
Godmode
2018-08-24, 16:00:58
Ich hab ehrlich gesagt den thread nicht verfolgt, aber vor einem vollen launch von Turing sind mir die bisherigen Daten zu wenig. Das heutige Material sieht IMHO trotz allem ziemlich versprechend aus.
So lange Turing in der hoechsten Aufloesung und maximalen settings >40% leistungsfaehiger ist im absoluten Durchschnitt im Vergleich zu Pascal in vorhandenen Spielen, liegt Turing genau auf dem Punkt wo man es erwartet haette. Bis zu 2x Mal so schnell ist das theoretische maximale Ziel jeglicher neuen Generationen (unter N Bedingungen) und wird wohl hier erreicht.
IMHO war das kein Launch sondern mehr ein Teaser.
@OT: Endlich lässt du dich wieder mal blicken. :wink:
MasterElwood
2018-08-24, 16:30:47
Ersteres glaubst du doch wohl selber nicht. Seed arbeitet seit Ewigkeiten mit NV wegen RT und ai zusammen.
Ist eine direkte Aussage von ihnen.
MasterElwood
2018-08-24, 16:42:51
da müssen wir nix aufwärmen, das 2k/4k upscaling beschissener aussieht als nativ 4K/8k sollte auch dem dümmsten menschen klar sein. :freak:
die physik kann man halt nicht austricksen :wink:
Wow. Soviel falsch in EINER Aussage...
MasterElwood
2018-08-24, 16:44:16
4k wir auf einem 4k Monitor immer besser aussehen als das bestmögliche AA/DSR/Upscaling auf Geräten mit niedrigerer Auflösungen. Da kann niemand zaubern -- falls du das meinst
Mathematik - ned Zauberei
uweskw
2018-08-24, 16:46:45
Ja, aber TAA kostet keine 25%, wenn du die Shader also durch abschalten von TAA nicht um mindestens diesen Wert entlasten kannst, wo soll die Leistung her kommen?
War es nicht so, dass das ganze Bild verarbeitet wird und AA nur ein Nebeneffekt ist? Da scheinen wirklich tolle Möglichkeiten darin zu schlummern. Und es soll ohne Onlinezwang funktionieren.
Muss das ganze wirklich nicht Spieleseitig eingebaut werden?
greetz
US
MasterElwood
2018-08-24, 16:47:29
Ein 1080p Monitor kann niemals den Detailgrad eines 4k Monitors ausgeben.
Dazu fehlt ihm 4x die Auflösung - um bei NV`s Terminologie zu bleiben ;)
Desswegen gibt's RTX auch in 4K aus ;)
Mangel76
2018-08-24, 16:49:47
Mathematik - ned Zauberei
Jedes mathematische Verfahren zur Schätzung ist und bleibt genau das: eine Schätzung. Das Ergebnis kann nunmal nicht besser als das Original sein, völlig egal, wie gut das Verfahren auch ist.
SKYNET
2018-08-24, 16:51:31
Wow. Soviel falsch in EINER Aussage...
na dann probiere mal zu erklären wie du die physik überlisten willst... du reisst bestimmt auch mit überlichtgeschwindigkeit im normalen raum, eh? :rolleyes:
Jedes mathematische Verfahren zur Schätzung ist und bleibt genau das: eine Schätzung. Das Ergebnis kann nunmal nicht besser als das Original sein, völlig egal, wie gut das Verfahren auch ist.
+1
MasterElwood
2018-08-24, 16:55:12
4k wir auf einem 4k Monitor immer besser aussehen als das bestmögliche AA/DSR/Upscaling auf Geräten mit niedrigerer Auflösungen. Da kann niemand zaubern -- falls du das meinst
Nope. Hier wird nämlich nicht versucht ein "natives 4k" Bild nachzuahmen - sondern ein "4k Bild inkl. perfektem AA".
Niemand WILL natives 4k! Desswegen gibt's auch 500 AA Varianten die alle versuchen das Bild zu VERBESSERN (=Verändern).
Troyan
2018-08-24, 16:55:38
Jedes mathematische Verfahren zur Schätzung ist und bleibt genau das: eine Schätzung. Das Ergebnis kann nunmal nicht besser als das Original sein, völlig egal, wie gut das Verfahren auch ist.
AI schätzt nicht. Es wird angelernt. Da das Orginalbild in einer erheblich höheren Auflösung vorliegt als das 4K Bild, kann es natürlich viel besser sein.
Hier wird einfach nicht verstanden, dass der Lernprozess gegen Bilder geht, die real überhaupt nicht machbar sind in Echtzeit...
MasterElwood
2018-08-24, 16:58:53
Jedes mathematische Verfahren zur Schätzung ist und bleibt genau das: eine Schätzung. Das Ergebnis kann nunmal nicht besser als das Original sein, völlig egal, wie gut das Verfahren auch ist.
Du vergleichst die "Schätzung" aber nicht mit dem Original - du vergleichst es mit "Original + klassischem AA drüber". Und DAS Ergebniss KANN besser sein!
Tesseract
2018-08-24, 17:01:03
Jedes mathematische Verfahren zur Schätzung ist und bleibt genau das: eine Schätzung. Das Ergebnis kann nunmal nicht besser als das Original sein, völlig egal, wie gut das Verfahren auch ist.
ein rasterisiertes bild ist kein "original". das "original" ist eine beschreibung der szene in form von meshes, texturen, positionen usw. 1080p hat es gegenüber 4k natürlich sehr schwer, aber wenn beide framebuffer mit unterschiedlichen annäherungen gefüllt werden ist 4k nicht automatisch näher am "original" als 1080p, da hängt es davon ab was im detail genau passiert.
ChaosTM
2018-08-24, 17:01:23
Nope. Hier wird nämlich nicht versucht ein "natives 4k" Bild nachzuahmen - sondern ein "4k Bild inkl. perfektem AA".
Niemand WILL natives 4k! Desswegen gibt's auch 500 AA Varianten die alle versuchen das Bild zu VERBESSERN (=Verändern).
Das dachte ich mir. Fürs upscaling, speziell bei VR könnte das dann wirklich "wunder wirken" , ausreichende panel-res vorausgesetzt.
Korvaun
2018-08-24, 17:04:11
Die Ai lernt gut bzw "richtig" zu schätzen. Und solange das 4K-Ergebnis in Bewegung (wichtig!) so gut wie nicht zu unterscheiden ist von Originalmaterial in 4k wäre das gut genug für mich.
Man könnte ja auch sagen solange es ein Pixelraster gibt ist das Bild nie perfekt weil ein schräge Linie immer Treppen hat und nie perfekt eine Linie ist... irgend wann ist halt einfach mal gut genug für das menschliche Auge...
Mangel76
2018-08-24, 17:06:46
AI schätzt nicht. Es wird angelernt. Da das Orginalbild in einer erheblich höheren Auflösung vorliegt als das 4K Bild, kann es natürlich viel besser sein.
Hier wird einfach nicht verstanden, dass der Lernprozess gegen Bilder geht, die real überhaupt nicht machbar sind in Echtzeit...
Was meinst du denn, was hier gemacht wird? Es wird geraten und geschätzt! Das Netzwerk versucht Muster zu erkennen und Pixel einzufügen oder anzupassen. Das ist nichts anderes als Schätzen. Fortgeschrittenes Schätzen, aber immer noch Schätzen! Alles hängt davon ab, wie gut das Netzwerk trainiert würde und wie gut das aktuelle Bild mit den Trainingsbildern übereinstimmt. Manche Dinge lassen sich leicht erkennen, andere sehr viel schwerer.
unl34shed
2018-08-24, 17:07:51
AI schätzt nicht. Es wird angelernt. Da das Orginalbild in einer erheblich höheren Auflösung vorliegt als das 4K Bild, kann es natürlich viel besser sein.
Eigentlich ist es schon so etwas wie schätzen, denn aus den Training weiß die "AI" nur wie es bei den Training geklappt hat sich dem Original anzunähern, bis es für gut befunden wurde.
Anhand dieser "Erfahrung" wandelt man die anderen Bilder um. Das ist die Definition von schätzen.
monstar-x
2018-08-24, 17:14:38
Nope: All UpRes ist mitte - die Mitte ist imho Hochgerechnet... Nur woher nimmst du 4k?
Warum es besser aussieht als das Native ist vermutlich das AA, das Quasi als Abfallprodukt umsonst kommt...
Aber das ganze ist ohne Kontext nicht zu gebrauchen und noch dazu Totkomprimiert.
Das Bild ist niemals so Hochskaliert.
Es ist ganz einfach.
Ursprungsbild, Original Bild ist dass in der Mitte.
Links und Rechts wurde es herunter skalliert und dann wieder hoch, das sieht man sofort, selbst als Laie.
Da sind so feine Details im mittleren Bild, kurven, wo im linken bild keine sind, das würde gar nicht gehen, mit keiner AI der Welt.
Würde das gehen, hätte Adobe oder SONY im Sensor das schon längst erfunden.
Screemer
2018-08-24, 17:15:37
Ai ereicht die ground truth doch nie oder lieg ich da falsch? Wie soll es also besser als diese werden? <- ernst gemeinte fragen
Troyan
2018-08-24, 17:18:49
Natürlich geht es. Lmao. Deswegen redet nVidia auch darüber.
Hier stammt das Orginalbild her: https://www.nvidia.com/en-us/geforce/news/new-gfe-features-latest-games-get-ansel-and-highlights/
Tesseract
2018-08-24, 17:23:51
Ai ereicht die ground truth doch nie oder lieg ich da falsch? Wie soll es also besser als diese werden? <- ernst gemeinte fragen
prinzipiell stimmt das, die ground truth muss aber nicht das normal gerenderte 4k-bild sein sondern kann (und wird es wahrscheinlich auch) deutlich besser sein.
MasterElwood
2018-08-24, 17:24:38
Vieleicht kann man es so erklären: Wir wollen kein natives 4K Bild. Das ist nicht was unsere Augen wollen. Wir wollen (visuell) ein Bild mit für unsere Augen PERFEKTE (=unendliche Auflösung). Und genau das macht auch normales AA: bringt uns (optisch) näher zur Perfekten Auflösung - aber dafür mathematisch weiter weg vom Original. Und je besser das AA - desto (mathematisch) weiter weg ist das Bild vom Original.
Und genau DAS will "Schätz-AA": näher an dem sein was das AUGE will - nicht näher am mathematischen Original. Genau was jedes AA macht. Nur durch einen komplett anderen Weg.
Freestaler
2018-08-24, 17:25:42
Ai ereicht die ground truth doch nie oder lieg ich da falsch? Wie soll es also besser als diese werden? <- ernst gemeinte fragen
Richtig. Nur ist im Kontext dieser Diskussion wohl die Frage, ist 4k bereits das wahre?
Edit: MasterElwood hats bereits gut formuliert.
Belg4rion
2018-08-24, 17:31:42
Ai ereicht die ground truth doch nie oder lieg ich da falsch? Wie soll es also besser als diese werden? <- ernst gemeinte fragen
Die ground truth bei DLSS ist ein Bild mit 64 Samples und damit viel besser als das was man auf normalen Weg berechnen kann
Slipknot79
2018-08-24, 17:32:42
Alles cool AMD arbeitet auch an dem neural Zeugs https://en.wikipedia.org/wiki/Radeon_Instinct
Troyan
2018-08-24, 17:33:14
Jemand mit seiner 4K Kamera die Vorführungen für die Presse aufgenommen: https://www.youtube.com/watch?v=VK7lL3E2LVc&t=319s
Sieht Battlefield 5 aus als ob das in 1080p laufen würde?!
BigKid
2018-08-24, 17:43:21
Das Bild ist niemals so Hochskaliert.
Es ist ganz einfach.
Ursprungsbild, Original Bild ist dass in der Mitte.
Links und Rechts wurde es herunter skalliert und dann wieder hoch, das sieht man sofort, selbst als Laie.
Da sind so feine Details im mittleren Bild, kurven, wo im linken bild keine sind, das würde gar nicht gehen, mit keiner AI der Welt.
Würde das gehen, hätte Adobe oder SONY im Sensor das schon längst erfunden.
Doch ist es... Und doch es geht...
Diese Details sind „errraten“... Nur ob das immer klappt oder immer gut aussieht ist die spannende Frage... schau dir mal die Infos zur Bildrekonstruktion mit AI an - da füllt dir die AI ganze Bildbereiche plausibel auf... da ist upscaling um den Faktor 1,5 o 2 ein Furz dagegen...
Weiter oben wurde ein Link zu dem Post von NV aus dem die Bilder sind gepostet...
Hier von Trojan:
https://www.nvidia.com/en-us/geforce/news/new-gfe-features-latest-games-get-ansel-and-highlights/
Das dürfte das selbe Prinzip sein nur in Echtzeit mit Tensor und vermutlich nicht 1080p nach 8k... ich denke bei 4k dürfte Sense sein...
Screemer
2018-08-24, 17:45:56
Natürlich geht es. Lmao. Deswegen redet nVidia auch darüber.
Hier stammt das Orginalbild her: https://www.nvidia.com/en-us/geforce/news/new-gfe-features-latest-games-get-ansel-and-highlights/
Ich glaub du hast keine Ahnung was ground truth ist und was ihr eigentlich gefragt habe.
Die ground truth bei DLSS ist ein Bild mit 64 Samples und damit viel besser als das was man auf normalen Weg berechnen kann
Woher stammt die Info, das 64 Samples verwendet werden?
Belg4rion
2018-08-24, 17:54:06
Woher stammt die Info, das 64 Samples verwendet werden?
https://developer.nvidia.com/rtx/ngx
Da gibt es einige Infos zu DLSS und zum AI Up-Res
Screemer
2018-08-24, 17:57:03
Danke!
monstar-x
2018-08-24, 18:13:18
Natürlich geht es. Lmao. Deswegen redet nVidia auch darüber.
Hier stammt das Orginalbild her: https://www.nvidia.com/en-us/geforce/news/new-gfe-features-latest-games-get-ansel-and-highlights/
Na klar, weil nvidia ein Screenshot zeigt, muss es stimmen :hammer:
Ich glaube manch einer, schaltet komplett sein Hirn aus und glaubt alles was die Nvidia Werbung zeigt.
Nochmal zum Mitschreiben
Nvidia möchte mir ihre überteuerte Grafikkarten verkaufen.
Nvidia möchte mir ihre überteuerte Grafikkarten verkaufen.
Nvidia möchte mir ihre überteuerte Grafikkarten verkaufen.
....
Das sollte man sich jedes mal 10 mal sagen, ehe man etwas glaub.
Ich glaube du hast überhaupt keine Ahnung wie ANSEL Funktioniert.
Ansel kann Bilder mit über über 50k Auflösung rendern.
Und hier das Ergebnis. Full HD to 4K
https://preview.ibb.co/ni37Np/Untitled_4.jpg (https://ibb.co/mp2Ov9)
Hier das Original Bild.
https://preview.ibb.co/kEDodU/Tom_Clancy_s_Ghost_Recon_Wildlands_Super_Resolution_2018_08_24_17_36_42.jpg (https://ibb.co/deyzk9)
Und zu den anderen Buzzwords
AI InPainting
nennt sich seit Jahren Content Aware Fill, kann heute sogar jedes Handy (Face Tune app)
https://www.youtube.com/watch?v=_65nA26iB1s
AI Slow-Mo
Macht das Twixtor Plugin seit 10 Jahren.
https://www.youtube.com/watch?v=M_LE96nGqik
AI Up-Res
Ist nichts anderes wie Ansel High Res Rendering (siehe oben mein Beispiel)
lasst euch doch nicht für dumm verkaufen.
Troyan
2018-08-24, 18:22:48
Du musst die Zukunft einfach akzeptieren. Deine Welt ändert sich. Ändere dich mit. :)
Ansonsten, Ansel macht Stitching mit Tiles. Das AI-Up skaliert ein komplettes Bild in 8K hoch. Das ist etwas komplett anderes.
Ai ereicht die ground truth doch nie oder lieg ich da falsch? Wie soll es also besser als diese werden? <- ernst gemeinte fragen
Wenn es für so einen minimalen Upscale für uns Menschen plausible Ergebnisse produziert, ist für Spiele alles in Butter. Ob es der Ground-Truth entspricht, spielt ja keine Rolle.
Screemer
2018-08-24, 18:34:14
Wenn es für so einen minimalen Upscale für uns Menschen plausible Ergebnisse produziert, ist für Spiele alles in Butter. Ob es der Ground-Truth entspricht, spielt ja keine Rolle.
Darum ging es nicht. Troyan hat behauptet dlss könnte besser sein als die ground truth. Deshalb die Frage. Wenn das Bild passt und eben nicht zu viele Artefakte in Bewegung entstand, dann soll mir das Recht sein. Den 4k upscale I'm obigen Bild find ich Mörder. Kein AA und super scharf. Wenn das in Bewegung auch noch nicht grieselt und flimmert dann :eek:
Mein erstes Testspiel wäre pubg. Das ist für mich AA und flickering aus der Hölle. Vorausgesetzt es ließe sich erzwingen, denn blueballs wird das so schnell wohl nicht integrieren.
Troyan
2018-08-24, 18:37:29
Nirgendwo habe ich es behauptet.
AI-Up ist auch nicht DLSS. AI-UP funktioniert in jedem Ansel-Spiel.
Screemer
2018-08-24, 18:40:06
Nirgendwo habe ich es behauptet.
AI-Up ist auch nicht DLSS. AI-UP funktioniert in jedem Ansel-Spiel.
Aha. Wer versteht folgende direkt aufeinander folgende Posts noch so?
Ai ereicht die ground truth doch nie oder lieg ich da falsch? Wie soll es also besser als diese werden? <- ernst gemeinte fragen
Natürlich geht es. Lmao. Deswegen redet nVidia auch darüber.
Hier stammt das Orginalbild her: https://www.nvidia.com/en-us/geforce/news/new-gfe-features-latest-games-get-ansel-and-highlights/
Sorry das ich im letzten Post ai up start dlss verwendet habe. Ist korrigiert.
Du hast dich möglicherweise auf folgendes bezogen:
Da sind so feine Details im mittleren Bild, kurven, wo im linken bild keine sind, das würde gar nicht gehen, mit keiner AI der Welt.
Damit passt die Aussage.
Troyan
2018-08-24, 18:45:26
Bezug sich auf Monstar-x. Du bist nur dazwischen gekommen. Er meinte, dass die KI keine neuen Informationen erzeugen könnte.
decimad2
2018-08-24, 18:48:32
i would take it! wenn die performance stimmt und die quali vergleichbar ist, würde ich es nutzen. aber wie schon im anderen fred, abwarten.
es wird genug tests geben die ins detail gehen.
Das ist ja wohl mal ausgeschlossen. Zwischenbildberechnung ginge nur auf Kosten erheblicher Latenz für interaktiven Inhalt.
GSXR-1000
2018-08-24, 19:34:16
Bezug sich auf Monstar-x. Du bist nur dazwischen gekommen. Er meinte, dass die KI keine neuen Informationen erzeugen könnte.
WAS genau bitte meinst du mit "neuer Information" die erzeugt wird?
Ihr haut immer wieder das Buzzword Deep learning raus, wisst ihr eigentlich was das ist? Es ist das, was seit etlichen jahrzehnten (vor diesem Buzzword) als "neuronale Informationsverarbeitung" bezeichnet wurde. Was nichts anderes heisst als "mehrschichtige InformationsVERARBEITUNG". Der (komplexe) Input wird in mehreren Schichten in einzelne, wenig komplexe, einfache mathematische Informationen aufgeteilt, mehrstufig berechnet und am ende als wiederum komplexes ergebnis im Output zusammengesetzt. Es ähnelt in der struktur der Informationsverarbeitung im menschlichen Gehirn. Es werden dadurch aber keine "neuen" Informationen erzeugt. Der Prozess ist ein Prozess der InformationsVERARBEITUNG, nicht der InformationsGEWINNUNG.
Troyan
2018-08-24, 19:46:59
Dann sollten wir es Magie nennen.
GSXR-1000
2018-08-24, 19:57:19
Dann sollten wir es Magie nennen.
Schwach Troyan, richtig richtig schwach.
Bittet man dich einmal um die konkretisierung von marketing sprech und buzzwordgeblubber kommt das als antwort.
Sorry, wenn dir die zugrundelegenden modelle nicht bekannt sind, aber mich wuerde brennend interessieren, wie denn "neue information" !erzeugt! werden kann? magst du mich bitte erleuchten? Oder hast du nur Buzzwords aneinander gereiht und geschwafelt, weil es sich wichtig und schlau anhörte?
Timbaloo
2018-08-24, 19:57:28
Korrekt wäre wohl: Es werden Informationen rekonstruiert. Die Information selbst steckt im "ground truth", kommt ins trainierte Modell und via DLSS auf den Monitor.
GSXR-1000
2018-08-24, 20:02:10
Korrekt wäre wohl: Es werden Informationen rekonstruiert. Die Information selbst steckt im "ground truth", kommt ins trainierte Modell und via DLSS auf den Monitor.
Korrekt. Ergebnis einer Informationsverarbeitung mit neuronaler Informationsverarbeitung ist eben keine neue Information, sondern die neukombination der inputinformation mit je nach aufgabenstellung abstrakteren/komplexeren Ergebnis oder weniger komplex. Aber in einer Form, die für die weiterverarbeitung nutzbarer ist, als die Rohdaten des inputs.
Es kann per definition maximal eine Teilmenge der Inputinformation sein. Eine rekombination ist nach gängiger definition keine "neue" Information.
Sunrise
2018-08-24, 20:04:07
Korrekt wäre wohl: Es werden Informationen rekonstruiert. Die Information selbst steckt im "ground truth", kommt ins trainierte Modell und via DLSS auf den Monitor.
So siehts aus.
Spannend wird das Ganze, wenn DLSS (z.B. beim Streaming) von einer 1440p-Quelle, eine höherwertige 4K-Ausgabe erzeugt. Das würde bedeuten, man hat teilweise massive Bandbreiteneinsparungen, bekommt aber fast? die identische Ausgabe wie die min. 4K-Ground Thruth-Quelle.
Leider bringen uns diese Gedanken erstmal nichts, da man hierfür die originalen Quellen (Master) benötigen würde und wir auch noch kein PetaFLOP-Supercomputer zuhause stehen haben.
Timbaloo
2018-08-24, 20:05:19
Dann sag es doch einfach...
wolik
2018-08-24, 20:19:26
Jemand mit seiner 4K Kamera die Vorführungen für die Presse aufgenommen: https://www.youtube.com/watch?v=VK7lL3E2LVc&t=319s
Sieht Battlefield 5 aus als ob das in 1080p laufen würde?!
Es sieht so aus, das es nicht flüssig läuft...
Troyan
2018-08-24, 20:19:41
Korrekt wäre wohl: Es werden Informationen rekonstruiert. Die Information selbst steckt im "ground truth", kommt ins trainierte Modell und via DLSS auf den Monitor.
Rekonstruktion erstellt jedoch neues: https://de.wikipedia.org/wiki/Rekonstruktion
Das Verfahren muss Informationen herleiten, die im Ausgangsmaterial nicht enthalten sind.
GSXR-1000 Logik ist, dass nVidia einfach den Input durch vorher gespeicherte Bilder ersetzt. Ist auch interessant, aber dann bräuchte man wohl für jedes Spiel eine neue SSD. :eek:
Cubitus
2018-08-24, 20:35:07
del.. 2
GSXR-1000
2018-08-24, 20:48:49
Rekonstruktion erstellt jedoch neues: https://de.wikipedia.org/wiki/Rekonstruktion
Das Verfahren muss Informationen herleiten, die im Ausgangsmaterial nicht enthalten sind.
GSXR-1000 Logik ist, dass nVidia einfach den Input durch vorher gespeicherte Bilder ersetzt. Ist auch interessant, aber dann bräuchte man wohl für jedes Spiel eine neue SSD. :eek:
Nice try but...
1. Sagte ich nicht "rekonstruktion" sondern "rekombination"
2. Erläuterst du mir mal bitte wo in deinem Link bei Rekombination in der Datenverarbeitung/informationsverarbeitung davon gesprochen wird, das "neues erstellt" wird? Genau das steht dort nicht.
Das wort "neuerlich" in diesem Artikel (neuerlich Erstellen) ist in diesem Falle semantisch mit "wiederholt, aufs neue" gleichzusetzen, was auch der präsilbe "re" in dem wort entspricht. Es meint explizit NICHT das erstellen von etwas NEUEM.
Und nein. Bei Informationsverarbeitung (und neuronale Informationsverarbeitung/Deep learning ist nunmal eine Form der Informationsverarbeitung) kann nunmal keine neue Information als Ergebnis liefern, sondern lediglich gegebene Information anders ausdrücken.
Letztlich ist das auch genau das, was wir unter "lernen" verstehen, die verarbeitung von informationen zum besseren Ergebnis bei gleicher Problemstellung oder neuer Problemstellung.
Und nebenbei: zur praktischen Umsetzung seitens nvidia habe ich garnichts gesagt. Ganz einfach, weil ich den genauen algorithmus, Ergebnis und Umsetzung nicht kenne, genausowenig wie jeder andere hier.
Ich stellte lediglich fest, das wenn das Buzzword Deep Learning, von dem ihr alle ja so begeistert seid, aus dem marketing sprech die richtige beschreibung des prozesses ist, welchen NV anwendet, dann kann das ergebnis dieser Informationsverarbeitung eben keine "neue" Information sein, da sich dies durch die Definition neuronaler Informationsverarbeitung ausschliesst. Damit kann deine Aussage ueber "neue Informationen" als ergebnis des Prozesses nicht richtig sein, wenn du gleichzeitig vorraussetzt (und das tust du ja offensichtlich) das dieser Prozess das ist, was als "deep learning" definiert ist.
Du musst dich also entscheiden...
Orbmu2k
2018-08-24, 20:51:25
Wenn das Trainingsmaterial / Ground Truth 16K ist und die AI von 1080p auf 16K rekonstruiert das ganze dann auf 4K downsampled kann die Qualität eben tatsächlich besser als natives 4K sein. :wink:
y33H@
2018-08-24, 20:53:53
Wartet's doch einfach ab ...
BiZiNiZz
2018-08-24, 20:56:49
Wartet's doch einfach ab ...
Wollen ja einige nicht, lieber sinnlos Diskutieren, oder Behauptungen etc. aufstellen. Der Ganze Thread liest sich einfach nur noch furchtbar.
GSXR-1000
2018-08-24, 21:01:27
Wenn das Trainingsmaterial / Ground Truth 16K ist und die AI von 1080p auf 16K rekonstruiert das ganze dann auf 4K downsampled kann die Qualität eben tatsächlich besser als natives 4K sein. :wink:
Das ist der Sinn von deep learning prozessen, das das ergebnis "besser" im sinne von anwendbar, gefiltert, auswertbar etc ist. Dazu nutzt man diesen Prozess. Es spricht niemand davon, das das Ergebnis gegenüber den "Rohdaten" besser sein sollte.
Nur bedeutet das eben nicht, das mehr information als vorher vorhanden ist. Das genaue gegenteil ist der Fall.
Genau das ist aber auch das ziel von deep learning prozessen...
Wie gut das ergebnis am ende ist, ist Frage der Umsetzung, der Input Datenqualität und der effizienz der verwendeten algorithmen. Das ist stand jetzt reine spekulation.
Orbmu2k
2018-08-24, 21:09:07
Es spricht niemand davon, das das Ergebnis gegenüber den "Rohdaten" besser sein sollte.
Nur bedeutet das eben nicht, das mehr information als vorher vorhanden ist. Das genaue gegenteil ist der Fall.
Siehe: https://youtu.be/P0fMwA3X5KI?t=64
Meiner Meinung nach würde ich sagen dass hier ein deutlicher Informationsgewinn vorliegt auch wenn er nur rekonstruiert ist!
Troyan
2018-08-24, 21:12:25
Nice try but...
1. Sagte ich nicht "rekonstruktion" sondern "rekombination"
2. Erläuterst du mir mal bitte wo in deinem Link bei Rekombination in der Datenverarbeitung/informationsverarbeitung davon gesprochen wird, das "neues erstellt" wird? Genau das steht dort nicht.
Das wort "neuerlich" in diesem Artikel (neuerlich Erstellen) ist in diesem Falle semantisch mit "wiederholt, aufs neue" gleichzusetzen, was auch der präsilbe "re" in dem wort entspricht. Es meint explizit NICHT das erstellen von etwas NEUEM.
Und nein. Bei Informationsverarbeitung (und neuronale Informationsverarbeitung/Deep learning ist nunmal eine Form der Informationsverarbeitung) kann nunmal keine neue Information als Ergebnis liefern, sondern lediglich gegebene Information anders ausdrücken.
Letztlich ist das auch genau das, was wir unter "lernen" verstehen, die verarbeitung von informationen zum besseren Ergebnis bei gleicher Problemstellung oder neuer Problemstellung.
Und nebenbei: zur praktischen Umsetzung seitens nvidia habe ich garnichts gesagt. Ganz einfach, weil ich den genauen algorithmus, Ergebnis und Umsetzung nicht kenne, genausowenig wie jeder andere hier.
Ich stellte lediglich fest, das wenn das Buzzword Deep Learning, von dem ihr alle ja so begeistert seid, aus dem marketing sprech die richtige beschreibung des prozesses ist, welchen NV anwendet, dann kann das ergebnis dieser Informationsverarbeitung eben keine "neue" Information sein, da sich dies durch die Definition neuronaler Informationsverarbeitung ausschliesst. Damit kann deine Aussage ueber "neue Informationen" als ergebnis des Prozesses nicht richtig sein, wenn du gleichzeitig vorraussetzt (und das tust du ja offensichtlich) das dieser Prozess das ist, was als "deep learning" definiert ist.
Du musst dich also entscheiden...
Dir ist klar, das dein Posting kein Sinn ergibt? Ich kenne z.B. das Alphabet. Nach deiner Logik kann ich jedoch keine "neuen Informationen" mit diesem Wissen erschaffen, da die Wörter dieses Postings im Grunde nur eine reine Zusammenreihung der Buchstaben aus dem Alphabet wären. Gleichzeitig könnte ich auch deinem Posting keine neuen Informationen einfügen, wenn ich z.B. deine Rechtschreibfehler korrigieren würde.
Wenn eine KI in einem Bild mit einem Pinsel einen roten Punkt malt, ist dieser rote Punkte dann nicht neu? Ist dieser rote Punkt keine Information? Merkst du, dass du dich in eine Sache rein steigerst, die niemand geschrieben hat? Nirgendwo habe ich gesagt, dass die KI ein komplett neues Bild erschafft. Ich habe einzig geschrieben, dass dem vorhandenen Bild neue Informationen basierend auf dem Training hinzugefügt werden.
Geh mal vom Gaspedal.
wolik
2018-08-24, 21:13:33
Siehe: https://youtu.be/P0fMwA3X5KI?t=64
Meiner Meinung nach würde ich sagen dass hier ein deutlicher Informationsgewinn vorliegt auch wenn er nur rekonstruiert ist!
Grenzt an Magie..., ob Leistung reicht für 60 fps ? Werden wir bald sehen.
GSXR-1000
2018-08-24, 21:22:15
Dir ist klar, das dein Posting kein Sinn ergibt? Ich kenne z.B. das Alphabet. Nach deiner Logik kann ich jedoch keine "neuen Informationen" mit diesem Wissen erschaffen, da die Wörter dieses Postings im Grunde nur eine reine Zusammenreihung der Buchstaben aus dem Alphabet wären. Gleichzeitig könnte ich auch deinem Posting keine neuen Informationen einfügen, wenn ich z.B. deine Rechtschreibfehler korrigieren würde.
Wenn eine KI in einem Bild mit einem Pinsel einen roten Punkt malt, ist dieser rote Punkte dann nicht neu? Ist dieser rote Punkt keine Information? Merkst du, dass du dich in eine Sache rein steigerst, die niemand geschrieben hat? Nirgendwo habe ich gesagt, dass die KI ein komplett neues Bild erschafft. Ich habe einzig geschrieben, dass dem vorhandenen Bild neue Informationen basierend auf dem Training hinzugefügt werden.
Geh mal vom Gaspedal.
Ich denke das du schlicht eine andere Definition von "Information" hast, als die wissenschaftlich mathematische (die ich bei diskussionen ueber deep learning eigentlich voraussetze). Für dich ist das Ergebnis von Informationsverarbeitung eine neue Information als solche, obwohl sie sich lediglich aus der Verarbeitung von Inputinformationen ergibt und vorhersehbares und vorhersagbares ergebnis des verwandten Algorithmus ist. Das mag umgangssprachlich so gelten können, der von dir ins felde geführten Definition von deep learning entspricht das nicht.
Menace
2018-08-24, 21:25:42
Wartet's doch einfach ab ...
Bis es unabhängige (!!) Tests gibt. Ich denke doch auch, dass erst dann, wenn auch die Redaktionen ohne der besonderen NDA sich Testmuster gekauft haben und Vergleichsbilder/filme gepostet haben es Sinn macht darüber sich die Köpfe heiß zureden. Bilder sagen dann mehr als 1000 Worte. :wink:
Die Beispielfotos hier sehen doch schon vielversprechend aus.
Troyan
2018-08-24, 21:35:05
Was ist denn die richtige Bezeichnung von Farbwerten für neu erstellte Pixel über ein KI-Verfahren? "Neu" ist ja falsch.
Dein Problem ist, dass du nicht begriffen hast, dass ich nicht den Vorgang gemeint habe, sondern das Ergebnis. Das Ergebnis, welches eben nicht aus dem Input-Material (berechnetes Ausgangsbild über die FP32 Einheiten) extrahiert werden kann. Und ich schreibe hier auch nicht über das Trainingsmaterial.
Du redest hier die ganze Zeit darüber, dass das über das KI-Verfahren veränderte Bild im Framebuffer keine zusätzlichen neuen Informationen enthalten würde. Das ist wiederum falsch. Wäre dies so, dürfte es sich nicht vom Ausgangsmaterial unterscheiden.
Ironischerweise ist dies jetzt keine neue Information, da ich es dir schon zum dritten Mal mitteile. Und für mich dann auch EoD.
Orbmu2k
2018-08-24, 21:39:04
Wartet's doch einfach ab ...
Schreibt ihr noch oder testet ihr schon? ;D
Platos
2018-08-24, 21:46:26
An die Redaktionen: Pls testet bzw. postet dann Vergleichsbilder von dem "4K" AI und nativem 4K, damit man 1 zu 1 sieht, wie es im Vergleich aussieht. Man findet zwar schon einige Vergleichsbilder von 1080p und AI UP 4k aber natives 4k ist "zufälligerweise" nie mit dabei :d
Screemer
2018-08-24, 21:48:01
Bewegtbild ist in dem Fall imho klar vorzuziehen.
Platos
2018-08-24, 21:49:37
Bewegtbild ist in dem Fall imho klar vorzuziehen.
Am besten gleich beides. Aber ja stimmt, sonst entgehen einem vlt. störende Artefakte oder irgendwelches Rauschen bei Bewegnung.
Slipknot79
2018-08-24, 21:50:14
tjf-1BxpR9c
pixeljetstream
2018-08-24, 21:52:42
seid ihr mal wieder deutsch drauf und kleinlich in jeder Formulierung... im Prinzip meint ihr doch genau das gleiche, warum rummzanken. Das NN interpretiert "intelligent" die vorhandenen Daten und kann dadurch schöner inter/extrapolieren als der standard bi-linear/bi-cubic kram. Da es implizit dann ein downsampling macht bekommt man halt den super-sample AA look. Es nutzt die Zusatzeingaben um das ganze auch noch temporal stabil hinzubekommen.
auch wenn es alte spiele vermutlich nicht kriegen, gibt's ja auch so Projekte wie reshade und wenn ein spiel sowas wie motion blur hat, sind mit hoher ws. auch die vektoren dafür da. Ergo vielleicht möglich das reinzuhacken. Und wenn das Spiel zu alt wird, kann man's vermutlich auch brute forcen ;)
Die großen Firmen werden vermutlich auch ohne nvidia irgendwann solche filter bringen, zumindest forschen sie selbst dran. Trainieren den kram und shippen es dann selbst mit. Bin mir relativ sicher dass jede zukünftige Konsole sowas einsetzen wird, die Ergebnisse sind zu gut und zu "billig" zu haben. Dafür bleibt dann mehr Rechenzeit für sinnvolles bzw. Strom bei mobilen Geräten :) Die Technik wird auch genutzt um Texturen up zu scalen und dann download/plattenspeicher etc. zu sparen.
basix
2018-08-24, 21:55:24
Meiner Meinung nach wird DLSS eine Bereicherung. Es wird nicht wie natives 4k aussehen, sondern eher sogar besser, da weniger Aliasing und Flimmern. Evtl. je nach Szene ein bisschen unschärfer aber sonst ziemlich gut.
y33H@
2018-08-24, 22:00:02
Schreibt ihr noch oder testet ihr schon?Erst (vor)schreiben, dann testen, weiter schreiben, mehr testen, Fuckups finden, erneut testen, umschreiben usw :cool:
Bitte testet bzw. postet dann Vergleichsbilder von dem "4K" AI und nativem 4K, damit man 1 zu 1 sieht, wie es im Vergleich aussieht.Bewegtbild ist in dem Fall imho klar vorzuziehen.Der Plan ist, beides zu liefern - ggf aber nicht im initialen Test, denn es braucht mindestens ein Spiel mit DLAA.
Meiner Meinung nach wird DLSS eine Bereicherung.So war mein Eindruck vor Ort auch.
decimad2
2018-08-24, 22:03:57
http://youtu.be/tjf-1BxpR9c
Es fällt halt schon auf, dass die keine verformten Meshes hernehmen, was halt immer so der Schwachpunkt vom Raytracing ist. D.h. der Entwickler muss wohl zumindest für ein Modellnahes Rigid-Body-Mesh sorgen in diesem Zusammenhang. Fällt bei Schatten insbesondere mit Flächenlichtquellen bestimmt nicht so auf, aber an den Spiegelungen muss man das doch sehen, oder wie kaschieren die das?
Edit: auch beim Präsentations-Video war ja auffällig, dass man Schatten, d.h. die ganze Szene, erst dann eingeblendet hat, als es vollkommen mit festen Platten bedeckt war. Genauso hat es auch nur auf diesen gespiegelt...
Screemer
2018-08-24, 22:05:19
Ich bin davon überzeugt, dass uns ai bei allem im gaming-gpus in naher Zukunft begleiten wird. Würden ja schon etliche Beispiele genannt. Sparen von Speicher, Bandbreite, bessere ai, Physik, bessere Bildqualität und und und. Freu mich schon.
Armaq
2018-08-24, 22:05:58
Was ist mit dem RT Part? Muss das alles eingebaut werden? Dann ist beides zwar toll, aber eh Otto normal 3dcler was davon hat dauert aber noch. BF5 nimmt dann wieder so eine Sonderfunktion ein und sieht ewig besser aus als der Rest.
Slipknot79
2018-08-24, 22:06:48
E
Der Plan ist, beides zu liefern - ggf aber nicht im initialen Test, denn es braucht mindestens ein Spiel mit DLAA.
Für dargo bitte jedes Pixel der Vergleichsbilder auf 4K upsizen und als PNG speichern. :redface:
dargo how rein. :redface::wink::biggrin:
http://youtu.be/tjf-1BxpR9c
Irgendwie erinnert mich das an die Physx Demo Videos, Fluid ina Box und sowas, und was dann aus Physix wurde sieht man ja, shice :mad::redface:
Aber k, mit 500 Stunden Killing Floor 2 konnte ich Physix ordentlich durchprügeln, hat sich schon ausgezahlt. :redface: :wink:
Slipknot79
2018-08-24, 22:10:16
DP
Screemer
2018-08-24, 22:14:37
Der Plan ist, beides zu liefern - ggf aber nicht im initialen Test, denn es braucht mindestens ein Spiel mit DLAA.
Sauber. :up:
wolik
2018-08-24, 22:15:52
Meiner Meinung nach wird DLSS eine Bereicherung. Es wird nicht wie natives 4k aussehen, sondern eher sogar besser, da weniger Aliasing und Flimmern. Evtl. je nach Szene ein bisschen unschärfer aber sonst ziemlich gut.
Euch geht (genauer wie mir) um Grafikporn, nur Gameplay ist viel mehr. Wo und was ist mit Physx passiert? Erzählt doch Switch Spieler über RT. Warten wir doch ab. Alle haben schon HTFS gesehen.
Platos
2018-08-24, 22:18:37
Der Plan ist, beides zu liefern - ggf aber nicht im initialen Test, denn es braucht mindestens ein Spiel mit DLAA.
Perfekt :up: Und hauptsache es kommt. Ob ein bisschen später ist auch egal. Ich bezahle sowieso nie die Frühkäuferdeppenpreise :D
pixeljetstream
2018-08-24, 22:23:54
genau weil physx so oft genannt wird, hat ein Kollege der zum physik team gehört dazu gepostet
http://www.codercorner.com/blog/?p=2013
BlacKi
2018-08-24, 22:37:57
Meiner Meinung nach wird DLSS eine Bereicherung. Es wird nicht wie natives 4k aussehen, sondern eher sogar besser, da weniger Aliasing und Flimmern. Evtl. je nach Szene ein bisschen unschärfer aber sonst ziemlich gut.
mein 4k fernseher bräuchte ebenfalls die funktion^^ dann kann man sich das hd paket sparen XD
Screemer
2018-08-24, 22:48:13
genau weil physx so oft genannt wird, hat ein Kollege der zum physik team gehört dazu gepostet
http://www.codercorner.com/blog/?p=2013
Ihr wisst doch ganz genau was eure Kunden meinen.
GSXR-1000
2018-08-24, 22:57:09
... über ein KI-Verfahren...
... über das KI-Verfahren ...
Ich redete nicht von "KI-Verfahren". Ich redete explizit über den Prozess "deep learning", da du diesen ja als Referenz nahmst und so in den Himmel lobtest.
Offensichtlich wirfst du einfach dutzende Begriffe durcheinander mit aus deiner Sicht deckungsgleicher Bedeutung, die aber grundlegend eigene Definitionen haben. Entweder weisst dus nicht besser oder du schwafelst einfach.
Ironischerweise ist dies jetzt keine neue Information, da ich es dir schon zum dritten Mal mitteile. Und für mich dann auch EoD.
Du hast recht. Mit jemandem der einfach nur irgendwelche Begriffe vollkommen definitionsfremd daherfaselt und dem es offensichtlich nur ums hypen einer Technologie geht, die er offensichtlich selbst nicht im Ansatz begreift, nur deshalb, weil ein bestimmtes Logo draufsteht, hat es wenig sinn sachlich zu diskutieren. Insofern ebenfalls EoD...viel spass beim weiterhypen.
MasterElwood
2018-08-24, 23:00:47
AI Slow-Mo
Macht das Twixtor Plugin seit 10 Jahren.
Ja - und es sieht seit 10 Jahren gleich Scheisse aus :)
Bei slowmo verwischt alles in Gummi. Bei der letzten Version genau wie vor 10 Jahren.
Und GENAU das ist der Punkt. Bei manchen Sachen KOMMST du einfach nicht weiter ohne Deep Learning. Wenn du nicht genug Angaben hast wie Twixtor bei richtig langsamen Slowmo, dann wird ein klassischer Algorithmus IMMER gummi erzeugen. Da BRAUCHTS eine AI die sagt: "das da is ein Kopf. Ich weiß wie ein Kopf auszusehen hat. Nicht wie Gummi. Also muss der Weg hier falsch sein. Das da ist ein Baum. Ich erkenne einen Baum aus ALLEN Blickwinkeln. Ein Baum geht nicht auf einmal wie Gummi auseinander. Usw usw usw.
BTW: ich kann dir jetzt schon sagen was passieren wird: Twixtor WIRD irgendwann dramatisch besser werden, und zwar wenn sie die NV Technik lizensieren und in ihr Plug in einbauen. :-)))
Bis es unabhängige (!!) Tests gibt. Ich denke doch auch, dass erst dann, wenn auch die Redaktionen ohne der besonderen NDA sich Testmuster gekauft haben und Vergleichsbilder/filme gepostet haben es Sinn macht darüber sich die Köpfe heiß zureden. Bilder sagen dann mehr als 1000 Worte. :wink:
Die Beispielfotos hier sehen doch schon vielversprechend aus.
Ihr verwechselt anscheinend immer noch "Hat ein NDA unterschrieben und erhält daher Vorab-Infos zum Selbstinterpretieren" (Realität) mit "Hat ein NDA unterschrieben und ist damit automatisch hirngewaschen, gekauft und ein grüner Zombie" (Paranoia). ;)
MfG,
Raff
monstar-x
2018-08-24, 23:22:52
Ja - und es sieht seit 10 Jahren gleich Scheisse aus :)
Bei slowmo verwischt alles in Gummi. Bei der letzten Version genau wie vor 10 Jahren.
Und GENAU das ist der Punkt. Bei manchen Sachen KOMMST du einfach nicht weiter ohne Deep Learning. Wenn du nicht genug Angaben hast wie Twixtor bei richtig langsamen Slowmo, dann wird ein klassischer Algorithmus IMMER gummi erzeugen. Da BRAUCHTS eine AI die sagt: "das da is ein Kopf. Ich weiß wie ein Kopf auszusehen hat. Nicht wie Gummi. Also muss der Weg hier falsch sein. Das da ist ein Baum. Ich erkenne einen Baum aus ALLEN Blickwinkeln. Ein Baum geht nicht auf einmal wie Gummi auseinander. Usw usw usw.
BTW: ich kann dir jetzt schon sagen was passieren wird: Twixtor WIRD irgendwann dramatisch besser werden, und zwar wenn sie die NV Technik lizensieren und in ihr Plug in einbauen. :-)))
Hast du dir die Nvidia Demo dazu angesehen, auch da gibt es die selben Effekte, schau dir mal das Kleid an, das Warpt ganz schön.
Nichts neues, zu Twixtor und Co.
Swissr
2018-08-24, 23:29:50
Ihr verwechselt anscheinend immer noch "Hat ein NDA unterschrieben und erhält daher Vorab-Infos zum Selbstinterpretieren" (Realität) mit "Hat ein NDA unterschrieben und ist damit automatisch hirngewaschen, gekauft und ein grüner Zombie"
Niemand hat behauptet du wärest ein grüner Zombie! ;-)
Spass beiseite: Ich freue mich auf die ersten Berichte, und bin gespannt ob ich meine Bestellung doch noch cancel...
Und for the lulz: Wie wärs, wenn ihr bei eurem ersten Testvideo obige Szene (Unterschreibt NDA, verwandelt sich in Nvidia Zombie, der nur noch den Daumen nach oben zeigen kann) als Gag hinzufügt?
Kartenlehrling
2018-08-24, 23:35:53
3D Mark's Time Spy Update mit Raytracing kommt Ende September
https://www.techspot.com/news/76085-new-3dmark-benchmark-works-coming-late-september.html
New 3DMark benchmark in the works, coming late September, TimeSpy gets a ray tracing update
Sunrise
2018-08-24, 23:54:16
seid ihr mal wieder deutsch drauf und kleinlich in jeder Formulierung... im Prinzip meint ihr doch genau das gleiche, warum rummzanken. Das NN interpretiert "intelligent" die vorhandenen Daten und kann dadurch schöner inter/extrapolieren als der standard bi-linear/bi-cubic kram. Da es implizit dann ein downsampling macht bekommt man halt den super-sample AA look. Es nutzt die Zusatzeingaben um das ganze auch noch temporal stabil hinzubekommen.
auch wenn es alte spiele vermutlich nicht kriegen, gibt's ja auch so Projekte wie reshade und wenn ein spiel sowas wie motion blur hat, sind mit hoher ws. auch die vektoren dafür da. Ergo vielleicht möglich das reinzuhacken. Und wenn das Spiel zu alt wird, kann man's vermutlich auch brute forcen ;)
Die großen Firmen werden vermutlich auch ohne nvidia irgendwann solche filter bringen, zumindest forschen sie selbst dran. Trainieren den kram und shippen es dann selbst mit. Bin mir relativ sicher dass jede zukünftige Konsole sowas einsetzen wird, die Ergebnisse sind zu gut und zu "billig" zu haben. Dafür bleibt dann mehr Rechenzeit für sinnvolles bzw. Strom bei mobilen Geräten :) Die Technik wird auch genutzt um Texturen up zu scalen und dann download/plattenspeicher etc. zu sparen.
Das "Erschreckende" daran ist, dass man garnicht weiß wo DL (bzw. das Lernen/Trainieren an sich) anfängt und wo es aufhört.
Da fallen einem dutzende Einsatzmöglichkeiten ein, die man aber erstmal nicht bewerten kann, weil man nicht weiß, wieviel Rechenleistung nötig ist und ob man diese in absehbarer Zeit zur Verfügung hat, um die Theorie zu überprüfen. Wenn es aber funktioniert wie DLSS, mit einer Ground Truth (die maximal mögliche realistische Abbildung) als Referenz, sollte das nur eine Frage der Zeit sein.
Gerade aber der Einsatz im Video-/Filmbereich fasziniert mich immens. Wäre es mit einem extrem hochauflösenden Scan/Videos einer Person mit Aufnahme der typischen Bewegungen nicht sogar möglich, einen Menschen perfekt digital zu erschaffen und zwar durch die Rekombination der erlernten Daten mit Grundlage einer Bewegungsvorgabe eines Models für eine bestimmte Szene?
Ob man das will, sei mal dahingestellt, aber wenn man z.B. wie in Star Wars: Rogue One Charaktere wieder digital zurückbringen kann, jedoch viel realistischer als im Film umgesetzt (vor allem die Bewegungen und die Qualität der äußeren Abbildung), finde ich das faszinierend.
Deep Learning war erstmal nur Marketing für mich, aber wenn man sich mal die Beispiele im Netz dazu durchliest, sind die Möglichkeiten fast endlos. Je mehr Rechenleistung zur Verfügung steht, umso einfacher lassen sich Szenarien finden, die man sonst in jahrelanger Arbeit manuell durchführen musste.
pixeljetstream
2018-08-25, 00:16:34
@sunrise off topic, aber ziemlich krasses Beispiel wo die AI das ganze Bild generiert: https://youtu.be/XhH2Cc4thJw
https://tcwang0509.github.io/pix2pixHD/
Dural
2018-08-25, 00:36:47
genau weil physx so oft genannt wird, hat ein Kollege der zum physik team gehört dazu gepostet
http://www.codercorner.com/blog/?p=2013
Das ihr überhaupt auf diese amd kidis eingeht, bringt doch eh nix. ;)
Wenn man bedenkt das NV jetzt schon 12 jahre am stück die referenz in sachen bildqualität und leistung ist und man viele tolle sache wie physx und jetzt eben raytracing gebracht hat und aktiv pc gaming fördert ist das einfach nur toll und gut. Mehr gibt es da nicht zu sagen.
pixeljetstream
2018-08-25, 00:55:39
Es immer auf AMD vs NV zu reduzieren ist aber auch nicht das Wahre... 12 Jahre klingt deutlich zu viel. GCN war anfangs schon ordentlich und so viel in Richtung compute zu gehen war von AMD auch innovativ. Hätte Larrabee gezündet hätte Fermi unmittelbar gegen zwei compute-zentrische Chips nicht so gut ausgesehen. Es ist eben nicht so schwarz weiß und man muss Technik von Business da auch trennen, sie haben ihre Karten in paar Bereichen jenseits der hw nicht so gut ausgespielt.
Troyan
2018-08-25, 00:57:38
Da musst du noch zwei Jahre durch. :D
Digidi
2018-08-25, 02:02:31
Das ihr überhaupt auf diese amd kidis eingeht, bringt doch eh nix. ;)
Wenn man bedenkt das NV jetzt schon 12 jahre am stück die referenz in sachen bildqualität und leistung ist und man viele tolle sache wie physx und jetzt eben raytracing gebracht hat und aktiv pc gaming fördert ist das einfach nur toll und gut. Mehr gibt es da nicht zu sagen.
Du bist das selbe in Gün. Leb nur weiter in der Filterblase.
SKYNET
2018-08-25, 02:22:30
12 jahre am stück die referenz in sachen bildqualität und leistung ist
:ulol: du liest selber auch schon, was du schreibst?
mr coffee
2018-08-25, 06:54:54
Diese ganzen AI und DL Beispiele sind schon krass. Hoffe da werde ich noch Dinge erleben, welche noch jetzt ausserhalb meiner Vorstellungskraft sind.
Bösewicht
2018-08-25, 07:08:43
Erst (vor)schreiben, dann testen, weiter schreiben, mehr testen, Fuckups finden, erneut testen, umschreiben usw :cool:
braver junge :comfort:
Dr. Lloyd
2018-08-25, 07:41:25
Gamers Nexus vs. Tom's Hardware bzw. Stephen Burke vs. Avram Piltch zum Thema: Vorbestellung der neuen nVidia-Karten, ohne Kenntnis deren Leistung.
YT-Video: Response to Tom's Hardware's Insane "Just Buy It" Post (https://www.youtube.com/watch?v=tu7pxJXBBn8)
Hier der komplette Tom's Hardware-Artikel: Just Buy It: Why Nvidia RTX GPUs Are Worth the Money (https://www.tomshardware.com/news/nvidia-rtx-gpus-worth-the-money,37689.html)
Sehr amüsant...
wolik
2018-08-25, 08:07:37
genau weil physx so oft genannt wird, hat ein Kollege der zum physik team gehört dazu gepostet
http://www.codercorner.com/blog/?p=2013
Wie immer sehr interessanten Post. Danke.
Nur ich erwarte von Physx etwas mehr als: Wenn dein Charakter in Fortnite nicht durch den Boden fällt, ist es PhysX . Wenn Sie in PayDay 2 eine Kugel schießen, ist es PhysX . Ragdolls? Fahrzeuge? AI? PhysX macht all das in vielen Spielen.
sieh: Half Life 2 (2004), Crysis(2007), Red Faction Guerrilla (2009)
So ähnlich wird mit RT sein. Wer von Spielentwickler wird bereit sein für nicht mal 1-5% Kunden (mit 2080-3080 Karten) wieviel Aufwand mehr zu betreiben ? Alle Effekte sind doch nicht gratis
TheGood
2018-08-25, 08:09:14
Ihr verwechselt anscheinend immer noch "Hat ein NDA unterschrieben und erhält daher Vorab-Infos zum Selbstinterpretieren" (Realität) mit "Hat ein NDA unterschrieben und ist damit automatisch hirngewaschen, gekauft und ein grüner Zombie" (Paranoia). ;)
MfG,
Raff
Hier der komplette Tom's Hardware-Artikel: Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
offensichtlich interpretieren andere das anders ;)
dargo
2018-08-25, 08:16:53
Hier der komplette Tom's Hardware-Artikel: Just Buy It: Why Nvidia RTX GPUs Are Worth the Money (https://www.tomshardware.com/news/nvidia-rtx-gpus-worth-the-money,37689.html)
WTF? X-D
basix
2018-08-25, 08:24:38
Ich liebäugle sehr stark mit der 2070er. Ich bin halt ein Technik-Freak und hier gibt es gleich mehrere neue Features mit grossem Potenzial. Playing around mit solchen Features ist wie OC, es macht süchtig :) Ausserden will ich mich selber mal ein wenig mit DL beschäftigen, da passt schnelle HW immer. Wenn doch nur 7nm schon da wäre...
pilzsammler2002
2018-08-25, 08:27:00
Half-Life 2 war doch Havoc... Das Physx war nur kurz Mal in der Source Engine meine ich ..
dildo4u
2018-08-25, 08:29:09
Der Artkiel ist Absurd aber das ich meine GTX 1070 im September 2016 für 450€ gekauft hab war eine gute Entscheidung. Vorallem weil man nie weiß ob das Mining wieder kommt mir wird schon übel wenn ich daran denke sie könnten die AI Cores zum Mining nutzen.
Mortalvision
2018-08-25, 08:30:13
Ich liebäugle sehr stark mit der 2070er. Ich bin halt ein Technik-Freak und hier gibt es gleich mehrere neue Features mit grossem Potenzial. Playing around mit solchen Features ist wie OC, es macht süchtig :) Ausserden will ich mich selber mal ein wenig mit DL beschäftigen, da passt schnelle HW immer. Wenn doch nur 7nm schon da wäre...
Hol dir lieber eine (gebrauchte) 1080Ti und setze sie unter Wasser bei 2,0 und mehr GHz, haste immo mehr davon...
basix
2018-08-25, 08:34:57
Hol dir lieber eine (gebrauchte) 1080Ti und setze sie unter Wasser bei 2,0 und mehr GHz, haste immo mehr davon...
Ne, da halte ich es wie Toms Hardware. Pascal ist schon >2 Jahre alt, das kommt mir nicht ins Haus. Da warte ich dann doch lieber auf 7nm ;)
AffenJack
2018-08-25, 08:52:50
Hol dir lieber eine (gebrauchte) 1080Ti und setze sie unter Wasser bei 2,0 und mehr GHz, haste immo mehr davon...
Wieso sollte man alte und schlechtere outdated Tech holen? Ich bin da direkt bei Basix. Wenn die Performance passt und im Moment sieht das in Ordnung aus, plus interessante Features wie DLSS. Da greife ich definitiv lieber zur 2070.
Mortalvision
2018-08-25, 09:03:13
-immo-, in zwei Jahren mag das anders aussehen!
Leonidas
2018-08-25, 09:16:15
Wie schon mal ausgeführt. Die RTX-Gamer Karten sind "Abfall" für einige Nerds. Die Zielgruppe für die Karten sind die Content-Entwickler (Profi/Semi-Profi).
Das sehe ich nicht so. Das ganze rentiert sich für NV immer nur, wenn die millionenfach verkauft werden. Das geht nur an Gamer.
Das man die Contententwickler glücklich macht, ist ein exzellenter Zweitnutzen, aber auch nicht mehr. In jedem Fall kein Grund, extra Chips aufzulegen. Das gibt es nur für HPC.
Wenn das mal nicht in die Hose geht. 2080ti Produktion bei tsmc und samsung
Schwer unwahrscheinlich wegen der Kosten. Ein solches Massenprodukt ist es nun auch wieder nicht.
Das Deep-Learning-Netzwerk wird also in der Cloud trainiert und nicht jedes Spiel muss für die Anwendung von DLSS auch explizit trainiert werden. Ist das Netzwerk auf einige Spiele trainiert worden, kann der Algorithmus auch auf anderen Spielen angewendet werden.
Das Inferencing findet dann auf der Turing-Hardware im Gaming-Rechner statt und wird durch die Tensor Cores unterstützt. Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß. Allerdings würde damit auch die Installation der GeForce Experience zusätzlich zum Treiber notwendig und zudem verlangt dieser nach einem Login und kann nicht mehr einfach so betrieben werden.https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html
Ist für einige sicherlich ein No-Go. Ich persönlich würde mich aus prinzipieller Sturheit weigern (wenn ich in dieser Frage eine Wahl hätte).
50% Mehrleistung bei 16% mehr Rohleistung würde bedeuten, dass die rohleistungsnormierte Leistung um ca. 30% zunimmt. Ähnlich viel wie von Kepler auf Maxwell. Das wäre schon ziemlich beeindruckend.
Ist sogart verdammt beeindruckend. Müsste eigentlich stärker thematisiert werden. Das dem nicht so ist, wundert mich etwas.
Ihr verwechselt anscheinend immer noch "Hat ein NDA unterschrieben und erhält daher Vorab-Infos zum Selbstinterpretieren" (Realität) mit "Hat ein NDA unterschrieben und ist damit automatisch hirngewaschen, gekauft und ein grüner Zombie" (Paranoia). ;)
MMD!
uweskw
2018-08-25, 09:28:26
Ihr verwechselt anscheinend immer noch "Hat ein NDA unterschrieben und erhält daher Vorab-Infos zum Selbstinterpretieren" (Realität) mit "Hat ein NDA unterschrieben und ist damit automatisch hirngewaschen, gekauft und ein grüner Zombie" (Paranoia). ;)
MfG,
Raff
Mich würde mal ein Statement von einem "NDA-Verweigerer" interessieren was konkret er nun schreiben darf das unter NDA nicht "gern gesehen" wäre.
Was ein "grüner Zombie" dazu sagt interessiert mich weniger. Genau so wenig wie eine Aussage vom Viermieterbund über die Sinnhaftigkeit von Sozialwohnungen.
greetz
US
basix
2018-08-25, 09:32:39
Das man die Contententwickler glücklich macht, ist ein exzellenter Zweitnutzen, aber auch nicht mehr. In jedem Fall kein Grund, extra Chips aufzulegen. Das gibt es nur für HPC.
Bei Games gibt es ja viele Content-Entwickler. Gerade bei Game-Entwicklungen werden die explodierenden Budgets als Problem angeprangert. Auch Mark Cerny (PS4 Architekt, https://www.youtube.com/watch?v=1jyXomPNkno) erwähnt das immer wieder. Jetzt kommen viele Entwickler um die Ecke und sagen, sie hätten in sehr kurzer Zeit RTX integriert (z.B. in einem Beispiel 3 Tage) und schon ziemlich gute Ergebnisse erzielt. Was sagt mir das? Der Aufwand für ein vergleichbares Ergebnis verglichen zu normaler Rasterisierung sinkt. Auch viele Aufwändige Effekte wie Rauch, Partikel, Wasser, Animationen, Physik etc. können über AI-Beschleunigung trainiert werden. Was sagt mir das? Nochmals weniger Aufwand, da ein Computer viel Arbeit abnimmt. Also das "aber auch nicht mehr" würde ich definitiv anders formulieren, da dadurch langfristig Game-Entwicklung stark unterstützt werden kann ;) Die schönen Effekte werden über AI Vorgerechnet, die Entwickler können sich um ein gutes Gameplay kümmern :)
Dazu noch der Vorteil, das trainierte Netze wenig Speicher benötigen und man durch intelligentes Upscaling nochmals Speicher sparen könnte. Was sagt mir das? Eine Konsole benötigt weniger Speicher, was sie günstiger macht.
Alles in allem: Sony und Microsoft sind sehr wahrscheinlich selbst daran interessiert, ähnliche Techniken auf die Konsole zu bringen. Dann wird es sich definitiv breit durchsetzen.
MartinRiggs
2018-08-25, 09:38:18
Hier der komplette Tom's Hardware-Artikel: Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
offensichtlich interpretieren andere das anders ;)
Selten so einen tollen Werbetext gelesen, THG auf Englisch ist also die neue Computer-Bild :uponder:
uweskw
2018-08-25, 09:47:27
Das ihr überhaupt auf diese amd kidis eingeht, bringt doch eh nix. ;)
Wenn man bedenkt das NV jetzt schon 12 jahre am stück die referenz in sachen bildqualität und leistung ist und man viele tolle sache wie physx und jetzt eben raytracing gebracht hat und aktiv pc gaming fördert ist das einfach nur toll und gut. Mehr gibt es da nicht zu sagen.
@3DCenter
ihr solltet euch so was wirklich als Werbefläche bezahlen lassen. Nichts anderes ist das. ;D
Schade, dass es für solches Marketing-Geblubber keine Spamfilter gibt.
greetz
US
Freestaler
2018-08-25, 09:50:04
genau weil physx so oft genannt wird, hat ein Kollege der zum physik team gehört dazu gepostet
http://www.codercorner.com/blog/?p=2013
Ja, so ohne Kontext der arme getrettene Hund. Mit Kontext, Physx ist heute wieder das was es war vor NVidia auf ihre GPU gebracht hat. Und wie Screemer das schrieb, ihr wisst was alle meinen.
mironicus
2018-08-25, 09:56:18
THG ist vom Raytracing-Virus befallen und versucht andere anzustecken.
MartinRiggs
2018-08-25, 10:01:40
Was ist denn jetzt eigentlich an dem Vorwurf aus dem Heise Forum dran das es gar kein Raytracing ist sondern ein extrem cleveres erweitertes Environment Mapping?
Für mich hört sich das schlüssig an, zaubern kann NV schließlich auch nicht.
Hoffe das wird mal beleuchtet und klargestellt von Leuten die wirklich Ahnung haben.
Fragman
2018-08-25, 10:06:58
Was ist denn jetzt eigentlich an dem Vorwurf aus dem Heise Forum dran das es gar kein Raytracing ist sondern ein extrem cleveres erweitertes Environment Mapping?
Für mich hört sich das schlüssig an, zaubern kann NV schließlich auch nicht.
Hoffe das wird mal beleuchtet und klargestellt von Leuten die wirklich Ahnung haben.
gibt es dazu einen link, inkl einem zu dem techpaper vom "extrem cleveres erweitertes Environment Mapping"?
MartinRiggs
2018-08-25, 10:08:55
Klar wird Nvidia Techpaper raushauen wo sie verraten das sie tricksen.:rolleyes:
Das mit dem Heise-Forum stand hier im Thread vor ein paar Seiten, ob es stimmt weiß ich nicht.
AffenJack
2018-08-25, 10:16:26
Was ist denn jetzt eigentlich an dem Vorwurf aus dem Heise Forum dran das es gar kein Raytracing ist sondern ein extrem cleveres erweitertes Environment Mapping?
Für mich hört sich das schlüssig an, zaubern kann NV schließlich auch nicht.
Hoffe das wird mal beleuchtet und klargestellt von Leuten die wirklich Ahnung haben.
Was ist da wohl dran? Es ist ein x-beliebiger Forumposts, der schön trollt. Wenn wir jetzt anfangen jeden Forenposts, den wir irgendwo finden für wahr zu nehmen, wird das eine sehr müßige Diskussion.
Freestaler
2018-08-25, 10:26:40
Was ist da wohl dran? Es ist ein x-beliebiger Forumposts, der schön trollt. Wenn wir jetzt anfangen jeden Forenposts, den wir irgendwo finden für wahr zu nehmen, wird das eine sehr müßige Diskussion.
Ja, wir bleiben da vorerst bei den Poster (Troller,Fanboys,ewignörgeler,hyper,technikverweigere,markenvertretter usw. ) Vom 3dc. Ist genug aktives und einige lesen noch still hier und da mit. Das reicht dann falls wirklich was wesentliches über die Theke geht.
Das ist kein Trolling, es geht halt (wie so oft) um Begrifflichkeiten. Es ist ja ganz offen bekannt, dass es kein "richtiges" ray tracing ist, sondern ein hybrides Verfahren. Man koennte das schon besseres environment mapping nennen, wenn man unbedingt will. Nvidia drueckt es so aus, dass die primaeren rays rasterisiert werden. Aber nichts worueber man ewig diskutieren muss, weil es klar kommuniziert wurde.
Troyan
2018-08-25, 10:34:55
Es ist richtiges Raytracing.
Menace
2018-08-25, 10:35:55
Das sehe ich nicht so. Das ganze rentiert sich für NV immer nur, wenn die millionenfach verkauft werden. Das geht nur an Gamer.
Ich möchte noch immer wissen, wie sich eine 2070 überhaupt mit RT schlägt? Wenn z.B. die Ti nur mit Ach-und-Krach damit brauchbare fps in niedriger Auflösung hinbekommt, was was macht dann die 2080 und 2070? :confused:
Und Raff... ja, ja... ihr armen Journalisten werden so falsch verstanden. Einen Extra-Testparkour nur um nVidia gut dastehen zu lassen gab es ja nie. :rolleyes: Manche haben die Speicheranbindung auch nicht wirklich soooo kritisch gesehen. Ich bilde mir dann doch ein eigenes Urteil. Nennt sich Skepsis und ist nun mal Grundlage einer Aufklärung im klassischen Sinne. :wink:
Troyan
2018-08-25, 10:40:48
Warum werden die Leute eigentlich immer nur in nVidia Threads angegangen, aber in AMDs sind die AMD-Lügen-Geschichten nie Thema? Hm?
basix
2018-08-25, 10:43:43
Was ist denn jetzt eigentlich an dem Vorwurf aus dem Heise Forum dran das es gar kein Raytracing ist sondern ein extrem cleveres erweitertes Environment Mapping?
Halte ich für BS, wenn die selbe RTX Technologie bei den Big-Playern aus der Film- und Grafikindustrie guten Anklang findet. Die sollten ja wohl wissen, was Raytracing ist und was nicht. Wie schon angedeutet, könnte man das hybride Verfahren so nennen. Empfinde ich aber als akademische Diskussion.
y33H@
2018-08-25, 10:46:30
Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
https://www.tomshardware.com/news/nvidia-rtx-gpus-worth-the-money,37689.html
Why You Shouldn’t Buy Nvidia’s RTX 20-Series Graphics Cards (Yet)
https://www.tomshardware.com/news/wait-to-buy-nvidia-geforce-rtx-gpus,37673.html
:ulol:
Und Raff... ja, ja... ihr armen Journalisten werden so falsch verstanden. Einen Extra-Testparkour nur um nVidia gut dastehen zu lassen gab es ja nie. :rolleyes: Manche haben die Speicheranbindung auch nicht wirklich soooo kritisch gesehen. Ich bilde mir dann doch ein eigenes Urteil. Nennt sich Skepsis und ist nun mal Grundlage einer Aufklärung im klassischen Sinne. :wink:
Skepsis ist super und absolut empfehlenswert. Habe und praktiziere ich auch. Generalverdacht ist aber weder sinnvoll noch angebracht. Man sollte die Zeit investieren, die Autoren einzeln "abzuklopfen". :)
Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
https://www.tomshardware.com/news/nvidia-rtx-gpus-worth-the-money,37689.html
Why You Shouldn’t Buy Nvidia’s RTX 20-Series Graphics Cards (Yet)
https://www.tomshardware.com/news/wait-to-buy-nvidia-geforce-rtx-gpus,37673.html
:ulol:
Äh, ja. :ugly:
Es besteht übrigens auch die ganz harmlose Möglichkeit, dass der THG-US-Chef ein Geek ist. Der findet die von Nvidia präsentierten Features super. Prinzipiell, ohne dass es Software dafür gibt. Eben weil er ein Geek ist und sich vorstellen kann, was damit möglich ist. In der Zukunft. Ich kann die Faszination durchaus verstehen, würde aber im Traum nicht darauf kommen, alle Leute zu sauteuren Grafikkarten zu überreden, bis die Benefits auch nur ansatzweise klar sind. Und natürlich ist es keiiin bischen unglücklich, dass sich parallel ein anderer Autor in die andere Richtung entleert.
MfG,
Raff
AffenJack
2018-08-25, 10:54:29
Just Buy It: Why Nvidia RTX GPUs Are Worth the Money
https://www.tomshardware.com/news/nvidia-rtx-gpus-worth-the-money,37689.html
Why You Shouldn’t Buy Nvidia’s RTX 20-Series Graphics Cards (Yet)
https://www.tomshardware.com/news/wait-to-buy-nvidia-geforce-rtx-gpus,37673.html
:ulol:
Hab ich schon im Nda Thread kommentiert, dass ich da nix schlimmes dran finde, außer dass der Artikel stärker als Kommentar gekennzeichnet werden sollte. Aber bei solchen Pro/Contra Ansichten von 2 Personen hat man wenigstens den Eindruck, dass Pro/Contra stärker beleuchtet wird. Man weiß sofort, wohin die Reise eben geht beim Artikel. Finde ich besser als manch "neutrale" Artikel, wo man das Gefühl hat, dass der Autor ein Fan des Produkts ist.
Menace
2018-08-25, 10:54:48
Skepsis ist super und absolut empfehlenswert. Habe und praktiziere ich auch. Generalverdacht ist aber weder sinnvoll noch angebracht. Man sollte die Zeit investieren, die Autoren einzeln "abzuklopfen". :)
MfG,
Raff
Ich habe Dich und Deine Seite selbst hier im Thread schon mehrfach gelobt. Auf Eure Tests bin ich sehr gespannt; aber auf Tests von den Nicht-NDAlern warte ich trotzdem um mir ein umfassenderes Bild zu machen.
@Troyan: Wenn AMD Blödsinn macht (z.B. keine Testsamples an alle Seiten schickt, miese Q&A-Abende bei planet3dnow veranstaltet, zu viel Strom verbrät), dann kritisiere ich das in AMD-Threads genauso.
Könnte man jetzt aber zurück auf das Problem kommen: Schaffen 2080 und 2070 RT in ausreichender fps, wenn schon die Ti kämpft? Man kann ja die Karten schon vorbestellen. :wink:
Edit: Wer findet hier eigentlich RT nicht super? Manches krankt noch etwas; aber die Potentielle Möglichkeiten sind immens. Und wenn mit AI kein Schindluder getrieben wird, könnte das das nächste große Ding sein.
SKYNET
2018-08-25, 11:00:14
Warum werden die Leute eigentlich immer nur in nVidia Threads angegangen, aber in AMDs sind die AMD-Lügen-Geschichten nie Thema? Hm?
weil AMD die kunden nicht schon diversemale aus gröbste verarscht hat und man darum nicht alles was sie bringen grad doppelt kritisch beäugen muss und erstmal abwarten muss was experten sagen... weil NV redet leider sehr viel wenn der tag lang ist...
und mir kann man ja zum glück nicht vorwerfen ich sei AMD fanboy, aber ich schlucke halt nicht alles was man ihm vorsetzt ohne es zu "untersuchen" :P und den stromverbrauch von vega habe ich dann im übrigen auch kritisiert, trotzdem ist sie im gesammtpaket das bessere produkt als die 1080er...
SKYNET
2018-08-25, 11:02:17
Hab ich schon im Nda Thread kommentiert, dass ich da nix schlimmes dran finde, außer dass der Artikel stärker als Kommentar gekennzeichnet werden sollte. Aber bei solchen Pro/Contra Ansichten von 2 Personen hat man wenigstens den Eindruck, dass Pro/Contra stärker beleuchtet wird. Man weiß sofort, wohin die Reise eben geht beim Artikel. Finde ich besser als manch "neutrale" Artikel, wo man das Gefühl hat, dass der Autor ein Fan des Produkts ist.
viel wichtiger ist: da sieht man das jeder redakteur bei THG US seine eigene meinung vertritt und nicht nur das nachplappert was irgendwer gerne hätte.
Könnte man jetzt aber zurück auf das Problem kommen: Schaffen 2080 und 2070 RT in ausreichender fps, wenn schon die Ti kämpft? Man kann ja die Karten schon vorbestellen. :wink:
Das hängt alles von den Entwicklern ab. In der Regel wird auf eine bestimmte Bildrate mit einer bestimmten Hardware optimiert, das ist "Konsolen-Style". Es geht immer darum, ob man sich einen bestimmten Effekt innerhalb des Zeitbudgets leisten kann. Auf der Gamescom konnte man den Entwicklern ja schon einige Infos (http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Battlefield-5-Nvidia-RTX-2080-Ti-Raytracing-1263364/) entlocken. Wesentlich detaillierter wird's in der hier schon einige Male verlinkten, sehr lesenswerten SEED-Präsentation.
Das einfachste Ziel ist derzeit die RTX 2080 Ti, weil man hier relativ viel RT-Leistung bekommt. Das reicht natürlich im Leben nicht für pixelpräzises UHD-Raytracing, also muss man sparen. 60 Fps in Full HD (http://www.pcgameshardware.de/Metro-Exodus-Spiel-61050/News/1080p-60FPS-Ziel-1263667/) ist wohl das Beste, was man hier erwarten kann, vermutlich mit Ray-Counts zwischen 1/4 und 1/2 pro Pixel für die gewünschten RT-Effekte (siehe SEED-Präsentation). Zusammen mit cleveren Algorithmen, die extrapolieren, akkumulieren und interpolieren wird das schon gut aussehen und laufen. Es erfordert aber zweifellos Skills und Polishing. Möglicherweise stellt Nvidia auch im Rahmen des Developer Supports Leute ab, die beim Coden helfen.
Gerade die RTX 2070 wird es jedoch schwer haben. 40 Prozent weniger RT-Bums, wenn man die Quadros als Vergleich hernimmt. Hier hat man also die Möglichkeit, weiter an Rays zu sparen und die Gegenmaßnahmen schärfer einzustellen. Übertreiben kann man es aber nicht, weil das sonst aussieht wie schon mal gegessen. Alternativ sucht man sich das einfache Performance-Ziel von 30 Fps. Das geht rein rechnerisch sogar besser als 60 Fps auf einer RTX 2080 Ti. Ich bin echt gespannt, was da alles kommt, insgesamt sollten RT-Bewunderer aber nichts als das Topmodell kaufen (und das bis zum Rand übertakten), denn die Ray-Leistung wird wohl noch viele Jahre der Limitfaktor sein. Und wir reden immer noch von Full HD, brr.
MfG,
Raff
pixeljetstream
2018-08-25, 11:12:12
Ja, so ohne Kontext der arme getrettene Hund. Mit Kontext, Physx ist heute wieder das was es war vor NVidia auf ihre GPU gebracht hat. Und wie Screemer das schrieb, ihr wisst was alle meinen.
Hast Du den Artikel bis zum Ende gelesen? Er schreibt selbst dass die Effekte ohne Konsolen Support ein Gimmick sein könnten.
Aber das alle großen Apis eine Art von raytracing anbieten werden ist schon ein großer Unterschied und wie die Entwickler das Einsetzen ist ihnen überlassen.
Wenn Du sagst Physx ist am Ende wie es ohne Nvidia war, das lässt sich doch auf Grafik nicht übertragen? Grafik hatte schon immer raytracing. Es gibt auch Spiele die es selbst gebastelt nutzen, meist mit voxel/signed distance fields, weil das Datenstrukturen sind die bisher gut auf der GPU funktionieren. Nun kommt standardisiert der Dreieckstest bzw. bvh traversal hinzu.
Troyan
2018-08-25, 11:17:31
Raytracing ist doch überhaupt nicht abhängig von den Konsolen. Sobald DX12/Vulkan vorhanden ist, wird es eingebaut. Alleine, dass man es verwenden kann, um die Fake-Schatten zu erzeugen, macht es doch schon zum Vorteil.
Außerdem können kleine Entwickler nun erheblich bessere Grafik liefern und so ihre Spiele aufwerten.
Na, Raytracing wird sich ziemlich schnell durchsetzen.
Menace
2018-08-25, 11:18:31
@Raff: Bester Kommentar hier im Thread seit langem. :up: Danke für die Erklärung und Einschätzung. Trotzdem cool, dass das endlich angegangen wird (RT in Spielen).
Also ist das AI-"Zeugs" für günstigere Karten momentan wichtiger.
Armaq
2018-08-25, 11:23:40
Das sind alles nur Vermutungen. Wie viel Zeit die Entwicklung nachher braucht, um es zu nutzen ist entscheidend. Nur weil bei Nvidia und dice ein paar Leute das können, reicht es nicht für die Masse.
Troyan
2018-08-25, 11:34:18
Du musst keinen neuen Content für Raytacing erzeugen. Es funktioniert entsprechend.
Im Grunde baust du zu erst Raytracing ein, um festzustellen, wo du für Rasterizing faken musst - und das direkt im Spiel. Kein Offline-Rendering, keine Fremdsoftware etc. Siehe hierzu das Video von Piranha Bytes und Mechwarriors 5. Die sind bei der Grafik noch nichteinmal zu den Fakes gekommen und haben mit Raytracing ja schon die Qualität, die man erreichen will.
ChaosTM
2018-08-25, 11:37:57
Das erste mal las ich über Ray Traycing in einer Ausgabe von PC-Player Anfang 1995 (iirc). Die Zeitschrift war damals mein Favorit (Lenhardt, Stangl, Schneider etc.), gibt es aber leider schon lange nicht mehr.
Schon damals galt RT als der heilige Gral des Video Renderings, praktisch das Endziel das erreicht werden soll --- mit dem kleinen Haken, dass es ungefähr 1000 x mehr Rechenleistung benötigt als klassische, Polygon basierende Renderer.
Damals sprach man von ca. 25 Jahren, bis wir in die Nähe der benötigten Rechenleistung kommen. So weit lagen die damals gar nicht daneben. :)
RT ist unvermeidlich und wird (schrittweise) kommen.
basix
2018-08-25, 11:44:29
Siehe hierzu das Video von Piranha Bytes Games und Mechwarriors 5.
Fixed it for you ;) Ein neues Gothic mit RT stelle ich mir ziemlich geil vor :D Würde sich auch in die Historie von leistungshungrigen Gothic Spielen von PB einreihen ;D
VooDoo7mx
2018-08-25, 11:49:32
Was mich interessieren würde, wenn man die GPU übertaktet ob dann die integrierten Raytracing Einheiten mit übertaktet werden, sprich mehr RT Leistung bieten.
Troyan
2018-08-25, 11:50:35
Ist eine gute Frage. nVidia gibt für die RTX2080 8 Gigarays/s an. Die RTX5000 hat aber nur 6. Eventuell gibt es einen zweiten Taktgeber für die RT Cores...
uweskw
2018-08-25, 11:52:10
......Aber das alle großen Apis eine Art von raytracing anbieten werden ist schon ein großer Unterschied und wie die Entwickler das Einsetzen ist ihnen überlassen.....
Ich halte es für wichtig, dass unsere Fachmedien darauf hinwirken, dass NV sich hier nicht mit proprietärer Technik durchsetzt und seine Vormachtstellung so noch weiter ausbaut.
Die Milliardengewinne sind NV ja von vollem Herzen gegönnt. Aber wenn NV ihre Marktmacht noch weiter ausbaut, wird PC-Gaming solange gemolken bis es tot ist. Viele haben schon wegen der Kosten vom PC-Gaming zur Konsole gewechselt. Solange der Markt als ganzes rasant wächst ist das noch nicht so schlimm.
greetz
US
pixeljetstream
2018-08-25, 11:53:36
Raytracing ist doch überhaupt nicht abhängig von den Konsolen. Sobald DX12/Vulkan vorhanden ist, wird es eingebaut. Alleine, dass man es verwenden kann, um die Fake-Schatten zu erzeugen, macht es doch schon zum Vorteil.
Außerdem können kleine Entwickler nun erheblich bessere Grafik liefern und so ihre Spiele aufwerten.
Na, Raytracing wird sich ziemlich schnell durchsetzen.
Was jeder als Erfolg ansieht liegt imo am Betrachter.
In der Entwicklung wird es schnell genutzt werden (lightmap baking, previews, profi sektor etc.). Darüber glaube ich muss man nicht streiten.
Bis die schönen Schatten/Reflektionen etc. im Mainstream/Alltag bei der Masse landen, wird's schon bissl dauern.
Da ist zum einen die Performance/Qualitätsfrage die wohl in den nächsten Monaten Fokus der Entwicklung ist.
Wie Raff schrieb, so wie das Detail sich bei anderen Effekten auch regeln lässt wird es hier sicher auch Kompromisse geben. Zwar hatten Entwickler über Titan-V ja Zugang zum raytracing, aber damit konnten sie sich nicht auf die Performance einstellen.
Der andere völlig berechtigte Punkt ist, wie sieht es jenseits der großen Engines aus. Hier bedeutet es ja ein Mehraufwand das einzubauen obwohl man für nächste Jahre nicht wirklich eine große playerbase hat.
Allerdings kann man dem entgegen halten, dass die top Engines viel mehr Verbreitung haben und damit für Spielentwickler keine Kosten anfallen.
Je nach Betrachtung ist's halt unterschiedlich. Aber imo ist die Frage eher wann und nicht ob überhaupt. 1-2 Generationen dann ist's auch für den Masse vorhanden.
Menace
2018-08-25, 11:53:48
Nostalgie-Offtopic PC-Player
Das erste mal las ich über Ray Traycing in einer Ausgabe von PC-Player Anfang 1995 (iirc). Die Zeitschrift war damals mein Favorit (Lenhard, Stangl etc.), gibt es aber leider schon lange nicht mehr.
Mit Abstand beste Spielezeitschrift.
ChaosTM
2018-08-25, 11:58:20
RT proprietär zu machen wäre fast so wie zu versuchen, Polygone zu patentieren. So was versucht höchstens Apple ;)
Troyan
2018-08-25, 11:58:46
Der andere völlig berechtigte Punkt ist, wie sieht es jenseits der großen Engines aus. Hier bedeutet es ja ein Mehraufwand das einzubauen obwohl man für nächste Jahre nicht wirklich eine große playerbase hat.
Allerdings kann man dem entgegen halten, dass die top Engines viel mehr Verbreitung haben und damit für Spielentwickler keine Kosten anfallen.
Naja, wenn man DX12 einbaut, wieso sollte man da stoppen? DX12 ist ja auch eine PC-only Sache und mit Mehraufwand verbunden.
Ich kann verstehen, dass DX12/Vulkan sich nicht in der Geschwindigkeit verbreiten, wie man es erwartet. Aber Raytracing ist dann doch eher ein Add-On, dass sich einfach lohnt gleich mitzunehmen.
pixeljetstream
2018-08-25, 12:07:10
Du musst keinen neuen Content für Raytacing erzeugen. Es funktioniert entsprechend.
Im Grunde baust du zu erst Raytracing ein, um festzustellen, wo du für Rasterizing faken musst - und das direkt im Spiel. Kein Offline-Rendering, keine Fremdsoftware etc. Siehe hierzu das Video von Piranha Bytes und Mechwarriors 5. Die sind bei der Grafik noch nichteinmal zu den Fakes gekommen und haben mit Raytracing ja schon die Qualität, die man erreichen will.
Deine Argumentation funktioniert im Vakuum ;) Die Entwickler haben meist schon ne Engine und müssen nun was einbauen.
Und wenn einer was neues baut, so hat er es zwar was Beleuchtung angeht leichter. Aber da die Performance immer noch hybrid (Primärstrahlen kommen von der Rasterization) voraussetzt, muss er dennoch die Geometrie, Partikel etc. für zwei Systeme umsetzen.
Und dann hat er das Problem, dass der Markt an potentiellen Kunden anfänglich kleiner ist.
Im Profi Sektor konnte man auf der Siggraph Tools sehen die Rasterization bis auf gizmos schon komplett verbannt haben, weil sie wissen dass das Klientel mit dicker hw anrückt und sie keine Mörder FPS brauchen. Aber das kannst Du nicht heute für Gaming so übertragen.
Jedoch wie oben geschrieben, die größeren Engines nehmen es mit, wie du sagst.
uweskw
2018-08-25, 12:15:47
RT proprietär zu machen wäre fast so wie zu versuchen, Polygone zu patentieren. So was versucht höchstens Apple ;)
ernst gemeinte Frage:
Also kann AMD RT über einen offenen Standard implementieren und in Games wie Battlefield, Metro, Assetto Corsa..... nutzen ohne irgendwelche Einschränkungen? Falls ja, thumbs up für NV!!
Wenn dann DLSS wirklich ohne Registrierung/Onlinezwang funzt hat NV hier einen Käufer mehr. Sobald sich die Preise halbwegs normalisiert haben.
greetz
US
y33H@
2018-08-25, 12:18:02
Wie berechnet Nvidia die Gigarays denn überhaupt? Pro SM gibt es einen RT-Core, der offenbar mit Chiptakt läuft ...
basix
2018-08-25, 12:20:58
ernst gemeinte Frage:
Also kann AMD RT über einen offenen Standard implementieren und in Games wie Battlefield, Metro, Assetto Corsa..... nutzen ohne irgendwelche Einschränkungen? Falls ja, thumbs up für NV!!
Wenn dann DLSS wirklich ohne Registrierung/Onlinezwang funzt hat NV hier einen Käufer mehr. Sobald sich die Preise halbwegs normalisiert haben.
greetz
US
Der offene Standard dazu heisst DXR und ist in DirectX 12 integriert. Ein Pendant dazu gibt es ebenfalls für Vulkan. Nur RTX ist proprietär und ist ein Zwischenlayer oben auf DXR drauf, welche halt nur von GeForces unterstützt wird. Gehen Entwickler über DXR ist es herstellerunabhängig.
Sunrise
2018-08-25, 12:24:35
Die "großen" Engines wollen natürlich auch immer den Nerv der Zeit treffen, damit sie benutzt werden (hat ja auch ordentlich Marketing-Potential). Ist absolut ausgemachte Sache, dass alle RT nutzen werden.
Wäre Carmack noch für id zuständig, hätten wir wohl schon längst mal Kommentare von ihm dazu gehört. Das Paralleluniversum lässt grüßen...:D
Denn: So ein Quake oder Doom mit RT...geiler Scheiss!
Screemer
2018-08-25, 12:25:33
Hast Du den Artikel bis zum Ende gelesen? Er schreibt selbst dass die Effekte ohne Konsolen Support ein Gimmick sein könnten.
Scheinbar wisst ihr also doch nicht was eure Kunden meinen, wenn dir sagen Physx ist tot. Dann will ichbdas mal kurz umreißen. Von Physx hat man erwartet, dass es hardwarebeschleunigt endlich ordentlich und vor allem sichtbare Physik in ohne Spiele bringt. Vor allem letzteres ist der Punkt der den Kunden wichtig war und für das sie sich teilweise sogar extra ne zweite GPU gekauft haben. Endlich debris der korrekt fällt und nicht sofort verschwindet, Wasser das man auch physikalisch korrekt handeln kann, endlich ordentliche cloth
Simulation für alle npcs, Haare für alle und nicht nur gerade, etc.
Apex hat mich damals so sehr gehyped und was wurde draus?
https://youtu.be/8ztQX0C4wTE
AffenJack
2018-08-25, 12:31:02
Wie berechnet Nvidia die Gigarays denn überhaupt? Pro SM gibt es einen RT-Core, der offenbar mit Chiptakt läuft ...
Wenn man die Werte der 2080Ti, 2080 und 2070 mit dem Takt und den RT-Cores berechnet, dann kommst grob auf 100Kilorays/mhz pro RT Core bei allen 3 GPUs. Natürlich mit etwas Fehler, weil die Gigaraywerte gerundet sind. Aber die Werte sind für alle 3 GPUs sehr ähnlich, daher passt der Ansatz, dass man den RT Core Durchsatz bei X Megahertz zum berechnen nimmt.
uweskw
2018-08-25, 12:32:16
Der offene Standard dazu heisst DXR und ist in DirectX 12 integriert. Ein Pendant dazu gibt es ebenfalls für Vulkan. Nur RTX ist proprietär und ist ein Zwischenlayer oben auf DXR drauf, welche halt nur von GeForces unterstützt wird. Gehen Entwickler über DXR ist es herstellerunabhängig.
tschuldigung: verstehe ich nicht 100%
laufen nun Games wie Battlefield, Metro, Assetto Corsa u.s.w. vernünftig auf Intel oder AMD sobald die den offenen Standard DXR implementiert haben? Oder hat NV da doch eine Technologiebremse für die Konkurenz eingebaut?
greetz
US
dildo4u
2018-08-25, 12:33:58
Woher soll man das jetzt wissen,wir wissen noch nicht mal ob AMDs 2019 Karten RT Cores bekommen oder nur AI.
pixeljetstream
2018-08-25, 12:36:40
Scheinbar wisst ihr also doch nicht was eure Kunden meinen, wenn dir sagen Physx ist tot. Dann will ichbdas mal kurz umreißen. Von Physx hat man erwartet, dass es hardwarebeschleunigt endlich ordentlich und vor allem sichtbare Physik in ohne Spiele bringt. Vor allem letzteres ist der Punkt der den Kunden wichtig war und für das sie sich teilweise sogar extra ne zweite GPU gekauft haben. Endlich debris der korrekt fällt und nicht sofort verschwindet, Wasser das man auch physikalisch korrekt handeln kann, endlich ordentliche cloth
Simulation für alle npcs, Haare für alle und nicht nur gerade, etc.
Apex hat mich damals so sehr gehyped und was wurde draus?
https://youtu.be/8ztQX0C4wTE
Das nicht mehr draus geworden ist bestreitet der Blog doch auch nicht (am Ende ist's bei den Partikeln geblieben)? Ein Hersteller wird immer seinen neuen Kram hypen und natürlich geht nicht alles auf (tegra smartphones).
Deswegen sind die technischen Punkte zu den Unterschieden von RT zu Physx doch nicht unwahr?
unl34shed
2018-08-25, 12:37:28
Wie berechnet Nvidia die Gigarays denn überhaupt? Pro SM gibt es einen RT-Core, der offenbar mit Chiptakt läuft ...
Laut einer der Folien ist ein Ray die Berechnung des Schnittpunkts eines Vektors mit einem Dreieck.
SKYNET
2018-08-25, 12:38:09
tschuldigung: verstehe ich nicht 100%
laufen nun Games wie Battlefield, Metro, Assetto Corsa u.s.w. vernünftig auf Intel oder AMD sobald die den offenen Standard DXR implementiert haben? Oder hat NV da doch eine Technologiebremse für die Konkurenz eingebaut?
greetz
US
wie du schon sagtest, es ist ein offner standard seitens MS, von daher sollte es sofern AMD/Intel es korrekt implentieren auch gleich gut laufen/aussehen.
uweskw
2018-08-25, 12:40:18
wie du schon sagtest, es ist ein offner standard seitens MS, von daher sollte es sofern AMD/Intel es korrekt implentieren auch gleich gut laufen/aussehen.
danke!
pixeljetstream
2018-08-25, 12:40:36
Laut einer der Folien ist ein Ray die Berechnung des Schnittpunkts eines Vektors mit einem Dreieck.
Nicht nur das eine Dreieck, das wäre trivial, sondern auch erstmal das richtige Dreieck in der Suppe zu finden ;) (bvh traversal).
Jeder Strahl testet erstmal einen Szenenbaum aus Instanzen (Häuser, Autos) und dann den Geometriebaum der Instanz, dann ein paar Dreiecke darin. Manchmal muss der Strahl wenn es "knapp vorbei geht" ne andere Instanz/Dreieck etc. testen.
Die Aufteilung in zwei Bäume hat den Vorteil dass man Instanzen günstig verschieben/rotieren kann und nur einzelne Geometriebäume updaten muss wenn dort vertices deformiert werden (skinning, cloth, particles).
ChaosTM
2018-08-25, 12:41:45
ernst gemeinte Frage:
Also kann AMD RT über einen offenen Standard implementieren und in Games wie Battlefield, Metro, Assetto Corsa..... nutzen ohne irgendwelche Einschränkungen? Falls ja, thumbs up für NV!!
Wenn dann DLSS wirklich ohne Registrierung/Onlinezwang funzt hat NV hier einen Käufer mehr. Sobald sich die Preise halbwegs normalisiert haben.
greetz
US
@ RT .. Das hoffe ich doch. Falls nicht wäre es wieder proprietärer BS. So dumm(dreist) sind sie hoffentlich nicht bei so einer wichtigen Schlüsseltechnologie.
mironicus
2018-08-25, 12:42:42
Die THG-Contra Meinung erinnert auch wieder mal an GPU-Physix und das es seit 2005 nur rund 70 Titel gab, die es unterstützen. Eine weitere exklusive Option für NVidia-Besitzer. Das Raytracing sollte nicht der maßstäbliche Grund sein, die Karten zu kaufen.
Da 7 nm schon winkt, wäre es wohl besser auf eine RTX 3080 zu warten und die 2000er-Reihe zu skippen.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.