Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
Loeschzwerg
2019-02-08, 14:53:01
https://www.techpowerup.com/252340/more-geforce-gtx-1660-ti-specs-emerge
https://www.techpowerup.com/gpu-specs/geforce-gtx-1660-ti.c3364
Angeblich hat der TU116 192 Tensor Cores (Leak eines russichen Retailers).
Thx @ madshi (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11921528#post11921528)
Hakim
2019-02-09, 04:55:04
Die 1660 wird bei einem Händler schon gelistet. 192 Tensor Cores
https://geizhals.de/zotac-gaming-geforce-gtx-1660-ti-amp-zt-t16610d-10m-a1986069.html?hloc=at&hloc=de
basix
2019-02-09, 09:48:31
Das wird interessant. Dann kann man besser abschätzen was RT kostet.
dildo4u
2019-02-09, 09:49:22
Guter Move die wird lange reichen wenn man DLSS nutzen kann.
robbitop
2019-02-09, 11:59:39
Was soll DLSS bringen? Absoluter Much. Braucht explizite Unterstützung des Developers und geht nur in 4K (zumindest aktuell) und spart nur 20% fps. Dafür ist die Karte ggf zu langsam. Dazu sieht es auch noch ziemlich mittelmäßig aus.
DLSS ist zu enttäuschend dafür dass da so ein Aufwand betrieben wird. Tensorcores, Supercomputer.
1800p Upscaling und ein Schärfefilter und man erreicht vergleichbares. Mit Checkerboarding wahrscheinlich auch aber zu nem geringeren Performancepreis.
dildo4u
2019-02-09, 13:55:05
Der DLSS Patch für BF5 kommt am 12.2 das wurde schon in 1440p DLSS gezeigt mit der 2060.Vermute mal dort rechnet es von 1080p Hoch.
Fragman
2019-02-09, 14:27:17
Wenn die Quali an der vom 3dMark rankommt, wird das insgesamt sicher ein Gewinn für die 2060 Besitzer.
Daredevil
2019-02-09, 14:31:28
Und für Raytracing, falls es dort auch etwas bringt. :)
aufkrawall
2019-02-09, 14:39:39
Läuft dann das Denoising auch über die Tensor-Cores? Gesondert, oder ist das DLSS entsprechend trainiert?
robbitop
2019-02-10, 00:13:23
Der DLSS Patch für BF5 kommt am 12.2 das wurde schon in 1440p DLSS gezeigt mit der 2060.Vermute mal dort rechnet es von 1080p Hoch.
Und dennoch ist Perf/BQ nicht der Renner für den Aufwand. Kann den Hype um DLSS nicht nachvollziehen. Das Checkerboarding von Horizon Zero Dawn spart wesentlich mehr Rechenleistung ein ggü nativem 4K und braucht keine Spezial HW und Supercomputer, Mit 80% Scaling und Schärfefilter kommt man auf fast vergleichbare Ergebnisse. Insbesondere, wenn es anständiges TAA gibt.
Troyan
2019-02-10, 00:26:31
Da du keine Erfahrung hast, ist dies eine natürlich Reaktion auf neues. FF15 sieht Lichtjahre besser aus mit DLSS gegenüber 1800p.
Das Checkerboarding in HZD ist vollkommen irrelevant. Außer natürlich, du spielst nur HZD.
Fragman
2019-02-10, 00:30:12
Und dennoch ist Perf/BQ nicht der Renner für den Aufwand. Kann den Hype um DLSS nicht nachvollziehen. Das Checkerboarding von Horizon Zero Dawn spart wesentlich mehr Rechenleistung ein ggü nativem 4K und braucht keine Spezial HW und Supercomputer, Mit 80% Scaling und Schärfefilter kommt man auf fast vergleichbare Ergebnisse. Insbesondere, wenn es anständiges TAA gibt.
Wo kann man denn sehen, was besser ist?
Helfen würde doch, wenn man zb den 3dmark entsprechend fahren könnte.
Zero Dawn ist doch ein Konsolengame, womit wäre das auf dem PC vergleichbar?
wolik
2019-02-10, 01:11:21
Da du keine Erfahrung hast, ist dies eine natürlich Reaktion auf neues. FF15 sieht Lichtjahre besser aus mit DLSS gegenüber 1800p.
Das Checkerboarding in HZD ist vollkommen irrelevant. Außer natürlich, du spielst nur HZD.
Ich habe Erfahrung und paar Augen dazu (paar 2080Ti auch) DLSS ist ein Witz, dazu noch schlechte. In FFXV Türme flackern mit DLSS unerträglich... In 8K schon ganz anderes Bild.
pixeljetstream
2019-02-10, 01:12:55
Afaik hat ps4pro hw features für flotteres checkerboard rendering. Das soll kein Argument für oder gegen DLSS, sein, nur dass es oft spezielle Instruktionen oder Verhalten gibt, die helfen, insbesondere bei Konsolen.
20% Performance Zugewinn als "nur" zu bezeichnen, entspricht nicht der Realität von Entwicklung, wo man schon für wenige Prozente hier und da ordentlich arbeitet.
aufkrawall
2019-02-10, 01:29:34
Ist DLSS eigentlich ähnlich bestimmter GW-Effekte eine Blackbox, die entsprechend Entwickler dumm hält und von Nvidia abhängig macht?
Dann wäre es schon allein aus dem Grund komplett abzulehnen.
Locuza
2019-02-10, 01:55:08
Im Grunde ja:
https://images.anandtech.com/doci/13282/GeForce_EditorsDay_Aug2018_Updated090318_1536034900-compressed-067.png
Der Entwickler fügt die NGX-API von Nvidia ein und dann wird ein von Nvidia trainiertes Datenset von der GPU und dem Treiber ausgeführt.
Das ganze Zeug ist Nvidia exklusiv und der Entwickler muss wenig machen.
In Zukunft wird vermutlich DirectML (Standardmäßig verfügbar im H1 2019 W10 Update) von mehreren Entwickler genutzt, um selber Netzwerke zu trainieren und auszuliefern, welche dann von jeder GPU ausgeführt werden können.
BlacKi
2019-02-10, 02:01:24
dlss hat nichts mit gw effekten selbst zu tun. eher wie ein raten der pixel auf AI basis, Upscaling auf AI basis. das könnte auch amd, aber anders genannt. auf basis einer DX schiene? kostet eben AI cores oder andere leistung.
aufkrawall
2019-02-10, 02:34:12
dlss hat nichts mit gw effekten selbst zu tun. eher wie ein raten der pixel auf AI basis, Upscaling auf AI basis.
Ich habe nach dem Weg der Implementierung gefragt, nicht nach der Funktionsweise.
Thx @ Locuza! Also externe Lib, die ein für den Entwickler undurchsichtiges Verhalten bez. des Zusammenspiels mit dem Treiber vornimmt. Buganfällig und nach Nvidias Gnaden. ;)
Troyan
2019-02-10, 08:14:15
Ich habe Erfahrung und paar Augen dazu (paar 2080Ti auch) DLSS ist ein Witz, dazu noch schlechte. In FFXV Türme flackern mit DLSS unerträglich... In 8K schon ganz anderes Bild.
Ja. Deswegen macht DLSS in niedrigen Auflösungen noch mehr Sinn. FF15 mit weniger als 4K und TAA ist eine verblurrte Masse. Aber DLSS macht das Erlebnis Lichtjahre besser.
Rancor
2019-02-10, 09:48:17
Schon bezeichnend wie aufkrawall neuerdings gegen NV schießt, seitdem er seine Übergangs AMD Karte hat. Wenn ich mir überlege was er für Schlachten mit dargo ausgefochten hat... :rolleyes:
Ist wohl gerade immer der IHV dufte, der in seinem Rechner steckt.
Thunder99
2019-02-10, 13:44:41
Jetzt schon DLSS zu verteufeln finde ich ein Fehler. Je nachdem wie viel Zeit investiert wird bringt es brauchbare Ergebnisse.
FF15 ist ein kein gutes Beispiel, da dort, was ich so gehört habe, TAA schlecht ist und DLSSA es einfach hat besser zu sein.
Klassisches S(G)SAA ist wohl Geschichte, da es zu viel Rechenaufwand bedeutet oder es nicht mehr technisch geht?
Es sollte aber ein offener Standard werden, da es dann generell öfters eingesetzt werden kann. Von den letzten Jahren ist es der beste Ansatz die Bildqualität zu steigern :)
wolik
2019-02-10, 14:04:44
Eine Technologie welche nur auf 1% (jetzt) bis 4%(in 2 Jahre) User sich ausrichtet, und User mit 980-1080Ti ausschließt (von AMD oder Xbox, PS5 ganz zu schweigen) ist Totgeburt.
Eine Technologie welche nur auf 1% (jetzt) bis 4%(in 2 Jahre) User sich ausrichtet, und User mit 980-1080Ti ausschließt (von AMD oder Xbox, PS5 ganz zu schweigen) ist Totgeburt.
So wie Tessellation damals bei den ersten DX11 Karten?
Screemer
2019-02-10, 14:27:01
Völlig andere Grundvoraussetzung als Teil eines Standards.
Völlig andere Grundvoraussetzung als Teil eines Standards.
Teil eines Standards, ja. Andere Grundvoraussetzungen? Nein. Eine Technologie die nur die neuesten Grafikkarten beherrschten, zudem war es anfangs nur auf Nvidia Karten nutzbar. Radeon HD 5xxx und 6xxx waren Krüppel und völlig unbrauchbar.
aufkrawall
2019-02-10, 14:36:54
Schon bezeichnend wie aufkrawall neuerdings gegen NV schießt, seitdem er seine Übergangs AMD Karte hat.
Ja, ist schon schade, wie der NV-Treiber den Bach runtergegangen ist.
Wenn ich mir überlege was er für Schlachten mit dargo ausgefochten hat... :rolleyes:
Im Gegensatz zu dir konnte ich ja auch damals schon mit meiner 390 mitreden.
Ist wohl gerade immer der IHV dufte, der in seinem Rechner steckt.
Das ist nur logisch, weil ich die Hardware eingebaut lasse, die besser läuft bzw. mich weniger nervt. Btw. Linux.
robbitop
2019-02-10, 14:47:59
Da du keine Erfahrung hast, ist dies eine natürlich Reaktion auf neues. FF15 sieht Lichtjahre besser aus mit DLSS gegenüber 1800p.
Das Checkerboarding in HZD ist vollkommen irrelevant. Außer natürlich, du spielst nur HZD.
Ich vertraue da DF (die haben mehr Erfahrung in dem Bereich als die meisten hier zusammen) und dem unkomprimiertem Videomaterial, dass man Frame für Frame schön auseinandernehmen kann un das zu beurteilen.
FF15 hat kein anständiges TAA, was non dlss künstlich verschlechtert. Weiterhin hat kein Tester 1800p mit Schärfefilter kombiniert.
Ein Großteil moderner Spiele haben ein massiv besseres TAA.
Vorzeige TAA ist IMO das 8xTSAA in Wolfenstein 2. Das mit lumasharpen kombiniert erzeugt IMO die besten Ergebnisse, die ich bei TAA gesehen habe bisher.
FF15 ist genauso irrelevant wie HZD, da Einzelbeispiel.
Mir ging es um den Algorithmus und was er mit wieviel Einsatz holt. Ein gutes Checkerboarding kostet BQ normiert offenbar weniger Leistung und braucht keine SpezialHW, die Chipfläche kostet, die für Leistung eingesetzt werden könnte und braucht keine Supercomputer und die entsprechende Infrastruktur und Entwicklung dieser Softwareumgebung und Schnittstellen. Ein riesen Aufriss und bis dato enttäuschend wenig Ergebnis.
Alle Redaktionen sind d‘accord dass 4K nativ besser aussieht und der ganze Holuspokus spart läppische 20%...
Afaik hat ps4pro hw features für flotteres checkerboard rendering. Das soll kein Argument für oder gegen DLSS, sein, nur dass es oft spezielle Instruktionen oder Verhalten gibt, die helfen, insbesondere bei Konsolen.
20% Performance Zugewinn als "nur" zu bezeichnen, entspricht nicht der Realität von Entwicklung, wo man schon für wenige Prozente hier und da ordentlich arbeitet.
Du meinst den ID Buffer? Es gibt inzwischen mehr Implementierungen von CBR ohne ID Buffer als mit ID Buffer. Kostet ja zusätzlich Bandbreite.
Die 20% setze ich in Relation zum getriebenen Aufwand und den existierenden Alternativen.
Für mich sieht DLSS so aus, als wenn man Aufgaben/Anwendungsgebiete für die Tensorcores zu finden versucht. Und manches geht mit anderen Methoden möglicherweise effizienter. Sowohl von der Performance als auch ökonomisch (Entwicklung muss ja auch abgeschrieben werden).
aufkrawall
2019-02-10, 14:58:39
DLSS ändert halt nichts daran, dass Auflösung durch nichts zu ersetzen ist. In nativen 4k ist dann mit dem idTech/UE4-TAA Aliasing quasi vollständig ohne nennenswerten Leistungsverlust verschwunden, auf Kosten von etwas Motion Blur. Da hätte DLSS schon wesentlich besser sein müssen, um Eindruck zu schinden. Die Qualität ist einfach zu schlecht.
Screemer
2019-02-10, 15:09:07
Teil eines Standards, ja. Andere Grundvoraussetzungen? Nein. Eine Technologie die nur die neuesten Grafikkarten beherrschten, zudem war es anfangs nur auf Nvidia Karten nutzbar. Radeon HD 5xxx und 6xxx waren Krüppel und völlig unbrauchbar.
Aha, amd hatte also nicht zumindest die Möglichkeit nen besseren Tesselator einzubauen oder haben sie jetzt die Möglichkeit dlss zu implementieren? Keine Antwort von Nöten.
Tesseract
2019-02-10, 15:21:31
DLSS ändert halt nichts daran, dass Auflösung durch nichts zu ersetzen ist.
gerade heute stimmt das aber nichtmehr. immer mehr spiele haben eine temporale komponente in der renderpipeline, selbst die dicksten high-end-grakas können die high-refresh-monitore nichtmehr auslasten und jeder frame mehr führt direkt zu mehr visueller qualität. da sind effiziente kompromisse aus spatialer und temporaler auflösung ein segen und davon werden wir in zukunft sicher auch mehr sehen.
aufkrawall
2019-02-10, 16:07:03
Natürlich stimmt das noch, temporale Tricks ersetzen keine Auflösung & Pixeldichte (wie umgekehrt halt auch nicht).
wolik
2019-02-10, 16:08:54
Die beste Technologie (was wirklich die Name Heilige Gral tragen dürfte) war in Jahr 1998 erfunden. SLI. Scan-Line Interleave von 3DFX. Übernommen und perfektioniert (Quad SLI) von Nvidia (und jetzt fast begraben, sieh mal TD2).
Man hätte Möglichkeit Heute die Leistung von Übermorgen haben. In Fall von "Quad 2080Ti" sprich von einer 4080Ti oder 5080Ti wenn nur 30% jedes Generation Zuwachs statt findet (not bed, oder?)
Und mit Monitoren 4K/144Hz hat das man mehr als nötig, (von 8K Monitoren ganz zu schweigen)
Tesseract
2019-02-10, 16:12:18
wieso trick? temporale information kann den echten detailgrad erhöhen und resultate erzielen, die nahe an klassischem supersampling liegen. für aliasing, geometriedetails usw. kann upscaling mit höherer framerate und temporalen komponenten schärfer sein als native weil ganz einfach mehr information im frame steckt.
Die beste Technologie (was wirklich die Name Heilige Gral tragen dürfte) war in Jahr 1998 erfunden. SLI. Scan-Line Interleave von 3DFX. Übernommen und perfektioniert (Quad SLI) von Nvidia (und jetzt fast begraben, sieh mal TD2).
nvidias sli hat absolut nichts mit scanline interleave zu tun und beides funktioniert in modernen engines nichtmehr. "heiliger gral" ist daran überhaupt nichts.
aufkrawall
2019-02-10, 16:36:35
wieso trick? temporale information kann den echten detailgrad erhöhen und resultate erzielen, die nahe an klassischem supersampling liegen.
Aber auch nur mit den Nebenwirkungen Jittering und Blur/Ghosting. Diese Nebenwirkungen kann man mit genug Informationen (Pixel, fps) immerhin deutlich abmildern.
für aliasing, geometriedetails usw. kann upscaling mit höherer framerate und temporalen komponenten schärfer sein als native weil ganz einfach mehr information im frame steckt.
Es braucht trotzdem hohe Auflösung + TAA, damit es sauber aussieht. Das TAA in Doom sieht in nativen 4k@32" um Welten besser aus als in WQHD@27".
Durch das Jittering hast du mit TAA in WQHD selbst bei einer komplett statischen Szene bei schmalen Kanten ständig auffallendes Pixel-Crawling. Durch die Kombi höhere Auflösung + Pixeldichte verschwindet das in nativen 4k beinahe völlig bzw. ich konnte es in Doom nicht mehr warhnehmen.
Btw. auch ein Grund, warum TAA mit nativer Auflösung viel mehr bringt als mit Downsampling, durch die Verrechnung bei Downsampling betrifft das Jittering wieder viel mehr Pixel in Relation zur Gesamtmenge.
Tesseract
2019-02-10, 16:51:13
die entscheidenden punkte sind die limitierte rechenleistung und der zusammenhang zwischen framerate und spatialer auflösung. wenn temporales AA jeden frame die sampleposition ändert erhöht nicht nur die auflösung sondern auch die framerate die schärfe und 1440p vs. 4k bedeutet in der regel nunmal auch ~halbierte framerate und mit steigender framerate wird aus einem blurry TAA schnell mal etwas, dass stark an SGSSAA erinnert, besonders wenn man moderates luma sharpen dazuwirft.
robbitop
2019-02-10, 18:11:32
So macht es das id Tech TAA auch. Allerdings scheint es nicht ausnahmslos überall zu greifen. In W2 hat das 8xTSAA einen feinen Funkmast in der Ferne auch im Standbild nicht rekonstruiert bekommen. Kurz 4K@1440p (DSR) angeschmissen und auf einmal war die Rekonstruktion deutlich besser.
In allen anderen Szenen in lief es in Kombination mit mehr Schärfe (glaube Ingameschärfe) sehr gut. Aufh 5K@1440p brachte kaum noch subjektiv signifikant sichtbare Vorteile.
Je höher Framerate und Auflösung desto besser funktioniert das. In W2 hatte meine 1080ti selbst in 1440p immer ziemlich hohe Frameranten. Je nach Szene 70...130 fps. Je höher die Framerate desto mehr temporale Informationen und desto geringer der Unterschied von Frame zu Frame.
Troyan
2019-02-10, 18:26:55
gerade heute stimmt das aber nichtmehr. immer mehr spiele haben eine temporale komponente in der renderpipeline, selbst die dicksten high-end-grakas können die high-refresh-monitore nichtmehr auslasten und jeder frame mehr führt direkt zu mehr visueller qualität. da sind effiziente kompromisse aus spatialer und temporaler auflösung ein segen und davon werden wir in zukunft sicher auch mehr sehen.
Nicht nur Frames. Effekte wie SSR sind deutlich niedriger aufgelöst als die native Auflösung. Also rendert man zuerst alles in 4K, nur um dann richtig schlechte 1/4 SSRs mit zwei Rays einzusetzen. Aktuelles Beispiel ist The Division 2, dessen SSRs noch unter denen von Frostbyte anzusiedeln sind.
wolik
2019-02-10, 18:47:49
nvidias sli hat absolut nichts mit scanline interleave zu tun und beides funktioniert in modernen engines nichtmehr. "heiliger gral" ist daran überhaupt nichts.
Ich spreche von Idee, nicht von Umsetzung. Einfach mal nachdenken, wo wäre wir ohne mCPU? Core Duo etc. ...
Rancor
2019-02-10, 18:53:23
Ja, ist schon schade, wie der NV-Treiber den Bach runtergegangen ist.
Was wohl scheinbar nur bei deinem Bruder der Fall ist :rolleyes:
Im Gegensatz zu dir konnte ich ja auch damals schon mit meiner 390 mitreden.
Ahhhja :D
Das ist nur logisch, weil ich die Hardware eingebaut lasse, die besser läuft bzw. mich weniger nervt. Btw. Linux.
Ja. eine RX 570 ist ein ganz tolle Karte :comfort2:
Tesseract
2019-02-10, 18:57:55
Ich spreche von Idee, nicht von Umsetzung. Einfach mal nachdenken, wo wäre wir ohne mCPU? Core Duo etc. ...
welche "idee" soll das sein? parallele bearbeitung von datensätzen? co-prozessoren? mehrere chips auf einer platine? nichts davon hat 3dfx erfunden.
aufkrawall
2019-02-10, 19:37:44
Was wohl scheinbar nur bei deinem Bruder der Fall ist :rolleyes:
Du, ich bin nicht wegen dem bisschen Schotter von einer 1070 Ti auf eine 580 gedowngradet.
Ja. eine RX 570 ist ein ganz tolle Karte :comfort2:
Wie immer, schlecht informiert.
Rancor
2019-02-10, 19:40:10
Du, ich bin nicht wegen dem bisschen Schotter von einer 1070 Ti auf eine 580 gedowngradet.
Dann bist du schlicht unfähig dein System vernünftig zu konfigurieren. Denn keines deiner geschilderten Probleme trifft auf mich oder irgendwem im Bekanntenkreis zu.
Wie immer, schlecht informiert.
Dann eben ne 580... Ist auch nicht so der Bringer. Und wer von einer 1070TI auf eine 580 downgraded, sorry aber dem ist auch wohl wirklich nicht zu helfen.
aufkrawall
2019-02-10, 19:41:49
Dann bist du schlicht unfähig dein System vernünftig zu konfigurieren.
Das wirds sein. Jetzt zurück zum Thema, k?
Rancor
2019-02-10, 19:48:49
Das wirds sein. Jetzt zurück zum Thema, k?
Wir sind beim Thema. Es geht hier um NV Karten und dazu gehört der Treiber und wenn du der Ansicht bist das der Treiber Müll ist, weil du und dein Bruder damit Probleme haben, alle anderen jedoch nicht, dann musst das mal klar gestellt werden.
Wer downgraded denn bitte von einer 1070TI auf einer RX580... Das macht in keiner Welt irgendeinen Sinn.. Hättest du wenigsten ne Vega 64 genommen.
dargo
2019-02-10, 19:54:45
Da du keine Erfahrung hast, ist dies eine natürlich Reaktion auf neues. FF15 sieht Lichtjahre besser aus mit DLSS gegenüber 1800p.
Das ist ja auch kein Wunder. Das TAA von FF15 gehört auch zu den schlechtesten Implementierungen.
aufkrawall
2019-02-10, 20:22:29
Wir sind beim Thema. Es geht hier um NV Karten und dazu gehört der Treiber und wenn du der Ansicht bist das der Treiber Müll ist, weil du und dein Bruder damit Probleme haben, alle anderen jedoch nicht, dann musst das mal klar gestellt werden.
Im Internet wird viel erzählt. Hier wollen mir auch regelmäßig irgendwelche Clowns erzählen, Polaris hätte eine gute Texturfilterung -> geb ich einen Pups drauf.
Wenn ich mich von etwas mit eigenen Augen überzeugen kann, brauch ich keinen Missionar, der mir das Gegenteil einreden will.
Wer hat hier außer mir DX9 mit Gsync-kompatibel und/oder Samsung U32J590 getestet? -> niemand.
Und die Creators Update Ruckler bestreitet nicht mal der notorische AMD-Fanboy ( ;) ) Ex3cut3r. Hier, hab ich mir nicht gerade aus den Fingern gesaugt:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11819639&postcount=31
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11804853&postcount=12
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11922521&postcount=67
Stell dir vor: Ich habe über die letzten Monate allein mit der 580 (vorher schon ein paar Mal mit einer 560) schon drei oder vier Mal versucht, das Problem zu provozieren: Es gab noch nie derart fiese Ruckler mit den Radeons. Das Problem gibt es schlicht mit AMD nicht. Mit Nvidia seit nun schon fast zwei Jahren (Win 10 1703)!
"Async Schmierbug" in Firefox von einem anderen User als mir bestätigt:
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11692535
Das Problem gibt es mit Nvidia ebenfalls seit Jahren.
Nur mit Nvidia erfasst der Windows 10-Nachtmodus nicht den Hardware-Cursor. Fixen die das irgendwann mal? Drei Mal darfst du raten.
Es gibt noch diverse andere Dinge, auf ich jetzt keinen Bock habe, weiter einzugehen.
Ein ganzes Kapitel für sich wäre auch die Situation unter Linux, aber das würdest du eh nicht verstehen.
Wer downgraded denn bitte von einer 1070TI auf einer RX580... Das macht in keiner Welt irgendeinen Sinn.. Hättest du wenigsten ne Vega 64 genommen.
Siehste, du hast schon wieder 0 Ahnung: Ich kann mit meinem Monitor nur Karten mit DVI-Output kaufen. Die gibts für Vega nur bei Asus, und eine Asus Vega 56 hatte ich bereits da. Taugte nix, ging zurück. Zufrieden? :rolleyes:
Rancor
2019-02-10, 20:24:17
Merkwürdig das ich keinerlei Spikes mit dem CU hatte. Ich bestreite auch nicht das du die Probleme hattest. Ich bestreite, das sie genereller Natur sind, denn ich habe sie nicht, meine Freundin auch nicht und auch sonst niemand im Freundeskreis, der eine NV VGA hat und nen G-Sync Monitor.
aufkrawall
2019-02-10, 20:29:05
Viele Menschen sind nicht sonderlich sensibel gegenüber Rucklern. Tippe, das ist auch bei dir der Fall. Ich kaufe dir auch nicht ab, dass du wirklich genauer hingeschaut hast, denn dafür ist deine Verweigerungshaltung einfach viel zu offensichtlich.
x-force
2019-02-10, 20:31:35
auf 8.1 läuft pascal perfekt
Tesseract
2019-02-10, 20:35:38
Stell dir vor: Ich habe über die letzten Monate allein mit der 580 (vorher schon ein paar Mal mit einer 560) schon drei oder vier Mal versucht, das Problem zu provozieren: Es gab noch nie derart fiese Ruckler mit den Radeons. Das Problem gibt es schlicht mit AMD nicht. Mit Nvidia seit nun schon fast zwei Jahren (Win 10 1703)!
tritt das auch wo anders als in BF1 auf? ich habe schon haufenweise spiele auf pascal seit dem update durch und mir ist sowas noch nicht aufgefallen, BF habe ich nicht bzw. interessiert mich nicht.
Rancor
2019-02-10, 20:38:21
Viele Menschen sind nicht sonderlich sensibel gegenüber Rucklern. Tippe, das ist auch bei dir der Fall. Ich kaufe dir auch nicht ab, dass du wirklich genauer hingeschaut hast, denn dafür ist deine Verweigerungshaltung einfach viel zu offensichtlich.
Ich kann nichts verweigern was nicht da ist. Weder die diversen G-Sync Probleme, die du beschreibst, noch das Problem deines Bruders mit der 4K Wiedergabe in diversen Mediaplayern, gibt es hier. Ich tippe einfach mal, das das Problem wohl vor dem Monitor sitzt ;)
Ich erinnere mich auch noch an deine diverse Probleme deines Ryzen Systems, die niemand nachvollziehen konnte.
aufkrawall
2019-02-10, 20:44:46
tritt das auch wo anders als in BF1 auf? ich habe schon haufenweise spiele auf pascal seit dem update durch und mir ist sowas noch nicht aufgefallen, BF habe ich nicht bzw. interessiert mich nicht.
Ja, in RotTR DX12 fiel es mir auch auf. Es ist allerdings nicht zu 100% reproduzierbar, mit <=16GB RAM und vollem Standby Memory Cache (nicht zu verwechseln mit irgendwelchen Standby-Modi zum Stromsparen) ist es allerdings wesentlich wahrscheinlicher. Ich hatte in dem einen von mir verlinkten Beitrag ja auch geschildert, dass ich gedacht hätte, es wäre gefixt. Nach längerer Windows-Laufzeit trat es dann aber trotzdem wieder auf.
Es stimmt aber auch, dass viele Spiele das Problem offenbar überhaupt nicht triggern und auch mit Nvidia perfekt flüssig laufen. Es ist aber eine weitere Störquelle im System, auf die ich liebend gerne verzichte.
Kurios ist auch, dass Techpowerup MemTest64 bei mir nur mit verbauter Nvidia-Karte bzw. aktivem Treiber auch bei nur einem Bruchteil getesteter RAM-Gesamtmenge einige Programme wie mpv crashen ließ, während mit Radeon das System völlig normal weiter lief.
Mir fällt kein so ein Problem ein, das bei mir nicht irgendwie auf Nvidia zurückzuführen gewesen wäre. Und ganz komischer Zufall: Unter Linux genau das Gleiche.
dargo
2019-02-10, 20:50:16
Ich kann mit meinem Monitor nur Karten mit DVI-Output kaufen. Die gibts für Vega nur bei Asus, und eine Asus Vega 56 hatte ich bereits da. Taugte nix, ging zurück. Zufrieden? :rolleyes:
Da wirst du dich aber über kurz oder lang leider von deinem Monitor trennen müssen. Ich kann mir nicht vorstellen, dass neuere Grafikkarten noch einen DVI Ausgang bieten werden. Dieser Anschlussart ist praktisch tot.
Tesseract
2019-02-10, 20:57:42
Ja, in RotTR DX12 fiel es mir auch auf.
welche stelle?
aufkrawall
2019-02-10, 21:12:33
Da wirst du dich aber über kurz oder lang leider von deinem Monitor trennen müssen. Ich kann mir nicht vorstellen, dass neuere Grafikkarten noch einen DVI Ausgang bieten werden. Dieser Anschlussart ist praktisch tot.
Ich weiß. Wenn Navi in der ersten Iteration nur mit 8GB kommt, warte ich auf einen möglichen Refresh mit mehr VRAM. Dann gibts hoffentlich mehr Modelle mit DP 1.4 oder günstigere 1440p 144Hz IPS-Modelle.
welche stelle?
Geothermal Valley, unterhalb der Farm. Mit dem ersten 4xxer Treiber-Branch soll es Verbesserungen gegen das Problem allgemein gegeben haben. Keine Ahnung, ob andere Spiele darauf besser angesprochen haben als BF1.
Das alte BF4 stockt bei meinem Bruder in 4k mit 1060 + Gsync aber auch sporadisch sehr unschön. Ob das die gleiche Ursache hat, oder da wieder irgendwas mit Gsync kaputt ist, keine Ahnung. Mit Win 10 1607 liefen früher zumindest ohne Gsync die genannten Spiele immer sauber. Mit dem Gsync-Kompatibel-Treiber gabs dann aber ständig Deadlocks, deshalb nun 1809 mit Stockern...
Rampage 2
2019-02-10, 21:48:30
Da wirst du dich aber über kurz oder lang leider von deinem Monitor trennen müssen. Ich kann mir nicht vorstellen, dass neuere Grafikkarten noch einen DVI Ausgang bieten werden. Dieser Anschlussart ist praktisch tot.
Vor dem exakt gleichen Problem stehe ich gerade, seitdem ich seit einigen Tagen stolzer Besitzer einer 2070 bin - und noch einen Monitor Baujahr 2010 ohne DP-Anschluss (nur DVI, 1080p, TN) habe... :redface:
Genau deswegen überlege ich, einen neuen Thread aufzumachen über das Pro und Contra von DP-2-DVI-Kabeln oder -Adaptern... also ob die Bildausgabe dadurch verfälscht wird bzw. darunter leidet (Schärfe, Farbwiedergabe, Bildfrequenz, maximale Auflösung, etc.).
Wenn vernünftige GSync-Monitore nicht so arschteuer (700< Euro für 1440p, 2000< Euro für 4K) wären, hätte ich beim jetzigen HW-Upgrade auch einen 1440p-Monitor in Betracht gezogen:frown:
R2
Tesseract
2019-02-10, 22:04:03
Geothermal Valley, unterhalb der Farm. Mit dem ersten 4xxer Treiber-Branch soll es Verbesserungen gegen das Problem allgemein gegeben haben. Keine Ahnung, ob andere Spiele darauf besser angesprochen haben als BF1.
Das alte BF4 stockt bei meinem Bruder in 4k mit 1060 + Gsync aber auch sporadisch sehr unschön. Ob das die gleiche Ursache hat, oder da wieder irgendwas mit Gsync kaputt ist, keine Ahnung. Mit Win 10 1607 liefen früher zumindest ohne Gsync die genannten Spiele immer sauber. Mit dem Gsync-Kompatibel-Treiber gabs dann aber ständig Deadlocks, deshalb nun 1809 mit Stockern...
kann ich nicht nachvollziehen. wenn die settings so niedrig sind, dass ich mit ~120fps ins CPU-limit komme wird es spürbar unrunder (was natürlich zu erwarten ist), aber unter ~110fps ist das framepacing unauffällig. je nach kameraposition gehen die fps halt mal etwas runter, dann wieder etwas nach oben aber da sind keine sichtbaren stocker drin außer kurz nach dem laden.
auf der fiji im HTPC hingegen stockt es trotz durchgehenden 60fps im framecounter alle paar sekunden sichtbar, das kann aber an den unterschiedliche sync-optionen liegen (gsync/vsync off/165Hz vs. vsync on/TB/60Hz)
edit: vsync on/TB/60Hz auf pascal läuft gefühlt genau so wie auf der fiji, also merkbar schlechter als mit gsync, aber nichts pascal-spezifisches.
aufkrawall
2019-02-10, 22:35:28
Ja, muss, wie gesagt, nicht auf Knopfdruck provozierbar sein. Es muss zwar nicht diesem Problem zuzuordnen sein, aber verdächtigerweise ist es gar nicht mehr so ungewöhnlich, wenn die Frametimes mit AMD besser sind:
https://www.computerbase.de/2018-03/far-cry-5-benchmark-test/2/
https://www.computerbase.de/2018-08/f1-2018-benchmark/2/
https://www.gamersnexus.net/hwreviews/3437-amd-radeon-vii-review-not-ready-for-launch
Kann mich nicht erinnern, wann das vor den Creators Updates jemals der Fall gewesen sein soll, so lange die Nvidias nicht am VRAM verhungerten (Edit: Oder der DX12-Treiber rumzickte.).
Tesseract
2019-02-10, 23:08:05
ich sehe da ehrlich gesagt kein pattern. in F1 ist amd besser, etwas weiter unten im artikel kacken sie dafür in sottr total ab und wenn die engine von FC5 noch der selbe dreck ist wie in FC3 und FC4 wären die frametimes sofort deutlich besser wenn sie im bios HT abgeschalten hätten. :freak:
aufkrawall
2019-02-10, 23:13:42
?
Da sind gar keine Frametimes für SotTR angegeben und die 580 ist bei den Low-fps knapp über 1060-Niveau.
Tesseract
2019-02-10, 23:18:06
die VII ist bei den min deutlich unter der 2080/1080ti und die v64 deutlich unter der 1080, wie da die frametimes aussehen kann man sich wohl denken.
aufkrawall
2019-02-10, 23:23:28
Hier spiked die GeForce ebenfalls mehr als die Vega, soviel zum Pattern:
OgQHY3-r1sg
dargo
2019-02-10, 23:33:12
Wenn vernünftige GSync-Monitore nicht so arschteuer (700< Euro für 1440p, 2000< Euro für 4K) wären, hätte ich beim jetzigen HW-Upgrade auch einen 1440p-Monitor in Betracht gezogen:frown:
Warum kein offiziell von NV freigegebener Freesync Bildschirm? Soll doch jetzt funktionieren.
Tesseract
2019-02-10, 23:43:06
Hier spiked die GeForce ebenfalls mehr als die Vega, soviel zum Pattern
ein paar ausschnitte cherrypicken ist kein pattern. ich sehe da sehr geringe unterschiede in einem kleinen teil des spiels, wobei der ganze benchmark bei GN das gegenteil andeutet, wahrscheinlich ist es in einem anderen teil des spiels also genau andersrum; und wenn man noch mehr spiele bzw. stellen miteinbezieht findet man wahrscheinlich noch viel mehr ausreißer für beide seiten. das sind viel zu wenige spiele bzw. szenen um irgendein pattern auszumachen, bis jetzt ist die aussage einfach confirmation bias.
dargo
2019-02-10, 23:55:27
Ähm Leute... ich will mich nicht unbedingt einmischen, aber ihr versteift euch da imho zu sehr auf alte Ergebnisse. Das alles kann heute mit neueren Treibern/Spielpatches wieder völlig anders aussehen. :)
aufkrawall
2019-02-10, 23:59:17
Auch 0,1% Low ist untauglich für einmalige Spikes. Anyhow, SotTR lief hier sowohl mit 1070 Ti als auch 580 anständig mit DX12.
Screemer
2019-02-11, 09:29:57
In dem Zusammenhang kann man auch immer wieder nur darum bitten, dass endlich auch wieder Verbrauchsmessungen des Gesamtsystems in Relation zum gpu-verbrauch gestellt werden. Höherer CPU-load führt halt an manchen Stellen nicht nur zu evtl. schlechteren Frametimes.
Die Theorie war ja, dass NVs Software für den Schedular nicht mit "moderner" Verarbeitung der Drawcalls klarkommt. Es ist aber nur ne Theorie. Und ich hab da nur mit der Ruckelei einen Zusammenhang hergestellt. Das steht aber alles auf sehr tönernen Füßen natürlich. Nichtsdestotrotz lohnt sich da ne tiefergehende Analyse.
dildo4u
2019-02-11, 20:36:03
1660 Ti soll am 22.2 kommen.
https://videocardz.com/newz/evga-geforce-gtx-1660-ti-xc-pictured
Rampage 2
2019-02-14, 03:46:54
Da ich seit über 'ner Woche glücklicher Besitzer einer RTX 2070 bin, drängt sich folgende Unklarheit wieder in meinem Kopf auf:
Das ist so nicht richtig es werden alle 64 ROPs benutzt. Richtig ist hingegen dass der effektive Pixeldurchsatz nicht mehr als 48 Pixel/Takt sein kann.
Ich hatte halt bis jetzt gelesen (oder verstanden;)), dass die restlichen ROPs (16 bei 1060, 2060, 1070 und 2070) nur noch bei MSAA einen Nutzen haben und ansonsten "brach" liegen, weil der effektive Pixeldurchsatz eigentlich weniger (48 statt 64, wie du schon erwähnt hast) ist wegen einem fehlenden GPC...
Es ist aber doch nicht so, dass MSAA oder andere Workloads die effektive Füllrate steigern (von 100.8 -> 134.4 Gpixel), nicht wahr?
Aber alles was mehr als 1 Takt braucht in den ROPs profitiert davon direkt, dazu gehört z.B. auch 4x32bit blend.
Es stimmt also, dass die vollen 64 ROPs auch jenseits von MSAA einen Nutzen/Mehrwert haben können? Kannst du das etwas detaillierter erläutern? Daher greife ich nochmal die Frage auf, die ich bereits zuvor gestellt hatte:
2.) Welche Grafik-Workloads fressen Pixel-Füllrate? Mir kommen da Schatten, Rauch, volumerische Effekte und Beleuchtung in den Sinn - hoffe, dass das jetzt kein Unsinn ist;)
Auch wüsste ich immer noch gerne, ob auch Supersampling (OGSSAA/Downsampling, TrSSAA, SGSSAA) von den vollen 64 ROPs Gebrauch macht:)
Ausserdem hängt von den ROPs auch interne (L2) Bandbreite ab, mehr ROPs sind also sicher nützlich - ich schätze mal 3x16 Pixel Rasterization sind nicht wirklich eine grosse Einschränkung.
Naja, der effektive Pixeldurchsatz ist bei der 1080 ganze 33% höher als bei der 2070 - könnte das nicht in bestimmten Szenarien zum Nachteil für die 2070 werden?
R2
aufkrawall
2019-02-14, 11:04:00
Die Qualität ist einfach zu schlecht.
Und BF5 und Metro schlagen weiter eindrucksvoll in diese Kerbe. Statt Überschärfung gibts jetzt, willkürlich von irgendjemandem festgelegt, völligen Matsch. Wenn ich sehe, wie gut das dynamische Upscaling + TAA in Apex Legends funktioniert, hab ich absolut 0,0 Verlangen nach DLSS.
reaperrr
2019-02-14, 13:08:33
Ich hatte halt bis jetzt gelesen (oder verstanden;)), dass die restlichen ROPs (16 bei 1060, 2060, 1070 und 2070) nur noch bei MSAA einen Nutzen haben und ansonsten "brach" liegen, weil der effektive Pixeldurchsatz eigentlich weniger (48 statt 64, wie du schon erwähnt hast) ist wegen einem fehlenden GPC...
Bei der 2060 sind alle 3 GPCs aktiv (sonst wären nicht mehr als 1536 SP drin), aber nur 48 ROPs (wegen des teil-deaktivierten SI, das an die ROPs gekoppelt ist).
Bei der 2060 sind GPC-Zahl und ROP-Zahl also passend ausbalanciert, bei der Karte liegt nichts brach.
Troyan
2019-02-14, 13:09:07
Unsinn. Hier von PCGH (zusammengeklaut von einer russischen Seite):http://www.pcgameshardware.de/commoncfm/comparison/indexb2.cfm?id=151775
Ohne die massive Unschärfe, wäre die Glattung sogar besser gegenüber 1080p. Hier müsste man mal ein Vergleich mit dem Nachschärfen machen.
TAA funktioniert nicht wirklich in niedrigen Auflösungen.
mironicus
2019-02-14, 13:21:11
Die DLSS-Vergleichsbilder erinnern mich irgendwie an früheren Vergleichen von PC/Xbox 360-Versionen.
Rancor
2019-02-14, 13:24:17
DLSS ist in BF V völliger Müll atm. Selbst in WQHD blurrt es wie scheisse. In FFXV ist es dagegen sehr geil mMn. zumindest in Kombi mit DSR.
aufkrawall
2019-02-14, 13:24:43
TAA funktioniert nicht wirklich in niedrigen Auflösungen.
Gutes TAA bringt auch in niedrigeren Auflösungen eine massive Bildberuhigung. Ist nur die Frage, ob man den Detailverlust ab kann. Mit dem qualitativ gutartigen Nachschärfen in Doom ist es sicherlich eine Bereicherung vs. kein AA oder Schrott-MSAA.
AffenJack
2019-02-14, 19:52:16
Gibt erste Bilder vom TU116 Die:
https://videocardz.com/80034/msi-geforce-gtx-1660-ti-ventus-xs-and-tu116-gpu-pictured
Grob gerechnet anhand der bekannten Größe von GDDR6 sieht das nach einem Die mit etwas unter 300 mm² aus.
Zum vergleich Pascal:
314 mm² GP104 vs 200 mm² GP106 bei Halbierung der Shader und Verringerung des SI um 64 Bit. GP104 also 57% größer als GP106.
Turing:
545 mm² TU104 vs ~295 mm² TU116 bei Halbierung der Shader und Verringerung des SI um 64 Bit. TU104 85% größer als TU116. Ausgehend von TU116 hätte bei gleicher Skalierung wie Pascal TU104 nur etwa 465 mm² groß sein sollen. 80 mm², bzw 17% des Diesizeanstiegs durch zusätzliche Features wie RT Cores. Frage ist ob TU116 nicht auch halbierte Register oder andere Abspeckungen hat, soviel Diesize nur für RT Cores wäre schon extrem.
reaperrr
2019-02-15, 14:49:39
Gibt erste Bilder vom TU116 Die:
https://videocardz.com/80034/msi-geforce-gtx-1660-ti-ventus-xs-and-tu116-gpu-pictured
Das PCB bietet eindeutig Platz für 8 Speicherchips.
Da es zu klein für TU106 ist, kann das eigentlich nur heißen, dass TU116 im Vollausbau eigentlich ein 256bit SI hätte, aber aus Yield- und Kosten-Gründen auch bei der Ti 1/4 davon deaktiviert wird.
Da würde mich mal brennend ein Die-Shot vom Chip interessieren, um das zu bestätigen...
robbitop
2019-02-15, 18:26:13
Oder ne 8 gb 128 bit Version.
dargo
2019-02-15, 18:32:36
Oder ne 8 gb 128 bit Version.
Das wäre dann aber auch wieder etwas Banane im Vergleich zu einer 2060 mit 6GB.
reaperrr
2019-02-15, 20:35:03
Oder ne 8 gb 128 bit Version.
Dazu müsste man die Anbindung je Chip halbieren, denn die sind standardmäßig 32bit pro Speicherchip breit.
Extrem unwahrscheinlich, wenn es technisch überhaupt möglich ist.
robbitop
2019-02-15, 20:38:46
Du kannst bei gddr 2 Speicherchips an den gleichen Kanal hängen. Iirc. Clamshell mode.
Oder ggf 8x 512mb chips?
Gibt erste Bilder vom TU116 Die:
https://videocardz.com/80034/msi-geforce-gtx-1660-ti-ventus-xs-and-tu116-gpu-pictured
Grob gerechnet anhand der bekannten Größe von GDDR6 sieht das nach einem Die mit etwas unter 300 mm² aus.
Zum vergleich Pascal:
314 mm² GP104 vs 200 mm² GP106 bei Halbierung der Shader und Verringerung des SI um 64 Bit. GP104 also 57% größer als GP106.
Turing:
545 mm² TU104 vs ~295 mm² TU116 bei Halbierung der Shader und Verringerung des SI um 64 Bit. TU104 85% größer als TU116. Ausgehend von TU116 hätte bei gleicher Skalierung wie Pascal TU104 nur etwa 465 mm² groß sein sollen. 80 mm², bzw 17% des Diesizeanstiegs durch zusätzliche Features wie RT Cores. Frage ist ob TU116 nicht auch halbierte Register oder andere Abspeckungen hat, soviel Diesize nur für RT Cores wäre schon extrem.
Er bleibt auch ohne RT riesig. Das ist fast so groß wie GP104.
dildo4u
2019-02-16, 09:38:15
Der Kostenfaktor wird eher der VRam sein,GP104 wird mittlerweile auch als 1060 verkauft.
https://geizhals.de/?cat=gra16_512&xf=9810_7+3855+-+GTX+1060+(GDDR5X)&sort=t&hloc=at&hloc=de&v=e
Bleibt ja wahrscheinlich auch gleich. 6GB GDDR6 kosten sicherlich sogar etwas mehr als 8GB GDDR5.
Freestaler
2019-02-17, 09:45:43
https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-your-questions-answered/ scheint so, als ob auch Nvidia den Handlungsbedarf sieht bei Dlss unterhalb 4k. Dlss funtkioniert also vermutlich doch nicht einfach mit einem angelernten Bildfluss in einer höheren Auflösung (war eine annahme hier im Forum) und gut ist. Es scheint spezifischer, und somit komplett abhängig zu sein von den "programmierten" Settings. Argh. Ergo sehe ich kein gute Zukunft. Gibts Bestrebungen welche das Anlernen ohne NV ermöglichen?
fondness
2019-02-17, 09:51:36
NV liefert seit vielen Jahren immer wieder neue AA Methoden und alle haben sie dasselbe Problem, sie blurren wie sau. Ich verstehe nicht, warum das dort keinem auffällt bzw stört.
robbitop
2019-02-17, 09:53:25
Bei Metro Exodus sehen wir wieder enttäuschende Ergebnisse bzgl BQ von DLSS. Unscharf und temporal wesentlich instabiler. Allerdings, deutlich mehr fps Gewinn als in FF15. Aber dafür bekommt man leider auch deutlich weniger BQ. Die Wunderwaffe ist dlss (nach heutigem Stand) leider nicht.
NV liefert seit vielen Jahren immer wieder neue AA Methoden und alle haben sie dasselbe Problem, sie blurren wie sau. Ich verstehe nicht, warum das dort keinem auffällt bzw stört.
Ja die TXAA Implementierungen, die ich in Spielen getestet habe, fand ich auch allesamt enttäuschend. Unscharf und temporal verglichen zu den besten TAA Implementierungen deutlich schlechter. Trotz zusätzlicher msaa Komponente. Somit auch noch teurer.
Troyan
2019-02-17, 09:54:31
https://www.nvidia.com/en-us/geforce/news/nvidia-dlss-your-questions-answered/ scheint so, als ob auch Nvidia den Handlungsbedarf sieht bei Dlss unterhalb 4k. Dlss funtkioniert also vermutlich doch nicht einfach mit einem angelernten Bildfluss in einer höheren Auflösung (war eine annahme hier im Forum) und gut ist. Es scheint spezifischer, und somit komplett abhängig zu sein von den "programmierten" Settings. Argh. Ergo sehe ich kein gute Zukunft. Gibts Bestrebungen welche das Anlernen ohne NV ermöglichen?
Hä? nVidia lernt es an. Spielentwickler müssen DLSS nur integrieren. Damit hat es mehr Zukunft als alle anderen Techniken.
Die Unschärfe in BF5 und Metro liegt wohl einfach am Zeitdruck. Beide Spiele sollten nie DLSS erhalten. Weder im Port Royal noch Final Fantasy 15 gibt es ähnliche Probleme.
Das Problem ist, dass DLSS ja sogar den Stil verändert, lt. PCGH jedenfalls. Das geht natürlich gar nicht.
Vielleicht werden Games auf den neuen Konsolen extra dafür designt, das wär dann wieder was anderes.
unl34shed
2019-02-17, 10:01:25
Ja was denn? Einfach nur anlernen oder doch noch deutlich mehr Arbeit mit Optimierungen?
Troyan
2019-02-17, 10:07:34
TAA verändert genauso den Stil eines Spiels.
Ja was denn? Einfach nur anlernen oder doch noch deutlich mehr Arbeit mit Optimierungen?
Der Anlernprozess passiert bei nVidia. Die Integration und eventuell Nachschärfen beim Spiel. Hätte Metro ein Schärferegler, wäre alles in Ordnung.
robbitop
2019-02-17, 10:17:58
Das Problem ist, dass DLSS ja sogar den Stil verändert, lt. PCGH jedenfalls. Das geht natürlich gar nicht.
Vielleicht werden Games auf den neuen Konsolen extra dafür designt, das wär dann wieder was anderes.
Bisher sieht man IMO aus Perf/BQ Sicht die Implementierung des ML Upsamplings eher hinter bereits praktizierten Implementierungen von modernen temporalen Upsamplingmethoden und Checkerboardrendering.
Da ML upsampling noch sehr jung ist und die anderen Methoden schon einige Zeit reifen konnten, ist das Potential von ersterem natürlich schwer abschätzbar. Ggf überholen diese Methoden ja die bisherigen. Ggf auch nicht. Aus heutiger Sicht sind die Ergebnisse noch etwas zu unbeedruckend.
TAA verändert genauso den Stil eines Spiels.
[...]
Du würdest echt alles behaupten um NV zu verteidigen :freak:
robbitop
Jo das ist klar. DLSS ist der blutige Anfang. Interessant wirds eh erst, wenn die Konsolenhersteller damit anfangen.
Freestaler
2019-02-17, 10:38:49
Hä? nVidia lernt es an. Spielentwickler müssen DLSS nur integrieren. Damit hat es mehr Zukunft als alle anderen Techniken.
Die Unschärfe in BF5 und Metro liegt wohl einfach am Zeitdruck. Beide Spiele sollten nie DLSS erhalten. Weder im Port Royal noch Final Fantasy 15 gibt es ähnliche Probleme.
Wieso wieder dieser Absolutismus? Wie soll es mehr Zukunft haben, als Upsacling techniken, welche keine Abhängigkeit zwischen Entwickler des Game und Entwickler des Treiber haben? Du warst doch bereits einer, welcher sagt das kleinere bzw. andere Zieläuflösung kein Problem darstellt, da die AI "weiss" wie das Bild aussehen muss. Und damit lagst bereits du falsch. Selbst NV sieht anders als du (liess den NV Blog). Auch beisst sich dein Aussage; kaum Aufwand aber die Zeit fehlt.. turing und bfv (beta) sind nun bald 6 monate am start
Troyan
2019-02-17, 11:16:58
Du scheinst nur halbherzig zu lesen und dann Schlüsse daraus zu schließen. Der zeit- und ressourcenintensive Teil von DLSS geschieht bei nVidia. Das hat nichts mit dem Entwickler des Spiels zu tun. Wieviel Aufwand nVidia betreiben muss, um ein vernünftiges Ergebnis liefern zu können, kann keiner von uns hier sagen. Anscheinend muss es jedoch immens sein, wenn man sieht, dass die angekündigten Spiele von August weiterhin MiA sind.
Woher du dann den Unsinn mit den "Zielauflösungen" herholst, ist wohl auch dein Geheimnis. DLSS wird immer mit einer festen Anzahl an Pixel angelernt. Also 3,5 Millionen für Zielauflösung 2160p. Je mehr Auflösungen unterstützt werden sollen, umso größer wird der Aufwand, da speziell auf die Zielauflösungen trainiert werden muss. Anderenfalls existiert im Grunde nur DLSS 2x. Aber das ist seit August auch bekannt.
Freestaler
2019-02-17, 11:41:16
@Troyan, du sagt doch, das nicht 4k sondern das xfache angelernt/trainiert wird. Wieso muss jetzt doch plötzlich die Zieläuflösung angelernt werden. https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11800170&postcount=8947 .. lies mal deine post in diesem Thread. Du wiedersprichst dir doch selbst. Auch was der Aufwand betrifft.
aufkrawall
2019-02-17, 12:02:40
Na super, die Hardware ist einfach zu lahm für DLSS @ hohe fps. :freak:
Hatte man vorher wohl mal wieder "vergessen" zu erwähnen...
dargo
2019-02-17, 12:10:48
Die Unschärfe in BF5 und Metro liegt wohl einfach am Zeitdruck. Beide Spiele sollten nie DLSS erhalten. Weder im Port Royal noch Final Fantasy 15 gibt es ähnliche Probleme.
FF15 ist kein Masstab, das TAA ist Grütze. Keine Ahnung warum das nicht in deinen Kopf geht. Gleiches gilt übrigens für den 3DMark. Die UE4 Demo Infiltrator übrigens auch.
Troyan
2019-02-17, 12:21:15
@Troyan, du sagt doch, das nicht 4k sondern das xfache angelernt/trainiert wird. Wieso muss jetzt doch plötzlich die Zieläuflösung angelernt werden. https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11800170&postcount=8947 .. lies mal deine post in diesem Thread. Du wiedersprichst dir doch selbst. Auch was der Aufwand betrifft.
Nicht die Zielauflösung. Lies dir das ganze von vorne durch. Es wird solange trainiert, bis das Ergebnis +- Zielauflösung/TAA entspricht. Das ist jedoch mit einem erhöhten Zeitaufwand verbunden. Es macht kein Sinn gegen die Zielauflösung zu trainieren, weil die Zielauflösung ja nicht die bestmögliche Qualität darstellt.
Je kürzer man trainiert, je schlechter die Annäherung sein kann, umso schlechter ist die Qualität. Das wiederum spart Zeit.
Fragman
2019-02-17, 13:04:46
FF15 ist kein Masstab, das TAA ist Grütze. Keine Ahnung warum das nicht in deinen Kopf geht. Gleiches gilt übrigens für den 3DMark. Die UE4 Demo Infiltrator übrigens auch.
Genau deshalb muss man abwarten.
Jedesmal, wenn man positive DLSS Beispiele nennt, kommt immer genau das, "aber genau in den Beispielen ist das TAA Mist".
Vielleicht geht es am Ende genau darum? Weil TAA Mist ist, schaut DLSS einfach besser aus? Das muss man für den Moment hinnehmen. Metro muss dann zeigen, ob DLSS die Versprechen halten kann in bezug auf Glättung und Schärfe. Die aktuelle Integration war ja anscheinend nur ein Schnellschuss und BFV sieht ja ähnlich aus.
dargo
2019-02-17, 13:19:53
Genau deshalb muss man abwarten.
Jedesmal, wenn man positive DLSS Beispiele nennt, kommt immer genau das, "aber genau in den Beispielen ist das TAA Mist".
Nun... wenn ich die Spiele der letzten ~2 Jahre so überblicke dann war das TAA mehr in Ordnung als Grütze. Mir fallen da spontan Doom, The Division 1 und 2, Wolf 2, Farcry 5, AC: O (das neuere), BFV, For Honor ein. Ich meine das TAA in der UE4 Demo wäre auch zu gebrauchen. Da fehlt nur ein interner Schärfefilter. Gibts eigentlich in den aktuellen UE4 Games einen Schärfefilter? Ich habe hier kaum was mit UE4 auf den SSDs. Wobei... GOW4 ist ja UE4. Das müsste dann auch TAA haben. Ich meine dort war die Bildschärfe auch ok.
Freestaler
2019-02-17, 13:33:10
Nicht die Zielauflösung. Lies dir das ganze von vorne durch. Es wird solange trainiert, bis das Ergebnis +- Zielauflösung/TAA entspricht. Das ist jedoch mit einem erhöhten Zeitaufwand verbunden. Es macht kein Sinn gegen die Zielauflösung zu trainieren, weil die Zielauflösung ja nicht die bestmögliche Qualität darstellt.
Je kürzer man trainiert, je schlechter die Annäherung sein kann, umso schlechter ist die Qualität. Das wiederum spart Zeit.
"Nicht die Zielauflösung. Lies dir das ganze von vorne durch. Es wird solange trainiert, bis das Ergebnis +- Zielauflösung/TAA ". -> Für jede Zielauflösung muss das Training separat stand finden. Die AI "weiss" nicht wie es besser aussehen soll, es wurde schlicht nicht genug "Samples" hinterlegt. Du warst doch der Meinung, dass DLSS besser als das Ziel aussehen kann, weil die AI weiss wie es 4k+++ aussieht (deine Aussage). Wieso vergisst DLSS dies nun? DLSS ist rein ein Upscaling und wird nie besser sein als das original. Um gemäss dem Blog, ist nicht mal ein Features, welches der Graka helfen soll, länger "zu" leben da es uns ermöglich die gleiche Karte länger zu benutzen. DLSS ist für die schnellsten (2080Ti) in 4k gedacht.
-> Aus meiner Sicht ist DLSS jetzt bereits TOT. Den Aufwand wird NV nicht mehr tätigen wenn DLSS kein "Highlight" Features mehr ist. Denn er würde, wenn er den wirklich je so perfekt funktionieren sollte, die Kunde vom Kauf neuer Graka abhalten, da sie wegen der Leistung keine neuen Kaufen müssen. Und ich denke NV und Gamestudios wissen das. Oder wieso gibts 6 Monate nach Release gerade 4 Games mit DLSS? Ps: Wenn das DLSS anlernen im mehrere Monate dauert ist ebenso jeweils tot.
Troyan
2019-02-17, 13:40:51
Du solltest aufhören dir Dinge einfach auszudenken. DLSS weiß mehr über den Frame als TAA, da TAA nur mit vorigen Frames und den Umgebungsfarbwerten arbeitet. DLSS wird dagegen mit höher aufgelösten Bildern trainiert.
DLSS kann besser aussehen, da gewisse "Grafiken" solange trainiert werden, bis DLSS diese rekonstruieren kann. Das ist für TAA unmöglich. Ein Beispiel sind Linien (z.B. sehr feine Geometrie). Daran scheitert TAA einfach und vor Allem in kleineren Auflösungen.
Anderes Beispiel sind die Reflektionen in BF5 in Fensterscheiben, die ein geringeres "Ghosting" aufzeigen.
Ein Beispiel sind Linien (z.B. sehr feine Geometrie). Daran scheitert TAA einfach und vor Allem in kleineren Auflösungen.
Daran scheitert DLSS momentan auch. Kann sein, dass sich das irgendwann mit anderen Netztopologien ändert....
Imo hat Nvidia bei der Umsetzung der Idee übertrieben. Hätte man es wirklich als AA ohne massive Auflösungserhöhung angeboten, würde wir vielleicht wirklich besseres AA als TAA bekommen.
Freestaler
2019-02-17, 13:56:41
Troyan, was denke ich mir den aus? Wenn es eine Vermutung/Meinung ist, dann habe ich dies klar als solches definiert. Und wieso hat jetzt DLSS in BFV bei kleiner als 4k vergessen wie das bessere Bild aussieht/trainiert wurde? Ps: der "kann" Formulierung kann man zustimmen. Es kann stellenweise das besser Upscaling sein, nur mMn. Nicht das "korrektere" Bild.
Tesseract
2019-02-17, 13:59:24
deep learning ist nichts was man einfach nur ein- oder ausschaltet. sowohl training als auch die inferencing-leistung haben einen entscheidenden einfluß auf das ergebnis. von ein paar wenigen ersten implementierungen auf die ganze methode zu schließen total kurzsichtig, das ist als würde man im jahr 2001 sagen "shader sind tot" weil die ersten zwei spiele hässliche wassershader haben.
dargo
2019-02-17, 14:11:29
deep learning ist nichts was man einfach nur ein- oder ausschaltet. sowohl training als auch die inferencing-leistung haben einen entscheidenden einfluß auf das ergebnis. von ein paar wenigen ersten implementierungen auf die ganze methode zu schließen total kurzsichtig, das ist als würde man im jahr 2001 sagen "shader sind tot" weil die ersten zwei spiele hässliche wassershader haben.
Wenn man erst ein Jahr oder gar mehr nach Release von Spielen brauchbare Ergebnisse liefern kann dann ist der Zug bereits abgefahren, zumindest für die Masse der Spieler. Und wer bezahlt eigentlich die ganzen Supercomputer? Ich glaube kaum, dass Lederjacke so spendabel ist, dass das ganze zum Nulltarif für die Kunden funktioniert. Ergo wälzt man den finanziellen Mehraufwand wieder auf die Gamer ab.
Fragman
2019-02-17, 14:16:57
Ergo wälzt man den finanziellen Mehraufwand wieder auf die Gamer ab.
Ein Hersteller gibt die Kosten immer an die Kunden weiter, zu verschenken hat er nichts.
Tesseract
2019-02-17, 14:21:19
Wenn man erst ein Jahr oder gar mehr nach Release von Spielen brauchbare Ergebnisse liefern kann dann ist der Zug bereits abgefahren
bei shadern hat es mehrere generationen gedauert bis diese fixed function sinnvoll ersetzen konnten. async compute ist ein moderneres beispiel für eine technik die prinzipiell sinn macht, sich aber auch jahrelang nicht flächendeckend durchgesetzt hat. mir ist nicht ganz klar auf was du eigentlich hinaus willst. DL wird höchstwahrscheinlich in der hardware bleiben und da ausnahmslos alle GPUs auf dem markt mit 4k überfordert sind macht DL-upscaling prinzipiell sinn.
dargo
2019-02-17, 14:24:00
DL wird höchstwahrscheinlich bleiben und da ausnahmslos alle GPUs auf dem markt mit 4k überfordert sind macht DL-upscaling prinzipiell sinn.
Was ein beknackter Grund. Für höchste Auflösung waren GPUs schon immer zu langsam. Irgendwann passt es wenn Hardware schnell genug ist. Beim Monitorkauf Kopf einschalten, dann passt es auch.
Troyan
2019-02-17, 14:25:41
Daran scheitert DLSS momentan auch. Kann sein, dass sich das irgendwann mit anderen Netztopologien ändert....
Imo hat Nvidia bei der Umsetzung der Idee übertrieben. Hätte man es wirklich als AA ohne massive Auflösungserhöhung angeboten, würde wir vielleicht wirklich besseres AA als TAA bekommen.
Feine Geometrie scheint aber nicht das Problem zu sein. Eher haperts es an der Rekonstruktion von Texturdetails.
Soweit ich es auch sehe, funktioniert DICEs TAA nicht bei Reflektionen in Fensterscheiben. Da ist DLSS Lichtjahre besser (bessere Glättung und viel stabiler).
Tesseract
2019-02-17, 14:28:57
Was ein beknackter Grund. Für höchste Auflösung waren GPUs schon immer zu langsam. Irgendwann passt es wenn Hardware schnell genug ist.
"irgendwann", lol. jahrelang war 1080p/60Hz das gängigste format und das war selbst auf midrange-karten häufig problemlos drin. an 4k/60 beißen sich aber selbst >1000€ grakas die zähne aus. 4k in voller auflösung zu rendern ist in vielen fällen einfach unsinnig weil die balance nicht stimmt.
aufkrawall
2019-02-17, 14:30:35
Soweit ich es auch sehe, funktioniert DICEs TAA nicht bei Reflektionen in Fensterscheiben.
Klingt eher nach suboptimaler RTX-Integration.
dargo
2019-02-17, 14:35:16
"irgendwann", lol. jahrelang war 1080p/60Hz das gängigste format und das war selbst auf midrange-karten häufig problemlos drin.
Ich habe nichts von gängiger Auflösung geschrieben sondern von der höchsten. Gängig ist heute 4k auch nicht.
Tesseract
2019-02-17, 14:35:56
4k ist das neue 1080p und macht jetzt schon einen größeren anteil aus als es z.B. 1440p jemals hat.
Timbaloo
2019-02-17, 14:38:46
Wenn man Fernseher für Konsolen betrachtet, dann mag das so sein. Am PC ist das Humbug.
dargo
2019-02-17, 14:39:00
4k ist das neue 1080p und macht jetzt schon einen größeren anteil aus als es z.B. 1440p jemals hat.
Ist klar. Du wirst mir auch sicherlich eine Quelle für deine These liefern können.
Daredevil
2019-02-17, 14:53:24
AMD und Nvidia sprechen selber davon, dass der nächste PC-Gaming Schritt von 1080p/60fps auf 1440p/144fps ist. 4K ist aufgrund des gleichzeitigen steigends der Refresh Rate so halt nicht machbar.
60hz war für richtiges Gaming schon immer kacke, für Nutzer eines 120/200hz CRT Monitors war das ganze einfach ein riesen Rückschritt früher.
Für Office o.ä. ist 4k ja ein Klacks.
aufkrawall
2019-02-17, 15:03:13
Für Office o.ä. ist 4k ja ein Klacks.
Eigentlich nicht, oder man muss eine so kleine Diagonale haben, dass man direkt 2x Scaling fahren kann. Sonst sehen die Schriften wegen Windows' Deppen-Scaling eher schlechter aus als mit 1440p ohne Scaling, und vor allen Dingen furchtbar inkonsistent bez. Schärfe/Unschärfe.
Tesseract
2019-02-17, 15:14:37
Ist klar. Du wirst mir auch sicherlich eine Quelle für deine These liefern können.
dieses jahr wurden wohl >100 mio. (https://www.statista.com/chart/15377/worldwide-4k-tv-sales/) 4k panels verlauft, 1440p existiert nur auf monitoren und hat selbst da und selbst auf steam nur einen market share von <4%. die panelhersteller arbeiten alle an 4k panel HDR panel wärend die 1440p-entwicklung scheinbar(?) weitgehend eingestellt wurde. gab es in den letzten paar jahren überhaupt neue 1440p panel? wenn ich das richtig sehe ist das panel der CxxHxxx-serie von samsung aus 2017 nach wie vor das zeitlich aktuellste panel am markt. es ist vollkommen klar wohin die reise in den nächsten paar jahren geht.
4k ist das neue 1080p und macht jetzt schon einen größeren anteil aus als es z.B. 1440p jemals hat.
Realitätscheck über Steam:
https://abload.de/img/resmoj4d.jpg
Eigentlich ist 1440p ein ziemlich guter Sweetspot im Moment. Man liegt genau in der Mitte zwischen 1080p und 4k. Man bekommt für den halben Performanceaufwand aber wesentlich mehr als die Hälfte des Bildqualitätszugewinns.
dargo
2019-02-17, 15:24:49
dieses jahr wurden wohl >100 mio. (https://www.statista.com/chart/15377/worldwide-4k-tv-sales/) 4k panels verlauft...
Willst du mich verkackeiern? Das Thema ist Gamingmonitore und nicht wieviele Monitore allgemein verkauft wurden!
Steam spricht da eine ganz andere Sprache.
https://abload.de/img/steamnikkj.jpg
Allerdings weiß ich selbst, dass Steam nicht unbedingt das gelbe vom Ei ist. Dennoch sagt mir mein gesunder Menschenverstand, dass 4k bei PC-Gamern eine Nische ist wenn man sieht wie hoch die Kosten bei der nötigen Grafikkarte sind.
1440p existiert nur auf monitoren und hat selbst da und selbst auf steam nur einen market share von <4%.
Lol... und die absolute Mehrheit mit 60% bei den 1080p Bildschirmen blendest du natürlich komplett aus. :uup: Dagegen sehen die 1,5% bei 4k blendend aus. ;D
Edit:
Zu langsamm...
Tesseract
2019-02-17, 15:33:14
Das Thema ist Gamingmonitore und nicht wieviele Monitore allgemein verkauft wurden!
das thema ist nicht gaming-monitore sondern DLSS bzw. DL-scaling allgemein und so etwas entwickelt man nicht für den ist-zustand einer marktnische sondern zukunftstrends des ganzen marktes.
dargo
2019-02-17, 15:38:36
:facepalm:
DLSS bringt natürlich viel dem Non-Gamer.
Tesseract
2019-02-17, 15:52:27
ok, nochmal ganz langsam für dich:
- 1080p ist die mit abstand gängigste auflösung unter spielern
- markttrends/entwicklungen/vorstellungen/etc. legen nahe, dass 4k 1080p in zukunft ablösen wird, auch unter gamern.
- 4k stellt für die gaming-hardware ein deutlich größeres problem dar als 1080p das bisher tat.
ergo macht es sinn an technologien zu forschen die deses problem angehen und DL-scaling ist ein ansatz dafür.
Ex3cut3r
2019-02-17, 16:02:44
Das DLSS ist vermutlich auch einfach noch nicht perfekt, ich glaube nicht das die AI bisher viel mit 1080p am Hut hatte, ich kann mir vorstellen, dass bisher eher 4K gefüttert wurde, bei 3440x1440 (21:9) sieht DLSS übrigens schlimmer aus, als bei 2560x1440, vermutlich weil die AI damit auch noch nicht so oft gefüttert wurde. Also ich meine jetzt speziell in Metro Exodus.
dargo
2019-02-17, 16:14:42
- markttrends/entwicklungen/vorstellungen/etc. legen nahe, dass 4k 1080p in zukunft ablösen wird, auch unter gamern.
In welcher Zukunft? 2-3 Jahre oder eher 5-7 Jahre? Oder gar länger? Dass sich 4k in naher Zukunft bei PC-Gamern deutlich stärker verbreitet, daran glaube ich nicht. Spätestens mit den nächsten Konsolen mit bis zu 12 TFLOPs (2020-2021) ist das Geheule wieder groß, dass die Leistung der eigenen High-End Grafikkarte nicht mehr reicht. Und dann hast du mit einem 4K Bildschirm wieder größere Probleme. Und sorry, aber in DLSS sehe ich keine Zukunft. Wird es einen Standard geben den sowohl Nvidia als auch AMD (demnächst auch Intel) und vor allem die Konsolen verwenden können dann wird sich sicherlich eine entsprechende Technik durchsetzen. Alles andere ist Wunschdenken.
btw.
Was hatten wir nicht schon alles von Nvidias exklusiven Features? MFAA, TXAA... beides tot. GPU-Physik... eigentlich auch schon tot. Ich lass euch aber eure Träume. ;)
rentex
2019-02-17, 16:34:08
@dargo: Kann ich nur zustimmen. NV will nur wieder was eigenes durchdrücken. Es wird wie immer, von wenig Erfolg gekrönt sein. Wir werden eher in mindestens 4 Jahren, 4K als Standardauflösung sehen.
dargo
2019-02-17, 16:52:09
@dargo: Kann ich nur zustimmen. NV will nur wieder was eigenes durchdrücken. Es wird wie immer, von wenig Erfolg gekrönt sein.
Nvidia ist gar nicht in der Position beim Gaming langfristig was durchzudrücken seit dem sie die Konsolendeals "abgelehnt" haben. Abgelehnt ist hier natürlich die falsche Wortwahl. Die können einfach nichts vergleichbares als SoC liefern, auch wenn sie wollten. Das wollen hier nur viele nicht wahr haben. Die beiden Konsolen von MS und Sony (aktuell eher vier insgesamt) sind nun mal die treibende Kraft beim Gaming. Auch das können/wollen einige nicht verstehen.
x-force
2019-02-17, 16:54:49
es sollte auch wesentlich effizienter sein an techniken zu arbeiten, die informationen der engine nutzen und darüber das bild verbessern. ich finde den gedanken an sich relativ absurd, erst undersampling über zu billige shader zu machen, um dann wieder teueres upscaling zu benötigen, weil es sonst flimmert, oder viel zu geblurt aussieht.
Ex3cut3r
2019-02-17, 17:17:47
Nvidia ist gar nicht in der Position beim Gaming langfristig was durchzudrücken seit dem sie die Konsolendeals "abgelehnt" haben. Abgelehnt ist hier natürlich die falsche Wortwahl. Die können einfach nichts vergleichbares als SoC liefern, auch wenn sie wollten. Das wollen hier nur viele nicht wahr haben. Die beiden Konsolen von MS und Sony (aktuell eher vier insgesamt) sind nun mal die treibende Kraft beim Gaming. Auch das können/wollen einige nicht verstehen.
Ja und deswegen ist AMD Marktführer unter PC Spielern und liefert auch die schnellsten Karten?
dargo
2019-02-17, 17:21:44
Ja und deswegen ist AMD Marktführer unter PC Spielern und liefert auch die schnellsten Karten?
Und was hat das Nvidia bisher gebracht? Nichts... selbst bei Freesync bzw. A-Sync sind sie eingenickt wo dieses Feature hauptsächlich am PC verwendet wird. Bis alle Konsolen das verwenden dauerts noch ein wenig. Wenn man den gesamten Gamingmarkt betrachtet ist eher AMD der Marktführer. ;)
pixeljetstream
2019-02-17, 17:47:58
Und was hat das Nvidia bisher gebracht? Nichts...
du meinst nichts außer nen Haufen Kohle ;)
dargo
2019-02-17, 17:49:12
Ich meine, dass von den Features im Alleingang nichts geblieben ist. Kohle kommt auch genug bei NV aus anderen Bereichen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11927308&postcount=287
Das hat sich nun dank Ryzen bei AMD auch geändert. Mal die nächste 5+ Jahre beobachten.
Loeschzwerg
2019-02-17, 17:51:14
Und? Sollen wir jetzt hier die versandeten Alleingänge von AMD/ATi auch noch aufzählen? Das führt doch zu nix...
dargo
2019-02-17, 17:57:50
Vielleicht mal richtig lesen? Ich sprach von Alleingängen die langfristig nichts bringen. Bei ATI war das Truform zu damaligen Zeit. Ist auch recht schnell von der Bildfläche verschwunden.
Troyan
2019-02-17, 18:02:03
So wie DX11-Tessellation? Oh wait, da wird ein Industriestandard ja vom DX10 Hardwarehersteller seit 2010 boykottiert.
Daher, so what? Soll nVidia Raytracing pushen. In ein paar Jahren wird jeder Indie-Entwickler per Unreal Engine oder Unity Raytracing-Spiele veröffentlichen. Sollen die Konsolen mit der nächsten DX10 Hardware ihre guten alten 200xer Spiele zocken.
Ich gehe nachher wieder Metro mit Raytracing und HDR spielen. Meine Lebenszeit ist mir mehr Wert als der ein oder andere Aufpreis für meine Hardware.
pixeljetstream
2019-02-17, 18:04:39
Worin genau besteht eigentlich der Alleingang. Technisch haben wir mit directML und dxr ja beides Mal Standards mit dem man die neuen Algorithmen umsetzen kann.
Das die Firma die das Geld zum Trainieren der Netzwerke ausgibt, dies für seine Kunden will ist doch normal. Das hindert aber nicht die Spielentwicklung daran solche Techniken einzusetzen oder das Training selbst zu machen (Sony, EA, Ubisoft etv. können das für ihre Studios hinkriegen). Wenn NV zeigen kann über das Jahr und mehrere Titel, dass sich der Aufwand lohnt, werden es Titel von sich aus machen, einfach weil die immer an neuen Verfahren zu upscaling, anti-aliasing etc. interessiert sind.
Alle wissen dass mit brute-force Ende im Gelände ist, wenn man 4k, hohe fps, und die Qualität steigern will, müssen neue Ansätze her, NN sind eben ein konkreter Versuch der zumindest im Ansatz vielversprechend scheint. Warum wird hier immer alles gleich zum Glaubenskrieg...
Ich stimme im übrigen zu dass PC gaming durch die PC-nahen Konsolen nicht komplett abzutrennen ist. Spieleentwickler werden imo auch langfristig auf beide Firmen gucken und denen Bedeutung zukommen lassen (und evtl dann bald 3 Firmen). Die Macht komplett einem der Hersteller hier anzudichten entspricht nicht der wirtschaftlichen Realität.
dargo
2019-02-17, 18:06:45
So wie DX11-Tessellation? Oh wait, da wird ein Industriestandard ja vom DX10 Hardwarehersteller seit 2010 boykottiert.
Du redest wieder wirres Zeug.
Ich gehe nachher wieder Metro mit Raytracing und HDR spielen. Meine Lebenszeit ist mir mehr Wert als der ein oder andere Aufpreis für meine Hardware.
Na so wichtig kann dir deine Lebenszeit nicht sein, wenn du sie mit Zocken verplemperst.
@pixeljetstream
Apropo Kohle... warum bringt NV bei der RTX-Serie keinen reinen Gamingchip wie das früher so üblich war? Stattdessen werden hier nur die Reste von den Profikarten verwertet. Sitzt das Geld im oberen Segment doch nicht mehr so locker? Oder war das diesmal nur eine Ausnahme?
Loeschzwerg
2019-02-17, 18:14:32
Vielleicht mal richtig lesen? Ich sprach von Alleingängen die langfristig nichts bringen.
Und? Wo ist jetzt meine Aussage falsch?
gravitationsfeld
2019-02-17, 18:33:31
Apropo Kohle... warum bringt NV bei der RTX-Serie keinen reinen Gamingchip wie das früher so üblich war? Stattdessen werden hier nur die Reste von den Profikarten verwertet. Sitzt das Geld im oberen Segment doch nicht mehr so locker? Oder war das diesmal nur eine Ausnahme?
Was ist denn bitte an den RTX-Chips "Profi"? Double-Precision-Durchsatz ist 1/32 selbst bei der 2080 Ti.
dargo
2019-02-17, 18:49:24
Die Preise. :D
Edit:
Sorry... falsch verstanden. Ich meine natürlich, dass die Gaming Chips diesmal im oberen Preissegment Resteverwertung der Quadro RTX Karten sind.
Edit 2:
Ich muss mich korrigieren, hab da was falsch im Kopf gehabt. GP102 war ja auch schon im Gaming-Sektor Resteverwertung von Quadro P6000. GP104 und abwärts waren nur reine Gamingchips.
deekey777
2019-02-17, 18:50:32
:popcorn:
Man erfindet immer irgendwas, um sich darüber aufzuregen.
rentex
2019-02-17, 18:53:39
Nvidia ist gar nicht in der Position beim Gaming langfristig was durchzudrücken seit dem sie die Konsolendeals "abgelehnt" haben. Abgelehnt ist hier natürlich die falsche Wortwahl. Die können einfach nichts vergleichbares als SoC liefern, auch wenn sie wollten. Das wollen hier nur viele nicht wahr haben. Die beiden Konsolen von MS und Sony (aktuell eher vier insgesamt) sind nun mal die treibende Kraft beim Gaming. Auch das können/wollen einige nicht verstehen.
Bezog das nur auf das PC Bereich, nicht Konsolen. Jetzt kommts mir erst: NV hat ja nix mehr im Konsolenbereich...😂
gravitationsfeld
2019-02-17, 18:58:27
Die Preise. :D
Edit:
Sorry... falsch verstanden. Ich meine natürlich, dass die Gaming Chips diesmal im oberen Preissegment Resteverwertung der Quadro RTX Karten sind.
Edit 2:
Ich muss mich korrigieren, hab da was falsch im Kopf gehabt. GP102 war ja auch schon im Gaming-Sektor Resteverwertung von Quadro P6000. GP104 und abwärts waren nur reine Gamingchips.
Hab jetzt nicht so den Eindruck, dass Raytracing als Profi-Feature geplant war und es dann Resteverwertung im Gaming-Bereich gab. Das war schon so geplant.
=Floi=
2019-02-17, 19:07:24
Bei Metro Exodus sehen wir wieder enttäuschende Ergebnisse bzgl BQ von DLSS. Unscharf und temporal wesentlich instabiler. Allerdings, deutlich mehr fps Gewinn als in FF15. Aber dafür bekommt man leider auch deutlich weniger BQ. Die Wunderwaffe ist dlss (nach heutigem Stand) leider nicht.
wo soll die steigerung denn auch herkommen? :rolleyes:
Das war doch vorher klar, dass irgendwas gefaked werden muß, um die fps zu steigern. Wenn ich vorher 100% pixel rendern muss und hinterher nur noch 90% kann ich die fps steigern, absonsten wären die fps gleich.
Ich verstehe aber aich nicht wie ihr auf den mist reinfällt, wenn es doch einfach downsampling im treiber gibt. Das läuft out of the box und glättet alles.
NVs FXAA ist ja die gleiche krücke. TXAA kann wirklich sauber und gut glätten.
Das int32 würde mich viel mehr interessieren. Imho liegt hier sehr viel potential.
robbitop
2019-02-17, 19:17:05
Die Steigerung soll daher kommen, dass man mit massiv geringerer Auflösung rendert und dank Inferencing des offline trainierten neuronalen Netzwerks die Zielauflösung möglichst korrekt rekonstruieren kann.
Bei dem Aufwand des Trainings auf Supercomputern und HW für Inferencing kann man IMO schon was erwarten.
Wie schon von Tessereact erwähnt, kann sich das durchaus in den nächsten Jahren entwickeln.
dargo
2019-02-17, 19:23:49
Hab jetzt nicht so den Eindruck, dass Raytracing als Profi-Feature geplant war und es dann Resteverwertung im Gaming-Bereich gab. Das war schon so geplant.
Hmm... dagegen sprich aber irgendwo TU116 ohne RT Cores. Wenn mich nicht alles täuscht hat das Ding auch keine Tensor Cores.
deekey777
2019-02-17, 19:25:25
Hmm... dagegen sprich aber irgendwo TU116 ohne RT Cores. Wenn mich nicht alles täuscht hat das Ding auch keine Tensor Cores.
Ich sehe keinen Zusammenhang. Es ist halt eine günstige Grafikkarte.
robbitop
2019-02-17, 19:29:45
Alles unter tu106 hätte vermutlich eh zu wenig Leistung für RT. Somit sinnvoll, die HW dafür zu entfernen. Allerdings ist TU116 für die Anzahl der SMs relativ groß.
deekey777
2019-02-17, 19:35:34
Alles unter tu106 hätte vermutlich eh zu wenig Leistung für RT. Somit sinnvoll, die HW dafür zu entfernen. Allerdings ist TU116 für die Anzahl der SMs relativ groß.
Ja, aber man kann einzelne SMs deaktivieren und deckt mit einem Chip mehrere Bereiche ab. Nvidia braucht nunmal einen Nachfolger im mobilen Bereich bis 1000 Euro und knapp darüber.
gravitationsfeld
2019-02-17, 20:06:25
Alles unter tu106 hätte vermutlich eh zu wenig Leistung für RT. Somit sinnvoll, die HW dafür zu entfernen. Allerdings ist TU116 für die Anzahl der SMs relativ groß.
Relativ ist gut, wenn die ~300 Quadratmillimeter stimmen, dann ist der Chip so gross wie GP104 bei nur 60% der SMs und 3/4 vom Speicherinterface. Vielleicht teildeaktiviert?
Ich frag mich immer wieder ob Turing nicht urspruenglich fuer 10nm geplant war.
dargo
2019-02-17, 20:06:53
Ich sehe keinen Zusammenhang. Es ist halt eine günstige Grafikkarte.
Mich verwundert es halt etwas, dass selbst Nvidia im oberen Segment keinen reinen Gamingchip auflegt wo die doch so in Geld schwimmen. Scheinbar sind die Absatzzahlen dort nicht gut genug.
gravitationsfeld
2019-02-17, 20:09:19
Was ist ein "reiner Gamingchip?
robbitop
2019-02-17, 20:11:48
NV sieht in RT die Zukunft im Gaming. Entsprechend wird die HW dafür in den chips verbaut, die genug Leistung dafür (in den vorhandenen Spieleimplementierungen für die mainstreamauflösung 1080p) haben, verbaut.
Der Profichip mit viel fp64 ist volta. Spiele und CAD nutzen turing. War bei Pascal ja auch schon so, nur dass es alles Pascal hiess. Viel fp64 (tesla) war gp100 und cad/spiele war gp102-107.
dargo
2019-02-17, 20:12:43
War das bei Maxwell auch schon so? Müsste ich nachlesen.
robbitop
2019-02-17, 20:13:46
Pascal hatte den ersten eigenen Profichip.
Maxwell war bei fp64 eher mittelmäßig und es gab keinen extrachip dafür.
(Es gab noch gk210 mit relativ geringen Änderungen (2x register und L1)ggü gk110 -für profikarten)
pixeljetstream
2019-02-17, 20:28:07
GK210 in dem Zusammenhang zu nennen ist schon wichtig imo.
Megatron
2019-02-17, 20:28:39
Worin genau besteht eigentlich der Alleingang. Technisch haben wir mit directML und dxr ja beides Mal Standards mit dem man die neuen Algorithmen umsetzen kann.
Das RT-Bashing einiger kann ich nicht nachvollziehen. Da es hier um eine DX-Implementierung geht, sollten die Erweiterungen ja auch mit Grafikkarten anderer Hersteller laufen (sofern vom Treiber unterstützt).
Aber das DLSS über DirectML implementiert ist, ist mir jetzt neu.
Anders macht dieses Feature für Entwickler auch gar keinen Sinn.
Das jetzt zum Start erstmal eine ganze Menge Gehirnschmalz investiert werden muss, wie ein entsprechendes NN aufzubauen und zu trainieren ist, ist klar.
An der Stelle auch, dass NVidia dieses Wissen gern im Haus haben will. Aber auf Dauer kann das nur ein Vorteil sein, wenn er allgemein nutzbar ist.
Im Optimalfall für NVidia läuft es so, wie mit Einführung der Tesselation. Die entsprechende Leistung war immer einen Schritt vor der Konkurrenz, wurde dort aber auch unterstützt und fand dadurch auch in den allgemeinen Benchmarks Beachtung und sorgte für längere Balken ;)
PhysX als (zu) lange Zeit exklusives Feature hat sich in der Form nie bezahlt machen können. Es gab ja am Anfang auch diverse Käufer, die sich extra dafür eine zusätzliche Nvidia Graka ins System gebaut hatten aber die Nutzbarkeit wurde ja dann treiberseitig irgendwann gekappt und das heutige PhysX hat dann auch nicht mehr viel mit dem ursprünglichen Gedanken dahinter zu tun. (Eine Karte von Ageia war für mich damals schon als Sparziel gesetzt, dann kam der Aufkauf und mit dem schnellen Einstellen der Karten hatte ich plötzlich wieder unverhofft freie Liquidität ;D )
Ex3cut3r
2019-02-17, 20:38:21
Da es hier um eine DX-Implementierung geht, sollten die Erweiterungen ja auch mit Grafikkarten anderer Hersteller laufen (sofern vom Treiber unterstützt).
Und wie soll man das realisieren? In Software? Durfte einstellige FPS erbringen, ergo Blödsinn.
Erst mit Turing macht ja RT Sinn, weil es speziell darauf entwickelt wurde, und es in HW beschleunigen kann, ihr denkt doch nicht wirklich, dass es auf anderen Karten ähnlich schnell läufen könnte?
pixeljetstream
2019-02-17, 20:42:34
Mit directML wollte ich ausdrücken, dass es Apis gibt um sowas oder anderes selbst zu machen. DLSS nutzt das nicht direkt, wobei am Ende eh alles in ein backend geht. Dafür gibt's nur keinen direkten Marketing Namen.
pixeljetstream
2019-02-17, 20:53:32
Und wie soll man das realisieren? In Software? Durfte einstellige FPS erbringen, ergo Blödsinn.
Erst mit Turing macht ja RT Sinn, weil es speziell darauf entwickelt wurde, und es in HW beschleunigen kann, ihr denkt doch nicht wirklich, dass es auf anderen Karten ähnlich schnell läufen könnte?
TitanV zeigt ja prinzipiell dass es bis zu nem gewissen Grad geht. Und RT Lösungen haben wir seit der Entstehung von CL/CUDA.
Imo muss ein anderer Hersteller "nur" hinkriegen auf 2060 Niveau zu kommen, evtl mit dem Abstrich einer leicht geringeren Auflösung. Aber das reicht um grundsätzlich mitspielen zu können. Dann können diese Kunden immerhin das ganze auch benutzen. Klar ist man hinter der Konkurrenz, aber zum etablieren reicht es und man weiß dass die Games versuchen werden das als Minimum hinzukriegen.
Ex3cut3r
2019-02-17, 21:25:03
Titan V ist aber z.B in 3DMark der die HW von Turing sehr gut ausnutzt, nichtmal auf 2060 RT Niveau.
Freestaler
2019-02-17, 22:07:41
..auf 2060 Niveau zu kommen, evtl mit dem Abstrich einer leicht geringeren Auflösung. Aber das reicht .... Ich denke dann sind wir für RT @ NonNV bei 720p. Ich pers. denke, da stellt Raytracing nicht mehr den Mehrwert dar. (720p vs 1080p). Oder wo siehst du da Verwendung für?
deekey777
2019-02-17, 22:11:53
Was ist ein "reiner Gamingchip?
Kein Turing.
Irgendwie riecht das ganze nach Verbohrtheit.
Mit directML wollte ich ausdrücken, dass es Apis gibt um sowas oder anderes selbst zu machen. DLSS nutzt das nicht direkt, wobei am Ende eh alles in ein backend geht. Dafür gibt's nur keinen direkten Marketing Namen.
Gibt es schon Ankündigungen von Software abseits der Spiele, die Tensor-Cores (mit-)nutzen? Bildfilter usw.?
pixeljetstream
2019-02-17, 22:33:05
K.A. ich verfolge diese Ankündigungen nicht im Detail ist nicht so direkt meine Baustelle.
@Freestaler, ich dachte eher an FHD vs WQHD.
Imo, wenn RT für andere Hersteller langfristig unerreichbar wäre, hätte es MS nicht gemacht. Daher denke ich dass es nicht so lange dauern wird. Je mehr Titel dieses Jahr erscheinen, desto größer der Datenpool mit dem man optimieren kann. Und auf den können alle gleichermaßen zugreifen.
RT bietet drei große Themenkomplexe: Aufbau/Update der Beschleunigerstruktur, den trace selbst, und das Handling von Divergenz beim Shading.
Es gibt also viel Potential clever zu sein über die nächsten Jahrzehnte.
Megatron
2019-02-17, 22:48:18
Auch wenn ich zugegeben AMD bevorzuge (nennen wir es mal neutral: aus dem Bauch heraus), so finde ich beide Erweiterungen durchaus gut und vor allem mutig.
Umso bedauerlicher wäre es, wenn die Arbeit dort einfach für den Lokus wäre.
Daher wünsche ich mir, dass hier eine Hersteller übergreifende Unterstützung kommt und damit auch der Anreiz da ist, dass sich Leute in der Breite geistig damit auseinander setzen.
Aber diese auseinandersetzen kann nur funktionieren, wenn es einen allgemeinen Standard gibt, auf dem man aufbauen kann.
Das ist der Punkt, wo ich dlss im Moment als Totgeburt sehe.
Damit das besser werden kann, braucht es am Ende den einen oder anderen Heureka Moment. Und das bringt uns wieder dazu, dass möglichst viele Leute damit "spielen" sollten.
@Ex3cut3r:
Eine rein softwareseitige Implementierung durch AMD wäre so ziemlich das beste, was Nvidia passieren könnte.
Das sorgt dafür, dass die Balken bei den rtx Karten länger bleiben aber gibt auch die Sicherheit, dass man das Feature perspektivisch vorraussetzen kann.
dargo
2019-02-17, 23:35:36
Titan V ist aber z.B in 3DMark der die HW von Turing sehr gut ausnutzt, nichtmal auf 2060 RT Niveau.
Hmm... mal das ganze auf Spiele umgemünzt.
https://www.tomshw.de/2019/01/03/nvidia-titan-v-erreicht-erstaunlich-hohe-frameraten-ohne-rt-cores/
Macht auf mich den Eindruck als ob die Titan V hier auch in den fordernden Szenen mindestens die RT-Leistung einer RTX 2080 erreicht.
Ex3cut3r
2019-02-18, 00:37:04
Hmm... mal das ganze auf Spiele umgemünzt.
https://www.tomshw.de/2019/01/03/nvidia-titan-v-erreicht-erstaunlich-hohe-frameraten-ohne-rt-cores/
Macht auf mich den Eindruck als ob die Titan V hier auch in den fordernden Szenen mindestens die RT-Leistung einer RTX 2080 erreicht.
Ja in BVF, welches nicht mal die Tensor Cores nutzt oder es waren die anderen Einheiten, wo mir aber grade der Name nicht einfällt. Schau dir wiederum den 3DMark an, da erreicht die Titan V nicht mal ansatztweise 2060 RT Leistung wie gesagt. Und andere Karten wurden natürlich überhaupt nichts zu melden haben, wir reden hier vmt. von einstelligen FPS mit RT. -> Das kann nicht das Ziel von AMD sein, also entweder RT richtig, oder erst mal gar nicht, wie man an der Vega 7 sieht -> Erstmal gar nicht. Finde ich auch richtig so diese Entscheidung.
dargo
2019-02-18, 00:46:10
Ähm... du weißt aber schon, dass die Titan V keine RT-Cores hat? Und wen juckt der 3DMark? Spielt das jemand? Ein 3DMark hat schon immer Settings gefahren die jede Hardware in die Knie zwingt. Und dabei sieht das aktuell imho nicht mal toll aus. Künstlerische Ader der Entwickler lässt sich nicht alleine durch Technik ersetzen. Prinzipiell sollte die RT-Implementierung in BFV auch mit Vega laufen. Wie schnell ist erstmal komplett offen.
btw.
3DMark ist für mich persönlich der Inbegriff von Hardware-Ressourcen-Verschwendung schlechthin.
Ex3cut3r
2019-02-18, 01:02:28
Ja das meine ich doch, spreche ich chinesisch? BFV nutzt keine Turing HW speziell für die RT Reflections. Anders sieht es da bei Metro und den 3DMark aus und dann erreicht eine Titan V schon schlechtere RT Leistung als eine 2060. Das da eine Stinknormale GPU ala Radeon 7 spielbare FPS Raten mit RT ausspuckt, kannst du dir abschminken, ich weiß ja worauf du hinaus willst.
dargo
2019-02-18, 01:06:01
Ja das meine ich doch, spreche ich chinesisch?
Noch nicht, wäre aber lustig.
BFV nutzt keine Turing HW speziell für die RT Reflections. Anders sieht es da bei Metro und den 3DMark aus und dann erreicht eine Titan V schon schlechtere RT Leistung als eine 2060.
Wie kommst du jetzt auf den Trichter?
NVIDIA gibt dazu an, dass ein großer Teil des Raytracings in Battlefield V auf Turing mit den RT Cores berechnet werde.
Bezüglich Metro... gibt es schon Vergleiche mit einer Titan V?
Das da eine Stinknormale GPU ala Radeon 7 spielbare FPS Raten mit RT ausspuckt, kannst du dir abschminken, ich weiß ja worauf du hinaus willst.
Du weißt gar nichts, glaubst es aber zu wissen.
Ex3cut3r
2019-02-18, 01:31:44
Oh ok, du hast recht, ich habe meine Ruhe, bin mal Metro mit RT @ High zocken. ;D
Viel Spaß noch.
dargo
2019-02-18, 02:05:20
Aha... falsche Behauptungen aufstellen und dann den Schwanz einziehen. Die gleiche Nummer hast du heute gestern schon im Ryzen 2 Thread abgezogen. Großartige Leistung.
gravitationsfeld
2019-02-18, 05:53:57
Ja das meine ich doch, spreche ich chinesisch? BFV nutzt keine Turing HW speziell für die RT Reflections.
Nein? Das ist stink normales DXR in Battlefield. Natuerlich benutzt das die Turing-Raytracing-Hardware.
basix
2019-02-18, 06:29:57
Sonst wäre Turing wohl jaum schneller als Volta. Nur das Denoising geht über Compute Shader und nicht über die Tensor Cores.
Loeschzwerg
2019-02-18, 07:27:29
Gibt es für den Launch der 1660Ti schon eine Bestätigung für den 22. Feb?
gravitationsfeld
2019-02-18, 07:41:19
Sonst wäre Turing wohl jaum schneller als Volta. Nur das Denoising geht über Compute Shader und nicht über die Tensor Cores.
Ich bezweifle, dass BF5 Tensor Cores fuer das Denoising benutzt.
basix
2019-02-18, 09:09:22
Hast du meinen Beitrag auch gelesen? ;)
Ich wette die sind nur wegen Mining da drin :freak:
Godmode
2019-02-18, 09:34:07
Ich wette die sind nur wegen Mining da drin :freak:
Nein, die Tensor-Cores sind völlig unbrauchbar für Mining. Lies dir lieber mal wie Mining funktioniert.
deekey777
2019-02-18, 09:50:35
Nein, die Tensor-Cores sind völlig unbrauchbar für Mining. Lies dir lieber mal wie Mining funktioniert.
Ich glaub, das war nicht ernstgemeint.
rentex
2019-02-18, 09:51:34
Man könnte fast schon meinen, das Nvidia die Tensor Cores in den RTX Karten nur drin hat, um sich die Entwicklung einer GTX Karte zu sparen...wie AMD bei der VII...
deekey777
2019-02-18, 10:07:34
Man könnte fast schon meinen, das Nvidia die Tensor Cores in den RTX Karten nur drin hat, um sich die Entwicklung einer GTX Karte zu sparen...wie AMD bei der VII...
Kann man sich streiten. Tensor-Cores sind mit Volta gekommen, auch im Xavier, der auf Volta basiert, sind Tensor-Cores integriert. Vielleicht war mal der Plan, dass vor Turing GPUs mit Tensor-Cores kommen, dann mit Turing eben RT-Cores hinzukommen.
Die eigentliche Frage ist: Warum haben Turing-Chips überhaupt Tensor-Cores?
Die plausible Antwort: Klingt besser, wenn man sie hat.
Mangel76
2019-02-18, 10:25:33
Kann man sich streiten. Tensor-Cores sind mit Volta gekommen, auch im Xavier, der auf Volta basiert, sind Tensor-Cores integriert. Vielleicht war mal der Plan, dass vor Turing GPUs mit Tensor-Cores kommen, dann mit Turing eben RT-Cores hinzukommen.
Die eigentliche Frage ist: Warum haben Turing-Chips überhaupt Tensor-Cores?
Die plausible Antwort: Klingt besser, wenn man sie hat.
Ich glaube ja, die Tensor-Cores sind eigentlich für den professionellen Bereich gedacht. Und dann suchte man nach einer Idee, wie man die auch den Gamern schmackhaft machen kann!
Ich dachte ja, die TC werden für das Denoising bei RT gebraucht. Aber anscheinend ist dies nicht der Fall, wenn schon BFV als Turing-Vorzeigespiel sie nicht dafür benutzt. Um sie aber dennoch als unverzichtbar für Gamer hinzustellen, wurde DLSS erfunden und massiv beworben. Im Prinzip keine schlechte Idee, der tatsächliche Nachweis von Praxistauglichkeit fehlt mir aber noch. Die bisherigen Umsetzungen waren mäßig.
Ich glaube ja, die Tensor-Cores sind eigentlich für den professionellen Bereich gedacht. Und dann suchte man nach einer Idee, wie man die auch den Gamern schmackhaft machen kann!
Jemand muss mal damit anfangen und eine Hardwarebasis schaffen.
Wir werden noch genug Usecases in Spielen sehen, aber das wird noch dauern. Realistisch gesehen haben Spielestudios weder die passende Expertise dafür noch bezahlen sie genug, um gute Leute in dem Bereich zu bekommen. Also etwas Geduld. ;)
rentex
2019-02-18, 10:39:43
Vermute ebenfalls, das es nicht von Anfang an so geplant war. Würde auch die "schleppende" Umsetzung von RTX und DLSS erklären.
deekey777
2019-02-18, 10:41:06
Ich glaube ja, die Tensor-Cores sind eigentlich für den professionellen Bereich gedacht. Und dann suchte man nach einer Idee, wie man die auch den Gamern schmackhaft machen kann!
Ich dachte ja, die TC werden für das Denoising bei RT gebraucht. Aber anscheinend ist dies nicht der Fall, wenn schon BFV als Turing-Vorzeigespiel sie nicht dafür benutzt. Um sie aber dennoch als unverzichtbar für Gamer hinzustellen, wurde DLSS erfunden und massiv beworben. Im Prinzip keine schlechte Idee, der tatsächliche Nachweis von Praxistauglichkeit fehlt mir aber noch. Die bisherigen Umsetzungen waren mäßig.
Wobei ich nicht berücksichtigt habe, dass Nvidia mit Tesla T4 bereits eine Turing-Tesla hat. Und irgendwann werden auch kleinere Turings als Tesla angeboten, während die Quadros auf Turing bereits setzen.
Für den preissensiblen Bereich hat Nvidia die 1660, sonst wird man sehen, ob die Rechnung aufgeht, mit einem Chip zwei Bereiche abzudecken mit der Folge, dass die Gaminggrafikkarten dadurch teurer angeboten werden müssen.
Jemand muss mal damit anfangen und eine Hardwarebasis schaffen.
Wir werden noch genug Usecases in Spielen sehen, aber das wird noch dauern. Realistisch gesehen haben Spielestudios weder die passende Expertise dafür noch bezahlen sie genug, um gute Leute in dem Bereich zu bekommen. Also etwas Geduld. ;)
Vermute ebenfalls, das es nicht von Anfang an so geplant war. Würde auch die "schleppende" Umsetzung von RTX und DLSS erklären.
Was ich in diesem Thread sehe, ist eine Diskussion, die mir nicht gefällt. Selbst vor zehn Jahren hätten wir so etwas nicht.
Was ich damit meine: Einige sind nicht mehr nur "Was ich nicht habe, braucht die Welt nicht", sondern viel weiter. Es wird den Neuerungen jede Daseinsberechtigung abgesprochen.
Vor zwanzig Jahren kamen die Riva TNT2 mit 32-bit-Rendering. War brutal langsam, aber es ging ums "Fickt euch, wir haben 32 bit und ihr nur 16". Das gleiche auch bei T&L. Leute, die sich eine Geforce3/4 wegen Doom 3 geholt haben, tun mir aber leid. PS 1.4 der 8500 war zunächst auch kaum im Einsatz (es gab einige Spiele, die PS 1.4 nutzten), aber jedoch ein Grundstein für den R300.
Jemand muss mal damit anfangen und eine Hardwarebasis schaffen.
Wir werden noch genug Usecases in Spielen sehen, aber das wird noch dauern. Realistisch gesehen haben Spielestudios weder die passende Expertise dafür noch bezahlen sie genug, um gute Leute in dem Bereich zu bekommen. Also etwas Geduld. ;)
So sieht das aus. Die wollten die Tensor-Cores in den professionellen Varianten und es macht einfach keinen Sinn diese in den Cosumer-Produktien zu deaktivieren. Ich hab aber auch irgendwo gelesen, dass die Dinger kaum Platz brauchen. Braucht man nicht für Gaming, schadet aber auch nicht.
BigKid
2019-02-18, 10:59:41
Ich denke immernoch dass DLSS im eigentlich nur für Raytracing gedacht war...
Da klar war, dass man grade mal so in FullHD schnell genug sein könnte damit es sinvoll nutzbar ist brauchte man was... Upscaling klingt uncool... DLSS klingt intelligenter...
Ferner gibt es ohne Raytracing Abseits von 4k (und das dürfte noch nicht so verbreitet sein) doch gar keinen großflächigen Bedarf für DLSS...
Eventuell sehen wir in Zukunft auch noch andere Dinge auf den Tensor Cores - zB Physik "Simulation" (zB Wasser) oder KI der NPCs oder ...
Das schöne an diesen Deep Learning Netzen ist ja, dass man sie im Prinzip auf jede Aufgabe loslassen kann und einfach mal schaut was dabei Rauskommt...
Da gehen nicht nur DeepFakes und DLSS ;)
Aber ich glaube das sind Nebenkriegsschauplätze...
Was ich in diesem Thread sehe, ist eine Diskussion, die mir nicht gefällt. Selbst vor zehn Jahren hätten wir so etwas nicht.
Was ich damit meine: Einige sind nicht mehr nur "Was ich nicht habe, braucht die Welt nicht", sondern viel weiter. Es wird den Neuerungen jede Daseinsberechtigung abgesprochen.
Das kam wohl falsch rüber. Ich halte die Tensor Cores für extrem wichtig und finde, dass wir Hardware Support für Inferencing möglichst bald auf allen Plattformen inklusive Konsolen brauchen.
Ich sehe aber leider nicht, dass Spielestudios hier kurzfristig die Treiber beim Fortschritt sind. Unity, Epic und Seed haben da Leute dran sitzen. Falls da was kommt, sehe ich das erstmal dort.
Wie immer kommt es hier wieder auf die Konsolen an. Bringen die eine solche Unterstützung mit, wird sich das durchsetzen, wenn nicht wars das damit im Spielemarkt. Analog übrigens Hybrid-RT. Immerhin gibts DirectML.
Wie immer kommt es hier wieder auf die Konsolen an. Bringen die eine solche Unterstützung mit, wird sich das durchsetzen, wenn nicht wars das damit im Spielemarkt. Analog übrigens Hybrid-RT.
Sehe ich nicht. Ist Support von den großen Engines da, wird es auch auf dem PC Anwendung finden. Da dran krankt aktuell auch noch RT, aber bei der UE4 gibt es ja das jetzt das erste Preview mit Support.
Mangel76
2019-02-18, 11:58:43
Jemand muss mal damit anfangen und eine Hardwarebasis schaffen.
Wir werden noch genug Usecases in Spielen sehen, aber das wird noch dauern. Realistisch gesehen haben Spielestudios weder die passende Expertise dafür noch bezahlen sie genug, um gute Leute in dem Bereich zu bekommen. Also etwas Geduld. ;)
Wie gesagt halte ich die grundsätzliche Idee ja durchaus für gut. Nur muss man sich halt klar darüber sein, dass nichts über tatsächliche Auflösung geht. (Was hier fabuliert wurde, von wegen sieht besser aus als Original :freak: )
Hier braucht es noch viel Zeit und Erfahrungssammeln, um so etwas nutzbringend und flächendeckend einzusetzen. Ich bin mir nur nicht sicher, ob dies ob der Abhängigkeit von NVIDIA auch so kommt. Wenn ich mir jetzt schon wieder ansehe, dass ich DLSS nur in bestimmten Auflösungen je nach GPU nutzen kann, dann habe ich am dauerhaften und breiten Nutzen so meine Zweifel. Da würde ich anderen Vorgehensweisen zur GPU-Entlastung, wie etwa Checkerboard-Rendering, mehr Vertrauen entgegenbringen. Da sind die Entwickler wenigstens nicht auf einen externen Partner angewiesen und haben alles in eigener Hand.
deekey777
2019-02-18, 12:03:35
Das kam wohl falsch rüber. Ich halte die Tensor Cores für extrem wichtig und finde, dass wir Hardware Support für Inferencing möglichst bald auf allen Plattformen inklusive Konsolen brauchen.
Ich sehe aber leider nicht, dass Spielestudios hier kurzfristig die Treiber beim Fortschritt sind. Unity, Epic und Seed haben da Leute dran sitzen. Falls da was kommt, sehe ich das erstmal dort.
Das Problem ist, dass Nvidia irgendwie nicht schafft, irgendwas abseits des DLSS zu zeigen, warum jeder unbedingt eine Grafikkarte mit Tensorcores braucht. Es fehlt etwas greifbares.
Damals (TM), als Folding@Home auf Radeons der X1000er Generation über BrookGPU oder so möglich wurde, hatte man greifbares. Irgendwann wurde der Client auf Cuda und OpenCL portiert und schon hatte man was.
Als Cuda kam, wurde zeitnah Badaboom veröffentlicht und jeder Depp - auch ich mit einer 8600 - konnte schnell Videos umwandeln. Dann kamen Erweiterungen wie Entruckeln und ähnliches. Als Hardwareencoder kamen, kam entsprechende Software und wieder hatte man was.
Heute fehlt so etwas, weil anscheinend solche speziellen Einheiten nicht so notwendig sind und die "allgemeinen" ALUs ausreichen.
Ich besitze seit Ende Dezember ein iPhone 8 mit seiner supertollen Neural Engine, ohne zu wissen, wozu sie gebraucht wird. Das iPhone X dürfte diese nutzen, aber sonst? Die Bildererkennung hat auch auf meinem iPhone 6 funktioniert (da gibt es aber solche Fails, die auch das iPhone 8 macht).
Fragman
2019-02-18, 12:09:17
Dir kann das doch am Ende egal sein, wenn die Cores drin sind oder nicht. :confused:
Die Frage ist eher, weshalb verwendet Dice zum Denoising nicht diese Cores und Metro anscheinend auch nicht? Angekündigt wurde genau das ja als Anwendungsfall.
Troyan
2019-02-18, 12:17:43
Weil TensorCores ein bestimmten Format benötigen. Außerdem wird weiterhin ein allgemeines Denoising für andere Hardware benötigt.
basix
2019-02-18, 12:19:15
Dir kann das doch am Ende egal sein, wenn die Cores drin sind oder nicht. :confused:
Die Frage ist eher, weshalb verwendet Dice zum Denoising nicht diese Cores und Metro anscheinend auch nicht? Angekündigt wurde genau das ja als Anwendungsfall.
Vendor-Unabhängigkeit? Eine allgemein einsetzbare Lösung mit einer generische Implementation? Denoiser per Compute für andere Anwendungsfälle als Raytracing? Höhere Variabilität, da Compute Shader deutlich mehr als nur FP16-Matrizenerechnungen durchführen können? Einfachere Handhabung / kürzere Time to Market, da mehr Know-How intern verfügbar ist? Es kann also viele potentielle Gründe dafür geben. Das einzige was für die Tensor Cores sprechen könnte ist die Performance. Vielleicht sind die aktuellen Implementationen eben noch nicht oder zu wenig schneller im Vergleich zum Compute-Ansatz.
pixeljetstream
2019-02-18, 12:34:38
@basix kleine Korrektur: die tensor cores würde man auch aus Compute Shader ansprechen können (CUDA hat das schon die anderen Apis werden vermutlich folgen).
Das "raytracing denoising" via NN kann auch im Zusammenhang mit offline path-tracing genannt worden sein, da es hier schon praktiziert wird.
dargo
2019-02-18, 13:44:34
Die Frage ist eher, weshalb verwendet Dice zum Denoising nicht diese Cores und Metro anscheinend auch nicht?
Gibt es schon genauere Details wie Metro das umsetzt? Und was mich auch interessieren würde... funktioniert Denosing über Compute mit FP16 oder ist es dafür unbrauchbar?
Edit:
Hier gibt es was zu Metro.
Let's talk about ray tracing on next-gen console hardware. How viable do you see it to be and what would alternatives be if not like RTX cards we see on PC? Could we see a future where consoles use something like a voxel GI solution while PC maintains its DXR path?
Ben Archard: it doesn't really matter - be it dedicated hardware or just enough compute power to do it in shader units, I believe it would be viable. For the current generation - yes, multiple solutions is the way to go.
This is also a question of how long you support a parallel pipeline for legacy PC hardware. A GeForce GTX 1080 isn't an out of date card as far as someone who bought one last year is concerned. So, these cards take a few years to phase out and for RT to become fully mainstream to the point where you can just assume it. And obviously on current generation consoles we need to have the voxel GI solution in the engine alongside the new RT solution. RT is the future of gaming, so the main focus is now on RT either way.
In terms of the viability of RT on next generation consoles, the hardware doesn't have to be specifically RTX cores. Those cores aren't the only thing that matters when it comes to ray tracing. They are fixed function hardware that speed up the calculations specifically relating to the BVH intersection tests. Those calculations can be done in standard compute if the computer cores are numerous and fast enough (which we believe they will be on the next gen consoles). In fact, any GPU that is running DX12 will be able to "run" DXR since DXR is just an extension of DX12.
https://www.eurogamer.net/articles/digitalfoundry-2019-metro-exodus-tech-interview
Das finde ich auch interessant.
Other things that really affect how quickly you can do ray tracing are a really fast BVH generation algorithm, which will be handled by the core APIs; and really fast memory. The nasty thing that ray tracing does, as opposed to something like say SSAO, is randomly access memory. SSAO will grab a load of texel data from a local area in texture space and because of the way those textures are stored there is a reasonably good chance that those texels will be quite close (or adjacent) in memory. Also, the SSAO for the next pixel over will work with pretty much the same set of samples. So, you have to load far less from memory because you can cache and awful lot of data.
Working on data that is in cache speeds things up a ridiculous amount. Unfortunately, rays don't really have this same level of coherence. They can randomly access just about any part of the set of geometry, and the ray for the next pixels could be grabbing data from and equally random location. So as much as specialised hardware to speed up the calculations of the ray intersections is important, fast compute cores and memory which lets you get at you bounding volume data quickly is also a viable path to doing real-time RT.
Klingt für mich so, dass Bandbreite bei RT wieder eine große Rolle spielt. Wobei großzügig dimensionierte Caches einiges "abfangen" können.
Zum Denoising kann ich da nichts herauslesen, nur dass es kostspielig ist da wenige Strahlen pro Pixel zu mehr Rauschen führt.
Sehe ich nicht. Ist Support von den großen Engines da, wird es auch auf dem PC Anwendung finden. Da dran krankt aktuell auch noch RT, aber bei der UE4 gibt es ja das jetzt das erste Preview mit Support.
Abseits von ein paar NV-finanzierten Projekten kannste das aber vergessen. Sollten die Konsolen hier nicht mitmachen ist es egal ob es offene Standards gibt, es ist schlicht und ergreifend zuviel Arbeit. Siehe das Statement von dem SC-Entwickler. Es muss sich lohnen oder das wird nix.
Wie gesagt halte ich die grundsätzliche Idee ja durchaus für gut. Nur muss man sich halt klar darüber sein, dass nichts über tatsächliche Auflösung geht.
Tensorcores != DLSS
Heute fehlt so etwas, weil anscheinend solche speziellen Einheiten nicht so notwendig sind und die "allgemeinen" ALUs ausreichen.
Natürlich sind sie notwendig, wenn man schnelles Inferencing machen will.
Ich besitze seit Ende Dezember ein iPhone 8 mit seiner supertollen Neural Engine, ohne zu wissen, wozu sie gebraucht wird. Das iPhone X dürfte diese nutzen, aber sonst? Die Bildererkennung hat auch auf meinem iPhone 6 funktioniert (da gibt es aber solche Fails, die auch das iPhone 8 macht).
Also entweder übersiehst du was oder Apple haut gerne viel Geld für unnötige Hardware raus ;)
Abseits von ein paar NV-finanzierten Projekten kannste das aber vergessen. Sollten die Konsolen hier nicht mitmachen ist es egal ob es offene Standards gibt, es ist schlicht und ergreifend zuviel Arbeit. Siehe das Statement von dem SC-Entwickler. Es muss sich lohnen oder das wird nix.
Werden wir sehen. Würde mich wundern, wenn nicht einige Entwickler ein paar Raytracing Features optional mitnehmen, wenn man sie einfach integriert bekommt. Dann haben wir halt optionen für RT AO oder RT Reflektionen... Solange die Engine das unter der Haube macht, wird das kommen.
Rancor
2019-02-18, 15:28:46
Ich bin auch der Meinung, das man sich da keinerlei Illusionen hingeben darf. RT setzt sich erst dann durch, wenn die Konsolen es beherrschen.
Mangel76
2019-02-18, 16:18:46
Tensorcores != DLSS
Hab ich ja nicht behauptet ????
Ist im Moment nur die einzige mir bekannte mögliche Nutzung der Tensorcores im Gamingbereich, da anscheinend bei den aktuellen RT-Games nichtmal das Denoising darüber funktioniert.
dargo
2019-02-18, 16:22:09
Ich bin auch der Meinung, das man sich da keinerlei Illusionen hingeben darf. RT setzt sich erst dann durch, wenn die Konsolen es beherrschen.
Beherrschen tut sie das jetzt schon. Nur fehlt es an Computeleistung für entprechendes FPS-Target. Mit den neuen Konsolen könnte ich mir gut vorstellen, dass der eine oder andere Entwickler sich an RT ran wagt, auch ohne RT Cores. Dann wird halt kein RT Ultra genommen sondern High, Medium oder gar Low. Je nachdem wieviel Luft man dann halt für entsprechendes Target hat.
Rancor
2019-02-18, 16:50:03
Ich meinte Explizite Hardware für RT. Wenn eine 1080TI/VEGA VII es schon nicht schaffen RT sinnvoll über Compute zu nutzen, dann wird es eine PS5 oder XBOX Scarlet auch nicht können.
dargo
2019-02-18, 16:59:50
Wenn eine 1080TI/VEGA VII es schon nicht schaffen RT sinnvoll über Compute zu nutzen, dann wird es eine PS5 oder XBOX Scarlet auch nicht können.
Wo steht das? Zumal Konsolengames nicht selten ein 30fps Target haben.
Edit:
Hast du den Vergleich von Tobi gesehen? In BFV ist die Karte ohne RT-Cores mit RT @High in einer weniger anspruchsvollen Szene lächerliche 8% langsamer als eine mit RT-Cores @10 Gigarays. In der anspruchsvolleren Szene sind es 31% weniger. Egal ob RT High oder Medium. Das dürfte in etwa grob der RT-Leistung einer RTX 2080 entsprechen. Diese hat 40% weniger Gigarays als die RTX 2080TI. Oder besser gesagt der Kombination aus der RT-Leistung der RTX 2080 + Rasterizer. Nach deiner Argumentation wären RTX 2060/2070 für RT komplett ungeeignet da zu langsam. Ich sehe hier durchaus Parallelen zur Tessellation. Am Anfang wird man RT (wenn überhaupt) womöglich über Compute nur sparsam einsetzen und mit den Jahren wird sich das immer steigern.
Hast du den Vergleich von Tobi gesehen? In BFV ist die Karte ohne RT-Cores mit RT @High in einer weniger anspruchsvollen Szene lächerliche 8% langsamer als eine mit RT-Cores @10 Gigarays.
Das ganze können wir nochmal vergleichen, wenn wir irgendwo mal RT testen können, das keine neuen Fragments erzeugt. AO oder Schatten wären da gute Kandidaten.
robbitop
2019-02-18, 17:21:45
Inferencing ohne extra HW dürfte wahrscheinlich teuer sein, wenn viel anfällt. Könnte gut sein, dass dlss ohne TC deutlich langsamer wäre.
dargo
2019-02-18, 17:22:03
Ich bin für jegliche Vergleiche mit Games völlig offen. Nur finde erstmal paar Leute mit ner Titan V. :freak:
dildo4u
2019-02-18, 17:26:28
Control von Remedy wird dort sehr interessant die haben vermutlich wieder extrem Teures GI in der Konsolen Version und zusätzlich RTX am PC.Quantum Break mit nativer Auflösung läuft noch mal ein Tick schlechter als Metro mit RTX,bei Control könnte man sehen ob es besser aussieht und zusätzlich schneller läuft.
Hoffentlich kann man das GI unabhängig von den Reflektion aktivieren.
https://www.nvidia.com/en-us/geforce/news/control-game-rtx-ray-tracing-technologies/
dargo
2019-02-18, 17:38:11
Lol... du weißt doch ganz genau warum Quantum Break in höheren Auflösungen so teuer ist. Es ist die Art wie sie das MSAA verwenden. Dann noch der holprige Start mit DX12 unter dem Druck von Microsoft um die API zu pushen. Zudem noch die Anfangprobleme von UWP. Also Quantum Break als Maßstab zu nehmen ist schon ziemlich daneben.
dildo4u
2019-02-18, 17:45:57
Es ist das GI diese Art von Beleuchtung wurde aus UE 4.0 genommen weil die Konsolen zu schwach sind.Remedy gab sich damit zufrieden mit 720p auf der XBox zu laufen,schätze mal Epic wollte das Ziel 1080p auf PS4 einhalten.
dargo
2019-02-18, 17:49:51
Nein, es ist nicht nur das GI. Das 4xMSAA außerhalb von 720p ist sehr teuer. Beim Nachfolger haben die dann hoffentlich ein brauchbares TAA.
dildo4u
2019-02-18, 18:03:15
Es ist schneller als natives 1080p daher haben sie es gemacht,Rainbow Six nutzt die selbe Tech auf Konsole damit sie nicht nativ rechnen müssen.
Essentially, this feature renders the game with half the number of pixels on each axis with an ordered grid MSAA pattern before reconstructing the image to match the final output. This is then coupled with a post-process temporal anti-aliasing solution to minimize artefacts in motion. So, at 1080p, we're technically seeing 960x540 with 2x MSAA. Interestingly, it would appear that the image is processed before being upscaled on Xbox One resulting in blurrier HUD elements and menu text.
This trick has its drawbacks, but when combined with temporal AA, it helps produces a soft yet stable image in motion. If you slowly pan the camera around you can certainly spot edge artefacts but, during normal gameplay, this is much less apparent. The resulting image is actually more temporally stable than many other console titles. It's a fantastic trade-off here that really helps keep performance up without a significant impact on image quality.
https://www.eurogamer.net/articles/digitalfoundry-2015-rainbow-six-siege-face-off
dargo
2019-02-18, 18:13:41
Man merkt dem Spiel einfach an, dass es primär für eine einzige feste Hardware entwickelt wurde. Ohne sich Gedanken über Multiplattform zu machen. Am PC hast du ganz andere Rahmenbedingungen und schon stürzt das Kartenhaus zusammen.
AffenJack
2019-02-18, 18:22:34
Hast du den Vergleich von Tobi gesehen? In BFV ist die Karte ohne RT-Cores mit RT @High in einer weniger anspruchsvollen Szene lächerliche 8% langsamer als eine mit RT-Cores @10 Gigarays. In der anspruchsvolleren Szene sind es 31% weniger. Egal ob RT High oder Medium. Das dürfte in etwa grob der RT-Leistung einer RTX 2080 entsprechen. Diese hat 40% weniger Gigarays als die RTX 2080TI. Oder besser gesagt der Kombination aus der RT-Leistung der RTX 2080 + Rasterizer. Nach deiner Argumentation wären RTX 2060/2070 für RT komplett ungeeignet da zu langsam. Ich sehe hier durchaus Parallelen zur Tessellation. Am Anfang wird man RT (wenn überhaupt) womöglich über Compute nur sparsam einsetzen und mit den Jahren wird sich das immer steigern.
Was wenig verwunderlich ist bei dem begrenzten Einsatz von Raytracing in BFV und der niedrigen Anzahl an Rays per Pixel die hier verwendet werden. Da ist das Shading das, was die Leistung begrenzt und nicht das Raytracing. Das TV in einer völlig Shaderlimitierten RT Szene da natürlich mithalten kann ist nun wenig verwunderlich. Bei Schatten und AO brauchst du dagegegen kein Shading, soweit ich Remedys Präsentation dazu verstanden habe. GI und Reflektionen sind dagegen hauptsächlich vom Shading limitiert mit RTX Karten.
dargo
2019-02-18, 18:28:32
Was wenig verwunderlich ist bei dem begrenzten Einsatz von Raytracing in BFV und der niedrigen Anzahl an Rays per Pixel die hier verwendet werden. Da ist das Shading das, was die Leistung begrenzt und nicht das Raytracing.
Dann lese dich mal in den Artikel mit den Metro-Entwicklern ein wieviele Rays pro Pixel dort verwendet werden.
We've got different quality settings for ray tracing in the final game - what does the DXR settings actually do?
Oles Shishkovstov: Ray tracing has two quality settings: high and ultra. Ultra setting traces up to one ray per pixel, with all the denoising and accumulation running in full. The high setting traces up to 0.5 rays per pixel, essentially in a checkerboard pattern, and one of the denoising passes runs as checkerboard. We recommend high for the best balance between image quality and performance, but please note that we are still experimenting a lot, so this information is valid only at the time of writing.
Auf der Gamescom hatte man noch 3 Rays pro Pixel verwendet. Ich orientiere mich aktuell an dem was die Spieleentwickler implementieren, nicht an dem was theoretisch eine RTX Karte im Worst Case schafft. Das ist für mich höchstens ein netter Marketingstunt von Lederjacke.
gravitationsfeld
2019-02-18, 18:36:31
Kann man sich streiten. Tensor-Cores sind mit Volta gekommen, auch im Xavier, der auf Volta basiert, sind Tensor-Cores integriert. Vielleicht war mal der Plan, dass vor Turing GPUs mit Tensor-Cores kommen, dann mit Turing eben RT-Cores hinzukommen.
Die eigentliche Frage ist: Warum haben Turing-Chips überhaupt Tensor-Cores?
Die plausible Antwort: Klingt besser, wenn man sie hat.
Weil es ein nuetzliches Feature mit vielen Anwendungen ist? Ja, auch fuer Spiele. Nein, nicht nur fuer DLSS.
dargo
2019-02-18, 19:08:46
Bei zwei Sachen blicke ich aber noch nicht durch.
1. Die Entwickler von Metro gehen von 3 Rays pro Pixel auf 0,5 bis 1 Ray runter (beides ist scheinbar dynamisch, es heißt in beiden Fällen "bis"). Warum macht man sowas? Für mich gibt es nur eine logische Erklärung... die RTX Karten sind für 3 Rays pro Pixel in dem Szenario zu lahm. Wenn jemand einen anderen plausiblen Grund parat hat nur her damit.
2. Keiner verwendet bisher fürs Denoising die Tensor Cores. Warum, wenn die doch so einen hohen Durchsatz haben? Gibt es hier vielleicht irgendwelche Probleme beim TAA? In dem Artikel zu Metro steht zb., dass mit dem TAA das Bild noch zusätzlich in der letzten Stufe entrauscht wird.
Edit:
Hier nun die Bestätigung zum Denoising in Metro.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11930566&postcount=761
OC_Burner
2019-02-18, 19:36:09
Inwiefern läßt sich eigentlich herausfinden, wie groß die Leistungsaufnahme der Tensorkerne ist?
Mein Ansatz dazu war erstmal, herauszufinden mit welcher Auflösung bei aktiviertem DLSS tatsächlich gerendert wird. Die Aussagen dazu waren immer 2560x1440 -> 3840x2160 oder etwas in der Richtung, immer recht schwammig, nichts genaues, weiß man nicht. Sobald die genaue Auflösung bekannt ist, bencht man mit gelockten FPS unterhalb der maximalen TDP die tatsächlich gerenderte Auflösung und zwar, einmal mit und einmal ohne DLSS. Die Differenz der Leistungsaufnahme, könnte man zumindest als groben Anhaltspunkt nehmen. Das Ganze ist völlig ohne Belang und entspringt einfach nur der Neugier.
DigitalFoundry veröffentlichte irgendwann 2016 auf Youtube ein Video, in welchem erklärt wird, wie sich durch Treppchenzählen die tatsächlich gerenderte Auflösung bei hochskalierter Bildausgabe berechnen läßt. Diesen Trick kannte ich bis dato nicht und natürlich läßt sich das Ganze auch bei DLSS anwenden. Macht man sich den Spaß und zählt nun die Treppenartefakte, kommt man zu dem Ergebnis, dass die Aussagen bislang vollkommen richtig waren.
Das bedeutet für
Final Fantasy 15: 2560x1440 -> 3840x2160
3DMark: 2560x1440 -> 3840x2160
3DMark: 1920x1080 -> 2560x1440
3DMark: 1440x810 -> 1920x1080
Metro Exodus: 2560x1440 -> 3840x2160
Metro Exodus: ungetestet -> 2560x1440
Battlefield 5: ungetestet
(Bilder mit markierten Stellen falls gewünscht, lassen sich nachreichen)
Benchen wie folgt:
Da bei aktiviertem DLSS niedriger gerendert wird als man tatsächlich in den Optionen als Auflösung auswählt, muss später bei deaktiviertem DLSS die tatsächlich gerenderte Auflösung von DLSS ausgewählt werden. Für Final Fantasy 15 bedeutet das z.B.: 3840x2160+DLSS ON sowie 2560x1440+DLSS OFF. Alle anderen AA-Modis müssen immer abgeschaltet werden. Bildrate mittels Afterburner etc. festtackern und so wählen, dass die GPU-Auslastung hoch genug ist damit nicht heruntergetaktet wird aber ebenfalls nicht zu hoch wählen, da sonst das PowerLimit erreicht wird und so das Ganze ad adsurdum führen würde. CPU-Bottleneck muss ausgeschlossen werden.
- 2080Ti (300W PowerTarget)(driver version 418.91)
- GPU-Z zum Loggen der Werte
Wie geschrieben so gebencht:
Rot = DLSS OFF
Grün = DLSS ON
Final Fantasy 15 | Leistungsaufnahme durch DLSS ON um 45W (+22,4%) erhöht
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65737&stc=1&d=1550513337 lnk (https://www.grafik-feti.de/ftp/Pictures/DLSS_tests/FF15/DLSS_ON-OFF_1440p@2160p___FF15_40fps.png)
3DMark 3840x2160 | Leistungsaufnahme durch DLSS ON um 20W (+8,5%) erhöht
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65738&stc=1&d=1550513337 lnk (https://www.grafik-feti.de/ftp/Pictures/DLSS_tests/3DMark/DLSS_ON-OFF_1440p@2160p___3DMark_25fps.png)
3DMark 2560x1440 | Leistungsaufnahme durch DLSS ON um 15W (+6,3%) erhöht
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65739&stc=1&d=1550513337 lnk (https://www.grafik-feti.de/ftp/Pictures/DLSS_tests/3DMark/DLSS_ON-OFF_1080p@1440p___3DMark_40fps.png)
Inwiefern das nun aussagekräftig ist, sei mal dahin gestellt. Der Memory Controller hat zumindest deutlich mehr zu tun und dürfte das Ergebnis grob verfälschen und zweitens ist überhaupt nicht bekannt wie stark die Tensorkerne ausgelastet werden. Battlefield 5 habe ich noch nicht getestet und mit Metro macht das aktuell keinen Sinn, da sich TAA nicht abschalten läßt.
basix
2019-02-18, 19:44:36
3DMark: 2560x1440 -> 3840x2160
3DMark: 1920x1080 -> 2560x1440
3DMark: 1440x810 -> 1920x1080
Den Aufwand hättest du dir sparen können, das steht nämlich im Tech-Paper zum 3DMark von Futuremark. Oder wusstest du das schon?
@basix kleine Korrektur: die tensor cores würde man auch aus Compute Shader ansprechen können (CUDA hat das schon die anderen Apis werden vermutlich folgen).
Ah danke für die Info! Wusste ich nicht :) Ist das dann (wenn verfügbar in DX12/Vulkan) für den Entwickler transparent einstellbar? Oder wird vom Treiber bestimmt ob das durch die Tensor Cores geht oder nicht? Für mich spielt das im Endeffekt keine Rolle, da der Output relevant ist. Würde mich aber trotzdem interessieren.
pixeljetstream
2019-02-18, 20:16:12
Das wäre ein intrinsic wie in CUDA auch. Allerdings ist bei NN eher der Trend zu ganzheitlichen Optimierungen, daher eher high-level directML oder andere Graph-basierte Ansätze wo jeder Hersteller mehr Freiheit hat die load/stores etc. gleich mit zu optimieren.
Rancor
2019-02-18, 21:03:08
Lieber sollte man sich mal Fragen warum weder in BF V noch in Metro die Tensor Cores zum Denoising genutzt werden.
gravitationsfeld
2019-02-18, 21:38:37
Weil es keine API dafuer gibt.
Birdman
2019-02-18, 21:39:23
Tensor Cores die neuen Shader Intrinsic von nVidia?
gravitationsfeld
2019-02-18, 21:40:36
Es gibt keine Shader Intrinsics.
OC_Burner
2019-02-18, 21:48:38
Den Aufwand hättest du dir sparen können, das steht nämlich im Tech-Paper zum 3DMark von Futuremark. Oder wusstest du das schon?
Nö wusste ich nicht, sei's drum, Kontrolle schadet nicht.:D
][immy
2019-02-19, 00:05:35
Lieber sollte man sich mal Fragen warum weder in BF V noch in Metro die Tensor Cores zum Denoising genutzt werden.
Eventuell weil man dlss anbieten wollte/sollte und daher die tensor cores bereits ausgelastet sind? Ist aber nur eine Vermutung.
=Floi=
2019-02-19, 00:16:31
1. Die Entwickler von Metro gehen von 3 Rays pro Pixel auf 0,5 bis 1 Ray runter (beides ist scheinbar dynamisch, es heißt in beiden Fällen "bis"). Warum macht man sowas? Für mich gibt es nur eine logische Erklärung... die RTX Karten sind für 3 Rays pro Pixel in dem Szenario zu lahm.
weil es manchmal schlicht nicht mehr braucht?!
Wenn zB ein feuer alles überstrahlt, braucht es nur diese eine lichtquelle. Die leistung ist ja nicht umsonst da und da spart man wo es geht.
Ich denke es gibt auch in anderen szenarien genug fälle wo man eher faked und nicht absolut korrekt sein muss.
Ist die selbe sache wie mit der tesselation. Ein geringerer faktur muss nicht wirklich viel schlechter aussehen bringt aber eventuell gleich erhebliche FPS.
Nebenbei bemerkt ist die 2080ti bald nicht das low end, sondern dürfte bis nach 2020 noch in der mid end generation der nachfolger mitspielen. also eher bis ca. 2022. Da kann man mit solchen effekten auch nicht so stark aufdrehen, weil es sonst auf zehn zukünften karten noch immer nicht läuft.
dargo
2019-02-19, 00:33:35
Nebenbei bemerkt ist die 2080ti bald nicht das low end, sondern dürfte bis nach 2020 noch in der mid end generation der nachfolger mitspielen. also eher bis ca. 2022. Da kann man mit solchen effekten auch nicht so stark aufdrehen, weil es sonst auf zehn zukünften karten noch immer nicht läuft.
Naja... wir wollen mal nicht gleich übertreiben. :D
Eine RTX 2080TI wird sicherlich auch 2022 kein low-end. Schau dir nur mal die Vergangenheit an. Die 980TI kam vor fast 4 Jahren und ist heute mit der GTX 1070 vergleichbar. Letztere spielt immer noch im oberen Performancesegment mit. Zudem gehe ich davon aus, dass die zukünftigen Zyklen noch ein Stück mehr in die Länge gezogen werden.
=Floi=
2019-02-19, 01:15:35
Das wollte ich doch damit sagen. :rolleyes:
Wäre sie aber low end, könnte man viel verschwenderischer mit RT umgehen.
Fragman
2019-02-19, 06:25:24
Weil es keine API dafuer gibt.
Ah, ok, also am Ende eine relativ einfache Antwort.
Dann könnte man hier ja noch auf Performanceverbesserungen hoffen?
Rancor
2019-02-19, 07:52:02
Weil es keine API dafuer gibt.
Ahh alles klar. Dann ist es aber etwas seltsam das Nvidia explizit sagte, das die Tensor Cores zum Denoising genutzt werden.
Zu Release der RTX Karten habe ich mich schonmal gefragt ob DLSS und Denoising via RT überhaupt zusammen funktionieren, bzw ob diese Konstellation performant genug ist.
mczak
2019-02-19, 16:10:29
Weil es keine API dafuer gibt.
Braucht man da überhaupt eine explizite API?
Im Prinzip sollte es für den Compiler möglich sein eine Matrixmultiplikation zu erkennen und selbst die entsprechende Operation zu generieren.
Sind ja einfach ein Haufen MUL+MAD (mit spezifischer Wiederverwendung derselben Quellregister). (Müssen allerdings fp16 mul/mad sein damit das so funktioniert.)
Ob das praktikabel ist weiss ich aber nicht...
pixeljetstream
2019-02-19, 19:58:29
So einfach isses nicht. Wenn du dir die cuda Instruktion Mal anguckst (wmma)
https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#wmma
Wirst du sehen dass die Daten über den Warp verteilt vorliegen müssen.
Die High-Level frameworks optimieren die load/stores und Rechenoperationen blockweise optimal für die warps/simd Architektur. Die Art der Optimierung klappt nur wenn du nen ganzheitlichen Ansatz fahren kannst. Nicht individuell einen thread optimieren, sondern alles. Von thread launches, Zwischenergebnissen, da steck einiges hinter um die HW auf maximalen Durchsatz zu kriegen.
mczak
2019-02-19, 20:18:45
So einfach isses nicht. Wenn du dir die cuda Instruktion Mal anguckst (wmma)
https://docs.nvidia.com/cuda/cuda-c-programming-guide/index.html#wmma
Wirst du sehen dass die Daten über den Warp verteilt vorliegen müssen.
Die High-Level frameworks optimieren die load/stores und Rechenoperationen blockweise optimal für die warps/simd Architektur. Die Art der Optimierung klappt nur wenn du nen ganzheitlichen Ansatz fahren kannst. Nicht individuell einen thread optimieren, sondern alles. Von thread launches, Zwischenergebnissen, da steck einiges hinter um die HW auf maximalen Durchsatz zu kriegen.
Tatsächlich, das ist mir entfallen dass das nur über den warp verteilt funktioniert (aber das macht natürlich Sinn). Das wird definitiv nichts mit automatisch erkennen.
Ich schätze mal die neue Vulkan-Erweiterung VK_NV_cooperative_matrix ist genau dafür gemacht.
pixeljetstream
2019-02-19, 20:28:19
Genau die wurde gerade veröffentlicht und bildet die tensor core operationen ab.
Vulkan hat nun neben cuda auch Zugriff.
Wird noch bissl dauern bis alle Specs gemerged sind
https://github.com/KhronosGroup/Vulkan-Docs/issues/923
Dural
2019-02-20, 00:56:49
Das überhaupt nicht vom tu116 gesprochen wird...
Ich finde die gpu richtig interessant, erst recht zum vergleich mit den rtx turing.
=Floi=
2019-02-20, 01:54:17
Das überhaupt nicht vom tu116 gesprochen wird...
weil das teil keinen interessiert?!
Vram :rolleyes:
Zu wenig power
Sicher zu hoher Preis.
Low price lüfter und pcb.
Der gefühlt 10. konter in dieser leistungsklasse.
Loeschzwerg
2019-02-20, 06:48:11
weil das teil keinen interessiert?!
Ist ja nicht so als schreibt Dural nicht direkt über deinem post "Ich finde die gpu richtig interessant" :freak:
---
Bilder zu einer Zotac und MSI 1660Ti:
https://videocardz.com/newz/zotac-geforce-gtx-1660-ti-amp-and-twin-fan-pictured
https://www.overclock3d.net/news/gpu_displays/msi_gtx_1660_ti_gaming_x_unboxing_appears_on_youtube/1
=Floi=
2019-02-20, 07:24:20
Gäbe nur zig andere produkte oder abspaltungen welche ich mir wünschen würde.
NV hat gute chips, aber bei den karten gibt man alles, sie so schlecht wie möglich zu machen. Da müssten mal ein paar leute wechseln.
ich fand die 1030er an sich ganz cool, nur auch hier hat man da zu sehr gesparrt.
Fragman
2019-02-20, 07:50:34
Gäbe nur zig andere produkte oder abspaltungen welche ich mir wünschen würde.
NV hat gute chips, aber bei den karten gibt man alles, sie so schlecht wie möglich zu machen. Da müssten mal ein paar leute wechseln.
Wieso sollten sie es anders machen? Beide Hersteller fahren doch gut mit ihren Strategien und Produkten. Mal schauen ob und wie Intel da irgendwas verändern kann/will. Aber der Markt stagniert, trotzdem will/muss man was neues bringen. Zumindest irgendwas mit neuen Nummern.
unl34shed
2019-02-20, 08:35:03
3DOGA2_GETQ
Interessanter Vergleich DLSS vs Upscaling in BF5.
Upscaling so gewählt, dass es genauso schnell ist wie mit DLSS und dabei sieht deutlich besser aus.
Gut in BF5 ist TAA gut implementiert und DLSS eher nicht.
Dural
2019-02-20, 09:51:51
weil das teil keinen interessiert?!
Vram :rolleyes:
Zu wenig power
Sicher zu hoher Preis.
Low price lüfter und pcb.
Der gefühlt 10. konter in dieser leistungsklasse.
Die 1660Ti wird der direkte Nachfolger der 1060 sein, also die Karte mit Abstand höchsten Marktanteil laut Steam, was daran soll bitte uninteressant sein?!?
Nur weil die ganzen möchte gern "Profis" auf Youtube ständig sagen wie uninteressant die Karte ist, weil es gleich schnelle alte Karten gibt (Sorry der Vergleich ist so was von Dumm…) sollte man zuerst selber mal etwas überlegen, den dann sollte einem auffallen das die 1660Ti Stückzahlmässig klar das zeug zum Bestseller hat.
dildo4u
2019-02-20, 09:57:53
Jup 1070 Performance für der Preis der 590.
Die einzige Karte in letzter Zeit die deutlich mher Performance Pro € bringt.
Calypso
2019-02-20, 10:06:44
na prinzipiell könnte doch auch eine 1070 den gleichen Preis wie eine 1660 haben, schließlich soll doch der Chip auch ähnlich groß sein - also billiger zu fertigen ist dieser dann ja nicht. Kommt mir alles bissel seltsam vor....
https://youtu.be/3DOGA2_GETQ
Interessanter Vergleich DLSS vs Upscaling in BF5.
Upscaling so gewählt, dass es genauso schnell ist wie mit DLSS und dabei sieht es deutlich besser aus.
War von Anfang an der Meinung das DLSS im Grunde nix anderes ist als Upscaling.
... NV mit DLSS ( MMn "billiges" upscaling ) ...
Interessant wäre auch ein vergleich vom Software-Upscaling gegen das Monitor eigene Upscaling.
(wobei es vermutlich teils starke Qualitätsschwankungen von Monitor zu Monitor gibt)
Bei mir sieht WQHD --> UHD auf 65" besser aus wenns der Fernseher upscaled.
FHD --> UHD sieht dann fast aus wie mit Wasserfarben gemalt ^^ (schrecklich :freak:i)
m.f.g. JVC
Dural
2019-02-20, 10:17:19
na prinzipiell könnte doch auch eine 1070 den gleichen Preis wie eine 1660 haben, schließlich soll doch der Chip auch ähnlich groß sein - also billiger zu fertigen ist dieser dann ja nicht. Kommt mir alles bissel seltsam vor....
Turing Shader + GDDR6 + mehr Einheiten als 1060 + Günstiger in der Herstellung als 1070 + Wird sicher ein sehr gutes Preis/Leistungs Verhältnis haben, wenn nicht sogar das beste.
Ich sehe sehr viele Vorteile. Seit wann ist fortschritt den so uninteressant?
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.