PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: nVidia verspricht +47% Mehrperformance zwischen GTX 1080 und RTX 2080


Leonidas
2018-08-23, 15:48:57
Link zur News:
https://www.3dcenter.org/news/nvidia-verspricht-47-mehrperformance-zwischen-geforce-gtx-1080-und-geforce-rtx-2080

ChaosTM
2018-08-23, 15:51:35
..

Lehdro
2018-08-23, 16:11:07
Warum leakt NV nix über 1080ti vs 2080ti ?
Wahrscheinlich weil dort der Sprung nicht ganz so groß ist, immerhin war die 1080 mehr bandbreitenlimitiert als es die 1080 Ti ist.

pnume
2018-08-23, 16:11:15
47% glaub ich nicht dran.

Der Vergleich geht ja sicherlich um die FE und da hat die 2080 eine viel bessere Kühllösung.

Redirion
2018-08-23, 16:28:23
hat Nvidia irgendwo beworben, dass die Tensor-Cores oder RT-Cores auch gut für HDR wären? Immerhin scheint es hier ausschließlich um HDR zu gehen.

Bei Computerbase (https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/2/#abschnitt_gtx_1080_und_rx_vega_64_im_hdrbenchmarkduell) war da die 1080 in SDR 11% schneller als mit HDR.

Screemer
2018-08-23, 16:30:38
Das haben sie halt gefixt und um den Vorsprung noch ein bisschen zu vergrößern bencht man natürlich mit hdr. Kann man sich ja raus rechnen.

Schnoesel
2018-08-23, 16:55:49
Ich sage es bleiben nach Abzug von cherrygepickten Marketing FPS (Einstellung, Spieleauswahl, HDR vs. Non HDR, Takraten) ein + von ca. 35% gegenüber der 1080 über was Leistungsmäßig einer 1080Ti enspricht. Ganz ordentlich aber für den Preis imo zu wenig.

Mal auf unabhängige Benches warten.

Knobina
2018-08-23, 17:06:07
>verspricht

Abwarten...:wink:

iamthebear
2018-08-23, 17:45:53
Irgendwo habe ixh gelesen, dass Intel an der Architektur auch etwas verbessert hat unter anderem am L1 Cache aber der Großteil davon steht noch unter NDA.

Was DLSS angeht so halte ich es für legitim bevorzugt Spiele mit DLSS Support zu betracht weil alle aktuellen Spiele sollten sowieso locker laufen und alles was neu kommt word wahrscheinlich DLSS unterstützen. Allerdings stelle ich mal die Frage ob der Vergleixh mit einem AA Modus der anscheinend über ein Drittel der Leistung kostet sehr sinnvoll ist. Hier gibt es schon performantere Alternativen.

JVC
2018-08-23, 17:45:54
+47% ? Glaub ich nicht .... das meiste müsste dann über Optimierungen ( schlechtere Bildquali ? ) herausgeholt worden sein, denn der "12nm" Prozess bringt nur ~10-15% und die TDP haben sie ja "nicht" erhöht .
Lass mich aber gerne positiv überraschen :)

m.f.g. JVC

Gast
2018-08-23, 17:46:39
Ohne entsprechende unabhängige Tests ist das doch eh alles nur Marketinggeblubber.
Rosinenpickerei wird es zudem auch auf jeden Fall sein.

Aber selbst, wenn diese Zahlen so stimmen sollten, wäre der massive Aufpreis der neuen Karten noch immer nicht gerechtfertigt.

Was soll da bitte eine 2060 kosten? 450-500€?
Und eine 2050 geht dann für 250-300€ über den Ladentisch?

Sorry, aber NVidia übertreibt es echt massiv.

Platos
2018-08-23, 18:00:11
RTX 280 anstatt 2800 2080 in der Tabelle

Geldmann3
2018-08-23, 18:40:24
Wenn DLAA mit der Qualität von SSAA vergleichbar sein sollte, wäre das für mich ein Kaufgrund. Spiele mit meiner 1080 Ti das meiste in 6k auf meinem 4k TV, wegen der Kantenglättung. Wenn die Karte die selbe Bildqualität wie mit SSAA aber ohne Leistungsverlust schafft, wäre das schon ein Sprung. Wobei die KI schon Wunder leisten müsste um auch auf die Texturen zu wirken wie SSAA es tut. :wink: Aber wir haben bereits AI Demos gesehen, wo sowas wenigstens mit einem Standbild erreicht wurde...

Platos
2018-08-23, 19:49:19
Aber der Grafikspeicherbedarf dürfte dann ja nicht sinken. Also bei 6K mit 11GB immer noch sehr sehr knapp. Vor allem könnte man dann mit dieser Leistung vlt. auch "locker" 8K @ 30FPS schaffen. Dann brauchts noch mehr Speicher. Ganz sicher mehr als 11 GB

unwissend!
2018-08-23, 19:49:20
RTX 280 anstatt 2800 in der Tabelle
Jetzt sind es schon 2 Typos. In der Tabelle steht 280 und Du meinst doch bestimmt 2080 und nicht 2800. :biggrin: ;)

Gast
2018-08-23, 20:02:32
+47% ? Glaub ich nicht .... das meiste müsste dann über Optimierungen ( schlechtere Bildquali ? ) herausgeholt worden sein, denn der "12nm" Prozess bringt nur ~10-15% und die TDP haben sie ja "nicht" erhöht .


Die TDP haben sie sehr wohl mehr oder weniger stark erhöht, und im Vergleich haben sie wohl ihre FE herangezogen die nochmal eine etwas höhere TDP hat.

Gast
2018-08-23, 20:06:15
Die Performance an sich überrascht nicht wirklich, mit den Preisen die sie ausrufen muss die RTX2080 einfach vor der 1080Ti landen, und das dürfte sie laut den Benchmarks wohl knapp.

Was ich mich allerdings frage, ist was die Balken mit DLSS aussagen sollen.
Die meisten Titel heutzutage unterstützen ja gar kein Multisampling mehr und TAA kostet in der Regel nicht so viel Performance, dass selbst bei 0 Kosten (was ja sogar möglich wäre, da dafür die Tensor-Cores verwendet werden, die ansonsten einfach nichts tun würden) dermaßen viel Vorsprung herauskommen kann.

Gast
2018-08-23, 20:14:58
Hat Nvidia dazugeschrieben ob das ein Vergleich der Referenzdesigns oder der Founders Edition ist?

Die 2080FE hat leicht höhere Taktraten und Powerlimits.

Falls ja, kommt in Summe aller oben genannten Effekten halt etwas zusammen, sodass vielleicht die Prognosen vom 14.08.2018 mit geschätzt ~160-180% 4K-Performance Index für die 2080 herauskommt (1080 hat 132%).
Zahlen entnommen aus https://www.3dcenter.org/news/nvidia-teasert-die-turing-basierte-geforce-rtx-2080-fuer-eine-vorstellung-zur-gamescom.

Dino-Fossil
2018-08-23, 20:18:47
Was ich mich allerdings frage, ist was die Balken mit DLSS aussagen sollen.
Die meisten Titel heutzutage unterstützen ja gar kein Multisampling mehr und TAA kostet in der Regel nicht so viel Performance, dass selbst bei 0 Kosten (was ja sogar möglich wäre, da dafür die Tensor-Cores verwendet werden, die ansonsten einfach nichts tun würden) dermaßen viel Vorsprung herauskommen kann.

Das hab ich mich auch gefragt. Welche AA-Einstellung halbiert mal eben die fps? Bzw., welche Einstellungen muss ich sonst so fahren, damit ich das erreiche. Wäre das dann überhaupt noch spielbar?
Oder ist DLSS am Ende eher eine Art upscaling-Technologie, so dass die effektiv berechnete Auflösung sinkt?

cat
2018-08-23, 20:26:08
DLSS nutzt niedrigere Auflösung:

Hier aus dem Mund von Jensen sogar zwei mal

1:00:40
und
1:03:10

https://youtu.be/jY28N0kv7Pk?t=3644

BlacKi
2018-08-23, 20:28:06
DLSS nutzt niedrigere Auflösung:
slightly

+47% ? Glaub ich nicht .... das meiste müsste dann über Optimierungen ( schlechtere Bildquali ? ) herausgeholt worden sein, denn der "12nm" Prozess bringt nur ~10-15% und die TDP haben sie ja "nicht" erhöht .
Lass mich aber gerne positiv überraschen :)

m.f.g. JVC

40% höhere bandbreite. 20% höheres powertarget. mehr oc spielraum, weil die speicherbandbreite nicht mehr so zuschnürt. ich glaub custom vs custom karte wird turing schneller sein als pascal als fe vs fe. erkauft mit höherem verbrauch. ob es nun im schnitt 47% sind oder 40, so um den dreh kommt das wohl so hin.

wenn das DLAA/DLSS feature taugt was es verspricht(2x fps von pascal), dann würde ich bei einer rtx mit 16gb aufwärts zuschlagen. aber 8-11gb sind zu wenig.

iamthebear
2018-08-23, 21:04:29
Also so eine extreme Performanceschleuder kann das AA im Vergleich nicht gewesen sein. Nvidia hat auch Frameraten dazu gepostet für 4K siehe hier: https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2080-performance-benchmark/

Wenn der Bench nicht in der Ecke mit Blick zur Mauer bei allen spielen war dann schafft die 1080 keine 60FPs bei 4K, nicht mal annähernd und die RTX 2080 ist da eindeutig drüber.

Ich habe auf Reddit einen interessanten Thread gefunden: https://www.reddit.com/r/nvidia/comments/99hkzl/exclusive_nvidia_geforce_rtx_2080_ti_editors_day/

So wie es aussieht wurde die Leistung der Shader massiv gesteigert um ca. 50% pro CUDA Core. Weiters scheint die Angabe von TFlops als Leistungsvergleich nicht mehr sehr sinnvoll, da Turing sowohl Integer als auch FP parallel verarbeiten kann und so Load von den FP Einheiten nimmt. Warum Nvidia bei der Präsentation kein Wort erwähnt hat ist mir schleierhaft. Ich war schon kurz davor mir eine 1070 Ti um 389 Euro inkl. Versand zu holen von saturn.at aber ich denke ich warte noch ab bis die Reviews da sind.

Geldmann3
2018-08-23, 21:19:34
Mit DLSS könnte ich GTA 5 eventuell endlich in 8k DSR bei 30FPS spielen. Mit meiner 1080 Ti hänge ich bei 6k@30FPS fest. Wenn DLSS wirklich auf die selbe Bildqualität kommt, wie die "echte" Renderauflösung...

Ist allerdings alles sehr spekulativ... Mit internem 8k wäre ich nach vielen Jahren endlich voll zufrieden, dann konzentriere ich mich in den nächsten Generationen darauf die Framerate auf 120FPS zu steigern. :D Und danach, danach kann meinetwegen noch das Raytracing Geraffel dazukommen.

tEd
2018-08-23, 21:35:27
DLSS nutzt niedrigere Auflösung:

Hier aus dem Mund von Jensen sogar zwei mal

1:00:40
und
1:03:10

https://youtu.be/jY28N0kv7Pk?t=3644

Da bin ich ja auf die Qualität gespannt.

Gast
2018-08-23, 21:41:08
Warum Nvidia bei der Präsentation kein Wort erwähnt hat ist mir schleierhaft.


Naja, dass Turing INT + FP parallel kann wurde eigentlich ziemlich am Beginn gesagt, ebenso, dass niedrigere Genauigkeiten den Durchsatz erhöhen.

Aber warum man nichts näheres sagt ist eigentlich klar, je niedrigere die Erwartungen desto besser schlagen die Reviews am Ende ein.

Gast
2018-08-23, 21:43:34
DLSS nutzt niedrigere Auflösung:



OK also quasi Checkerboard-Rendering on Steroids.

Nvidia bitte gib mir einen neuen ShieldTV, der das DLAA zum hochskalieren von Material <4k verwenden kann.

Freed
2018-08-23, 22:33:41
Bin eh nicht vom Fach, aber ich versteh nicht, wieso eine KI ein qualitativ besseres AA hinbekommen soll. Ist das nicht eine mathematische Operation? Wie wird die durch "Training" effektiver gelöst? Ist das nicht was fixes? Worauf trainier ich denn die KI? Auf das ganze Game? Woher soll die wissen, wo ich hingucken werde? Was ist die Referenz?

Wäre in etwa so, als würde mir jemand sagen, "wir haben eine KI darauf trainiert 1+1 schneller zu berechnen" ... wie gesagt, bin nicht vom Fach

MrSpadge
2018-08-24, 00:12:38
@Freed: stell dir vor, Jensen hätte bei der Präsentation einen Kugelschreiber aus seiner Jacke gezogen. Und dann gesagt: "Keiner von euch hat dieses Ding hier schon mal gesehen. Und doch wisst ihr alle, dass es ein Kugelschreiber ist." So ähnlich funktionieren die neuronalen Netze, sowohl künstlich als auch natürlich. Es geht immer um die Erkennung von Regelmäßigkeiten und Muster sowie Klassifizierung.

Beim DLAA stelle ich es mir so vor: beim Training "lernt" das Netz, dass schlechte Bilder z.B. an schrägen Linien verpixelt sind (Jaggies), während sich bei hoher Qualität eine durchgehende Linie ergibt. Und so eine "typische" Korrektur wird dann angewendet. Wie exakt die Linie wirklich aussehen soll, kann der Algorithmus nicht wissen - muss er aber auch nicht, denn ob die Linie nun auf 1/10 Subpixel genau ist oder nicht sehen wir eh nicht.

Man kann dann die Spiele nach Situationen durchsuchen, in denen das noch nicht gut klappt, und damit gezielt die Trainingsdaten verbessern. Das DLAA könnte also per Treiber noch mit der Zeit besser werden. Oder sie entkoppeln die Trainingsdaten vom Treiber ähnlich der SLI-Profile. Idealerweise reichen globale Trainingsdaten. Wenn ein Spiel aber eine sehr seltsame Optik hat könnten darauf abgestimmte Daten nötig werden.

hat Nvidia irgendwo beworben, dass die Tensor-Cores oder RT-Cores auch gut für HDR wären? Immerhin scheint es hier ausschließlich um HDR zu gehen.
Bei Computerbase war da die 1080 in SDR 11% schneller als mit HDR.

RT und Tensor sicherlich nicht. Aber HDR arbeitet mit anderen Datenformaten, was abhängig von der Architektur schon einen Einfluss auf die Leistung hat.

MrS

Gast
2018-08-24, 00:15:47
In der Anfangszeit der 3D-Grafik war dagegen die Beurteilung der Bildqualität und das gewichtete Urteil zwischen Bildqualität und Performance die hohe Schule der Grafikkarten-Tests, dies ist in letzter Zeit (leider, aber naturgemäß) ziemlich verloren gegangen.
Dann könnte 3dc ja welche machen, der Rest crampt doch sowieso nur auf der Tastatur umher, nach den längsten Benchmarkbalken suchend für das Kiddieklientel das ihnen die Foren mit völlig nutzlosen Inhalt voll spammt. Klick, klick, klick. Tut mir Leid, aber wenn ich manchmal sehe was die PCGH, Computerbase oder Hardwareluxx und all die ganzen Tester abliefern wird mir einfach übel. Das hat mit wirklichen Tests wie wir sie aus der Vergangenheit kennen, wo eben LOD, Physc, Geometrie, Pixelanzahl, Glättungsverfahren im Verhältnis zur Leistung, Qualität und Anschaffungspreis gestellt wurden, wobei diese Erkenntnisse wichtig waren überhaupt nichts mehr zu tun. Da hat man ja nicht mal eine einhellige Methode entwickelt den Verbrauch zu messen. Wie man die Ergebnisse erlangt und die Beschreibung dazu lässt man gleich ganz weg. Das macht viel zu viel Arbeit. Heute wird doch nur noch großspurig nachgeplappert was auf dem Prospekt vom Hersteller steht. Dann als Binsenweisheit verkauft und vorher größtenteils fehlerfrei Inhalt vom Whitepaper abgeschrieben, damit man das letzte oder nächste Lineup ja nicht bezahlen muss. Die kann man getrost zum Mond schießen und den Rest wie TortelimiGo inklusive der dort ansässigen grünen Snobfanbase. Da lässt man in seiner grünen Arroganz kein gutes Haar an einer Konkurrenzkarte. Der größte Teil dürfte mit dem Technologieansatz sowieso völlig überfordert sein, wie das auch der Großteil der Käufer sein wird. Schön zujubeln und klatschen! Auf Herz und Nieren wird heute nicht mehr getestet, schnell, schnell und fertig. NVidia steht schon in der Tür und will die Karten wieder zurück. Wirft noch paar T-Shirts und Basecaps rüber, nochmal freundlich Grinsen und weg. Später noch ein paar Droh-E-Mails doch bitte nach Vorlegen des Schriebs und Einlesen, die Kritik zu löschen, NDAs zu beachten (natürlich für den Rest des Lebens) und das wars.

Das World Wide Web ist voll von selbsternannten Spezialisten die überhaupt keine sind. Macht mal d3dtester für GPUs, lasst diesen ganzen Fanboyquatsch und überflüssige Getue raus, wobei man sich erinnern sollte was richtige Tests ausmachten! Hier sitzen doch genug die das könnten.

Wort am Donnerstag Abend ist vorbei.:D

Platos
2018-08-24, 01:55:34
Jetzt sind es schon 2 Typos. In der Tabelle steht 280 und Du meinst doch bestimmt 2080 und nicht 2800. :biggrin: ;)

Korrigiert :biggrin:

Platos
2018-08-24, 02:04:44
Mit DLSS könnte ich GTA 5 eventuell endlich in 8k DSR bei 30FPS spielen. Mit meiner 1080 Ti hänge ich bei 6k@30FPS fest. Wenn DLSS wirklich auf die selbe Bildqualität kommt, wie die "echte" Renderauflösung...

Ist allerdings alles sehr spekulativ... Mit internem 8k wäre ich nach vielen Jahren endlich voll zufrieden, dann konzentriere ich mich in den nächsten Generationen darauf die Framerate auf 120FPS zu steigern. :D Und danach, danach kann meinetwegen noch das Raytracing Geraffel dazukommen.

Trotzdem... Was machst du denn bei so hohen Auflösung mti immer noch "nur" 11GB ? Gerade bei 8K hat fast jedes AAA Spiel die 11GB geknackt oder zumindest beinahe. Also ich weiss ja nicht, ob das so geil ist.

Leonidas
2018-08-24, 05:25:33
RTX 280 anstatt 2800 2080 in der Tabelle


Gefixt.

JVC
2018-08-24, 07:20:08
Hab irgendwo gelesen das man sich bei NV registrieren muss
um die paar mb Daten für das jeweilige Spiel,
damit DLSS überhaupt richtig funktioniert,
herunterladen zu können ... oder war das für Raytracing ?

Ich hab irgendwo was von einem "Zwang wenn man das nutzen will" gelesen :confused:
Auf Zwänge reagier ich allergisch ^^ ( find es leider nicht mehr )


DLSS nutzt niedrigere Auflösung:

Hier aus dem Mund von Jensen sogar zwei mal

1:00:40
und
1:03:10

https://youtu.be/jY28N0kv7Pk?t=3644
Hm da bin ich skeptisch zwecks der tatsächlichen "besseren Bildqualität" ...
Ich bevorzuge, falls ich genug Leistung habe, lieber "Bildverbessernde Features"
als "Bildverwaschende Features" ...

Ich kann meinen 4K Fernseher auch mit WQHD füttern
und er macht ein "wirklich brauchbares" Upscaling ... ;)
Sieht dann etwas "weich" aus und hat auch kaum Treppen Effekte,
für Spiele fand ich es voll ok. ( besser als 4K mit reduzierten Einstellungen ! )
Machte ich ein paar Monate lang mit der 390X vor der 1080Ti.

m.f.g. JVC

p.s.: Nicht im spiel die Auflösung runterstellen sondern generell die kleinere Auflösung in der Anzeige einstellen, mein ich .
( und dann natürlich auch jegliche "Kanten Glättung" deaktivieren ;) )

BigKid
2018-08-24, 09:21:44
Und auch hier Stelle ich die Frage warum nicht zumindest hinterfragt wird wie ein AA-Verfahren soviel Performance bringen soll wenn es nicht gleichzeitig bedeutet, dass eigentlich in einer niedrigeren Auflösung gerendert und dann per AI-Upscaling hochgerechnet wird...

Ich bin nach wie vor überzeugt das 3k mit DLSS eben nicht bedeutet gerendert in 4k (oder wie manche Träumen gar mehr) und dann ein gutes performantes AA sondern eher rendern in wqhd ? 1080p? und dann upscaling per Tensor Cores - das AA ist dabei Quasi ein Abfallprodukt...

Ab hier ist meiner Ansicht nach zumindest mal Misstrauen angebracht, wenn NVidia von 4k Resolution spricht...

(Und weils sonst gleich wieder heisst NVIDIA oder Zukunftfeindlich: Ich halte DLSS für einen großen Wurf - ich halte nur nix davon wie das wie NV das schon wieder in Balkenlängen verwurschtet für falsch... wenn DLSS ein Upscaling ist dann darf man meiner Ansicht nach nicht einfach schreiben "4k@60fps" ...

BlacKi
2018-08-24, 09:31:53
(Und weils sonst gleich wieder heisst NVIDIA oder Zukunftfeindlich: Ich halte DLSS für einen großen Wurf - ich halte nur nix davon wie das wie NV das schon wieder in Balkenlängen verwurschtet für falsch... wenn DLSS ein Upscaling ist dann darf man meiner Ansicht nach nicht einfach schreiben "4k@60fps" ...
wieso hast du jetzt schon eine feste meinung dazu? wir kennen weder die bildqualität oder den echten performance gain.

Grafikspachtel
2018-08-24, 09:40:13
47% glaub ich sofort.
Man muss lediglich vor dem Vergleich den Spielen in den Fuß schießen, indem man ihnen "Features" verpasst, bei denen Pascal frontalversagt.
Und dann natürlich die Spieleauswahl auf exaxt diese RTX-Titel eingrenzen.

So lief das damals mit Tessellation:
https://techreport.com/review/21404/crysis-2-tessellation-too-much-of-a-good-thing/2
Wieviel Tessellation braucht z.B. so ein Merkelpoller?
Und sollte man animierte Wellen wirklich unter die komplette Map packen, auch wenn dort überhaupt kein Wasser zu sehen ist, weil es durch andere Dinge verdeckt wird?

Und so läuft's jetzt wieder mit Pseudo-Raytracing.

BigKid
2018-08-24, 09:48:10
wieso hast du jetzt schon eine feste meinung dazu? wir kennen weder die bildqualität oder den echten performance gain.
1: Wenn Nvidia angibt dass ein AA Verfahren 25% Performance Steigerung bringt - glaubst du dann an Magie ? Ein AA Verfahren kann maximal weniger Zeit kosten als ein anderes. Wenn ich dann Angaben sehe 60fps mit TAA und 80fps mit DLSS - dann muss ich mich fragen: Kann TAA überhaupt 20 frames kosten ? Nein kann es nicht - kann DLSS dann einfach so 20 fps mehr bringen wenn es "nur" AA ist ? Nein - kann es nicht -> DLSS muss noch was anderes tun und da BLEIBT nur dass ein Spiel mit DLSS in niedrigerer Auflösung rendert und dann Hochskaliert wird...
Und wir kennen zumindest schonmal den Gain durch DLSS den NVidia angibt... 25% ohne Raytracing...
Übrigens noch mehr mit Raytracing und genau das untermauert dass bei DLSS in niedrigerer Auflösung gerendert wird denn genau davon profitiert Raytracing natürlich stärker...

2: Schau dir mal die Experimente von NV zum Thema Bildverarbeitung mit AI an aus der letzten Zeit - zB Denoising... Oder sogar ganze Bildteile zu rekonstruieren... Dann bekommst du einen Anhaltspunkt wie gut das Funktionieren kann... Deshalb finde ich DLSS auch ansich ne super Idee... Ich denke auch ohne DLSS macht Raytracing auf aktuellen Karten noch gar keinen Sinn...

3. Erklärt das sogar warum sie nicht mehr Speicher drauf gepackt haben - wen DLSS in niedrigeren Auflösungen ohne nennenswerten Quali verlust rendern kann dann brauchst du auch keine UHD Texturen mehr... das erschlägts grad mit...

4. Ich bewerte auch aktuell nur, dass NV hier IMHO trickst um nicht zu sagen täuscht wenn sie ein hochskaliertes 1080p/WQHD oder was immer es ist als 4k verkaufen ohne dazu zu stehen... Ich bewerte das aus rein technischer Sicht... Dabei kann mir auch egal sein wie die Bildquali am Ende ist... Wenn auf der Waschmittelpackung draufsteht 200gr dann müssen auch 200gr drinn sein - auch wenn das neue Superwasch 2x so ergiebig ist... Die Angabe 200gr ist dann einfach falsch... Richtig wäre die Angabe so ergiebig wie 200gr ...

Dino-Fossil
2018-08-24, 11:11:49
Wenn hier wirklich ein Ausgangsbild mit niedriger Auflösung hochskaliert wird, dann muss man jedenfalls bedenken, dass auch eine AI keine Information rekonstruieren kann, die es nicht mehr gibt. Sie kann höchstens interpretieren oder faken.
Wenn es ordentlich gemacht ist, kann das dann sehr gut aussehen, aber es wäre sicherlich etwas, wo man sich die Qualität mal genauer ansehen sollte.
Auch neigen solche AI-Methoden manchmal zu Artefakten. Evtl. fällt das nicht groß auf, aber den einen oder anderen Spieler könnte es stören.

BigKid
2018-08-24, 12:02:49
Wenn hier wirklich ein Ausgangsbild mit niedriger Auflösung hochskaliert wird, dann muss man jedenfalls bedenken, dass auch eine AI keine Information rekonstruieren kann, die es nicht mehr gibt. Sie kann höchstens interpretieren oder faken.
Wenn es ordentlich gemacht ist, kann das dann sehr gut aussehen, aber es wäre sicherlich etwas, wo man sich die Qualität mal genauer ansehen sollte.
Auch neigen solche AI-Methoden manchmal zu Artefakten. Evtl. fällt das nicht groß auf, aber den einen oder anderen Spieler könnte es stören.

Dazu grad im Speku-Thread:
https://developer.nvidia.com/rtx/ngx

At runtime, a full resolution frame with motion vectors is required in addition to the input image to be anti-aliased.
Bedeutet meiner Ansicht nach das DLSS die Verktorinformationen in der Zielauflösung braucht (aber nicht das voll gerenderte Image) + das Image das hochskaliert werden soll... Damit kann man auf jeden Fall schonmal mehr Anfangen als nur mit dem Bild... Somit kann das Ergebnis auch nochmal besser sein als zB beim Upscaling der Samsung 8k TVs...
Eventuell muss man hier auch tatsächlich zwischen DLSS und DLAA unterscheiden - vlt. ist das eine ja tatsächlich nur ein AA (dann bringts aber niemals +25% Balkenlänge...)

BlacKi
2018-08-24, 12:24:21
1: Wenn Nvidia angibt dass ein AA Verfahren 25% Performance Steigerung bringt - glaubst du dann an Magie ?
lass doch erstmal abwarten ob die quali was taugt und wieviel sie bringt? danach sehen wir weiter, vl klärt sich das alles ohne 4 wochen im vorraus wild zu spekulieren das sie lügen.

es ist ja nicht so, als müssten wir das alles heute wissen, denn die karten sind sowieso schon weg.

BigKid
2018-08-24, 12:27:58
Ein anderer Ansatz wieso DLSS Leistung bringt wäre wenn es nicht upscaled sondern Zwischenbilder Approximiert! Bedeutet es würde nicht mehr jedes Bild berechnet...

Dino-Fossil
2018-08-24, 12:33:47
Ein anderer Ansatz wieso DLSS Leistung bringt wäre wenn es nicht upscaled sondern Zwischenbilder Approximiert! Bedeutet es würde nicht mehr jedes Bild berechnet...

Das könnte erklären wofür man die "Motion Vectors" benötigt...

(Nicht das ich eine große Ahnung von solchen Methoden hätte...)

Gast
2018-08-24, 13:04:48
Es scheint sich klar um Formen von Scaling zu handeln, dass heißt Vergleiche mit wirklichem 4K bei AA sind völlig belanglos, die Balken die nVidiamarketing bereitstelllte sind völlig nutzlos. Das nVidia das Ausgangsmaetrial auch so anpasst wie es ihnen die längsten Balken generiert, hat man bei Maxwell und Pascal DX11/DX12 gesehen.

Genau daher braucht es auch Experten die sich das mal ansehen, man erinnere sich damals an ATIs Schummelei, wo sie meinten das sein ein Treiberfehler. Wurde hier im 3dc auch ausgiebig berichtet und analysiert. Ich glaube nicht das andere dazu überhaupt in der Lage sind und das weiß nVidia ganz genau, da wird schnell was zurechtgeschrieben Hauptsache lange Balken und gut.

Es mag ja sein das dies auch längere Balken generiert und die Grundidee nicht schlecht ist, aber zu Lasten der Bildqualität geht wobei das Bild oder Bildanteile auf einer 2070 dann anders aufgelöst isind, als auf einer 2080ti. Früher war es eben so, dass die Darstellungsqualität mit AA gleich war, aber der Chip das nicht schaffte.

GPU Cheaten wenn mich einer fragt und das ist doch wohl verpöhnt unter Experten. Sowas macht auch der Großteil der Enthusiasten nicht mit.

JVC
2018-08-24, 13:34:23
... wenn DLSS ein Upscaling ist dann darf man meiner Ansicht nach nicht einfach schreiben "4k@60fps" ...

Genau Das .


Ich bin dem gegenüber noch sehr skeptisch eingestellt ...
Sollte das aber wirklich klappen ohne merklich Bildqualität zu verlieren
Dann wär das natürlich echt ne Option :)
( aber natürlich keine für einen direckten "Balken vergleich" in Tests )

m.f.g. JVC

p.s.:
Das mit den Zwischen Bildern wäre auch nur eine Art "Schummelei" ...
ok wenn sie gut gemacht ist, aber nicht geeignet für einen direkten vergleich ...
Dem widerspricht aber ...
DLSS nutzt niedrigere Auflösung:

Hier aus dem Mund von Jensen sogar zwei mal

1:00:40
und
1:03:10

https://youtu.be/jY28N0kv7Pk?t=3644
Vielleicht nutzen sie ja sogar etwas von beidem um auf die teils über +100% zu kommen :ulol:

cat
2018-08-24, 17:01:32
Der dunkel-grüne Anteil zeigt:
"die echte Differenz bei 4K"

Der zusätzliche hell-grüne Anteil zeigt:
"den extra Zugewinn durch die aufbereitete aber niedrigere Auflösung, vermutlich 1440p"

ist aber in der Intensität nur eine Vermutung von mir. "50% weniger Auflösung"
https://img.techpowerup.org/180824/nvidia-geforce-rtx-2080-offi-performance-modified.png

Ich fände es nicht bedenklich sowas zu vergleichen, solange die Ergebnisse qualitativ sehr nahe zusammen liegen.

Den Test hätte man auf anders machen können, indem beide Karten in 1440p laufen, aber die Turing nutzt DLSS und die Pascal nutzt z.B: MFAA 4x/8x.

Wie gesagt die Endqualität muss vergleichbar sein, sonst ist es Schummeln durch Weglassen.

BigKid
2018-08-24, 17:36:58
Nein... Schummeln beginnt wenn ich verschweige dass es upscaling ist ;)
(Falls es upscaling ist)
Egal wie gut es ist...

Gast
2018-08-24, 21:16:42
Nein... Schummeln beginnt wenn ich verschweige dass es upscaling ist ;)



Das wird ja überhaupt nicht verschwiegen, ganz im Gegenteil.

Was allerdings noch fehlen sind die Details. Wird in Zielauflösung gerendert und anschließend auf eine höhere upgescaled, also quasi Supersampling mit erzeugung der zusätzlichen Samples durch AI. Oder wird kleiner der Zielauflösung gerendert und dann auf die Zielauflösung upgescaled.

Gast
2018-08-24, 21:18:40
Das könnte erklären wofür man die "Motion Vectors" benötigt...


Die Motion-Vectors brauchen sie fürs Temporale AA, also das Unterdrücken von flimmern, ebenso wie bei normalem TAA.

cat
2018-08-24, 21:19:03
Jensen sagte doch "sinngemäß" in der von mir verlinkten Quadro RTX Vorstellung:

With DLSS we can use lower Resolution.
We do not scale it up, but we make the Quality better.

Quasi nimmt man 1440p statt 4K und nutzt dann Deep-Learning-Bildverbesserung die gleichzeitig auch die Vorteile von Temporal-AA mitbringt.

JVC
2018-08-24, 23:48:32
Da kämpft man für mehr Bildpunkte, mehr Qualität und Downscaling ...
Und dann kommt NV mit Upscaling daher und meint das wäre toll :confused:
Upscaling ist eigentlich ein sehr alter Hut.


Ich bin da echt auf Bildqualitätsvergleiche gespannt ;)
( und nicht nur auf den Vergleich von Standbildern... )

Vielleicht ist ja die RTX Einheit tatsächlich zu mehr gut als nur irgendwo was "Glänzen" zu lassen.

m.f.g. JVC

Gast
2018-08-25, 15:12:23
Vielleicht ist ja die RTX Einheit tatsächlich zu mehr gut als nur irgendwo was "Glänzen" zu lassen.



Das machen die Tensor-Cores, nicht die RT-Einheit.

Ich bin ehrlich gesagt mehr neugierig auf die Schatten die das Raytracing erzeugen kann.

Die bisherigen Schatten, ob hart oder soft wirken immer irgendwie "Fake".
Was vor allem die Tomb Raider Demo an Schatten gezeigt hat, hat wirklich sehr gut ausgesehen.

Simple Reflektionen sehen für mich in der Fake-Variante meistens noch gut genug aus, und mehrfache Reflektionen hat man jetzt in Spielen auch nicht dermaßen häufig. Für einige Genres sind diese natürlich auch sehr wertvoll, dass sich beispielsweise in Racing-Games die Autos endlich gegenseitig spiegeln können ist doch ein starkes optisches Plus. Ich befürchte nur dass in Assetto Corsa die Performance vorerst für Raytracing + VR nicht ausreichen wird, und VR ist für Assetto Corsa einfach Pflicht.

Gast
2018-08-26, 23:30:58
Also ich will wenn ich 2160p einstelle auch 2160p sehen und nicht nur 1440p oder 1800p, egal wie es aussieht oder ob es mir aufällt. Der Rest ist einfach Beschiß gegenüber den Kunden und der Konkrrenz.

Nun legt nVida fest welche Auflösung mir gefallen muss und welche nicht? Ich stelle 5k und sehe zurecht gerenderte 3k weils mir ja nicht auffällt. Was für eine bekloppte Logik. Dann kann ich gleich selbst 3k einstellen nur wiord dieser Quastch dann nur mit 1k gerendert.

Wer so etwas gut findet denkt für mich nicht ganz klar im Kopf. Es werden 4K beworben dann werden 4k gezeigt, nicht 256bit beworben und 232+24 gezeigt. Ist der gleiche Unsinn den nVidia hier schon wieder versucht. Die lernen einfach nichts. Der Firma kann man wenns so idt nicht mehr über den Weg trauen. Man muss liefern was man beschriebt, denen knallt die EU sonst eine vor, geht aus dem Verbaucherschutz hervor. Heutzutage kommen sie auch nicht mehr so glimpflich weg wie damals bei 970 Fiasko, nun gibt es Sammelklagen die auch durchgezogen werden und dann dürfen sie blechen.

Gast
2018-08-27, 15:04:47
Also ich will wenn ich 2160p einstelle auch 2160p sehen und nicht nur 1440p oder 1800p, egal wie es aussieht oder ob es mir aufällt. Der Rest ist einfach Beschiß gegenüber den Kunden und der Konkrrenz.

Nun legt nVida fest welche Auflösung mir gefallen muss und welche nicht? Ich stelle 5k und sehe zurecht gerenderte 3k weils mir ja nicht auffällt. Was für eine bekloppte Logik. Dann kann ich gleich selbst 3k einstellen nur wiord dieser Quastch dann nur mit 1k gerendert.

Wer so etwas gut findet denkt für mich nicht ganz klar im Kopf. Es werden 4K beworben dann werden 4k gezeigt, nicht 256bit beworben und 232+24 gezeigt. Ist der gleiche Unsinn den nVidia hier schon wieder versucht. Die lernen einfach nichts. Der Firma kann man wenns so idt nicht mehr über den Weg trauen. Man muss liefern was man beschriebt, denen knallt die EU sonst eine vor, geht aus dem Verbaucherschutz hervor. Heutzutage kommen sie auch nicht mehr so glimpflich weg wie damals bei 970 Fiasko, nun gibt es Sammelklagen die auch durchgezogen werden und dann dürfen sie blechen.

Wie wärs wenn wir erstmal auf Fakten und Tests warten bevor wir das Hexenfeuer anzünden ?

ChaosTM
2018-08-27, 21:21:08
Bin auf jeden Fall gespannt wie gut das wirklich wird.
Speziell für VR könnte das die "Erlösung" sein, um endlich genug "Bandbreite" für hohe Bildraten und einen erweiterten FOV zu haben bei 4K/Auge Qualität.

645t
2018-08-27, 23:10:10
Vielleicht handelt es sich um eine Art von Checkerboard-Rendering (https://en.wikipedia.org/wiki/Checkerboard_rendering) mit einem trainierten Rekonstruktionsfilter - wie beim RT-Denoising (https://www.youtube.com/watch?v=9yy18s-FHWw). Das würde jedenfalls die große Performance-Differenz erklären.