Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 [36] 37 38 39 40 41 42 43 44 45 46 47 48

Troyan
2018-09-13, 21:33:38
Wie, immer noch keine Treiber? Wie gut, dass das 'ne uralte Architektur ist, die man mal schnell zwischen 12 und Mittag durchtesten kann, ist ja alles bekannt und kein Ding. :uup: Und generell ist die Bereitstellung vor einem Wochenende, um dann mit "Das sind doch zwei volle Tage!" argumentieren zu können, echt clever.

MfG,
Raff

Dafür habt ihr doch jetzt zwei Tage mehr Zeit. :cool:

Screemer
2018-09-13, 22:02:30
Caseking hat heute schon Karten bekommen, zumindest gabs nen Lagershot von der8auer.
nur zur ergänzung:

https://instagram.fmuc4-1.fna.fbcdn.net/vp/aa148bd94d09d2b4dd5df24c11c7baba/5C3AAC27/t51.2885-15/e35/40543140_705711366488369_7118570539543556979_n.jpg

pixeljetstream
2018-09-13, 22:02:46
@Rampage2 einfach auf das volle Whitepaper warten, dauert nicht mehr lange.

basix
2018-09-13, 22:07:51
14.9. oder?

Kriton
2018-09-13, 22:28:30
14.9. oder?

Die 1. Regel des Fightclubs...

Raff
2018-09-13, 22:30:42
Wann hat Nvidia die Weißpapiere denn sonst immer veröffentlicht?

Dafür habt ihr doch jetzt zwei Tage mehr Zeit. :cool:

Die Anzahl der zu testenden Produkte ist identisch, nur die Staffelung bleibt aus. :uclap:

MfG,
Raff

Menace
2018-09-13, 22:39:54
Wann hat Nvidia die Weißpapiere denn sonst immer veröffentlicht?

Die Anzahl der zu testenden Produkte ist identisch, nur die Staffelung bleibt aus. :uclap:

MfG,
Raff


Damit das beste Produkt (Ti) über die anderen Produkte hinweg scheint und selbst RTX 2070 eine tolle RTX-Grafikkarte ist.
Grafikqualität BFV von vor zich Wochen; Preis der 2070 und Leistung der Ti.


Nein, Spaß. Freue mich trotz allem auf die Tests. :top:

Dural
2018-09-13, 23:13:29
Ich sehe da nur eine evga, karten?

Screemer
2018-09-13, 23:24:02
Ich sehe da nur eine evga, karten?

https://www.instagram.com/p/Bnnt-Y-hNKG/?utm_source=ig_web_button_native_share

Mehr gibt's nicht.

horn 12
2018-09-13, 23:38:22
Nun, vielleicht doch schneller als angenommen
und dann muss AMD in die Pöttiche kommen!

Kriegsgeier
2018-09-14, 06:46:27
RTX 2080 built to overclock!

https://videocardz.com/newz/nvidia-claims-geforce-rtx-2080-is-built-to-overclock

GSXR-1000
2018-09-14, 07:39:10
RTX 2080 built to overclock!

https://videocardz.com/newz/nvidia-claims-geforce-rtx-2080-is-built-to-overclock
Hmmm ja. Überzeugend. Der Begriff "Promotion" oder auch altdeutsch "Werbung" ist einigen hier bekannt?
Aber nein. Stimmt ja garnicht. Das sind TATSACHEN...

Ist es nicht so, das in den ankündigungen JEDE bisherige GeneratioN "Build to overclock" war? Egal welchen Herstellers?

dildo4u
2018-09-14, 07:46:24
Klar ist das Promotion aber das der Kühler Meilen besser wird ist ne Tatsache wenn man sich Mal mit den alten Blower Design beschäftigt hat.Ich meine die 1080 FE läuft mit 83 Grad und die Karte ist nicht Grad als Heizer bekannt.

Captain Future
2018-09-14, 08:11:32
Die läuft mit 83 Grad weil Nividia meint, dass das richtig so ist und sich da die IDealkurven von temperatur, vcore und takt schneiden. Genauso wie meine 290x 93Grad heiss wurde, weil AMD meinte, der Lüfter muss ganz lange möglichst leise bleiben.

Leonidas
2018-09-14, 08:18:41
Wer mal wieder wenig sagende Performancenumbers von der GTC Japan haben will:


Umgerechnet sagt dies aus:
1080Ti zu 2080Ti = +47%
1080 zu 2080 = +50%
(wie auf der Hauptseite ausgeführt (https://www.3dcenter.org/news/nvidia-prognostiziert-die-4k-performance-von-turing-mit-47-50-gegenueber-pascal))

Hübie
2018-09-14, 08:50:36
Ist es nicht so, das in den ankündigungen JEDE bisherige GeneratioN "Build to overclock" war? Egal welchen Herstellers?

Beweise! Iirc hatte man das bei Pascal kurz angesprochen, aber nicht auf Folien genannt. Maxwell, Kepler, Fermi, Tesla...? Liefere mal Beweise für deine "TATSACHE".

Das die Energieversorgung umgestrickt wurde, konnte man übrigens auf dem geleakten PCB sehr schön erkennen. :smile:

GSXR-1000
2018-09-14, 09:23:09
Beweise! Iirc hatte man das bei Pascal kurz angesprochen, aber nicht auf Folien genannt. Maxwell, Kepler, Fermi, Tesla...? Liefere mal Beweise für deine "TATSACHE".
Hast du alle vorstellungsveranstaltungen der letzten 10 jahre verlinkt? Falls ja koennen wir diese events gerne auf diesbezueglichen aussagen durchgehen. Ebenso bitte alle entsprechenden Aussagen vor den jeweiligen launches von lederjacke und seinem PR team.
Oder ist die sensation fuer dich jetzt,das es eine explizit so benannte folie ist? Nun,dann werden wir beide diese frage wohl noch weniger beantworten koennen. Soweit ich es verstanden habe sind es folien, die eigentlich unter nda fallen. Wir werden also kaum verifizieren koennen, welche folien es vorher gab?
Diese folien sind primaer dazu gedacht, dem tester fuer seinen test unter zeitdruck positive marketingaussagen an di3 hand zu geben, die dann gerne als textfueller dienen, in der kuerze der zeit fuer den tester allerdings in der kuerze der zeit kaum zu evaluieren sind, hier schon sowieso nicht, da relevante bezugsgroesseninformationen und details fehlen

Hübie
2018-09-14, 09:29:21
Tolle Diskussionskultur. :uclap: Deine Behauptungen müssen von dir belegt werden. Deine Glaubwürdigkeit driftet mal wieder ins tr0lling ab, wenn du schon so kommst. Also bitte: 'put up or shut up'. :rolleyes:

Klevapalis
2018-09-14, 10:09:41
Hast du alle vorstellungsveranstaltungen der letzten 10 jahre verlinkt? Falls ja koennen wir diese events gerne auf diesbezueglichen aussagen durchgehen. Ebenso bitte alle entsprechenden Aussagen vor den jeweiligen launches von lederjacke und seinem PR team.
Hau rein, wir warten auf deine stringente Beweisführung :up:

Dural
2018-09-14, 10:13:22
Hmmm ja. Überzeugend. Der Begriff "Promotion" oder auch altdeutsch "Werbung" ist einigen hier bekannt?
Aber nein. Stimmt ja garnicht. Das sind TATSACHEN...

Ist es nicht so, das in den ankündigungen JEDE bisherige GeneratioN "Build to overclock" war? Egal welchen Herstellers?

Bei NV hat das aber immer zugetroffen, Pascal ging ja recht gut zum OC wobei die von NV damals genannten 2,1GHz schon viel waren. Fairerweise muss man aber auch sagen das NV nie was über die Kühlung bei den 2,1GHz gesagt hat.

Wenn ich da an AMD und Fury denke... Ich verstehe eh nicht wie man AMD Fan sein kann, ständig nur die Nr2 und ständig werden die User komplett verarscht und belogen (Poor Volta etc.) von denen. Aber man muss ja nicht immer alles verstehen. :rolleyes: Aber sobald NV einen kleinen Fehltritt leistet steht es in jeder News und wird in den Foren Seitenlang diskutiert. Das ist wohl der Preis wenn man komplett überlegen mit seinen Produkten ist. :confused:

SKYNET
2018-09-14, 10:19:14
RTX 2080 built to overclock!

https://videocardz.com/newz/nvidia-claims-geforce-rtx-2080-is-built-to-overclock

am besten sind die VRM und lautstärke vergleiche mit der 1080Ti FE :ulol:

jede gute 1080Ti custom hat min. ne 10 phasen versorgung... heisst deutlich mehr als die 2080Ti FE hat, und von der lautstärke/temps wollen wir nicht anfangen, da ist wohl jeder custom kühler(selbst die billigen wie auf der armor serie von msi) leiser und kühler als der original müll der FE. X-D


Wenn ich da an AMD und Fury denke... Ich verstehe eh nicht wie man AMD Fan sein kann, ständig nur die Nr2 und ständig werden die User komplett verarscht und belogen (Poor Volta etc.) von denen.

ich hoffe ich habe irgendwo die ironie überlesen :confused:

maximus_hertus
2018-09-14, 10:24:16
Bei NV hat das aber immer zugetroffen, Pascal ging ja recht gut zum OC wobei die von NV damals genannten 2,1GHz schon viel waren. Fairerweise muss man aber auch sagen das NV nie was über die Kühlung bei den 2,1GHz gesagt hat.

Wenn ich da an AMD und Fury denke... Ich verstehe eh nicht wie man AMD Fan sein kann, ständig nur die Nr2 und ständig werden die User komplett verarscht und belogen (Poor Volta etc.) von denen. Aber man muss ja nicht immer alles verstehen. :rolleyes: Aber sobald NV einen kleinen Fehltritt leistet steht es in jeder News und wird in den Foren Seitenlang diskutiert. Das ist wohl der Preis wenn man komplett überlegen mit seinen Produkten ist. :confused:

Willst du noch ernst genommen werden?

1. Die 2.1 GHz hatten nichts mit der Realität zu tun. Da haben sie ein Golden Sample gezeigt, kann man machen, muss man aber nicht.

2. Wie kann man nV Fan sein? Wie kann man überhapt ein IHV Fan sein?

3. Nr1, Nr2, who cares? Ich will hübsch und flüssig spielen, dazu kein Vermögen ausgeben. Nicht mehr und nicht weniger.

4. Hast du mal ein Link zu den Lügen? AMD ist ja ein Aktienunternehmen, da sollten sie es ja tunlichst sein lassen mit absichtlichen Lügen.

5. Ich kann mich nicht erinnern, wann nV mal wirklich kritisch von der Presse kritisiert wurde. Egal ob das 3.5 GB Gate (das ging gar nicht, nicht entschuldbar), GPP und Co. - nV macht es einem auch leicht kritisch zu sein.

Dural
2018-09-14, 10:28:09
Wie so vergleicht ihr immer zwei völlig unterschiedliche Kühlsysteme?!?

Es ist und bleibt einfach dämlich die Warme Luft im Case um zu wälzen, und es ist einfach Fakt das so ein Kühlsystem die Innentemperatur erheblich steigert. :rolleyes:

Eigentlich müsste man den ATX Standard mal anpassen, und für die Grafikkarte eine schöne grosse Öffnung im Case für die Luft des Kühlers verwirklichen.

Klevapalis
2018-09-14, 10:30:33
1. Die 2.1 GHz hatten nichts mit der Realität zu tun. Da haben sie ein Golden Sample gezeigt, kann man machen, muss man aber nicht.
Dennoch war Pascal hervorragend OC-bar. Die Werbung war völlig richtig. Dass jede Karte auf 2,1Ghz gehen würde, war nie versprochen.

4. Hast du mal ein Link zu den Lügen? AMD ist ja ein Aktienunternehmen, da sollten sie es ja tunlichst sein lassen mit absichtlichen Lügen.
AMD hat bei der FuryX Präsentation behauptet, die Karte sei der "overclocker's dream". Das war - angesichts der tatsächlichen Übertaktbarkeit - eine ziemlich dreiste Lüge.

Hübie
2018-09-14, 10:33:44
Willst du noch ernst genommen werden?

1. Die 2.1 GHz hatten nichts mit der Realität zu tun. Da haben sie ein Golden Sample gezeigt, kann man machen, muss man aber nicht.

2. Wie kann man nV Fan sein? Wie kann man überhapt ein IHV Fan sein?

3. Nr1, Nr2, who cares? Ich will hübsch und flüssig spielen, dazu kein Vermögen ausgeben. Nicht mehr und nicht weniger.

4. Hast du mal ein Link zu den Lügen? AMD ist ja ein Aktienunternehmen, da sollten sie es ja tunlichst sein lassen mit absichtlichen Lügen.

5. Ich kann mich nicht erinnern, wann nV mal wirklich kritisch von der Presse kritisiert wurde. Egal ob das 3.5 GB Gate (das ging gar nicht, nicht entschuldbar), GPP und Co. - nV macht es einem auch leicht kritisch zu sein.

Für deinen Punkt 3 hast du einen Orden verdient. So sollte es jeder halten...
Die Metrik Leistung pro Dollar wird von vielen Käufern als Hauptkriterium gestellt, aber von den Medien selten quantifiziert (Iirc nur TPU - und deren Reviews sind nicht gerade top notch...).

@Klevapils: Ich weiß zwar dass du zur grünen Fraktion gehörst, aber in dem Fall hast du Recht. AMD hat mehrmals falsche Aussagen getätigt (NVIDIA übrigens auch!). Von daher ist keiner der IHV frei gesprochen... Auch kein Intel, Samsung, Qualcomm etc.

VooDoo7mx
2018-09-14, 10:34:57
Die 2114MHz die nVidia bei der 1080 Präsentation gezeigt hat waren schon eine miese Nummer. Es gibt eher wenig 1080 die das stabil schaffen. Eine FE karte schafft das schon gar nicht, da man bei voller Belastung bei 2114MHz das Power Limit doppelt und dreifach sprengt. Da braucht man schon eine 1080 die 250W+ ziehen kann.
nVidia scheint aber gelernt zu haben und sie haben nicht noch einmal so eine Nummer bei der Turing Präsentation gebracht.

Und trotz allen ließen sich sowohl Maxwell als auch Pascal sehr gut übertakten. Pascal sogar noch sehr gut undervolten und/oder übertakten.
Bei Turing gehe ich zu 99,9% davon aus, dass sich dies fortsetzt.

robbitop
2018-09-14, 10:42:39
Bei NV hat das aber immer zugetroffen, Pascal ging ja recht gut zum OC wobei die von NV damals genannten 2,1GHz schon viel waren. Fairerweise muss man aber auch sagen das NV nie was über die Kühlung bei den 2,1GHz gesagt hat.

Wenn ich da an AMD und Fury denke... Ich verstehe eh nicht wie man AMD Fan sein kann, ständig nur die Nr2 und ständig werden die User komplett verarscht und belogen (Poor Volta etc.) von denen. Aber man muss ja nicht immer alles verstehen. :rolleyes: Aber sobald NV einen kleinen Fehltritt leistet steht es in jeder News und wird in den Foren Seitenlang diskutiert. Das ist wohl der Preis wenn man komplett überlegen mit seinen Produkten ist. :confused:

„Poor Volta“ war ein Gag. „Overclockers Dream“ war aber schon dreist.

Fan von einer Firma zu sein, egal welcher, ist IMO generell merkwürdig. Albern. Irrational. Kindisch.

Was zählt ist, welches gewünschte Kriterium in welcher gewünschten Ausprägung zum günstigsten Preis erfüllt wird. ZB fps/€. Oder erreicht Auflösung X in Spiel Y mit fpsrate Z. Oder beherrscht Feature F.
Alles andere ist irrationaler Dünnpfiff.

maximus_hertus
2018-09-14, 10:47:26
Dennoch war Pascal hervorragend OC-bar. Die Werbung war völlig richtig. Dass jede Karte auf 2,1Ghz gehen würde, war nie versprochen.


AMD hat bei der FuryX Präsentation behauptet, die Karte sei der "overclocker's dream". Das war - angesichts der tatsächlichen Übertaktbarkeit - eine ziemlich dreiste Lüge.

OC ist immer ohne Garantie. Wenn man aber sowas öffentlich zeigt, dann solten zumindest die besseren Karten das in der freien Wildbahn auch schaffen und nicht nur 0,001% der Karten. Glatte 2 GHz wäre die wesentlich bessere Wahl gewesen, immer noch die 2 vorne und ein Ergebnis das viele erreichen können.

Overclockers Dream kann sich auch auf die Software beziehen (besonders leichtes OC, maximale Kontrolle / Einstellmöglichkeit, alles aus dem Silizium rausholen etc.) Es wurde afair nie mit einem OC-Takt X geworben oder das man X MHz mehr erreichen würde. Viele haben es missinterpretiert (bis heute). Das ist alles Marketing, egal ob AMD oder nV.

AffenJack
2018-09-14, 13:12:04
Ein frischer 3d mark time spy score der 2080 ist aufgetaucht von heute, der real sein sollte, da die treiber wohl raus sind.
https://www.3dmark.com/compare/spy/4404946
von https://www.reddit.com/r/nvidia/comments/9fqxfd/nvidia_geforce_rtx_2080_timespy_result_with/

10659 Graphics score bei 1875 mhz. Entspricht etwa einer 1080TI bei ~2000mhz. Also die 2080 7% schneller als die 1080TI bei gleichem Takt. Bleibe natürlich auch die Frage, wieviel Mehrtakt möglich sein wird, aber ich denke nicht, dass sich das groß unterscheiden wird.

Rancor
2018-09-14, 13:36:44
Wenn die RTX konstant über der 1080TI liegt, dann wird gekauft.

monstar-x
2018-09-14, 13:37:00
Ein frischer 3d mark time spy score der 2080 ist aufgetaucht von heute, der real sein sollte, da die treiber wohl raus sind.
https://www.3dmark.com/compare/spy/4404946
von https://www.reddit.com/r/nvidia/comments/9fqxfd/nvidia_geforce_rtx_2080_timespy_result_with/

10659 Graphics score bei 1875 mhz. Entspricht etwa einer 1080TI bei ~2000mhz. Also die 2080 7% schneller als die 1080TI bei gleichem Takt. Bleibe natürlich auch die Frage, wieviel Mehrtakt möglich sein wird, aber ich denke nicht, dass sich das groß unterscheiden wird.


Der Takt wird doch nicht aus den Durchschnitt errechnet, sondern womit die Karte beim Start des 3D Marks initialisiert wurde? Oder täusche ich mich?

Ich hatte da schon oft 18xxMHz oder auch 2050 MHz je nach dem was ich in Riva Tuner einstelle.

Sprich, die 1875 MHz können während des Test der 2080 auch auf 2050MHz und mehr boosten.

Cubitus
2018-09-14, 13:37:30
Ein frischer 3d mark time spy score der 2080 ist aufgetaucht von heute, der real sein sollte, da die treiber wohl raus sind.
https://www.3dmark.com/compare/spy/4404946
von https://www.reddit.com/r/nvidia/comments/9fqxfd/nvidia_geforce_rtx_2080_timespy_result_with/

10659 Graphics score bei 1875 mhz. Entspricht etwa einer 1080TI bei ~2000mhz. Also die 2080 7% schneller als die 1080TI bei gleichem Takt. Bleibe natürlich auch die Frage, wieviel Mehrtakt möglich sein wird, aber ich denke nicht, dass sich das groß unterscheiden wird.


und dann noch die 8 GB VRam, ganz ehrlich die 1080TI wäre für die 1080GTX Besitzer wohl der viel bessere Deal..

Daredevil
2018-09-14, 13:39:09
Hab irgendwo ne Chart gesehen, wo Turing gerade mit der Shader Optimierung sehr gut bei VR glänzen soll. ( B is zu 2x war auf der Folie zu sehen )
Aber generell ist AMD eh nur zweite Wahl für VR, ist bei den Prozessoren ja auch so.
Man muss ja nicht alles können, es gibt ja Alternativen. :)

AffenJack
2018-09-14, 13:43:29
Der Takt wird doch nicht aus den Durchschnitt errechnet, sondern womit die Karte beim Start des 3D Marks initialisiert wurde? Oder täusche ich mich?

Ich hatte da schon oft 18xxMHz oder auch 2050 MHz je nach dem was ich in Riva Tuner einstelle.

Sprich, die 1875 MHz können während des Test der 2080 auch auf 2050MHz und mehr boosten.

Ahh ok, ja dann ist das mit dem Takt wertlos.

Flusher
2018-09-14, 13:57:50
Hab irgendwo ne Chart gesehen, wo Turing gerade mit der Shader Optimierung sehr gut bei VR glänzen soll. ( B is zu 2x war auf der Folie zu sehen )
Aber generell ist AMD eh nur zweite Wahl für VR, ist bei den Prozessoren ja auch so.
Man muss ja nicht alles können, es gibt ja Alternativen. :)

Hab ich auch gesehen, weiss aber auch nicht mehr wo. Bin gespannt auf die ersten Benchmarks unter VR

SKYNET
2018-09-14, 14:13:17
Der Takt wird doch nicht aus den Durchschnitt errechnet, sondern womit die Karte beim Start des 3D Marks initialisiert wurde? Oder täusche ich mich?

Ich hatte da schon oft 18xxMHz oder auch 2050 MHz je nach dem was ich in Riva Tuner einstelle.

Sprich, die 1875 MHz können während des Test der 2080 auch auf 2050MHz und mehr boosten.

zum einen das, zum anderen den DX12 krüppel pascal für nen timespy bench ranzuziehen ist eher, naja... viel interessanter bzw. vergleichbarer wäre firestrike.

Hübie
2018-09-14, 14:27:18
Overclockers Dream kann sich auch auf die Software beziehen (besonders leichtes OC, maximale Kontrolle / Einstellmöglichkeit, alles aus dem Silizium rausholen etc.) Es wurde afair nie mit einem OC-Takt X geworben oder das man X MHz mehr erreichen würde. Viele haben es missinterpretiert (bis heute). Das ist alles Marketing, egal ob AMD oder nV.

Ach so. Jetzt ist es eine Fehlinterpretation unsererseits, statt Falschaussage dererseits?
OC = Kürzel für übertakten. Takt = Frequenz [Hz]; über = über dem Maß hinaus, darüber liegend. Personifiziert ist ein Overclocker eine Person die den Takt über das Maß hinaus anhebt. Wovon träumen diese Menschen? Von einfacher Software und werksseitig schon alles aus dem Silizium heraus geholt ooooooder dass man viel Takt on top geben kann?

Spare dir die Antwort. Nichts für ungut ;)
Das ist kein Marketing, da Marketing nicht geschäftsschädigend sein sollte.

Ps: Seitenhieb: Vielleicht haben wir alle dann die 3,5 GB falsch interpretiert? :uponder:

Savay
2018-09-14, 14:32:19
Im Marketing ist Übertreibung schon immer ein beliebtes Stilmittel gewesen.
Letztlich ist das bei AMD doch im wesentlichen Wortklauberei...wen juckt das am Ende bitte?! So naiv kann doch keiner sein und Aussagen aus irgendwelchen Keynotes, Pressekonferenzen und Marketingmaterial seitens der Hersteller 1:1 für bare Münze nehmen. (wobei...wenn ich mir so manches hier im Faden genauer ansehe...kann man vielleicht doch so naiv sein.)

Dadurch hat niemand einen Handfesten Nachteil...als ob das ernsthaft mit dem "3,5GB" Debakel zu vergleichen wäre!

Aber bezüglich nV misst der Markt bzw. ein Großteil der Kunden offensichtlich mit einem ganz anderen Maß....Hauptsache der Balken ist der längste und man hat die HW von der "Nr.1".

Hübie
2018-09-14, 14:36:03
Da kannst du noch so gerne verteidigen, es ändert nichts. Nachteile haben Kunden, AMD und jegliche Stakeholder. Handfeste Nachteile.

In einem Paralleluniversum ist Fiji mit 8 GB und massig OC-Potenzial bis 1,5 GHz erschienen. Was schätzt Du denn wie erfolgreich das mit Stückzahlen jenseits der Millionenmarke für ein Lineup geworden wäre? ;)

Ex3cut3r
2018-09-14, 14:38:30
zum einen das, zum anderen den DX12 krüppel pascal für nen timespy bench ranzuziehen ist eher, naja... viel interessanter bzw. vergleichbarer wäre firestrike.

DX12 Krüppel!? Bitte was? Also was du für einen Bullshit du von dir gibst ist nicht mehr akzeptabel, willkommen auf meiner Ignorierliste.

Savay
2018-09-14, 14:38:32
Da kannst du noch so gerne verteidigen, es ändert nichts.

Ich verteidige hier überhaupt nichts...ich finde es nur immer wieder Amüsant wie man irgendwelche Bullshit Projektionen von irgendwelchen BlaBla-Veranstaltungen ohne sie zu hinterfragen für absolut bahre Münze nehmen kann...einen handfesten harten Betrug am Kunden und wirklich konkret kundenfeindliches Gebahren dagegen defakto komplett Schulterzuckend abtut und quasi auf ein und das selbe Level stellt wie irgendwelche unglücklichen Marketingaussagen! :freak:

Rancor
2018-09-14, 14:39:58
DX12 Krüppel!? Bitte was? Also was du für einen Bullshit du von dir gibt, ist nicht mehr akzeptabel, willkommen auf meiner Ignorierliste.

Wieso? Pascal ist unter DX 12 und Vulkan oft langsamer als unter DX 11.
Das habe ich bei meiner 1070 schon oft genug selber erleben dürfen.

Lehdro
2018-09-14, 14:39:58
Der Takt wird doch nicht aus den Durchschnitt errechnet, sondern womit die Karte beim Start des 3D Marks initialisiert wurde? Oder täusche ich mich?

Ich hatte da schon oft 18xxMHz oder auch 2050 MHz je nach dem was ich in Riva Tuner einstelle.

Sprich, die 1875 MHz können während des Test der 2080 auch auf 2050MHz und mehr boosten.
Also bei Pascal zeigt der 3Dmark den max. Takt an mit dem geboostet wurde - das kann auch einmalig sein. Von daher sind die 1875 MHz wohl nur der max Boost out of the Box. Klingt auch plausibel.
Meine Titan X (Pascal) (aka rechentechnisch ne 1080 Ti) läuft mit ~2 GHz übrigens 5% schneller als die angegebene RTX 2080. Ist jetzt nichts wirklich was einen vom Hocker haut, geht aber in Ordnung. Gegen eine Stock 1080 Ti reicht es demnach mehr als locker.

Ex3cut3r
2018-09-14, 14:43:02
Wieso? Pascal ist unter DX 12 und Vulkan oft langsamer als unter DX 11.
Das habe ich bei meiner 1070 schon oft genug selber erleben dürfen.

Nein ist es nicht, in Doom 2016 und in ROTTR sowie SOTTR sind die Next Level Apis Dx11 massiv überlegen, ebenso in Strange Brigade und Wolfenstein 2. Die Dice Spiele wie BF1 und BF5 machen Probleme, dort ist es aber egal welcher IHV verbaut ist.

Hübie
2018-09-14, 14:43:28
Ich verteidige hier überhaupt nichts...ich finde es nur immer wieder Amüsant wie man irgendwelche Bullshit Projektionen von irgendwelchen BlaBla-Veranstaltungen ohne sie zu hinterfragen für absolut bahre Münze nehmen kann...einen handfesten harten Betrug am Kunden und wirklich konkret kundenfeindliches Gebahren dagegen defakto komplett Schulterzuckend abtut und auf ein und das selbe Level stellt! :freak:

Wer zuckt hier mit den Schultern? :uponder:

prinz_valium
2018-09-14, 14:53:55
OC ist immer ohne Garantie. Wenn man aber sowas öffentlich zeigt, dann solten zumindest die besseren Karten das in der freien Wildbahn auch schaffen und nicht nur 0,001% der Karten. Glatte 2 GHz wäre die wesentlich bessere Wahl gewesen, immer noch die 2 vorne und ein Ergebnis das viele erreichen können.

Overclockers Dream kann sich auch auf die Software beziehen (besonders leichtes OC, maximale Kontrolle / Einstellmöglichkeit, alles aus dem Silizium rausholen etc.) Es wurde afair nie mit einem OC-Takt X geworben oder das man X MHz mehr erreichen würde. Viele haben es missinterpretiert (bis heute). Das ist alles Marketing, egal ob AMD oder nV.
Das ist doch absoluter nonsense den du hier verbreitest.

Bei 5 Millionen GTX1080/1070 wären das gerade einmal 50 Karten.
Es schaffen mehr Karten die 2200MHz

Schau dir doch einfach mal die Time Spy listen an. ~2100MHz ist da gar nicht so selten.
Auch wenn 2100MHz ganz klar das obere Ende der Fahnenstange ist, kann von Golden Sample gar keine Rede sein. Dafür werden die Taktraten viel zu oft und durch die Bank erreicht.

Digidi
2018-09-14, 15:01:30
Das ist doch absoluter nonsense den du hier verbreitest.

Bei 5 Millionen GTX1080/1070 wären das gerade einmal 50 Karten.
Es schaffen mehr Karten die 2200MHz

Schau dir doch einfach mal die Time Spy listen an. ~2100MHz ist da gar nicht so selten.
Auch wenn 2100MHz ganz klar das obere Ende der Fahnenstange ist, kann von Golden Sample gar keine Rede sein. Dafür werden die Taktraten viel zu oft und durch die Bank erreicht.

Weil auch jeder 3dmark nutzt :facepalm:

Traue keiner Statistik die du nicht selbst gefälscht hast :D

Troyan
2018-09-14, 15:01:50
Der Spaß beginnt - Whitepaper mit 87 Seiten:https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Viel Vergnügen beim Lesen der vielen Seiten.

Raff
2018-09-14, 15:06:42
Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Turing-Technik-Informationen-1264537/)

35.000 Zeichen – viel Spaß. :naughty:

MfG,
Raff

Digidi
2018-09-14, 15:06:57
Mesh shading advances NVIDIA’s geometry processing architecture by offering a new shader model for the vertex, tessellation, and geometry shading stages of the graphics pipeline, supporting more flexible and efficient approaches for computation of geometry. This more flexible model makes it possible, for example, to support an order of magnitude more objects per scene, by moving the key performance bottleneck of object list processing off of the CPU and into highly parallel GPU mesh shading programs. Mesh shading also enables new algorithms for advanced geometric synthesis and object LOD management.


Hä? Sollte das nicht immer schon über die GPU laufen? Wie macht das AMD?

Screemer
2018-09-14, 15:16:05
s2o1rdh_LZk

Ex3cut3r
2018-09-14, 15:22:12
Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Turing-Technik-Informationen-1264537/)

35.000 Zeichen – viel Spaß. :naughty:

MfG,
Raff

Sehr geil, die DLSS Vergleich Screenshots sehen im Vergleich mit TAA schon mal klasse aus.

MadManniMan
2018-09-14, 15:23:50
Sehr geil, die DLSS Vergleich Screenshots sehen im Vergleich zu TAA schon mal klasse aus.

Dafür werden an anderer Stelle diese seltendämlichen Tomb-Raider-Vergleiche zwischen Raytracing-Schatten und keinen Schatten gezeigt. Warum?

pixeljetstream
2018-09-14, 15:24:35
@digidi, Imo ist das mit der Objekt Liste nicht ganz optimal formuliert. Das eigentliche Kapitel zum Mesh Shader ist ein bisschen besser aber imo nach wie vor zu wenig technisch.

Mein damals NDA Vortrag von der Siggraph sollte auch bald online gehen. Es ist ein Feature woran ich die letzten vier Jahre forschte/arbeitete.

Detaillierten Blog post, open source samples etc. wird es auch die nächsten Wochen geben.

Sobald der Vortrag raus ist rühr ich mich nochmals. Der ist imo schöner illustriert als das Whitepaper, weil von mir :p

Linmoum
2018-09-14, 15:26:10
Dafür werden an anderer Stelle diese seltendämlichen Tomb-Raider-Vergleiche zwischen Raytracing-Schatten und keinen Schatten gezeigt. Warum?
Jop, auch gerade gesehen.


http://www.pcgameshardware.de/screenshots/original/2018/09/Nvidia-Geforce-RTX-Turing-presentation-pictures-52-pcgh.png


http://www.pcgameshardware.de/screenshots/original/2018/09/Nvidia-Geforce-RTX-Turing-presentation-pictures-54-pcgh.png


Was soll das da oben rechts auf der Tanzfläche mit den Schatten?

Dural
2018-09-14, 15:29:38
:freak::freak::freak::freak:

https://www.computerbase.de/2018-09/nvidia-geforce-rtx-architektur/2/

AwesomeSauce
2018-09-14, 15:29:38
Dafür werden an anderer Stelle diese seltendämlichen Tomb-Raider-Vergleiche zwischen Raytracing-Schatten und keinen Schatten gezeigt. Warum?
Weil die Kerzen wohl Point-Lights sind und deswegen sehr mühsam per Shadowmaps zu berechnen sind.

Screemer
2018-09-14, 15:31:42
Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Turing-Technik-Informationen-1264537/)

35.000 Zeichen – viel Spaß. :naughty:

MfG,
Raff
und schon im ersten artikel sind die screenshots aus der rtx präsentation von shadow of the tombraider als bestandteil enthalten und zeigen nicht den zustand von rtx off gegen rtx on, sondern den zustand von rtx on gegen "wir sind nvidia und hier gibts keine schatten". was soll der scheiß? ihr habt das spiel schon seit tagen und könntet stressfrei screenshots anfertigen und diese gegen die rtx screenshots stellen. dürft oder wollt ihr nicht?

edit: innerhalb von 10 minuten fällt das nicht nur mir auf. klasse!

Weil die Kerzen wohl Point-Lights sind und deswegen sehr mühsam per Shadowmaps zu berechnen sind.
es gibt an dieser stelle allerdings durchaus schatten. sogar auf der xbox one s: https://youtu.be/AGMmxnPU0cU?t=573

Savay
2018-09-14, 15:37:38
Dafür werden an anderer Stelle diese seltendämlichen Tomb-Raider-Vergleiche zwischen Raytracing-Schatten und keinen Schatten gezeigt. Warum?

Vor allem finde ich witzig das die Charaktere weiter hinten halt mal mit "RTX off" durchaus dynamische Schatten werfen! :wink:
Was übrigens auch nicht sooo übel aussieht.

Weil die Kerzen wohl Point-Lights sind und deswegen sehr mühsam per Shadowmaps zu berechnen sind.

Pointlights sind ja wohl auch die "Strahler" weiter hinten (wenn auch gerichtet) und da gehts ja offensichtlich auch irgendwie.

Aber klar sehen RT Schatten wohl besser aus...vor allem wenn es Soft-Shadows sein sollen dürfte es sicher auch effizienter sein.

TurricanM3
2018-09-14, 15:39:00
Sieht soweit echt gut aus bez. DLSS. Ich hoffe nur das bedeutet nicht zusätzlichen Lag, sonst wäre das Feature für mich fast wertlos. Ich hasse Inputlag an der Maus.

AwesomeSauce
2018-09-14, 15:41:03
es gibt an dieser stelle allerdings durchaus schatten. sogar auf der xbox one s: https://youtu.be/AGMmxnPU0cU?t=573
Die Schatten sind nicht von den Kerzen, sondern von der Lichtquelle im Hintergrund. Sieht man auch daran, dass sich die Kerze bewegt, der Schatten aber nicht.

Pointlights sind ja wohl auch die "Strahler" weiter hinten (wenn auch gerichtet) und da gehts ja offensichtlich auch irgendwie.
Ich würde eher sagen, das sind Spot-Lights mit weitem Kegel.

Linmoum
2018-09-14, 15:42:33
Ich würde generell erstmal abwarten, wie gut DLSS funktioniert. Das scheint auch noch seine Zeit zu brauchen.

So soll es diverse Probleme wie Unschärfe oder fehlerhafte Details durch das Berücksichtigen mehrerer Frames für einen temporalen Effekt mit DLSS nicht geben. Allerdings gibt Nvidia zu, dass auch DLSS nicht perfekt ist und es zu Problemen kommen kann. Mit mehr Training könnte diese Probleme aber mit der Zeit ausgeräumt werden. Da DLSS über die Tensor-Kerne berechnet wird, soll die Kantenglättung zudem sehr schnell auf Turing laufen – genaue Angaben gibt es aber noch nicht.
https://www.computerbase.de/2018-09/nvidia-geforce-rtx-architektur/3/

Savay
2018-09-14, 15:42:57
Die Schatten sind nicht von den Kerzen, sondern von der Lichtquelle im Hintergrund. Sieht man auch daran, dass sich die Kerze bewegt, der Schatten aber nicht.

Nein...es geht irgendwie mehr um die Leutchen vor der Bühne, weiter im Hintergrund.

Der rest sind ggf. Shadowmaps und Pre-Baked...aber da kommt man ja wohl auch mit Hybrid RT nicht gänzlich drum herum. ;)


Ich würde eher sagen, das sind Spot-Lights mit weitem Kegel.

Trotzdem ist das eine Punktlichtquelle! :wink:
Ein derartiger Kegel ist nun mal schlicht eine Teilmenge einer Kugel.

SotTR wäre nun auch wahrlich nicht das erste Spiel mit Punktlichtquellen und "dynamischen" Schatten.
Der Vorteil ist halt, dass die Schatten allgemein Softer werden dürften, wenn man es entsprechend implementiert und man dafür weniger hart tricksen muss.

Troyan
2018-09-14, 15:43:50
Vor allem finde ich witzig das die Charaktere weiter hinten halt mal mit "RTX off" durchaus dynamische Schatten werfen! :wink:
Was übrigens auch nicht sooo übel aussieht.



Pointlights sind ja wohl auch die "Strahler" weiter hinten (wenn auch gerichtet) und da gehts ja offensichtlich auch irgendwie.

Aber klar sehen RT Schatten wohl besser aus...vor allem wenn es Soft-Shadows sein sollen dürfte es sicher auch effizienter sein.

Darüber hat man doch ewig auf der Gamescom gesprochen. Es ist zu zeitauf- und rechenwendig jede Lichtquelle zu simulieren. Deswegen hat man es auf bestimmte Situation beschränkt. Mit Raytracing ist es einfacher zu implementieren.

Ex3cut3r
2018-09-14, 15:43:53
Ich würde generell erstmal abwarten, wie gut DLSS funktioniert. Das scheint auch noch seine Zeit zu brauchen.


https://www.computerbase.de/2018-09/nvidia-geforce-rtx-architektur/3/

In SOTTR wird es wohl schon bald kommen, vlt. schon im nächsten Patch, sollte dann gut vergleichbar sein :)

PHuV
2018-09-14, 15:44:59
Nvidia Geforce RTX 2080 (Ti)/2070: Turing-Technik-Dossier mit allen Informationen (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Turing-Technik-Informationen-1264537/)

Wirklich sehr gut und ausführlich beschrieben. (y)

Ein Satz fällt mir auf:
Was die Kosten für das DLSS-Training angeht, war man hingegen offen - es ist kostenlos.
Erklärung bzw. Vermutung von mir: Nvidia legt die Kosten für den erforderlichen Superrechner kalkulatorisch auf die verkauften Gaming-Karten um, und daher dann diese Preissteigerung.

Digidi
2018-09-14, 15:45:36
LOL NVIDIA hat primitive shaders:
Mesh Shading introduces two new shader stages, Task Shaders and Mesh Shaders, that support this same functionality, but with much more flexibility. The mesh shader stage produces triangles for the rasterizer, but internally, instead of using a single-thread program model, it uses a cooperative thread model similar to compute shaders. Ahead of the mesh shader in the pipeline is the task shader.


AMD Paten dazu
World-space pipeline export data (e.g., processed vertices and primitives) can be produced by units other than the world-space pipelines 430 (such as the processor 102) and simply fed to the local data store 445, or the world-space pipelines 430 can produce processed vertices and primitives and export that data to the local data store 445 for retrieval and processing by a unit other than the screen-space pipelines 432 (such as the processor 102).
https://patents.google.com/patent/EP3300027A1

AwesomeSauce
2018-09-14, 15:46:45
Trotzdem ist das eine Punktlichtquelle! :wink:
Ein derartiger Kegel ist nunmal schlicht eine Teilmenge einer Kugel.
Es ist aber ein ganz anderer Ansatz, Shadowmaps für eine Punkt-Lichtquelle zu erstellen. Mit naivem Ansatz muss man dazu 6 Passes machen, gegenüber einem Pass bei einem Spot-Light.

SotTR wäre nun auch wahrlich nicht das erste Spiel mit Punktlichtquellen und "dynamischen" Schatten.
Der Vorteil ist halt, dass die Schatten allgemein Softer werden dürften, wenn man es entsprechend implementiert und man dafür weniger hart tricksen muss.

Ich sage ja auch nicht, dass es nicht geht. In dieser Szene gibt es sowieso schon sehr viele Schatten werfende Lichtquellen. Da hat man sich wohl einfach dagegen entschieden, die Kerzen auch noch unnötig Schatten werfen zu lassen. Sicher sehr unglücklicher Vergleich, aber gängige Praxis beim Leveldesign.

Troyan
2018-09-14, 15:46:49
Erklärung bzw. Vermutung von mir: Nvidia legt die Kosten für den erforderlichen Superrechner kalkulatorisch auf die verkauften Gaming-Karten um, und daher dann diese Preissteigerung.

Nein, der Supercomputer existiert wegen DL und nicht wegen DLSS. DLSS ist einfach eine Anwendung, die darauf laufen kann.

Savay
2018-09-14, 15:48:49
Es ist aber ein ganz anderer Ansatz, Shadowmaps für eine Punkt-Lichtquelle zu erstellen. Mit naivem Ansatz muss man dazu 6 Passes machen, gegenüber einem Pass bei einem Spot-Light.

Ändert doch nichts daran, dass der Vergleich so wie er dargestellt ist, etwas gewollt plakativ daherkommt?!

Eine oder zwei Seiten weiter vorn wäre das noch als komplett unverzeihlicher Marketingfauxpas durchgegangen. :tongue:

Screemer
2018-09-14, 15:50:08
dlss sieht allerdings echt großteils cool aus. gibt aber auch ein paar artefakte in den screenshots:

https://i.makeagif.com/media/9-14-2018/Z7bzuL.gif
(https://makeagif.com/i/Z7bzuL)
auf jeden fall ein tolles feature für ältere games. ach halt. die können das ja gar nicht nutzen ;)

Die Schatten sind nicht von den Kerzen, sondern von der Lichtquelle im Hintergrund. Sieht man auch daran, dass sich die Kerze bewegt, der Schatten aber nicht.

und auf den rtx off shots gibt's auch nur die pointlightes? ist doch völlig belanglos von was die schatten kommen. das überhaupt keine verschattung der jungs vorhanden ist, ist das eigentliche problem.

AwesomeSauce
2018-09-14, 15:51:12
Ändert doch nichts daran, dass der Vergleich so wie er dargestellt ist, etwas gewollt plakativ daherkommt?!
Da bin ich absolut deiner Meinung.

Ex3cut3r
2018-09-14, 15:51:35
auf jeden fall ein tolles feature für ältere games. ach halt. die können das ja gar nicht nutzen ;)

Wieso für ältere Games? Dir ist schon bewusst das wenn es richtig umgesetzt ist, besser als Nativ aussehen kann und mehr FPS liefert? Das ist eine Gamechanger, muss man auch als AMD Fan neidlos zugeben.

Savay
2018-09-14, 15:52:19
gibt aber auch ein paar artefakte in den screenshots:


AI Upscaling halt. :wink:

Cleverer Ansatz...Hauptsache ist aber, dass es nicht flimmert...

Erinnert vom Ergebnis aber auch so ein bisschen daran was man so an erweiterten Kantenglättungsalgos in ScummVM für eine gemütliche Runde Monkey Island nutzen kann. :biggrin::tongue:

pixeljetstream
2018-09-14, 15:54:31
LOL NVIDIA hat primitive shader

Da man ja nachwievor nicht weiß was der PS wirklich ist. Haben wir was "besseres", weil echt verfügbar ;) und unser zwei Stage Ansatz ist recht flexibel.

Aber ich hoffe auch dass man eine Standardisierung später hinkriegt.

Meine Arbeit an dem ganzen begann deutlich vor Vega, zu der gleichen Zeit wie damals Spiele auch demonstrierten compute shader zum Cullen zu nutzen.

Screemer
2018-09-14, 15:55:22
Wieso für ältere Games? Dir ist schon bewusst das wenn es richtig umgesetzt ist, besser als Nativ aussehen kann und mehr FPS liefert? Das ist eine Gamechanger, muss man auch als AMD Fan neidlos zugeben.
das sollten wir uns mal auf der zunge zergehen lassen. besser als nativ. :up:

HOT
2018-09-14, 15:56:29
Muss ja zu Navis NGG ähnlich genug sein. Da muss ja Microsoft überzeugt werden. AMD arbeitet ja nicht nur bei der neuen Scarlett mit MS zusammen, wie Su neulich im Interview bekanntgab.

Linmoum
2018-09-14, 15:56:31
Da man ja nachwievor nicht weiß was der PS wirklich ist. Haben wir was "besseres", weil echt verfügbar ;) und unser zwei Stage Ansatz ist recht flexibel.
In der Praxis muss das erstmal vom Entwickler unterstützt werden. ;)

Savay
2018-09-14, 15:56:35
besser als nativ. :up:

+1 Das ist schon fast ein klein wenig Facepalmwürdig.

Besser als Bikubisches oder Bilineares Upscaling ist es bei ordentlicher Umsetzung aber allemal.

pixeljetstream
2018-09-14, 15:58:24
In der Praxis muss das erstmal vom Entwickler unterstützt werden. ;)
Ja, immerhin können sie es aber von Beginn an.

Ex3cut3r
2018-09-14, 16:00:53
+1 Das ist schon fast ein klein wenig Facepalmwürdig.

Besser als Bikubisches oder Bilineares Upscaling ist es bei ordentlicher Umsetzung aber allemal.

Ja Entschuldigung, das ich nicht die Fachbegriffe wie die ganzen Hater hier benutze. Aber dieses schlecht reden, ist schon arg lächerlich. Naja wenn es Spaß macht.

pixeljetstream
2018-09-14, 16:01:11
Muss ja zu Navis NGG ähnlich genug sein. Da muss ja Microsoft überzeugt werden. AMD arbeitet ja nicht nur bei der neuen Scarlett mit MS zusammen, wie Su neulich im Interview bekanntgab.
Der Zeitrahmen der Entwicklung war allerdings deutlich vor NGG. Wer sich mit dem Thema beschäftigt, wird einfach zu ähnlichen Schlüssen kommen. Die Herleitung meiner Forschung ist dann in den slides.

Linmoum
2018-09-14, 16:01:53
Das ist natürlich richtig, aber der Entwickler-Support muss trotzdem erstmal erfolgen. Auch, wenn es bei Mesh Shading sicherlich nicht daran scheitern wird.

Digidi
2018-09-14, 16:01:58
Da man ja nachwievor nicht weiß was der PS wirklich ist. Haben wir was "besseres", weil echt verfügbar ;) und unser zwei Stage Ansatz ist recht flexibel.

Aber ich hoffe auch dass man eine Standardisierung später hinkriegt.

Meine Arbeit an dem ganzen begann deutlich vor Vega, zu der gleichen Zeit wie damals Spiele auch demonstrierten compute shader zum Cullen zu nutzen.

Die Patente hat aber AMD und da kann man das wohl auch ganz gut nachvollziehen ;)
https://patents.google.com/patent/EP3300027A1
https://patents.google.com/patent/US20180082399A1/en

Deine Arbeit begann vielleicht vor Vega, aber wer weiß wie lange AMD schon an PS arbeitete vorher. Das muss ja nicht unbedingt für Vega gedacht sein.

Linmoum
2018-09-14, 16:04:05
Bisschen was zum OC Scanner:

VlnK8noB0cU

prinz_valium
2018-09-14, 16:06:29
Weil auch jeder 3dmark nutzt :facepalm:

Traue keiner Statistik die du nicht selbst gefälscht hast :D

Nein tut natürlich nicht jeder.
Aber es gibt auch tausende, die 2100Mhz schaffen könnten und gar kein Interesse an overclocking haben und so auch nicht in der Statistik auftauchen.


2100MHz ist keine absolute Seltenheiten.

Savay
2018-09-14, 16:06:58
Ja Entschuldigung, das ich nicht die Fachbegriffe wie die ganzen Hater hier benutze. Aber dieses schlecht reden, ist schon arg lächerlich.

Ja sorry...lächerlich ist höchstens die Aussage Upscaling jeglicher Ausprägung wäre besser als "nativ".

AI Upscaling kommt dem vielleicht deutlich näher als statisches Upscaling, es ist zudem natürlich effizienter und halt auch ziemlich clever, muss IMHO aber noch beweisen das es kein unnötiges Flimmern oder Artefaktartiges Rauschen ins Bild induziert...grade wenn es dann noch in Echtzeit laufen soll!

Aber genau deswegen muss das wohl auch vorher Spielespezifisch per Profil angepasst werden...also hast du hier mit DLSS halt quasi ein Semi-Prebaked AI Upscaling.
Bei Bewegtbildern dürftest du nämlich ohne derartiges Profiling einige Unschärfen bezüglich der hinzuerfundenen Bildinformationen haben.

Ich weiß absolut nicht was daran "Hate" sein soll.

Screemer
2018-09-14, 16:08:26
Ja sorry...lächerlich ist höchstens die Aussage Upscaling wäre besser als "nativ".

AI Upscaling kommt dem vielleicht näher als statisches, muss IMHO aber noch beweisen das es kein unnötiges Flimmern oder Rauschen ins Bild induziert...grade wenn es noch in Echtzeit laufen soll.

Aber deswegen muss das wohl auch vorher Spielespezifisch per Profil angepasst werden...also hast du hier quasi Semi-Prebaked Upscaling.
ist ja auch nicht gerade so, dass ich nicht zweimal in dem post betont hätte das dlss cool ist. das war wohl mind. einmal zu wenig und jetzt bin ich als hater abgestempelt :eek:

Ex3cut3r
2018-09-14, 16:08:50
Na und? Wenn das Ergebnis stimmt und mehr FPS liefert, ist doch kack egal ob Upscaling ist oder sonst wie heißt. Aber ich seh schon, sobald es AMD auch mal hat, ist es dann plötzlich ganz toll.


Das ist nichtmal unmöglich, da DLSS versucht sich an das 64xSSAA Bild anzunähern. In Spielen, wo es nur TAA oder ähnliches als AA Modi gibt, könnte DLSS wirklich besser aussehen, als das native Bild mit Gammel AA.

Aha Danke. Also bin ich doch nicht so dumm. Wie mir Savay und Screemer einreden wollen. :rolleyes:

AffenJack
2018-09-14, 16:12:41
Ja sorry...lächerlich ist höchstens die Aussage Upscaling jeglicher Ausprägung wäre besser als "nativ".


Das ist nichtmal unmöglich, da DLSS versucht sich an das 64xSSAA Bild anzunähern. In Spielen, wo es nur TAA oder ähnliches als AA Modi gibt, könnte DLSS wirklich besser aussehen, als das native Bild mit Gammel AA.

woodsdog
2018-09-14, 16:14:24
Bisschen was zum OC Scanner:

http://youtu.be/VlnK8noB0cU

Danke für das Video.
Man sieht also, dass die Clocks - wenn überhaupt - nur marginal steigen werden wenn das in einer Demo bei 21xx zum stehen kommt.

Savay
2018-09-14, 16:16:37
Das ist nichtmal unmöglich, da DLSS versucht sich an das 64xSSAA Bild anzunähern. In Spielen, wo es nur TAA oder ähnliches als AA Modi gibt, könnte DLSS wirklich besser aussehen, als das native Bild mit Gammel AA.

"Nativ" wäre da nur leider das in Zielauflösung X gerenderte Bild mit tatsächlich echtem 64xSSAA...und da AI Upscaling auch nicht mehr kann, also möglichst gut Informationen hinzu zu raten, wird das Ergebnis schlicht niemals das gleiche sein! :wink: (Muss es übrigens ja auch nicht zwingend...solange es nicht flimmert wie Hölle!)

Davon abgesehen sage ich ja auch garnicht, dass es nicht durchaus sehr effizient und clever ist...es fällt halt so ein bisschen in die gleiche Kerbe wie Temporales AA...

Screemer
2018-09-14, 16:21:16
Aha Danke. Also bin ich doch nicht so dumm. Wie mir Savay und Screemer einreden wollen. :rolleyes:
es ist aber immer noch eine näherung und eben nicht 64xSSAA nativ. lass es einfach bleiben. wenn du nicht sicher bist was die terminologie angeht, dann bezeichne andere nicht als hater die dich darauf hinweisen.

Locuza
2018-09-14, 16:22:11
Da man ja nachwievor nicht weiß was der PS wirklich ist. Haben wir was "besseres", weil echt verfügbar ;) und unser zwei Stage Ansatz ist recht flexibel.

Aber ich hoffe auch dass man eine Standardisierung später hinkriegt.

Meine Arbeit an dem ganzen begann deutlich vor Vega, zu der gleichen Zeit wie damals Spiele auch demonstrierten compute shader zum Cullen zu nutzen.
Vega war laut AMD 5 Jahre in der Entwicklung, also die Planungsphase muss ~2012 begonnen haben, wobei man so natürlich nicht herleiten kann, wann sie genau die Sache mit den Primitive Shadern geplant haben.

Jedenfalls oberflächlich sieht es ähnlich aus, da auch AMD Vertex-Shader + Hull-Shader und Domain-Shader + Geometry-Shader zusammengefasst hat:
When tessellation is enabled, a surface shader is generated to process patches and control points before the surface is tessellated, and the resulting polygons are sent to the primitive shader.
In this case, the surface shader combines the vertex shading and hull shading stages of the Direct3D graphics pipeline, while the primitive shader replaces the domain shading and geometry shading stages.
http://radeon.com/_downloads/vega-whitepaper-11.6.17.pdf

Auf euren Folien würde man als Laie einen Surface Shader grob als euren Task Shader ansehen und den Primitive Shader als Mesh Shader.
https://pics.computerbase.de/8/4/5/8/8/17-1080.1097935499.png

Wie es wirklich im Detail abläuft und wie vergleichbar es ist, dass wäre interessant zu wissen.
Stellt ihr Mesh Shading über NvAPI bereit?

*Ich muss das White-Paper noch lesen*

Ex3cut3r
2018-09-14, 16:22:51
es ist aber immer noch eine näherung und eben nicht 64xSSAA nativ. lass es einfach bleiben. wenn du nicht sicher bist was die terminologie angeht, dann bezeichne andere nicht als hater die dich darauf hinweisen.

Ja schon klar, sieht aber vermutlich trotzdem besser aus als Nativ + TAA only.
Spreche irgendwie Chinesisch? Das mit den "Hater" ziehe ich natürlich zurück. Sry

Screemer
2018-09-14, 16:25:26
Ja schon klar, sieht aber vermutlich trotzdem besser trotzdem besser aus als Nativ + TAA only.
was soll denn nativ + taa sein. meinst du z.b. bei 1080p->4k, wäre 4k dann nativ und da noch taa draufgeblured(;))? ich würde da für nativ eher von 4k+64ssaa sprechen. sonst könntest du gleich sagen, dass nativ halt die zielauflösung ist. ob da dann noch temporale filter drauf sind oder nicht ist dann eh schon wurst.

pixeljetstream
2018-09-14, 16:29:47
@Locuza, Wer zuerst was erfunden hat oder die Patente interessieren mich nicht. Aber ich hoffe ihr könnt nachvollziehen wenn ich meine Arbeit der letzten Jahre emotional verteidigen werde, dass das unabhängig erforscht wurde. Wer sich mit dem Problem beschäftigt wird imo zu ähnlichen Schlüssen kommen, aber man muss diese Arbeit auch erstmal machen.

Was das Whitepaper angeht, so bin ich nicht ganz happy mit den Beschreibungen die dort gemacht werden. Aber ich kann auch nachvollziehen dass an Entwickler gerichtete Information zu heavy sind. Wobei die ja noch kommen.

Ex3cut3r
2018-09-14, 16:31:20
was soll denn nativ + taa sein. meinst du z.b. bei 1080p->4k, wäre 4k dann nativ und da noch taa draufgeblured(;))? ich würde da für nativ eher von 4k+64ssaa sprechen. sonst könntest du gleich sagen, dass nativ halt die zielauflösung ist. ob da dann noch temporale filter drauf sind oder nicht ist dann eh schon wurst.

Hää? Nativ bedeutet für mich die Native Auflösung des Monitors natürlich ohne AA. Was soll nativ denn sonst bedeuten? :confused:

Digidi
2018-09-14, 16:32:19
Laut AMD können die schon Cullen wenn nur die Eckpunkte des Dereicks bekannt sind.

Furthermore, traditional geometry pipelines discard primitives after vertex processing is completed, which can waste computing resources and create bottlenecks when storing a large batch of unnecessary attributes. Primitive shaders enable early culling to save those resources.

Wie ist das bei Turing?

Tobalt
2018-09-14, 16:33:11
um ewigen Flame wars hier vorzubeugen sollten leute wie Leo und andere reporter möglichst bald an einer präzisen und einheitlichen sprache arbeiten.

bevor wir darüber spekulieren muss zunächst mal klar werden ob DLSS tatsächlich zum upscaling aus einem verringerten render frame verwendet werden kann oder nur als billiger SS modus on top auf der vollen Auflösung.

bei ersterem bin ich unsichrt. dafür ist das Terrain noch arg neu

prinz_valium
2018-09-14, 16:33:55
https://i.imgur.com/KoZv2dx.png
Das finde ich bisher interessant.

Ist Time Spy VRMark?

Troyan
2018-09-14, 16:34:51
bevor wir darüber spekulieren muss zunächst mal klar werden ob DLSS tatsächlich zum upscaling aus einem verringerten render frame verwendet werden kann oder nur als billiger SS modus on top auf der vollen Auflösung.

ich

DLSS nutzt eine geringere Auflösung, skaliert auf 4K und füllt die Lücken erzeugt neue Bildinformationen mit AI basierend auf dem Input und dem Netzwerk.
DLSS 2x verwendet die Ausgangsauflösung und vergleicht dann gegen Nativ mit 64xSSAA.

Ist also beides nutzbar.

Tobalt
2018-09-14, 16:41:24
troyan hast du einen Link dazu? hab das hier im Thema verpasst

BigKid
2018-09-14, 16:44:17
Und da haben wir es nun schriftlich... Das was viele hier als haltlose Spekulation oder peinliches Rummgebrüll titulierten...
Nvidia gibt auf Nachfrage an, dass bei DLSS eine nicht in Stein gemeißelte Auflösung unterhalb der eingestellten verwendet wird, welche mithilfe des Deep-Learning-Trainings durch Supersamples mit temporaler Komponente ergänzt wird.
Und egal wie gut es ist - es hat ein Geschmäckle Balkenlängen mit DLSS und somit Upscaling zu zeigen ohne es offen dazu zu sagen.
Speziell wenn man die Karten schon munter verkauft !
Und eigentlich hätte man nur gesunden Menschenverstand walten lassen müssen um zu sehen dass da sowas bei Angaben wie 35%+ durch DLSS im Spiel sein MUSS...

Savay
2018-09-14, 16:44:38
bevor wir darüber spekulieren muss zunächst mal klar werden ob DLSS tatsächlich zum upscaling aus einem verringerten render frame verwendet werden kann oder nur als billiger SS modus on top auf der vollen Auflösung.

Es ändert doch nicht wirklich was...egal was die Renderauflösung letztlich ist, es bleibt ein Post-Process "Upscaling". Ist doch auch klar so beschrieben. :)

SSAA an sich ist ganz vereinfacht ja mehr oder weniger eher auch nichts anderes als eine Art internes Upscaling + anschließendes Downsampling.
Mit dem Unterschied das bei klassichem SSAA dort der Inhalt der Pixel zunächst tatsächlich komplett durch die Renderpipeline geht und eben nicht nachträglich aus Nachbarpixeln extrapoliert wird.
Deswegen ist SSAA halt auch sehr effektiv...aber eben auch nicht grade sonderlich effizient.

Upscalen und wieder Downsampeln kannst du sowieso von einer beliebigen Renderauflösung...das hat mit dem Monitorauflösung doch am Ende überhaupt nix zu tun.
Wenn man die Verfahren vergleicht, sollte man aber schon vom gleichen Rendertarget ausgehen....ansonsten vergleicht man eher Äpfel mit Birnen.

Raff
2018-09-14, 16:46:56
Unboxings, anyone? Was man ohne Treiber so treibt ... :D

Nvidia Geforce RTX 2080 Founders Edition: Unboxing und Ersteindruck im Video (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Nvidia-Geforce-RTX-2080-Founders-Edition-Unboxing-und-Ersteindruck-im-Video-1265038/)
Nvidia Geforce RTX 2080 Ti Founders Edition: Unboxing und Ersteindruck im Video (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Videos/Nvidia-Geforce-2080-Ti-Founders-Edition-Unboxing-und-Ersteindruck-im-Video-1265148/)
EVGA Geforce RTX 2080 Ti: Unboxing und Ersteindruck der XC Ultra im Video (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/EVGA-Geforce-RTX-2080-Ti-Unboxing-und-Ersteindruck-der-XC-Ultra-im-Video-1264981/)
Zotac Geforce RTX 2080 Ti AMP Edition: Unboxing und Ersteindruck im Video (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Zotac-Geforce-RTX-2080-Ti-AMP-Edition-Unboxing-und-Ersteindruck-im-Video-1264984/)
Palit Geforce RTX 2080 Gaming Pro OC: Unboxing und Ersteindruck im Video (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Palit-Geforce-RTX-2080-Gaming-Pro-OC-Unboxing-und-Ersteindruck-im-Video-1265073/)

MfG,
Raff

Cubitus
2018-09-14, 16:47:38
Testergebnisse und damit auch Benchmarks gibt es heute hingegen noch nicht. Entgegen der Tradition hat sich Nvidia dafür entschieden, heute nur das Embargo über die Technik hinter Turing fallen zu lassen. Die Motivation scheint klar: Turing ist mit den Tensor- und RT-Cores für AI und Raytracing mehr als nur Pascal und damit Maxwell in schneller. Turing ist ein großer Bruch. Und diese Botschaft würde in einem Test ohne Spiele, die die neuen Funktionen unterstützen, untergehen, was der technischen und preislichen Positionierung von RTX über GTX nicht zugute käme.

Quelle CB

Übersetzung:

Orchestriertes Release, da der Preis so hoch ist wie nie hat sich Nvidia für eine neue Vermarktungsstrategie dazu entscheiden erstmals die Technik in den Vordergrund zu stellen. Die Motivation scheint klar, Turing soll mit den von Nvidia definierten Tensor und RT-Cores für AI und Raytracing mehr als nur Pascal und damit Maxwell in schneller sein. Ein großer eingeläuteter Bruch um frischeren Wind in den Gaming-Market zu bekommen um zukünftig mehr Umsatz zu generieren. Diese, ohne hin schon schwer zu vermittelnde Botschaft, würde in einem Test ohne Spiele, welche die neuen Funktionen besonders unterstreichen untergehen, was der preislichen Positionierung von RTX über GTX nicht zugute käme.

Justmy2cents

Troyan
2018-09-14, 16:48:05
troyan hast du einen Link dazu? hab das hier im Thema verpasst

Steht im Whitepaper auf Seite 41ff.

AwesomeSauce
2018-09-14, 16:48:47
troyan hast du einen Link dazu? hab das hier im Thema verpasst

In addition to the DLSS capability described above, which is the standard DLSS mode, we provide
a second mode, called DLSS 2X. In this case, DLSS input is rendered at the final target resolution
and then combined by a larger DLSS network to produce an output image that approaches the
level of the 64x super sample rendering - a result that would be impossible to achieve in real time
by any traditional means.
Aus dem Whitepaper - https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Screemer
2018-09-14, 16:51:37
...

BigKid
2018-09-14, 16:51:45
um ewigen Flame wars hier vorzubeugen sollten leute wie Leo und andere reporter möglichst bald an einer präzisen und einheitlichen sprache arbeiten.

bevor wir darüber spekulieren muss zunächst mal klar werden ob DLSS tatsächlich zum upscaling aus einem verringerten render frame verwendet werden kann oder nur als billiger SS modus on top auf der vollen Auflösung.

bei ersterem bin ich unsichrt. dafür ist das Terrain noch arg neu
Was brauchts denn noch ? Zitat aus dem Artikel von PCGH:
Nvidia gibt auf Nachfrage an, dass bei DLSS eine nicht in Stein gemeißelte Auflösung unterhalb der eingestellten verwendet wird, welche mithilfe des Deep-Learning-Trainings durch Supersamples mit temporaler Komponente ergänzt wird.

Und egal wie gut es ist - es hat ein Geschmäckle Balkenlängen mit DLSS und somit Upscaling zu zeigen ohne es offen dazu zu sagen.
Speziell wenn man die Karten schon munter verkauft !
Und eigentlich hätte man nur gesunden Menschenverstand walten lassen müssen um zu sehen dass da sowas bei Angaben wie 35%+ durch DLSS im Spiel sein MUSS...

Und auch wenn manche das nicht verstehen: Ich finde DLSS als Feature immernoch super...

Tobalt
2018-09-14, 16:52:13
Savay: ich stimme zu dass vieles egal ist. solange render Auflösung und ausgabe Auflösung bekannt aind kann man alles mögliche vergleichen..

aber für viele hier wird es eben kriminell sobald die Renderauflösung geringer als der monitor ist ("nicht nativ")

Screemer
2018-09-14, 16:54:29
und das ist bei dlss der fall.

Tobalt
2018-09-14, 16:55:49
naja dann ist doch alles klar 4k(DLSS) ist dann im hinblick auf optik und Performance zu benchen gegen 1080p oder 1440p was durch monitor oder traditionelles gpu scaling auf 4k gebracht wurde. und der Vollständigkeit halber auch gegen 4k ohne AA

analog dazu tritt 4k(2xDLSS) an gegen 4k + AA

BlacKi
2018-09-14, 16:55:55
Danke für das Video.
Man sieht also, dass die Clocks - wenn überhaupt - nur marginal steigen werden wenn das in einer Demo bei 21xx zum stehen kommt.

stimmt wohl, aber da die anliegenden taktraten niedriger sind bleibt trotzdem mehr OC potential am ende.

Raff
2018-09-14, 16:57:22
naja dann ist doch alles klar 4k(DLSS) ist dann im hinblick auf optik und Performance zu benchen gegen 1080p oder 1440p was durch monitor oder traditionelles gpu scaling auf 4k gebracht wurde.

analog dazu tritt 4k(2xDLSS) an gegen 4k + AA

Das ist nicht so einfach. Man weiß nicht, ob die DLSS-Auflösung eher WQHD oder FHD ist. Das kann, soweit ich das verstanden habe, theoretisch alles sein. Was, das wird beim Training herausgefunden und dann festgelegt. Möglich, dass ein gut ansprechendes Spiel mit deutlich geringerer "Live"-Auflösung berechnet wird als eines, das mehr Pixel-Input benötigt. Solange die Auflösungen nicht irgendwo genannt werden, sind Vergleiche ein subjektives Stochern im Pixelnebel.

MfG,
Raff

AwesomeSauce
2018-09-14, 16:57:25
und das ist bei dlss der fall.
Nicht beim 2x Modus.

Tobalt
2018-09-14, 16:59:34
Raff deshalb schrieb ich es sollte im Hinblick auf Optik und Performance gebencht werden

Locuza
2018-09-14, 16:59:52
@Locuza, Wer zuerst was erfunden hat oder die Patente interessieren mich nicht. Aber ich hoffe ihr könnt nachvollziehen wenn ich meine Arbeit der letzten Jahre emotional verteidigen werde, dass das unabhängig erforscht wurde. Wer sich mit dem Problem beschäftigt wird imo zu ähnlichen Schlüssen kommen, aber man muss diese Arbeit auch erstmal machen.

Was das Whitepaper angeht, so bin ich nicht ganz happy mit den Beschreibungen die dort gemacht werden. Aber ich kann auch nachvollziehen dass an Entwickler gerichtete Information zu heavy sind. Wobei die ja noch kommen.
Also ich habe dir/euch nicht vorwerfen wollen, etwas abgekupfert zu haben.
Die Delta-Color-Compression ist wohl auch ein guter Vergleich, dass hat AMD, Nvidia und Intel in relativ zeitlicher Nähe in die Produkte eingebaut, da jeder das gleiche Problem vor sich hatte und auf gleiche/ähnliche Ideen gekommen ist.

=Floi=
2018-09-14, 17:01:07
Der Spaß beginnt - Whitepaper mit 87 Seiten:https://www.nvidia.com/content/dam/en-zz/Solutions/design-visualization/technologies/turing-architecture/NVIDIA-Turing-Architecture-Whitepaper.pdf

Viel Vergnügen beim Lesen der vielen Seiten.

wie bist du denn an das gekommen?
Doch bei nv angestellt?! ;D

TGKlaus
2018-09-14, 17:02:07
Wirklich sehr gut und ausführlich beschrieben. (y)




Da nach kurzem suchen die selben Screens auch auf 2 englisch-sprachigen Seiten zu finden waren, gehe ich ich davon aus, das hier keine "Eigenleistung" vorliegt, sondern reines Nvidia Marketing Gehype.

Raff
2018-09-14, 17:04:05
Da nach kurzem suchen die selben Screens auch auf 2 englisch-sprachigen Seiten zu finden waren, gehe ich ich davon aus, das hier keine "Eigenleistung" vorliegt, sondern reines Nvidia Marketing Gehype.

Yep, mir hat 3 Tage lang ein Nvidia-Mitarbeiter die Präse und das Whitepaper vorgelesen und ich habe den Text wie ein Sekretär ins CMS getippt. Warum bist du eigentlich immer noch nicht auf meiner Ignore List, als erster Mensch überhaupt? :|

MfG,
Raff

Troyan
2018-09-14, 17:04:05
wie bist du denn an das gekommen?
Doch bei nv angestellt?! ;D

Magie des Internets: https://www.nvidia.com/en-us/geforce/news/geforce-rtx-20-series-turing-architecture-whitepaper/

naja dann ist doch alles klar 4k(DLSS) ist dann im hinblick auf optik und Performance zu benchen gegen 1080p oder 1440p was durch monitor oder traditionelles gpu scaling auf 4k gebracht wurde. und der Vollständigkeit halber auch gegen 4k ohne AA

analog dazu tritt 4k(2xDLSS) an gegen 4k + AA

DLSS erzeugt ein natives 4K Bild. Ansonsten wäre es ja nicht genauso scharf. Nur die Pixelinformationen werden nicht mehr von den FP32 Einheiten berechnet, sondern durch die TensorCores basierend auf dem trainierten Netzwerk.

TGKlaus
2018-09-14, 17:14:24
Yep, mir hat 3 Tage lang ein Nvidia-Mitarbeiter die Präse und das Whitepaper vorgelesen und ich habe den Text wie ein Sekretär ins CMS getippt. Warum bist du eigentlich immer noch nicht auf meiner Ignore List, als erster Mensch überhaupt? :|

MfG,
Raff

wenn du schon auf meinen Post eingehen willst, dann aber auch auf das, was ich geschrieben habe, und nicht auf irgendwas, was ich noch nicht mal erwähnt habe.

Aber mir ist schon klar, warum du das machst.
Und das bestätigt auch ganz klar, was ich von pcgh halte.

BigKid
2018-09-14, 17:14:53
Das ist nicht so einfach. Man weiß nicht, ob die DLSS-Auflösung eher WQHD oder FHD ist. Das kann, soweit ich das verstanden habe, theoretisch alles sein. Was, das wird beim Training herausgefunden und dann festgelegt. Möglich, dass ein gut ansprechendes Spiel mit deutlich geringerer "Live"-Auflösung berechnet wird als eines, das mehr Pixel-Input benötigt. Solange die Auflösungen nicht irgendwo genannt werden, sind Vergleiche ein subjektives Stochern im Pixelnebel.

MfG,
Raff
Versuchs doch über den Performance Gain durch DLSS rauszubekommen...
Wenn DLSS fast nix kostet dann sollte das Spiel mit der Auflösung in der DLSS tatsächlich rechnet doch genauso Performen...
Also wenn ein Spiel mit WQHD ohne AA oder maximal mit TAA ungefähr (oder vlt. sogar identische) FPS bringt wie DLSS in 4k dann hastes doch...
Es SEI denn DLSS schaltet die Auflösung dynamisch runter wenn die FPS sinken... Aber auch das sollte man dann eigentlich an den FPS sehen können...

Screemer
2018-09-14, 17:24:45
Yep, mir hat 3 Tage lang ein Nvidia-Mitarbeiter die Präse und das Whitepaper vorgelesen und ich habe den Text wie ein Sekretär ins CMS getippt. Warum bist du eigentlich immer noch nicht auf meiner Ignore List, als erster Mensch überhaupt? :|

MfG,
Raff
bei aller polemik ist das doch ne berechtigte frage. warum gehst du nicht einfach drauf ein? ich frag mich auch und wie du auf den vorherigen seiten siehst nicht als einziger, warum ihr die marketing shots von rtx on/off verwendet und nicht zumindest ähnliches screenshots mit der wirklichen beleuchtung erstellt. SotTr habt ihr ja jetzt schon einige tage rumliegen. die shots hätte man auch mit jeder anderen karte erstellen können.

woodsdog
2018-09-14, 17:25:58
DLSS erzeugt ein natives 4K Bild. Ansonsten wäre es ja nicht genauso scharf. Nur die Pixelinformationen werden nicht mehr von den FP32 Einheiten berechnet, sondern durch die TensorCores basierend auf dem trainierten Netzwerk.

Ich finde das wort "nativ" sollte Bildern vorbehalten bleiben, welche sämtliche Informationen wirklich berechnet und nicht salopp "geraten" haben. Egal wie gut das Raten funktioniert oder auch nicht.

Tobalt
2018-09-14, 17:26:11
das motion adaptive Rendering aus dem white paper ist schon der blanke Hohn.

ich hoffe dass wird IMMER optional eingebaut. ansonsten kann man monitore mit motion blur reduction gleich sein lassen :facepalm:

TGKlaus
2018-09-14, 17:26:40
Mit der Bewertung von DLSS würde ich warten, bis es genügend unabhängige und nicht durch Nvidia NDA beeinflußte Tests gibt.

Sämtliche bisherige Angaben / Aussagen zu DLSS sind von Nvidia freigegeben und somit definitiv nicht unabhängig!!!

Kriton
2018-09-14, 17:28:37
Magie des Internets: https://www.nvidia.com/en-us/geforce/news/geforce-rtx-20-series-turing-architecture-whitepaper/

DLSS erzeugt ein natives 4K Bild. Ansonsten wäre es ja nicht genauso scharf. Nur die Pixelinformationen werden nicht mehr von den FP32 Einheiten berechnet, sondern durch die TensorCores basierend auf dem trainierten Netzwerk.

Das ist ein Zirkelschluss. Die Korrektheit des Ergebnisses von DLSS ist ja gerade (noch) in Frage stehend.

Troyan
2018-09-14, 17:31:32
Das ist ein Zirkelschluss. Die Korrektheit des Ergebnisses von DLSS ist ja gerade (noch) in Frage stehend.

Das ist kein Zirkelschluss, sondern Normalität.
Hier geht es darum, ob es "natives" 4K ist. erinnert an früher, wo man OGAA und RG/SGAA hatte. Beides war auch vom Aufwand identisch, aber aufgrund der Positionierung der Samples war das eine oder andere bessere.

Am Ende zählt einzig das Ergebnis.

Mit der Bewertung von DLSS würde ich warten, bis es genügend unabhängige und nicht durch Nvidia NDA beeinflußte Tests gibt.
Sämtliche bisherige Angaben / Aussagen zu DLSS sind von Nvidia freigegeben und somit definitiv nicht unabhängig!!!

Stimmt. Selbst die Augen mit denen die Leute es gesehen haben, kamen direkt von nVidia.

|MatMan|
2018-09-14, 17:37:36
Und egal wie gut es ist - es hat ein Geschmäckle Balkenlängen mit DLSS und somit Upscaling zu zeigen ohne es offen dazu zu sagen.
Speziell wenn man die Karten schon munter verkauft !
Und eigentlich hätte man nur gesunden Menschenverstand walten lassen müssen um zu sehen dass da sowas bei Angaben wie 35%+ durch DLSS im Spiel sein MUSS...

Und auch wenn manche das nicht verstehen: Ich finde DLSS als Feature immernoch super...
Was regst du dich denn vor den Tests so auf? Bisher steht doch bei jedem vernünftigen Test das verwendete AA Verfahren dabei. Warum sollte man das aufeinmal weglassen? Selbst im nVidia Marketing Material war DLSS immer extra angegeben, soweit ich das überblickt habe.

Bzgl. der Screenshots zum Raytracing Vergleich: haben die Redaktionen nun schon Treiber gehabt (vor Veröffentlichung der heutigen Artikel) oder nicht?
Ich nehme mal an noch nicht, sonst hätte bestimmt jemand Performance Werte geleakt...

woodsdog
2018-09-14, 17:39:44
Stimmt. Selbst die Augen mit denen die Leute es gesehen haben, kamen direkt von nVidia.

Praktisch schon.
Welches unabhängigie Medium hat denn jetzt schon eigenes Material aus eigenen Tests raus gehauen? Keines.

Dein Gejubel ist genau so schlimm wie das pauschale "ist doch nix".

maximus_hertus
2018-09-14, 17:39:55
Ach so. Jetzt ist es eine Fehlinterpretation unsererseits, statt Falschaussage dererseits?
OC = Kürzel für übertakten. Takt = Frequenz [Hz]; über = über dem Maß hinaus, darüber liegend. Personifiziert ist ein Overclocker eine Person die den Takt über das Maß hinaus anhebt. Wovon träumen diese Menschen? Von einfacher Software und werksseitig schon alles aus dem Silizium heraus geholt ooooooder dass man viel Takt on top geben kann?

Spare dir die Antwort. Nichts für ungut ;)
Das ist kein Marketing, da Marketing nicht geschäftsschädigend sein sollte.

Ps: Seitenhieb: Vielleicht haben wir alle dann die 3,5 GB falsch interpretiert? :uponder:

Aha, Hübie = Gesetz? Für dich(!) ist OC-Dream halt viele MHz on Top. Das kann man so sehen. Wenn ich an Kepler zurückdenke, konnte man den Chip quasi nicht übertakten, da man direkt beim Powerlimit hing, der nur 7% rauf ging.

Da wäre ein OC-Tool, wie es den bei der Fury gab, mit den Freiheiten (massives + beim PT und Co) doch ein echter Traum?

Es ist wie bei Windows Phone / Mobile. AMD Fans hoffen auf das große nächste Ding, auf den Big Bang. Der kommt aber nicht. Da wird dann jeder Schnipsel, der irgendwie Hoffnung bringt, ins maximal "positive" interpretiert und die nV-Boys (& Girls) nehmen das dann danken an und feuern mit voller Breitseite zurück, da sie schon da wussten, dass x oder y nur Marketingträumerei war bzw. Fanboyträumerei.

Um mal konkret zu werden: Wie viel % an Mehrtakt müsste man bieten, um deiner Meinung nach als OCers-Dream durchzugehen?

Am Ende ist alles doch nur unnötige Energieverschwendung. Wenn wir im 3DC es besser wissen, dann sollten wir uns mit dem "OC-Dream-MArketing-Bullshit" doch gar nicht so lange beschäftigen. Lieber mehr Technik und Zahlen sprechen lassen. Überhaupt vermisse ich die "alte Zeit", als mehr die Benchmarks und technische Hintergründe relevanter waren und man nicht jeden MArketing-Furz breitgetreten hat.

Kriton
2018-09-14, 17:40:07
Das ist kein Zirkelschluss, sondern Normalität.
Hier geht es darum, ob es "natives" 4K ist. erinnert an früher, wo man OGAA und RG/SGAA hatte. Beides war auch vom Aufwand identisch, aber aufgrund der Positionierung der Samples war das eine oder andere bessere.

Am Ende zählt einzig das Ergebnis.

Logik kann man nicht biegen wie es einem gefällt.

Du nimmst das Ergebnis um die Prämisse zu definieren, aus der sich das Ergebnis ableiten lassen würde.
Das ist ein klassischer Zirkelschluss.

Logik ist die Lehre von der Folgerichtigkeit. Nicht mehr, und nicht weniger.

Ob das Ergebnis akzeptabel ist (auch wenn es nicht dem nativen Bild entsprechen würde), ist eine andere Frage.

SKYNET
2018-09-14, 17:41:34
https://scontent-ber1-1.xx.fbcdn.net/v/t1.0-9/41688171_2184161711618481_4674548830513922048_o.jpg?_nc_cat=0&oh=6fd666750586df60cc1fe83ecd68a477&oe=5C36B114

quelle (https://www.tomshw.de/community/threads/nvidia-geforce-rtx-2080-ti-und-rtx-2080-vorgestellt-was-sich-hinter-turing-wirklich-verbirgt.330/#post-3319)

TGKlaus
2018-09-14, 17:46:05
Ne Karte zu haben ist keine Kunst.

Problem ist einen Treiber zu bekommen.

Da der Download diesmal personalisiert ist, gibt ihr wohl auch niemand weiter.

SKYNET
2018-09-14, 17:50:49
Ne Karte zu haben ist keine Kunst.

Problem ist einen Treiber zu bekommen.

Da der Download diesmal personalisiert ist, gibt ihr wohl auch niemand weiter.

treiber wurden heute rausgeschickt :)

Screemer
2018-09-14, 17:54:20
treiber wurden heute rausgeschickt :)
du meinst der dl wurde heute freigegeben. würde mich wirklich interessieren obs da sowas wie gfe gibt.

BigKid
2018-09-14, 17:58:12
Was regst du dich denn vor den Tests so auf? Bisher steht doch bei jedem vernünftigen Test das verwendete AA Verfahren dabei. Warum sollte man das aufeinmal weglassen? Selbst im nVidia Marketing Material war DLSS immer extra angegeben, soweit ich das überblickt habe.

Bzgl. der Screenshots zum Raytracing Vergleich: haben die Redaktionen nun schon Treiber gehabt (vor Veröffentlichung der heutigen Artikel) oder nicht?
Ich nehme mal an noch nicht, sonst hätte bestimmt jemand Performance Werte geleakt...
NVIDIA hat offiziell Balken gezeigt die zeigen wieviel schneller RTX2000 ist... Und dann haben sie angefangen die Karten zu verhökern...
Dazu haben sie nur gesagt +XX ist RTX2000 schneller als ne GTX... Und dann haben sie den Balken noch länger gemacht und gesagt und mit DLSS sinds dann nochmal +XX%... Und was sie dabei NICHT gesagt haben ist das DLSS ein Upscaling ist sondern sie haben nur gesagt "4k"... Wars aber mit DLSS nicht mehr... es war eine unbekannt niedrigere Auflösung mit Upsampling nach 4k...
Nochmal: Ich sage nicht das DLSS eine schlechte Idee ist oder schlecht funktioniert... Ich finde es unseriös das wichtige Detail mit dem Upscaling nicht dazu zu sagen...
Und wenn ich mich aufrege dann nur weil es mir unbegreiflich ist, dass ich hier anscheinend alleine diese Meinung habe und mich als einziger an die früheren Aufschreie erinnere wenn jemand bei der Berechnung irgendwo was eingespart hat... Und das sage ich als NVIDIA Nutzer seit 3DFX...
Und wenn ich dann kritisch nachgefragt habe und angemahnt habe dass ein AA Vefahren per se nicht +35% bringen kann ohne "zu tricksen" weil es ausser Downsampling AA kein AA verfahren gibt das soviel kostet wurde das von einzelnen als "peinliches Rumgebrüll" bezeichnet... vielleicht kommt mein etwas aufgeregterer Ton auch von daher ...
(Und trotzdem finde ich DLSS ne gute Sache die super Resultate bringen dürfte... micht ärgert das weglassen der Tatsache dass es upscaling ist !)

Tobalt
2018-09-14, 18:10:59
bikkid et al.:
ich habe mich sowohl über die 970er 3.5GB sache geärgert und noch mehr über die anschließenden Gängelungs- und Bevormundungsversuche von nv dem nutzer und Redaktionen gegenüber. am meisten ärgert mich das Nicht-Supporten von freesync. all das sind für mich wichtige punkte kontra nv.

aber DLSS halte ich für einen starken punkt pro nv

Kriton
2018-09-14, 18:13:28
Und wenn ich mich aufrege dann nur weil es mir unbegreiflich ist, dass ich hier anscheinend alleine diese Meinung habe und mich als einziger an die früheren Aufschreie erinnere wenn jemand bei der Berechnung irgendwo was eingespart hat... Und das sage ich als NVIDIA Nutzer seit 3DFX...

(Und trotzdem finde ich DLSS ne gute Sache die super Resultate bringen dürfte... micht ärgert das weglassen der Tatsache dass es upscaling ist !)

Du bist nicht allein.

BigKid
2018-09-14, 18:14:00
bikkid et al.:
ich habe mich sowohl über die 970er 3.5GB sache geärgert und noch mehr über die anschließenden Gängelungs- und Bevormundungsversuche von nv dem nutzer und Redaktionen gegenüber. am meisten ärgert mich das Nicht-Supporten von freesync. all das sind für mich wichtige punkte kontra nv.

aber DLSS halte ich für einen starken punkt pro nv
Und wieder: DLSS ist doch nicht das Problem ?!? Ich finde DLSS auch eine super Sache... Was ich NICHT gut finde ist NVIDIA Marketing und das weglassen der Tatsache dass es Upscaling ist - was ist denn daran so schwer zu verstehen ? Das ist wie wenn ich bei nem Auto vergesse zu erwähnen, dass es seine Leistung mit einem Turbo erziehlt... Das ist zur Einordnung der Leistung einfach wichtig...
Wenn ich Balken zeige und nicht sage dass da nicht nur ein AA sondern ein AA mit UPSCALING beteiligt war ist es einfach nicht ok...

Klevapalis
2018-09-14, 18:15:14
Wars aber mit DLSS nicht mehr... es war eine unbekannt niedrigere Auflösung mit Upsampling nach 4k...

DLSS hat mit Upscaling soviel zu tun wir nen Apfel mit ner Birne. Da ist eben dein Denkfehler, den du die ganze Zeit mit viel Gebrüll übertönen möchtest.

w0mbat
2018-09-14, 18:17:42
DLSS hat mit Upscaling soviel zu tun wir nen Apfel mit ner Birne. Da ist eben dein Denkfehler, den du die ganze Zeit mit viel Gebrüll übertönen möchtest.

Stimmt, upscaling hat eine reale Basis, DLSS ist quasi geraten :P

BigKid
2018-09-14, 18:18:24
DLSS hat mit Upscaling soviel zu tun wir nen Apfel mit ner Birne. Da ist eben dein Denkfehler, den du die ganze Zeit mit viel Gebrüll übertönen möchtest.
Sagmal wie verbohrt kann man eigentlich sein ? Lies den PCGH Artikel - laut denen hat NVIDIA genau DAS auf Nachfrage bestätigt ! Also langsam nimmts echt groteske Züge an...
Meinst du jetzt ernsthaft nur weil da AI davor steht ist es kein Upscaling mehr? Die GPU rendert unter DLSS mit verminderter Auflösung - dadurch wirds schneller - und die Tensor Cores blasen es dann intelligent auf...
(Und schon wieder mit so ner unterschwelligen(?) Beleidigung... Ich brülle nicht... Nur weils dir nicht passt was ich schreibe... So langsam reichts...)

Robot
2018-09-14, 18:20:29
Mit der Bewertung von DLSS würde ich warten, bis es genügend unabhängige und nicht durch Nvidia NDA beeinflußte Tests gibt.

Sämtliche bisherige Angaben / Aussagen zu DLSS sind von Nvidia freigegeben und somit definitiv nicht unabhängig!!!

Die Aussagen bei diesen mehrstufigen Launches sind sowieso immer nur alle "abgeschrieben". Das war noch nie anders und wird auch nie anders sein. Man kann das maximal selbst irgendwie einordnen. Was bei den absichtlich schwammigen Formulierungen manchmal aber nahezu unmöglich ist.

Was mir mehr zu denken würde, ist das der Launch am 20.9 ist und bisher keine Treiber da sind. Anders gesagt die Leute haben bei einer komplett neuen Generation wieder nur 4-5 Tage Zeit die Karten durchzutesten. Igor hat ja offenbar schon 4 Stück da liegen. Da kann man sich dann schon überlegen wie genau man da noch hinschauen kann. Das ist halt nur noch Massenabfertigung irgendwann.

Ich halte das alles nur noch für einen schlechten Witz. Deswegen hat sich HT4U ja auch schon vor langer Zeit aus der Nummer verabschiedet und ich versteh das voll und ganz.

Da bin ich ja schon fast froh, dass ich meine erst am 20.9 zugeschickt bekomme.

Wegen DLSS. Ich finde es schon fast lustig, dass einige schrieben das es mit "Upscaling" nix zu tun hat. Das ist dann natürlich 1a Wortklauberei. Natürlich ist es eine Art von Upscaling, weil ganz einfach gilt: Die Performance von nativ 4K + X kann nicht größer als die blanke 4K Performance sein. Es muss also irgendetwas sein, was nicht 4K entspricht +X. Und genau das kann man dann mit dem Wort "Upscaling" immer noch am besten beschreiben. Es wird halt was "hoch" gerechnet, wie das genau passiert, ist doch total egal.

Ex3cut3r
2018-09-14, 18:21:26
Sry wenn das hier schon gepostet wurde.

https://abload.de/img/dndyv_1x4aacpdqjleg0.jpg

Linmoum
2018-09-14, 18:22:13
DLSS hat mit Upscaling soviel zu tun wir nen Apfel mit ner Birne. Da ist eben dein Denkfehler, den du die ganze Zeit mit viel Gebrüll übertönen möchtest.
Nvidia gibt auf Nachfrage an, dass bei DLSS eine nicht in Stein gemeißelte Auflösung unterhalb der eingestellten verwendet wird, welche mithilfe des Deep-Learning-Trainings durch Supersamples mit temporaler Komponente ergänzt wird. Man könnte sagen, dass es sich um eine neue Form des Upscalings handelt, bei der nicht bloß vorhandene Informationen extrapoliert werden, sondern neue hinzukommen.

http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Turing-Technik-Infos-1264537/3/

PHuV
2018-09-14, 18:22:25
@Raff, nur mal so als erste Einschätzung von Dir, was ist Deine persönliche Meinung zu Turing, jetzt wo Du schön die technischen Details erläutert hast? Du hast es ja selbst als größten Schritt in der Entwicklung seit G80 von 2006 bezeichnet. Ich spreche jetzt nicht von Performance, nicht von Leistung, sondern allgemein, was das Design und die Änderungen betrifft.

Klevapalis
2018-09-14, 18:23:16
Sagmal wie verbohrt kann man eigentlich sein ? Lies den PCGH Artikel - laut denen hat NVIDIA genau DAS auf Nachfrage bestätigt ! Also langsam nimmts echt groteske Züge an...
Meinst jetzt Ernsthaft nur weil das AI davor steht ist es kein Upscaling ? Die GPU rendert unter DLSS mit verminderter Auflösung - dadurch wirds schneller - und die Tensor Cores blasen es dann intelligent auf...
Und wieder nur Gebrüll.

Wenn du den Unterschied zwischen Upscaling und DLSS nicht sehen willst, dann bitte. Aber hör auf solch einen Bullshit zu Posten.

Mit normalen Upscaling hat das null zu tun.

Und da ja jemand auch noch PCGH zitiert hat: es ist eine dreiste Lüge von dir zu behaupten, PCGH bezeichnet es auch als Upscaling. Sie nennen es nicht ohne Grund eine "neue Form von Upscaling". Einfach nur dreist von dir. :facepalm:

w0mbat
2018-09-14, 18:25:36
Selbst Nvidia sagt, dass es sich dabei um upscaling handelt. Wir wissen ja alle, dass du hier nur zum Trollen bist, aber jeztzt ist dann auch mal gut.

Daredevil
2018-09-14, 18:26:27
Sry wenn das hier schon gepostet wurde.

https://abload.de/img/dndyv_1x4aacpdqjleg0.jpg
Jo, wurde schon.
Aber dieser "3Sek Stabilitätstest" vom Tool ist auch eher nur ein gaaaaaaaaanz grober Anhaltspunkt. OC Scanner ist ja an sich nichts neues, ersetzt aber keine Langzeittests mit verschiedenen Anwendungen.

Savay
2018-09-14, 18:29:20
Wenn du den Unterschied zwischen Upscaling und DLSS nicht sehen willst, dann bitte.

Orly?

Und was ist sowas bitte:
https://www.youtube.com/watch?v=OSShk6jA_us

"Upscaling" oder was "ganz anderes"?! :rolleyes:
Nur weil das Verfahren andere und deutlich ausgefeiltere Algorithmen nutzt ändert es doch nichts daran was es am Ende der Tage ist.

Tobalt
2018-09-14, 18:33:14
bikkid ich stimme dir in gewisser weise zu. für mich ist die rote linie aber erst dann überschritten wenn der nv treiber selbst DLSS (oder gar motion adaptive rendering) als standard im normalen profil aktiviert...
erst dann wird es mit dem früheren gecheate beim Anisotropen filtern verwandt.

das gilt selbst wenn DLSS deutlich mehr optik pro frametime bietet.. als standard darf es erst gesetzt werden wenn es in 5(?) jahren sowieso zu einem defacto-standard geworden ist

BigKid
2018-09-14, 18:38:20
Und wieder nur Gebrüll.

Wenn du den Unterschied zwischen Upscaling und DLSS nicht sehen willst, dann bitte. Aber hör auf solch einen Bullshit zu Posten.

Mit normalen Upscaling hat das null zu tun.

Und da ja jemand auch noch PCGH zitiert hat: es ist eine dreiste Lüge von dir zu behaupten, PCGH bezeichnet es auch als Upscaling. Sie nennen es nicht ohne Grund eine "neue Form von Upscaling". Einfach nur dreist von dir. :facepalm:
Ok... Alles Geisterfahrer ausser dir ? Upscaling ist Upscaling...
Selbst Samsung ist nicht so dreist das AI Upscaling ihrer neuen 8k TVs als etwas anderes als Upscaling zu bezeichnen... Wenigstens muss ich mir bei deinen unterschwelligen Beleidigungen nix mehr denken - ich weiss ja jetzt wo es herkommt...

Klevapalis
2018-09-14, 18:39:13
Nur weil das Verfahren andere und deutlich ausgefeiltere Algorithmen nutzt ändert es doch nichts daran was es am Ende der Tage ist.
Warum nicht?

Was ändert es am Ende, ob Pixel X per shader oder per AI berechnet wurde?

@BigKid:
Danke für den Beleg, dass du den Unterschied nicht verstehst (verstehen willst) :up:

Zum Nachdenken: wird das Upscaling bei Samsung vom BluRay Hersteller per Profil angepasst oder nicht? ;)

Oder funktioniert es da gar für jedes Material? Jede BluRay? Jede DVD?

Savay
2018-09-14, 18:45:02
Was ändert es am Ende, ob Pixel X per shader oder per AI berechnet wurde?

Hast du das Video angesehen?!

AI Upscaling ist faktisch eine Extrapolation begrenzter Datenmengen, in der Beziehung ist es nicht anders als "klassisches" bilineares oder bikubisches Upscaling...und egal wie ausgefuchst die Verfahren werden, da sind und bleiben schlicht immernoch enorme Unschärfen drin und das ganze hat weiterhin seine Grenzen!

Eine Information kann nun einmal nicht komplett aus dem Nichts rekonstruiert werden, wenn sie nicht komplett beliebig sein soll...das geht schlicht nicht...sondern höchstens näherungsweise(!) hinzugefügt werden, d.h. ab einem gewissen Punkt ist das was diese AI GANs produzieren nichts anderes als "Rauschen"...auch wenn ein eher cleveres.

monstar-x
2018-09-14, 18:48:40
Ist doch jetzt mal gut mit dem Kindergarten hier.

Alles was nicht Native ist, ist down/upscaling egal mit welcher Technology, es bleibt dabei.

BigKid
2018-09-14, 18:49:25
@BigKid:
Danke für den Beleg, dass du den Unterschied nicht verstehst (verstehen willst) :up:

Danke für den Beleg dass du Unfähig bist zu verstehen was Upscaling ist...
Du erinnerst mich an Trump: Alternative Fakten...

SKYNET
2018-09-14, 18:51:56
Sry wenn das hier schon gepostet wurde.

https://abload.de/img/dndyv_1x4aacpdqjleg0.jpg

bei der spannung jetzt nix besonderes. :freak:

y33H@
2018-09-14, 19:00:40
DLSS = AI Upscaling
DLSS 2x = AI "SSAA"

Savay
2018-09-14, 19:03:56
DLSS = AI Upscaling
DLSS 2x = AI "SSAA"

Ziemlich beliebige Definition oder nicht?!

Wenn dann ist DLSS 2x IMHO eher eine Art AI "Upscaling-Downsampling".

Wahrscheinlich muss man langsam anfangen "äquivalente" EER/Pixel für die Verfahren anzugeben...also quasi die effektive Informationsdichte pro Pixel abzüglich des Rauschens.

BTW erinnert mich das ein klein wenig an Quincunx, CFAA und CSAA.

BigKid
2018-09-14, 19:04:39
Ziemlich beliebige Definition oder nicht?!

Wenn dann ist DLSS 2x eher Art AI "Upscaling-Downsampling"
Mit einer Temporalen Komponente...

basix
2018-09-14, 19:15:50
Was ich bei Turing das Gefühl habe: Es geht immer mehr weg von Brute Force und in Richtung Verbesserungen über Architektur / Intelligenz. VRS, CAS, DLSS, Mesh Shader, DCC, Foveated Rendering, AI etc. und damit mit weniger mehr oder mindestens das selbe zu erreichen.

Da sieht man, dass man sich schon länger damit befasst, dass Moores Law bei den Halbleiterprozessen hinfällig geworden ist.

Screemer
2018-09-14, 19:17:43
Du hast es ja selbst als größten Schritt in der Entwicklung seit G80 von 2006 bezeichnet.
meinst du damit diesen satz oder habe ich eine andere erwähnung von g80 überlesen?

Turing ist laut Nvidia der größte Architekturschritt seit dem legendären G80, welcher seinerzeit vereinheitlichte Shader und DirectX 10 in Hardware einführte. Nvidias Produkte auf Basis dieses Chips, die Geforce 8800 GTX und Ultra, waren selbst eine halbe Dekade später noch spieletauglich. *q (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Turing-Technik-Infos-1264537/)

also das er das geschrieben hat stimmt, dass er das so sieht kann ich da zumindest nicht raus lesen.

Finch
2018-09-14, 19:35:20
Schöner PCGH Artikel.

BigKid
2018-09-14, 19:36:03
meinst du damit diesen satz oder habe ich eine andere erwähnung von g80 überlesen?

*q (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Turing-Technik-Infos-1264537/)

also das er das geschrieben hat stimmt, dass er das so sieht kann ich da zumindest nicht raus lesen.
Ich denke dass man die Lebenszeit der Chips auf dem Weg durchaus verlängern kann... Zunächst nutzt man sie ohne DLSS oder mit 2xDLSS... und wenn die Power nicht mehr reicht dann nutzt man sie mit DLSS ohne Effekte runter drehen zu müssen... Speziell da wo ein Tausch der Hardware nicht so einfach ist - also Laptops IMHO ein Killer-Feature... Wenns so gut ist wie suggeriert und verbreitet genug (Unterstützung durch Spiele)...

chiller
2018-09-14, 19:47:52
Unboxings, anyone? Was man ohne Treiber so treibt ... :D

Nvidia Geforce RTX 2080 Founders Edition: Unboxing und Ersteindruck im Video (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Nvidia-Geforce-RTX-2080-Founders-Edition-Unboxing-und-Ersteindruck-im-Video-1265038/)
Nvidia Geforce RTX 2080 Ti Founders Edition: Unboxing und Ersteindruck im Video (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Videos/Nvidia-Geforce-2080-Ti-Founders-Edition-Unboxing-und-Ersteindruck-im-Video-1265148/)
EVGA Geforce RTX 2080 Ti: Unboxing und Ersteindruck der XC Ultra im Video (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/EVGA-Geforce-RTX-2080-Ti-Unboxing-und-Ersteindruck-der-XC-Ultra-im-Video-1264981/)
Zotac Geforce RTX 2080 Ti AMP Edition: Unboxing und Ersteindruck im Video (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Zotac-Geforce-RTX-2080-Ti-AMP-Edition-Unboxing-und-Ersteindruck-im-Video-1264984/)
Palit Geforce RTX 2080 Gaming Pro OC: Unboxing und Ersteindruck im Video (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Videos/Palit-Geforce-RTX-2080-Gaming-Pro-OC-Unboxing-und-Ersteindruck-im-Video-1265073/)

MfG,
Raff

Kommt dieses Jahr wieder der Hexer, oder ein anderes Spiel für die Videos der Customs? Fand die Serie toll mit der 1080Ti.

AffenJack
2018-09-14, 19:49:17
Was ich bei Turing das Gefühl habe: Es geht immer mehr weg von Brute Force und in Richtung Verbesserungen über Architektur / Intelligenz. VRS, CAS, DLSS, Mesh Shader, DCC, Foveated Rendering, AI etc. und damit mit weniger mehr oder mindestens das selbe zu erreichen.

Da sieht man, dass man sich schon länger damit befasst, dass Moores Law bei den Halbleiterprozessen hinfällig geworden ist.

Bleibt den Herstellern eben nix anderes übrig. Alleine durch Shrinks wirst du nicht in Richtung einer halbwegs realistischen Grafik kommen. Da wird es so einiges an Tricks brauchen. Erst recht wenn es um sowas wie VR mit 2x4k Auflösung gehen wird.

Troyan
2018-09-14, 19:50:50
Die Founders Edition von nVidia sieht fantastisch aus. Da scheint der Aufpreis (jedenfalls 2070 und 2080) gerechtfertigt gegenüber dem AIB-Preis. Lustig irgendwie, dass erst nVidia ein schickes Axial-Design geschaffen hat.

Ex3cut3r
2018-09-14, 19:55:56
Die Founders Edition von nVidia sieht fantastisch aus. Da scheint der Aufpreis (jedenfalls 2070 und 2080) gerechtfertigt gegenüber dem AIB-Preis. Lustig irgendwie, dass erst nVidia ein schickes Axial-Design geschaffen hat.

Muss ich auch sagen, sieht äußerst Schick aus mit dem Alu, wenn da die Temps und die Lautstärke mit OC stimmen, sehe ich eigentlich wenig Vorteile für die AIB Versionen. Amd könnte da auch mal ihr Konzept auf das nächste Level bringen. X-D

iuno
2018-09-14, 20:02:58
Da man ja nachwievor nicht weiß was der PS wirklich ist. Haben wir was "besseres", weil echt verfügbar ;) und unser zwei Stage Ansatz ist recht flexibel.
Natuerlich weiss man das. Es ist genau das selbe. Heisst nur anders.

surface shader == task shader
primitive shader == mesh shader

Wann setzt man sich also zusammen und sorgt dafuer, dass das auch auf APIs abgebildet wird? Es muss ja nicht fuer immer so bleiben, dass die API stages nicht mehr zur Hardware passen.

Klevapalis
2018-09-14, 20:07:35
Natuerlich weiss man das. Es ist genau das selbe.
Nein. Das Eine (NVIDIA) funktioniert, das Andere (AMD) nicht. Oder wo ist die PS-API für Vega?

AffenJack
2018-09-14, 20:09:25
Nein. Das Eine (NVIDIA) funktioniert, das Andere (AMD) nicht. Oder wo ist die PS-API für Vega?

Es gibt genausowenig ne API für Nvidias Mesh Shader. Deswegen ja hoffentlich das nächste DX, welches das dann unterstützt. Fraglich nur, ob die Implementierungen ausreichen werden. Ich befürchte, dass erst Navi und Ampere das in DX unterstützen werden, da man sich da dann abgesprochen hat.

BigKid
2018-09-14, 20:14:41
Ich versuch hier nochmal was ins rechte Licht zu rücken auch wenn ich wenig Hoffnung habe, dass es bei den Angesprochenen auf fruchtbaren Boden fällt:

Warum ich sage: Upscaling ist Upscaling.

Die GPU spart erstmal Rechenzeit durch das Rendern in niedrigerer Auflösung - das ist gut und clever. Dagegen sagt keiner was.

Dann wird das Bild hochgerechnet. Das ist und bleibt ein Schätzen(!) das ist kein "berechnen" im herkömmlichen Sinn. Dagegen stehen Dinge wie das Nyquist-Shannon-Abtasttheorem. Wie gut die AI beim Upscalen ist weiss noch keiner - ich HOFFE dass es sehr gut ist (das ist der Teil den manche hier nicht zu verstehen scheinen - ich habe garnix gegen DLSS an sich - ganz im Gegenteil). Trotzdem bleibt eine Tatsache dass man sich an Information die nicht da ist nur annähern kann. Und wenn man sich die Bilder von PCGH zu DLSS mal genau ansiehst fallen zB durchaus subtile Unterschiede speziell bei den Glanzlichtern entlang der Objekt-Kanten auf ... Ja das Bild mit DLSS sieht besser aus. Aber was hatte der Kontent-Artist für eine Vision ? Vielleicht WOLLTE er die Glanzlichter. Das ist eine Komponente. Egal ob ich AI, Hyper, Super oder Intuitiv vor Upscaling schreibe - es bleibt Upscaling und es wäre schön wenn man dazu mal Einigkeit erzielen könnte...

Die andere Komponente ist, dass ich für einen fairen Vergleich der Leistung wissen muss wo sie herkommt. Und genau da stellt NVs bisheriges Verschweigen des Upscalings unter DLSS (nicht 2xDLSS - da könnte man jetzt noch drüber reden) schon ein Faul dar. Das ist wie bei einem Motor zu vergessen anzugeben, dass er seine PS mit Hilfe eines Turbos erzeugt. Das ist zum Vergleich mit einem reinen Sauger immens wichtig.
Und das hier ist nunmal ein Technik Forum. Gerade da kann soll und muss sowas thematisiert werden. Und im Speku-Thread darf man das auch ruhig schonmal tun bevor es harte Fakten gibt - aber die sind ja durch den PCGH Artikel nun auch da...

Troyan
2018-09-14, 20:16:21
DLSS schätzt nicht. DLSS weiß, wie das deutlich bessere Endresultat aussieht. DLSS erstellt dann basierend auf dem trainieren Netzwerk das Bild.

robbitop
2018-09-14, 20:17:17
Was ich interessant finde: Laut PCGH hat TU102 noch 128 SPs pro SM. TU104 und 106 haben 64. Der Vorteil (ggü Pascal) von mehr Kontrolllogik+Cache+Register pro SP ist also für 102 nicht vorhanden? Wäre zu groß geworden?
In Spielen wird man ja sehen, was es rohleistungsnormiert bringt. :)
Interessant ist es schon mal...

Troyan
2018-09-14, 20:18:47
Nein, das ist falsch. TU102 hat den selben Aufbau.

Klevapalis
2018-09-14, 20:18:51
Es gibt genausowenig ne API für Nvidias Mesh Shader. Deswegen ja hoffentlich das nächste DX, welches das dann unterstützt.
Womit Vega seine Einheiten nur immer noch nicht nutzen kann ;)

DLSS schätzt nicht. DLSS weiß, wie das deutlich bessere Endresultat aussieht. DLSS erstellt dann basierend auf dem trainieren Netzwerk das Bild.
Vergebene Liebesmühe, er will es nicht verstehen. Zumindest hoffe ich, dass es nur der Wille ist.

Hab ihm ja schon den entscheidenden Unterschied gesagt, aber das hat auch nicht funktioniert.

robbitop
2018-09-14, 20:23:25
Nein, das ist falsch. TU102 hat den selben Aufbau.

Hast Recht - habe mich verlesen. :-/

Freestaler
2018-09-14, 20:25:01
DLSS schätzt nicht. DLSS weiß, wie das deutlich bessere Endresultat aussieht. DLSS erstellt dann basierend auf dem trainieren Netzwerk das Bild. Und wieso gibt DLSS das wissen dann nicht einfach heraus? Wieso wird dann noch ein Bild in der tiefere Auflösung überhaupt heraus gegeben? Again, DLSS ist raten mit verdammt Wertvollen hintergrund wissen. Eine interessanter Ansatz wo auch unsere menschlechen warnehmung getrickst werden kann umd so evtl sogar besser (nicht korrekter) also ohne aussehen kann. Bleibt jedoch Upscaling.

dargo
2018-09-14, 20:26:02
Muss ich auch sagen, sieht äußerst Schick aus mit dem Alu, wenn da die Temps und die Lautstärke mit OC stimmen, sehe ich eigentlich wenig Vorteile für die AIB Versionen. Amd könnte da auch mal ihr Konzept auf das nächste Level bringen. X-D
Das hatten sie schon vor Nvidia.

http://www.legitreviews.com/wp-content/uploads/2017/07/AMD-Ryzen-Vega-64-liquid.jpg

Da kann ich nur über jede Custom Lukü lachen. ;)

Troyan
2018-09-14, 20:27:45
Und wieso gibt DLSS das wissen dann nicht einfach heraus? Wieso wird dann noch ein Bild in der tiefere Auflösung überhaupt heraus gegeben? Again, DLSS ist raten mit verdammt Wertvollen hintergrund wissen. Eine interessanter Ansatz wo auch unsere menschlechen warnehmung getrickst werden kann umd so evtl sogar besser (nicht korrekter) also ohne aussehen kann. Bleibt jedoch Upscaling.

Weil das Endergebnis nicht annährend der Qualität entsprechen würde, wenn DLSS nicht mit dem Zielergebnis trainiert werden würde.

Außerdem benötigt man ja auch einen Input. Und je besser der ist, umso besser ist dann wiederum auch das Endergebnis.

Oder du meinst Cloud-Gaming? :D

Ex3cut3r
2018-09-14, 20:27:50
Das hatten sie schon vor Nvidia.

http://www.legitreviews.com/wp-content/uploads/2017/07/AMD-Ryzen-Vega-64-liquid.jpg

Da kann ich nur über jede Custom Lukü lachen. ;)

Nix für mich mit Pumpe. :)

BigKid
2018-09-14, 20:28:06
DLSS schätzt nicht. DLSS weiß, wie das deutlich bessere Endresultat aussieht. DLSS erstellt dann basierend auf dem trainieren Netzwerk das Bild.
Klar - It's magic. DLSS weiß NICHT wie das Endresultat aussehen muss. DLSS weiß Dank Training wie es mit den ihm zur Verfügung stehenden Mitteln am häufigsten am nächsten an das Original ranngekommen ist und wendet dieses Wissen an. Das ist das Resultat des Trainings. Ansonsten müsste das Netz jedes Szene aus jedem möglichen Blinkwinkel komplett Pixelgenau auswendig gelernt haben. Das DLSS dabei einen besseren Job machen KANN als alles bisher dagewesene ändert aber nix daran, dass es eine Annäherung bleibt. Was bitte ist daran so schwer zu verstehen. Wie gesagt - es geht um technisch feststehende Begriffe. Und noch steht das Nyquist-Shannon-Abtasttheorem.
Auch schön das ihr den Turbo-Vergleich immer schön ignoriert. So bescheuert Autovergleiche manchmal sind. Wenn ein Hersteller einen Sportwagen mit X PS verkaufen würde und dabei vergisst zu erwähnen, dass sie aus einem Turbo kommen dann wäre das ein (sehr berechtigter) Grund für Klagen. Da kann das Auto noch so lange wirklich X PS haben. Es ist einfach ein Unterschied wo die PS herkommen...


Vergebene Liebesmühe, er will es nicht verstehen. Zumindest hoffe ich, dass es nur der Wille ist.
Hab ihm ja schon den entscheidenden Unterschied gesagt, aber das hat auch nicht funktioniert.
So gehts mir mit dir. Du verstehst einfach nicht dass es in der Technik und Informatik feststehende Begriffe und Gesetze (und ich rede nicht von Gesetz wie in "§7 BGB") gibt.
Alles andere ist eine Vertrumpung dieses Forums... Postfaktisch...

|MatMan|
2018-09-14, 20:28:19
Und wieder: DLSS ist doch nicht das Problem ?!? Ich finde DLSS auch eine super Sache... Was ich NICHT gut finde ist NVIDIA Marketing und das weglassen der Tatsache dass es Upscaling ist - was ist denn daran so schwer zu verstehen ? Das ist wie wenn ich bei nem Auto vergesse zu erwähnen, dass es seine Leistung mit einem Turbo erziehlt... Das ist zur Einordnung der Leistung einfach wichtig...
Wenn ich Balken zeige und nicht sage dass da nicht nur ein AA sondern ein AA mit UPSCALING beteiligt war ist es einfach nicht ok...
Solange DLSS dransteht, finde ich persönlich es ok. Als Nutzer / Kunde muss man sich eben informieren. Checkerboard Rendering ist auch quasi upscaling - muss man wissen. FXAA z.B. ist in der Regel eher matschig, dafür schnell - muss man auch wissen. Sollte DLSS die gleiche Qualität wie herkömmliches Rendering mit einem Standard AA Verfahren erreichen, aber weniger Leistung brauchen, dann ist das super. Wenn DLSS schlecht ist, werden das die Tests zeigen und das brennt sich dann auch in den Köpfen der Leute ein. Egal was für eine Technik genau dahinter steckt. Ich sehe da nur einen weiteren Begriff unter vielen...

Atma
2018-09-14, 20:29:28
Da kann ich nur über jede Custom Lukü lachen. ;)
Weil AiO Waküs auch so für ihre Qualität bekannt sind.

aufkrawall
2018-09-14, 20:30:48
Wenn man einen wirklich unhörbaren PC im Idle will, sind die jedenfalls ziemlich suboptimal.

Klevapalis
2018-09-14, 20:30:54
Weil AiO Waküs auch so für ihre Qualität bekannt sind.
Besonders die von AMD ;D

Bin froh, dass NVIDIA so einen Müll nicht braucht.

Kriton
2018-09-14, 20:39:37
Und wieder nur Gebrüll.

Wenn du den Unterschied zwischen Upscaling und DLSS nicht sehen willst, dann bitte. Aber hör auf solch einen Bullshit zu Posten.

Mit normalen Upscaling hat das null zu tun.

Und da ja jemand auch noch PCGH zitiert hat: es ist eine dreiste Lüge von dir zu behaupten, PCGH bezeichnet es auch als Upscaling. Sie nennen es nicht ohne Grund eine "neue Form von Upscaling". Einfach nur dreist von dir. :facepalm:

Du sprichst (jetzt plötzlich) von "normalem Upscaling um demgegenüber "eine neue Form von Upscaling" entgegensetzen zu können. Bigkid sprach nur von Upscaling. Selbst nach Deiner Aussage hat er also Recht, es sei denn Du erweiterst auf "neue Form von Upscaling" wäre kein Upscaling. Das wärde aber interessant in einer potentiellen Begründung.

Im Übrigen: Billiger rethorischer Kniff.

BigKid
2018-09-14, 20:43:23
Solange DLSS dransteht, finde ich persönlich es ok. Als Nutzer / Kunde muss man sich eben informieren. Checkerboard Rendering ist auch quasi upscaling - muss man wissen. FXAA z.B. ist in der Regel eher matschig, dafür schnell - muss man auch wissen. Sollte DLSS die gleiche Qualität wie herkömmliches Rendering mit einem Standard AA Verfahren erreichen, aber weniger Leistung brauchen, dann ist das super. Wenn DLSS schlecht ist, werden das die Tests zeigen und das brennt sich dann auch in den Köpfen der Leute ein. Egal was für eine Technik genau dahinter steckt. Ich sehe da nur einen weiteren Begriff unter vielen...
Das Problem ist das die Karten verkauft wurden bevor der Benutzer sich informieren konnte und auf den einzig verfügbaren Infos genau dieses Detail (Upscaling) verschwiegen wurde. Aber diese Diskussion können wir glaube ich abbrechen und uns drauf verständigen dass wir uneins sind - beobachten wir einfach mal wie NV dieses Detail ab 19ten behandelt.

Raff
2018-09-14, 20:43:44
@Raff, nur mal so als erste Einschätzung von Dir, was ist Deine persönliche Meinung zu Turing, jetzt wo Du schön die technischen Details erläutert hast? Du hast es ja selbst als größten Schritt in der Entwicklung seit G80 von 2006 bezeichnet. Ich spreche jetzt nicht von Performance, nicht von Leistung, sondern allgemein, was das Design und die Änderungen betrifft.
meinst du damit diesen satz oder habe ich eine andere erwähnung von g80 überlesen?

*q (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Specials/Turing-Technik-Infos-1264537/)

also das er das geschrieben hat stimmt, dass er das so sieht kann ich da zumindest nicht raus lesen.

@Screemer: Danke, sehr aufmerksam. :up: Danke auch allen anderen hier, die einfach interessiert lesen, anstatt irgendwelche Religionen oder einen Groll vertreten.
@PHuV: Ich bin ein Geek. Geeks finden neue Technikspielereien cool – so wie du. :) Im Gegensatz zu einem neuen iPhone finde ich Turing sehr spannend. Außerdem hat Nvidia bei dieser Generation wirklich viele Dinge verändert und angepackt. Pascal war dagegen eine unglaublich langweilige, allerdings kompromisslos auf Gaming-Leistung getrimmte Architektur. Vega finde ich im Vergleich wesentlich interessanter, vor allem zum Herumspielen, daher habe ich so ein Ding auch gekauft. Turings Spezialitäten sind im Vergleich nochmals wesentlich breiter gefächert. Unter dem Strich steht mit Gewissheit der effektivste "Allesrechner" in Form des TU102, allerdings hege ich Zweifel daran, dass das Ding reine Fps-Fanatiker befriedigt. Siehe dazu auch:

Besonders die von AMD ;D

Bin froh, dass NVIDIA so einen Müll nicht braucht.

So ein "Müll" würde auch Turing helfen. Niedrige Temperatur hilft dem Boost auf die Sprünge und vergrößert den Stabilitätsspielraum. Die aktuelle Fertigung ist zwar ausgereift, aber alt. Da kann es nicht schaden, die Kühlmittel zu maximieren.

MfG,
Raff

Troyan
2018-09-14, 20:46:08
Hat nVidia irgendwas in Bezug auf Async Compute erzählt, Raff?

BigKid
2018-09-14, 20:47:35
@Screemer: Danke, sehr aufmerksam. :up: Danke auch allen anderen hier, die einfach interessiert lesen, anstatt irgendwelche Religionen oder einen Groll vertreten.
@PHuV: Ich bin ein Geek. Geeks finden neue Technikspielereien cool – so wie du. :) Im Gegensatz zu einem neuen iPhone finde ich Turing sehr spannend. Außerdem hat Nvidia bei dieser Generation wirklich viele Dinge verändert und angepackt. Pascal war dagegen ein unglaublich langweiliger, allerdings kompromisslos auf Gaming-Leistung getrimmter Chip. Vega finde ich im Vergleich wesentlich interessanter, vor allem zum Herumspielen, daher habe ich so ein Ding auch gekauft. Turings Spezialitäten sind im Vergleich nochmals wesentlich breiter gefächert. Unter dem Strich steht mit Gewissheit der effektivste "Allesrechner" in Form des TU102, allerdings hege ich Zweifel daran, dass das Ding reine Fps-Fanatiker befriedigt. Siehe dazu auch:



So ein "Müll" würde auch Turing helfen. Niedrige Temperatur hilft dem Boost auf die Sprünge und vergrößert den Stabilitätsspielraum. Die aktuelle Fertigung ist zwar ausgereift, aber alt. Da kann es nicht schaden, die Kühlmittel zu maximieren.

MfG,
Raff
PS: Danke für den Artikel ;)
Meinen Vorschlag auf die Auflösung in der DLSS tatsächlich rendert durch den Performance Gain zu schliessen hast du gesehen ?
Kurz: Wenn Game X ohne DLSS und mit TAA in WQHD genauso performt wie in 4k mit DLSS - dann wirds unter DLSS mit 4k wohl nativ WQHD sein...

woodsdog
2018-09-14, 20:52:29
DLSS schätzt weiß nicht. DLSS weißschätzt, wie das deutlich bessere Endresultat aussiehtaussehen sollte. DLSS erstellt dann basierend auf dem trainieren Netzwerk das Bild.
FTFY

Darüber hinaus ist es eine Sache, eine auf-Rails-Timedemo "zu lernen" und eine andere, ein Open-World mit freier Kamera.
Nix genaues weiß man nicht.

Troyan
2018-09-14, 20:54:12
Klar - It's magic. DLSS weiß NICHT wie das Endresultat aussehen muss. DLSS weiß Dank Training wie es mit den ihm zur Verfügung stehenden Mitteln am häufigsten am nächsten an das Original ranngekommen ist und wendet dieses Wissen an. Das ist das Resultat des Trainings. Ansonsten müsste das Netz jedes Szene aus jedem möglichen Blinkwinkel komplett Pixelgenau auswendig gelernt haben. Das DLSS dabei einen besseren Job machen KANN als alles bisher dagewesene ändert aber nix daran, dass es eine Annäherung bleibt. Was bitte ist daran so schwer zu verstehen. Wie gesagt - es geht um technisch feststehende Begriffe. Und noch steht das Nyquist-Shannon-Abtasttheorem.
Auch schön das ihr den Turbo-Vergleich immer schön ignoriert. So bescheuert Autovergleiche manchmal sind. Wenn ein Hersteller einen Sportwagen mit X PS verkaufen würde und dabei vergisst zu erwähnen, dass sie aus einem Turbo kommen dann wäre das ein (sehr berechtigter) Grund für Klagen. Da kann das Auto noch so lange wirklich X PS haben. Es ist einfach ein Unterschied wo die PS herkommen...


Und du ignorierst einfach, dass das Ziel eben kein 4K ist, sondern im Grunde 16K - eine 64x höhere Auflösung. Selbst wenn DLSS diese Qualität nicht erreicht, kann es immer noch besser aussehen als reines 4K.

Ex3cut3r
2018-09-14, 21:00:55
Wenn man einen wirklich unhörbaren PC im Idle will, sind die jedenfalls ziemlich suboptimal.

Nicht nur das, die ist ja auch seit zig Monaten nicht mehr lieferbar, dazu kommt, das man so ein Ding ja erst im Gehäuse anschrauben muss, also ein Gehäuse Lüfter muss bei den meisten Gehäusen schon mal raus + wenn das Ding auslaufen sollte, möchte ich nicht meine Hardware zusätzlich schrotten. Aber gut ist OT. :redface:

Rampage 2
2018-09-14, 21:03:40
Hat nVidia irgendwas in Bezug auf Async Compute erzählt, Raff?

Würde mich auch sehr interessieren:)

AC kann in Spielen die Performance boosten, sofern diese (und die GPU) es unterstützen - Pascal hatte ja immer noch kein echtes/vollständiges AC...

R2

BigKid
2018-09-14, 21:09:53
Und du ignorierst einfach, dass das Ziel eben kein 4K ist, sondern im Grunde 16K - eine 64x höhere Auflösung. Selbst wenn DLSS diese Qualität nicht erreicht, kann es immer noch besser aussehen als reines 4K.
Nein - eben nicht. Das ist schlicht und ergreifend falsch und 16k stimmt nicht mal bei 2xDLSS - falls das die offizielle Bezeichnung ist.

Troyan
2018-09-14, 21:13:19
Nein - eben nicht. Das ist schlicht und ergreifend falsch und 16k stimmt nicht mal bei 2xDLSS - falls das die offizielle Bezeichnung ist.

Sorry, aber du hast dann DLSS nicht verstanden. Les dir das Whitepaper erneut durch.

DLSS versucht keine Annährung an 4K. Das macht nVidia. DLSS versucht 4k (oder welche Endauflösung nVidia wählt) mit je 64 Samples pro Pixel zu erreichen.

|MatMan|
2018-09-14, 21:13:50
Das Problem ist das die Karten verkauft wurden bevor der Benutzer sich informieren konnte und auf den einzig verfügbaren Infos genau dieses Detail (Upscaling) verschwiegen wurde. Aber diese Diskussion können wir glaube ich abbrechen und uns drauf verständigen dass wir uneins sind - beobachten wir einfach mal wie NV dieses Detail ab 19ten behandelt.
Es wurde und wird ja keiner zum Kauf gezwungen. Auch andere Features der Karte wurden erst jetzt veröffentlicht. Find ich auch nicht gut, scheint aber gerade Mode zu sein. Ich kaufe nicht uninformiert. Du sicherlich auch nicht. Wenn sich Leute durch DLSS oder irgend ein anderes Feature blenden lassen, ist mir das egal, da habe ich eher noch vielleicht mal was zu lachen.
Spannend wird IMO weniger wie nVidia damit umgeht (wen interessiert schon deren Marketing Material?), sondern was die Fachpresse damit macht. DLSS kann immer nur ein Addon sein und damit ist für mich alles ok.
Und ja, wir brauchen nicht weiter darüber diskutieren :-)

Ex3cut3r
2018-09-14, 21:18:24
Leaks wurden schon gepostet?

https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled

BiZiNiZz
2018-09-14, 21:23:00
Leaks wurden schon gepostet?

https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled

Wurde soweit ich weiß noch nicht gepostet, aber der Thread ist seit ein paar Seiten eh wieder absolut unerträglich geworden......

An die Korinthenkacker, macht euren eigenen Thread auf und haut euch dort die Schädel ein........

JaniC
2018-09-14, 21:24:35
Wollt die leaks auch gerade posten.
Wenn auch keine unabhängigen Benches, endlich Zahlen. Allerdings nur 4K.

Spasstiger
2018-09-14, 21:27:52
Leaks wurden schon gepostet?

https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled
RTX 2080 zwischen 10 % und 20 % schneller als die GTX 1080 Ti, das wäre am oberen Ende meiner Erwartungen. Bleiben die Nachteile von nur 8 GiB VRAM und des höheren Preises.

Troyan
2018-09-14, 21:30:46
Sieht doch okay aus. Battlefield 1 z.B. zeigt die VOrteile der parallelen Abarbeitung von FP32 und INT-Berechnungen.

Interessant auch die HDR-Benchmarks.

Ex3cut3r
2018-09-14, 21:31:10
RTX 2080 zwischen 10 % und 20 % schneller als die GTX 1080 Ti, das wäre am oberen Ende meiner Erwartungen. Bleiben die Nachteile von nur 8 GiB VRAM und des höheren Preises.

Jop, aber bleiben die Vorteile von weniger Verbrauch, RT, DLSS, und neue Architektur, ich denke mal kommende Treiber können für Turing noch einiges rausholen, man darf nicht vergessen, Pascal ist wohl am ende was über Treiber noch rausholbar ist.

dildo4u
2018-09-14, 21:33:21
Oft im CPU Limit dank DX11,Wolf 2 und Timespy scheinen GPU Limitiert.

Troyan
2018-09-14, 21:34:12
Nicht nur Treiber. Die ganze Architektur hat soviele Goodies, man könnte meinen, Turing wäre für eine der Konsolen entwickelt worden. Die müssten ihren Spaß an Turing haben, da man ja keine Rücksicht nehmen muss.

Ex3cut3r
2018-09-14, 21:34:24
Oft im CPU Limit dank DX11,Wolf 2 und Timespy scheinen GPU Limitiert.
Was? Das ist 4K, welche CPU soll da limitieren? Ein Phenom 2?

Kriton
2018-09-14, 21:35:50
Was? Das ist 4K, welche CPU soll da limitieren? Ein Phenom 2?

Nein, ein aktueller Intel mit allen Meltdown/Spectre-Fixes... SCNR.:biggrin:

dildo4u
2018-09-14, 21:37:13
Was? Das ist 4K, welche CPU soll da limitieren? Ein Phenom 2?
Klar ist es teilweise CPU Limitert Wolf2 ist das einzige Game was 2X von 1080 zu 2080 Ti zeigt.Sie nutzen auch kein Coffeelake der deutlich besser wäre als der 7900X.
Hitman ist z.b extrem CPU Limitiert auch mit DX12.

horn 12
2018-09-14, 21:42:43
Achtung:
FE 1080 TI gegen RTX 2080 FE mit OC von Nvidia und vielleicht noch weiters OC
Zudem HDR mit in Spiel wo die RTX um die 20% schneller ist.

Würde alles erklären, Gemittelt und OHNE HDR und weitere OC Einstellungen in Schlagabtausch mit der GTX 1080TI.

dildo4u
2018-09-14, 21:43:50
Achtung FE 1080 TI gegen RTX 2080 FE mit OC von Nvidia und vielleicht noch weiters OC
Zudem HDR mit in Spiel wo die RTX um die 20% schneller ist.

Würde alles erklären, Gemittelt und OHNE HDR und weitere OC Einstellungen in Schlagabtausch mit der GTX 1080TI
Dort stehen auch SDR Werte.

Daredevil
2018-09-14, 21:44:53
Mal gar nicht so verkehrt, was Horny sagt.
Eigentlich sollte man durch den fetteren Kühler ne 1080/1080ti Custom vergleichen und nicht die Ref Version. Ist natürlich klar, das Nvidia sich darauf beziehen wird. :D

Troyan
2018-09-14, 21:45:51
Habe das gerade gelesen:

Content Adaptive Shading applies the same principles, but it dynamically identifies portions of the screen that have low detail or large swathes of similar colors, and shades those at lower detail, and more so when you’re in motion. It looked damned fine in action during a playable Wolfenstein II demo that let you toggle the feature on and off. I couldn’t perceive any change in visual quality, but Nvidia’s Alben says that activating CAS boosts imaging speed by 20 fps or more in situations where you’re targeting 60 fps on a mainstream GPU.
https://www.pcworld.com/article/3305717/components-graphics/nvidia-turing-gpu-geforce-rtx-2080-ti.html

Linmoum
2018-09-14, 21:48:39
RTX 2080 zwischen 10 % und 20 % schneller als die GTX 1080 Ti, das wäre am oberen Ende meiner Erwartungen. Bleiben die Nachteile von nur 8 GiB VRAM und des höheren Preises.
Da die FE der 1080Ti im Vergleich zu der der 2080Ti ein richtiger Krüppel ist sind's eher ~10% ggü. den Custom-Modellen. Passt dann auch in etwa.

Bleibt die Frage, ob es das ootb schon war und die FE bereits die Performance hat, die auch die Customs haben werden.

woodsdog
2018-09-14, 21:51:20
Habe das gerade gelesen:

https://www.pcworld.com/article/3305717/components-graphics/nvidia-turing-gpu-geforce-rtx-2080-ti.html

und wenn man sich die Bilder mal anschaut, sieht man deutliche Mängel bei der "NV optimierten Variante"

Vor kurzem nannte man das noch "cheating". :rolleyes:

Aber toll das du alles feierst so lange es Lederjacke in das Marketingheft rein kritzelt. Mehr davon bitte.

Rampage 2
2018-09-14, 22:03:47
Würde mich auch sehr interessieren:)

AC kann in Spielen die Performance boosten, sofern diese (und die GPU) es unterstützen - Pascal hatte ja immer noch kein echtes/vollständiges AC...

R2

Ich muss mich mal wieder wiederholen...:redface:

R2

MasterElwood
2018-09-14, 22:13:49
Stimmt, upscaling hat eine reale Basis, DLSS ist quasi geraten :P

Und genau DESSWEGEN hab ich geschrieben: "Wer so etwas sagt - hat die Technik einfach nicht verstanden..."

Freestaler
2018-09-14, 22:17:02
1080TI FE gegen 2080FE mit neuem Kühler 10-20%.. Ergo 2080 langsamer als ne Custom 1080Ti? Zumindest bei den Werten von VideoCardz.


Edit: Ungefähr gleichschnell 1080TI Custom gegen 2080 FE. 180Ti Custom gegen FE sollten ca. 10-12% schneller sein als die FE:

https://www.gamestar.de/artikel/die-beste-geforce-gtx-1080-ti-welche-ist-die-schnellste-leiseste-guenstigste,3314148,seite6.html

Menace
2018-09-14, 22:19:31
Nicht nur Treiber. Die ganze Architektur hat soviele Goodies, man könnte meinen, Turing wäre für eine der Konsolen entwickelt worden. Die müssten ihren Spaß an Turing haben, da man ja keine Rücksicht nehmen muss.

Dann müssen sie aber noch was am Preis drehen (und eine CPU dazuholen, und Gehäuse, Netzwerk, ...). Aber ja, einiges an der Technik wird sich irgendwann in Konsolen befinden, wenn es entsprechend bezahlbar ist.

decimad2
2018-09-14, 22:21:44
DLSS schätzt nicht. DLSS weiß, wie das deutlich bessere Endresultat aussieht. DLSS erstellt dann basierend auf dem trainieren Netzwerk das Bild.

Na klar schätzt dlss. Wenn es wüsste wie alles aussieht, müsste es praktisch unendlich viel Daten vorhalten. D.h. zu jedem Zeitpunkt von allen Blickpunkten in alle Richtungen mit allen möglichen Spielerinteraktions-Historien, dann könnte es in diesen Unmengen Daten durch "Bilderkennung" den richtigen Datensatz ausmachen und ausspucken. Genau dann hat es nichts geschätzt (aber vielleicht trifft es nicht den korrekten Datensatz bei der Suche, weil die Fehler im gerenderten Bild zum Falschen Datensatz führen). Wenn der Datensatz nur ein bisschen kleiner ist als gerade mal unendlich, dann muss es also schätzen.
Es schätzt einfach nur "gut", was auch immer man für eine Metrik dafür ersinnt... Da die Trainingsdaten ja nun durch das entstehen, was der Künstler sich gedacht hat, wird wohl nicht allzuviel von dessen Vision verlorengehen.

Birdman
2018-09-14, 22:22:56
Vor kurzem nannte man das noch "cheating". :rolleyes:
Aber toll das du alles feierst so lange es Lederjacke in das Marketingheft rein kritzelt. Mehr davon bitte.
Es ist ein grosser Unterschied ob man im geheimen irgendeine Optimierung fährt von der erstmal keiner was weiss, oder ob man gross herausposaunt dass hier bewusst eine Performanceoptimierung auf Kosten von "vernachlässigbarem" Qualitätsverlust angewendet wird.
Ist bei DLSS das gleiche, auch eine verlustbehaftete Methode (im Vergleich zu nativem rendering) bei der seitens nVidia der Performancegewinn gross und der Qualitätsverlust als gering beschrieben wird.

Wie es dann in der Praxis wirklich sein wird, werden wir ja in Kürze wissen

MasterElwood
2018-09-14, 22:24:19
Hast du das Video angesehen?!

AI Upscaling ist faktisch eine Extrapolation begrenzter Datenmengen, in der Beziehung ist es nicht anders als "klassisches" bilineares oder bikubisches Upscaling...und egal wie ausgefuchst die Verfahren werden, da sind und bleiben schlicht immernoch enorme Unschärfen drin und das ganze hat weiterhin seine Grenzen!

Eine Information kann nun einmal nicht komplett aus dem Nichts rekonstruiert werden, wenn sie nicht komplett beliebig sein soll...das geht schlicht nicht...sondern höchstens näherungsweise(!) hinzugefügt werden, d.h. ab einem gewissen Punkt ist das was diese AI GANs produzieren nichts anderes als "Rauschen"...auch wenn ein eher cleveres.

NEIN! Ist es eben NICHT. Weil eben deutlich MEHR Informationen vorliegen als einfach nur das Ausgangsbild! Nämlich Trainingsdaten von der Originalauflösung UND auch Motionvectoren. Und daraus BERECHNET man nun ein hochauflösendes Bild.

Es wird also nicht einfach was gestreckt oder vergrößert - es werden kleines Bild, Trainingsdaten und Motionvectoren hergekommen - und daraus wird ein neues Bild BERECHNET!

Das ist KEIN Upscaling!

Ex3cut3r
2018-09-14, 22:26:19
Stimmt, upscaling hat eine reale Basis, DLSS ist quasi geraten :P

Bei einem Super Computer der die Bilder vorberechnet hat, vorn "Raten" zu reden, halte ich für sehr gewagt. :biggrin:

Schmeckt die R9 290 mit 50FPS in 1080p @ all low bei BF5 eigentlich immer noch? ^^

Troyan
2018-09-14, 22:30:28
Na klar schätzt dlss. Wenn es wüsste wie alles aussieht, müsste es praktisch unendlich viel Daten vorhalten. D.h. zu jedem Zeitpunkt von allen Blickpunkten in alle Richtungen mit allen möglichen Spielerinteraktions-Historien, dann könnte es in diesen Unmengen Daten durch "Bilderkennung" den richtigen Datensatz ausmachen und ausspucken. Genau dann hat es nichts geschätzt (aber vielleicht trifft es nicht den korrekten Datensatz bei der Suche, weil die Fehler im gerenderten Bild zum Falschen Datensatz führen). Wenn der Datensatz nur ein bisschen kleiner ist als gerade mal unendlich, dann muss es also schätzen.

Die normale Grafikkarte schätzt beim Rasterzing auch nur. Je mehr Samples pro Pixel vorliegen, umso genauso ist das Ergebnis. Der Unterschied ist einfach nur in der Vorgehensweise.

MasterElwood
2018-09-14, 22:30:29
Ist doch jetzt mal gut mit dem Kindergarten hier.

Alles was nicht Native ist, ist down/upscaling egal mit welcher Technology, es bleibt dabei.

Ahhh... NEIN! Das ist in vielen Köpfen nur so drinnen weil sie es nicht anders kennen und es sich nicht anders erklären können!

Nochmals: es wird nicht einfach ein Bild vergrößert - es werden

Kleines Bild
Trainings Daten - und
Motion Vektoren

genommen - und DARAUS wird ein neues Bild BERECHNET! Aus 3 Dingen wird ein neues Bild berechnet - NICHT "aus EINEM Bild wird ein größeres gemacht".

Hammas jetzt?

MiamiNice
2018-09-14, 22:31:19
Na klar schätzt dlss. Wenn es wüsste wie alles aussieht, müsste es praktisch unendlich viel Daten vorhalten. D.h. zu jedem Zeitpunkt von allen Blickpunkten in alle Richtungen mit allen möglichen Spielerinteraktions-Historien, dann könnte es in diesen Unmengen Daten durch "Bilderkennung" den richtigen Datensatz ausmachen und ausspucken. Genau dann hat es nichts geschätzt (aber vielleicht trifft es nicht den korrekten Datensatz bei der Suche, weil die Fehler im gerenderten Bild zum Falschen Datensatz führen). Wenn der Datensatz nur ein bisschen kleiner ist als gerade mal unendlich, dann muss es also schätzen.
Es schätzt einfach nur "gut", was auch immer man für eine Metrik dafür ersinnt... Da die Trainingsdaten ja nun durch das entstehen, was der Künstler sich gedacht hat, wird wohl nicht allzuviel von dessen Vision verlorengehen.

Es schätzt nicht. Es "weiß" wie es aussehen muss und generiert entsprechend Pixel. Das ist alles aber kein "raten". Das ist eher ein malen nach Zahlen oder ein abpausen.

decimad2
2018-09-14, 22:31:59
NEIN! Ist es eben NICHT. Weil eben deutlich MEHR Informationen vorliegen als einfach nur das Ausgangsbild! Nämlich Trainingsdaten von der Originalauflösung UND auch Motionvectoren. Und daraus BERECHNET man nun ein hochauflösendes Bild.

Es wird also nicht einfach was gestreckt oder vergrößert - es werden kleines Bild, Trainingsdaten und Motionvectoren hergekommen - und daraus wird ein neues Bild BERECHNET!

Das ist KEIN Upscaling!

Beim Upscaling wird auch nach knallharten mathematischen Methoden BERECHNET! Nur eben nicht so clever ;)
Also bei welcher Komplexität von Berechnung hört Upscaling auf und wird korrekt? Muss da ein Integral drin vorkommen? Vektorfelder? Muss die Berechnung mit belebtem Wasser gekühlt sein?

Was aus den reinen Pixeldaten höher aufgelöste Pixeldaten macht, ist einfach Upscaling. Punkt aus.

Und es sagt doch niemand was dagegen... vielleicht ist das ja die einzig mögliche Variante, bei begrenzter elektrischer Leistung und stagnierenden Shrinks noch große Fortschritte herzubekommen.

woodsdog
2018-09-14, 22:35:46
Die normale Grafikkarte schätzt beim Rasterzing auch nur. Je mehr Samples pro Pixel vorliegen, umso genauso ist das Ergebnis. Der Unterschied ist einfach nur in der Vorgehensweise.

Bullshit. Der Designer kann absolut festlegen wie etwas auszusehen hat. Die GraKa Rechnet das dann in der entsprechenden Auflösung so hin.
Das ist bei dem AI Raten einfach nicht mehr gegeben.

Troyan ist mal wieder Fakenews.

decimad2
2018-09-14, 22:37:10
Die normale Grafikkarte schätzt beim Rasterzing auch nur. Je mehr Samples pro Pixel vorliegen, umso genauso ist das Ergebnis. Der Unterschied ist einfach nur in der Vorgehensweise.

Die "normale" Grafikkarte schätzt nicht. Wenn man ihr sagt, dass sie die 16 Samples pro Pixel, oder wieviele das auch immer waren, rendern soll, die das Training als input bekommt, dann kommen eben die Trainingsdaten heraus. Wenn DLSS das einfache Bild nimmt, und dann auch 16 Samples hochschätzt, dann kommen nicht die Trainingsdaten heraus.

woodsdog
2018-09-14, 22:38:55
Es ist ein grosser Unterschied ob man im geheimen irgendeine Optimierung fährt von der erstmal keiner was weiss, oder ob man gross herausposaunt dass hier bewusst eine Performanceoptimierung auf Kosten von "vernachlässigbarem" Qualitätsverlust angewendet wird.
Ist bei DLSS das gleiche, auch eine verlustbehaftete Methode (im Vergleich zu nativem rendering) bei der seitens nVidia der Performancegewinn gross und der Qualitätsverlust als gering beschrieben wird.

Wie es dann in der Praxis wirklich sein wird, werden wir ja in Kürze wissen

schau dir doch die Bilder die Troyan verlinkt hat an. Da ist schon in Briefmarkengröße offensichtlich ein Unterschied zu ungunsten der Bildqualität.
Das kannst du unmöglich gut finden. Da ist gar nix "vernachlässigbar". Es sieht einfach Grütze aus.

SKYNET
2018-09-14, 22:41:29
NEIN! Ist es eben NICHT. Weil eben deutlich MEHR Informationen vorliegen als einfach nur das Ausgangsbild! Nämlich Trainingsdaten von der Originalauflösung UND auch Motionvectoren. Und daraus BERECHNET man nun ein hochauflösendes Bild.

Es wird also nicht einfach was gestreckt oder vergrößert - es werden kleines Bild, Trainingsdaten und Motionvectoren hergekommen - und daraus wird ein neues Bild BERECHNET!

Das ist KEIN Upscaling!

achja, was ist es dann wenn man aus einer kleiner auflösung eine grosse macht? :rolleyes:

decimad2
2018-09-14, 22:43:27
Und es schaut doch gerade danach aus, als würde man durch das Schätzen gute Ergebnisse bekommen, was Zeit freimacht, um auf andere Sachen, die nun visuell die Schätzfehlern überwiegen, mehr Zeit zu verbraten. Wär' doch auch gut so. Da würden nur Fanatiker das schlechtere Paket nehmen, um bloß keine Schätzfehler beim Upscaling zu bekommen ;)

Troyan
2018-09-14, 22:44:18
Die "normale" Grafikkarte schätzt nicht.

Natürlich. Der Input in 4K ist nur ein Sample pro Pixel. Würde die Grafikkarten nicht schätzen, wäre das Ergebnis ja immer korrekt und man würde kein (T)AA in 4K benötigen.

Wenn man ihr sagt, dass sie die 16 Samples pro Pixel, oder wieviele das auch immer waren, rendern soll, die das Training als input bekommt, dann kommen eben die Trainingsdaten heraus. Wenn DLSS das einfache Bild nimmt, und dann auch 16 Samples hochschätzt, dann kommen nicht die Trainingsdaten heraus.

DLSS vergleicht den Input gegen ein Zielergebnis, dass viel besser ist als natives 4K.

decimad2
2018-09-14, 22:47:36
Natürlich. Der Input in 4K ist nur ein Sample pro Pixel. Würde die Grafikkarten nicht schätzen, wäre das Ergebnis ja immer korrekt und man würde kein (T)AA in 4K benötigen.



DLSS vergleicht den Input gegen ein Zielergebnis, dass viel besser ist als natives 4K.

Eben die Trainingsdaten. Und erreicht sie eben nur geschätzt (mit Risiko auf Artefakte). Aber die korrekten Trainingsdaten könnte die Grafikkarte auch genausogut berechnen. Dauert eben länger.

woodsdog
2018-09-14, 22:50:10
Natürlich. Der Input in 4K ist nur ein Sample pro Pixel. Würde die Grafikkarten nicht schätzen, wäre das Ergebnis ja immer korrekt und man würde kein (T)AA in 4K benötigen.



DLSS vergleicht den Input gegen ein Zielergebnis, dass viel besser ist als natives 4K.

So so.
Alle haben bisher nur NV-Marketing Unsinn sehen dürfen - wie gut das du offensichtlich Insiderinfo hast wie gut das alles funktioniert. :rolleyes:

Dein Persönliches AAA-Game hast du ja auch in 5 Minuten angpasst und der Rest ist bei NV im Keller passiert.

w0mbat
2018-09-14, 22:50:14
Bei einem Super Computer der die Bilder vorberechnet hat, vorn "Raten" zu reden, halte ich für sehr gewagt. :biggrin:

Schmeckt die R9 290 mit 50FPS in 1080p @ all low bei BF5 eigentlich immer noch? ^^

Was für eine GPU hast du gerade nochmal? :wink:

Und ich bin mir ziemlich sicher, dass die min. FPS in BFV am i5 hängen.

/OT

decimad2
2018-09-14, 22:57:08
Natürlich. Der Input in 4K ist nur ein Sample pro Pixel. Würde die Grafikkarten nicht schätzen, wäre das Ergebnis ja immer korrekt und man würde kein (T)AA in 4K benötigen.


Außerdem verwürfeln wir jetzt hier. DLSS kann erstmal upscalen, aber genauso gut auch Supersampling schätzen (wäre ja nur upscaling schätzen und dann downsamplen, kann man wohl gleich kombinieren), vielleicht macht man auch beides gleichzeitig, wenn die Schätzungen derart gut sind. Am Ende ist es aber doch nur geschätzt ;)

Auf gleichen Rohdaten liefert DLSS eine Schätzung und 4k mit 16x Supersampling the real deal ;) (Falls 16x Supersampling die Rohdaten für's Training sind).
In 20 Jahren könnte dann der Nicht-schätzende Ansatz 256x Supersampling draufhauen und es sieht besser oder zumindest "richtiger" aus als was DLSS damals überhaupt zum Training hatte ;)

decimad2
2018-09-14, 23:00:51
Nichtsdestotrotz könnte es im Moment vielleicht Rechenleistung freischaffen um diese extem nervigen self-shadow shadowmap-Artefakte von Charakteren einmal glattzubügeln. Wäre für mich ein Gewinn ;)

Ex3cut3r
2018-09-14, 23:02:55
Was für eine GPU hast du gerade nochmal? :wink:

Und ich bin mir ziemlich sicher, dass die min. FPS in BFV am i5 hängen.

/OT

Gut gekontert. :up: :biggrin:

BigKid
2018-09-14, 23:19:46
DLSS vergleicht den Input gegen ein Zielergebnis, dass viel besser ist als natives 4K.
Nein - das ist der Teil den du falsch verstehst. Du verwürfelst das was beim Training passiert mit dem was das trainierte Netz nachher tut. Egal wie hochauflösend das Trainingsmaterial war - das Netz kann nur lernen sich da anzunähern - ansonsten müsste es alles auswendig lernen! Die Datenmengen packt die aktuelle Technik nicht und es wäre auch nicht Effizient.

Ausserdem wurde von yeeha gepostet dass es wohl zwei dlss modi gibt die
man schon Unterscheiden sollte.
DLSS und 2xDLSS. Falls das offizielle Namen sind.
Ersteres ist reines AI Upscaling mit AA als Nebenprodukt... Letzteres ist AI Upscaling+Downsampling AA. Bei ersterem rendert die GPU in niedrigerer Auflösung als der Zielauflösung und die Tensor Cores blasen es auf Zielauflösung auf und durch das rendern in niedrigerer Auflösung werden die fps Balken länger. Interessant wäre noch ob es durch das Aufblasen in den TCs ein “Inlut-Lag” gibt. Bei 2xdlss wird in der Zielauflösung gerendert, dann per AI hochskaliert und dann per Downsampling AA wieder auf Zielauflösung gegangen. Sieht vermutich super aus - da werden dann aber auch garantiert keine Balken länger.

Dural
2018-09-14, 23:22:02
Somit dürfte eine 2070 oc 1080ti fe leistung haben.

Einfach nur krass wie nv im praktisch selben herstellungsprozess gezaubert hat.

Megatron
2018-09-14, 23:26:31
Was bei DLSS noch durchaus interessant sein dürfte,ist die zusätzliche Latenz,die durch das upscaling entsteht.
Wenn ich das richtig verstanden habe,wird zunächst das Bild klassisch gerendert und die separaten Tensor Cores übernehmen dann.
Dadurch sollte schon währenddessen das nächste Bild berechnet werden können,so dass der Performance Einbruch nur durch einen Verlust an Taktrate durch das Power target oder die Grenzen der upscaling Geschwindigkeit kommen sollte.

PS: Auch ein im Studio per Hand optimiert hochskalierter DVD Film wird nie zu einer echten FullHD oder 4k Aufnahme. Auch nicht, wenn der Hansel im Studio die Szenen selbst Real Mal gesehen hat...

Man sollte sich da durchaus Mal überlegen, welche und wie viele Informationen da in "ein paar Megabyte" an Daten fürs neuronale Netz passen sollen.

basix
2018-09-14, 23:26:41
Somit dürfte eine 2070 oc 1080ti fe leistung haben

Scheint darauf hinauszulaufen.

Troyan
2018-09-14, 23:27:55
Was bei DLSS noch durchaus interessant sein dürfte,ist die zusätzliche Latenz,die durch das upscaling entsteht.
Wenn ich das richtig verstanden habe,wird zunächst das Bild klassisch gerendert und die separaten Tensor Cores übernehmen dann.
Dadurch sollte schon währenddessen das nächste Bild berechnet werden können,so dass der Performance Einbruch nur durch einen Verlust an Taktrate durch das Power target oder die Grenzen der upscaling Geschwindigkeit kommen sollte.

PS: Auch ein im Studio per Hand optimiert hochskalierter DVD Film wird nie zu einer echten FullHD oder 4k Aufnahme. Auch nicht, wenn der Hansel im Studio die Szenen selbst Real Mal gesehen hat...

Man sollte sich da durchaus Mal überlegen, welche und wie viele Informationen da in "ein paar Megabyte" an Daten fürs neuronale Netz passen sollen.

TensorCores laufen nur allein. "Latenz" entsteht nur in der Zeit, die für DLSS benötigt wird.

/edit: Dein Beispiel mit "hochskalierter DVD" ist einfach falsch. Das Beispiel ist viel mehr, dass das Netzwerk ein 16K Film hat und dann aus 720p Input ein 4K Bild macht, weil es weiß, wie das Zielbild aussehen muss.

pixeljetstream
2018-09-14, 23:29:29
Leute macht euch doch nicht so fertig.
Hab kein Problem die flotte Variante als intelligentes upscaling zu bezeichnen. Genauso würde ich auch sagen dass es "schätzt", aber Spock-like halt ;)

Es ist genau wie jeder andere Post Processing AA Filter, nur dass man halt die Tensorcores dabei nutzt.

Troyan
2018-09-14, 23:30:22
Es spielt alles auch keine Rolle. Funktioniert es, ist es die Definition eines Killerfeatures. Geht es nicht, wird es verschwinden.

/edit: pixeljetstream, stehst du noch unter NDA bzgl. der Architektur?