PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 [27] 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

dargo
2018-08-22, 21:13:50
Erst nachdenken, dann posten. Es ging um diesen Bildschirminhalt im Vergleich.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63943

ChaosTM
2018-08-22, 21:14:00
Wenn ich ehrlich bin reicht mir bei 4K fast immer eine billige Methode wie SMAA oder gar FXAA weil man da sowieso kaum mehr Details verliert..

Rancor
2018-08-22, 21:19:32
Erst nachdenken, dann posten. Es ging um diesen Bildschirminhalt im Vergleich.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=63943

Rechts ist auf dem Foto eindeutig unschärfer. Das kann in der Tat jeder sehen

Monsta
2018-08-22, 21:20:22
Nö, es ging darum, dass der schlaue sich immer informiert. Schlau waren die, die Blind Vega 56 für 399 vorbestellt und dann für 700+ wieder verkauft haben. Oder die sich 2016 im Mai eine 1070 gekauft haben und seit 2 Jaren werstabil zocken. Oder eine 7970, die man heute immer noch gut nutzen kann.

Das ist auch Glück, schlau ist es wenn man es vorher wusste. Und dann hätte man auch mehr als eine gekauft.

Digidi
2018-08-22, 21:23:02
Wenn das mal nicht in die Hose geht. 2080ti Produktion bei tsmc und samsung
https://wccftech.com/nvidia-geforce-rtx-2080-ti-massive-gpu-die-pictured/

Viel Volumen wenig Käufer einige die die Karte bestimmt zurücksschicken wenn nicht tsmc bzw. Samsung drauf steht..

dargo
2018-08-22, 21:25:43
Rechts ist auf dem Foto eindeutig unschärfer. Das kann in der Tat jeder sehen
Ich hatte mich halt zu sehr auf die beiden Displays fokussiert. Gut beobachtet übrigens von Kartenlehrling mit den Monitorfüssen. (y) Man... wenn eine Redaktion da was fotografiert dann gehe ich vom hochwertigen Equipment aus und keinem sche.. Handy. :D

Die Sache mit dem flimmernden TAA in der Demo bleibt mir allerdings weiterhin ein Rätsel.

Timbaloo
2018-08-22, 21:30:04
Wenn das mal nicht in die Hose geht. 2080ti Produktion bei tsmc und samsung
https://wccftech.com/nvidia-geforce-rtx-2080-ti-massive-gpu-die-pictured/

Viel Volumen wenig Käufer einige die die Karte bestimmt zurücksschicken wenn nicht tsmc bzw. Samsung drauf steht..
Öhmmm, ist das nicht eher die Location wo Package/etc gemacht wird? Weil 750-something mm^2 bei Samsung wäre ziemlich krass. Irgendwie ist das doch schon wieder wtftech...

crux2005
2018-08-22, 21:32:12
Öhmmm, ist das nicht eher die Location wo Package/etc gemacht wird?

Ja.

SKYNET
2018-08-22, 21:32:24
Einfach mit den Generationen davor Vergleichen



wenn man das macht, kann man bei NV grundsätzlich immer ca. 20% von "schneller als vorgänger" abziehen... :freak:

crux2005
2018-08-22, 21:44:10
wenn man das macht, kann man bei NV grundsätzlich immer ca. 20% von "schneller als vorgänger" abziehen... :freak:

NVIDIA gab an GTX 1080 = 1,7x GTX 980.
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/3/#bilder

Laut CB.de in 4K ist der Vorsprung +64 bis +73%
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/

Die Angaben von NV Stimmen schon +-.

dildo4u
2018-08-22, 21:47:54
Die 50% sind glaubwürdig da Pascal 10% mit HDR verliert daher wurden viele Games damit gebencht.

https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/2/

Troyan
2018-08-22, 21:48:05
Scheint wohl der Backlash, dass nVidia sich so stark verdeckt hat, richtig heftig gewesen zu sein. Hier mal vom Entwickler des Spiels Enlisted: https://twitter.com/Enlistnow/status/1032350414140854274

War es wohl mit Pascal. Lmao.

/edit: Experience bekommt neue Funktionen - unterstützt dank Raytracing und AI: https://www.nvidia.com/en-us/geforce/news/new-gfe-features-latest-games-get-ansel-and-highlights/

crux2005
2018-08-22, 21:51:26
Die 50% sind glaubwürdig da Pascal 10% mit HDR verliert daher wurden viele Games damit gebencht.

https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/2/

Hehe. Da wären wir mal wieder bei den +40% Mehr Leistung. :P


... falls sich jemand für den Kühler der Founder's Edition interessiert.

MfG,
Raff

Nein. Mich würde der Gigabyte oder MSI Kühler interessieren. Evtl. wie schlecht im Vergleich das Doppel Lüfter Design von EVGA ist. ^^

Linmoum
2018-08-22, 21:52:05
Die 50% sind glaubwürdig da Pascal 10% mit HDR verliert daher wurden viele Games damit gebencht.

https://www.computerbase.de/2018-07/hdr-benchmarks-amd-radeon-nvidia-geforce/2/
Nach der Logik sind 50% aber nicht glaubwürdig, weil durch HDR der Unterschied größer ausfällt und ohne dementsprechend kleiner.

Und benchen mit HDR wird wahrscheinlich fast niemand.

Raff
2018-08-22, 21:52:13
Nvidia Geforce RTX 2080 (Ti) in Aktion: Lüftergeräusch, Design und Leistung mit AI-Kantenglättung
(http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-2080-Ti-Preview-1263488/)
... falls sich jemand für den Kühler der Founder's Edition interessiert.

MfG,
Raff

Schnoesel
2018-08-22, 21:54:15
Na also endlich mal ein Ausblick auf Performance außerhalb des RT Gedöns. Heißt also nach Abzug von Marketing % wahrscheinlich so 35% wie ich es erwartet hatte und damit wohl etwas über der Performance einer 1080TI.

Dann freue ich mich auf nen dicken Sprung bei der nächsten Generation.

PS: Mich würde ja eher max OC unter H2O interessieren. Und damit meine ich nicht AIOs.

SKYNET
2018-08-22, 21:55:28
NVIDIA gab an GTX 1080 = 1,7x GTX 980.
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/3/#bilder

Laut CB.de in 4K ist der Vorsprung +64 bis +73%
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/7/

Die Angaben von NV Stimmen schon +-.

nö, beste beispiel ist RotTR, NV folie --> 80%, real warens aber nur um die 60%


und um so höher die auflösung, um so geringer war der vorsprung für die 1080 zur 980...

dildo4u
2018-08-22, 21:55:53
Nach der Logik sind 50% aber nicht glaubwürdig, weil durch HDR der Unterschied größer ausfällt und ohne dementsprechend kleiner.

Und benchen mit HDR wird wahrscheinlich fast niemand.
HDR hat dank Konsolen eine echte Zukunft im AAA Bereich wird kaum noch was ohne kommen.

Linmoum
2018-08-22, 21:55:56
Das Deep-Learning-Netzwerk wird also in der Cloud trainiert und nicht jedes Spiel muss für die Anwendung von DLSS auch explizit trainiert werden. Ist das Netzwerk auf einige Spiele trainiert worden, kann der Algorithmus auch auf anderen Spielen angewendet werden.

Das Inferencing findet dann auf der Turing-Hardware im Gaming-Rechner statt und wird durch die Tensor Cores unterstützt. Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß. Allerdings würde damit auch die Installation der GeForce Experience zusätzlich zum Treiber notwendig und zudem verlangt dieser nach einem Login und kann nicht mehr einfach so betrieben werden.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html

Godmode
2018-08-22, 21:56:00
Nvidia Geforce RTX 2080 (Ti) in Aktion: Lüftergeräusch, Design und Leistung mit AI-Kantenglättung
(http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-2080-Ti-Preview-1263488/)
... falls sich jemand für den Kühler der Founder's Edition interessiert.

MfG,
Raff


Ich bin echt gespannt auf den Kühler, aussehen tut er ja schonmal sehr gut. Was die Boardpartner teilweise für Schrottlüfter verbauen, geht auf keine Kuhhaut mehr.

crux2005
2018-08-22, 21:58:56
nö, beste beispiel ist RotTR, NV folie --> 80%, real warens aber nur um die 60%


und um so höher die auflösung, um so geringer war der vorsprung für die 1080 zur 980...

Was für eine Folie meinst du?

Die GTX 680 vs. 980 Folie die hier Prinz_Valium verlinkt hat?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11778187&postcount=6461

Schnoesel
2018-08-22, 21:58:57
HDR hat dank Konsolen eine echte Zukunft im AAA Bereich wird kaum noch was ohne kommen.

Interessiert nur niemanden ohne HDR Monitor. Das es Verbreitung auf der Konsole findet ist klar dank HDR Fernseher.

Loeschzwerg
2018-08-22, 22:00:15
Nvidia Geforce RTX 2080 (Ti) in Aktion: Lüftergeräusch, Design und Leistung mit AI-Kantenglättung
(http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-2080-Ti-Preview-1263488/)
... falls sich jemand für den Kühler der Founder's Edition interessiert.

MfG,
Raff

Danke :)

verwirbelt der Geforce-RTX-Referenzkühler den mit Abstand größten Teil der Abwärme im Gehäuse. Angesichts der rechtwinklig zur Slotblende ausgerichteten Kühllamellen und der weitestgehend geschlossenen Slotblende ist das auch nicht anders zu erwarten.

Kann man zum Glück einplanen wenn man es weiß. Für mein altes Gehäuse wäre es nichts (das hat mit der Sapphire Tri-X schon nicht funktioniert).

Es gibt von Partnern DHE-Modelle, da würde mich schon interessieren wie sich diese verhalten.

Edit:
...Zitat...

Gefällt mir nicht.

Timbaloo
2018-08-22, 22:01:24
Nvidia Geforce RTX 2080 (Ti) in Aktion: Lüftergeräusch, Design und Leistung mit AI-Kantenglättung
(http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-2080-Ti-Preview-1263488/)
... falls sich jemand für den Kühler der Founder's Edition interessiert.

MfG,
Raff
Magst mal messen wie groß die Lüfter sind? Also Durchmesser. Die wirken nämlich recht groß.

Imho auf jeden Fall der richtige Schritt von den Blowern wegzugehen.

SKYNET
2018-08-22, 22:01:39
Was für eine Folie meinst du?

Die GTX 680 vs. 980 Folie die hier Prinz_Valium verlinkt hat?
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11778187&postcount=6461

nein, die folie zur 1080...
http://cdn.wccftech.com/wp-content/uploads/2016/05/Nvidia-GTX-1080-Benchmarks.png

dildo4u
2018-08-22, 22:01:57
Die Karte hat nicht Umsonst HDMI 2.0,damit kannst du es bei dir zu Hause in das beste Display stecken.Und das wird der TV sein da die Masse,1000€ viel eher für ein TV als ein Monitor ausgibt.

Raff
2018-08-22, 22:03:57
Magst mal messen wie groß die Lüfter sind? Also Durchmesser. Die wirken nämlich recht groß.

Ich sitze leider schon im Zug zurück. Quasi-Live-Berichterstattung. Aber das war ja nur der Anfang des Wahnsinns. :ugly:

MfG,
Raff

Schnoesel
2018-08-22, 22:04:03
Ich zock nicht auf meinem Fernseher, der hat weder Gsync, noch 120 Hz noch 21:9 und wahrscheinlich einen Inputlag aus der Hölle. Sorry aber was ist das für ein Nullargument.

Timbaloo
2018-08-22, 22:04:56
Ich sitze leider schon im Zug zurück. Quasi-Live-Berichterstattung. Aber das war ja nur der Anfang des Wahnsinns. :ugly:

MfG,
Raff
Naja, morgen ist auch noch ein Tag ;)

Godmode
2018-08-22, 22:05:11
Kann man zum Glück einplanen wenn man es weiß. Für mein altes Gehäuse wäre es nichts (das hat mit der Sapphire Tri-X schon nicht funktioniert).

Es gibt von Partnern DHE-Modelle, da würde mich schon interessieren wie sich diese verhalten.

Eigentlich war Direct Heat Exhaust ja nur für PCs ohne Gehäuselüfter gedacht, oder? Schade dass sie auch dieses mal wieder kein Board ohne Kühler anbieten, so hat man einen teuren Briefbeschwerer als Wakü-User.

Ich sitze leider schon im Zug zurück. Quasi-Live-Berichterstattung. Aber das war ja nur der Anfang des Wahnsinns. :ugly:

MfG,
Raff


Wir freuen uns schon auf eure Tests. :biggrin:

arcanum
2018-08-22, 22:05:38
wenn man die shader und den takt beim vergleich zwischen 1080 und 2080 normiert, kommen ca. 20% geschwindigkeitszuwachs raus. hört sich ziemlich enttäuschend an, zumal auf der 2080 GDDR6 verbaut ist.

MiamiNice
2018-08-22, 22:05:51
Die 2080 soll 50% schneller sein als die 1080 (standard / oc?)? Nur mit AI AA oder generell? Wenn generell und ootb wird das mit OC den Preis vielleicht doch noch rechtfertigen, zumindest für mich. Gab ja schon einen Screen mit 2,1 Ghz Chiptakt auf der TI. Da könnten schon 70% mehr Power drin sein, theoretisch.
Wäre für VR extrem goil. PCars2 mit max. Details und Downsampling - wäre für mich definitiv ein Anschaffungsgrund, auch für 1,3.

dargo
2018-08-22, 22:06:26
[URL="http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-2080-Ti-Preview-1263488/"]Nvidia Geforce RTX 2080 (Ti) in Aktion: Lüftergeräusch, Design und Leistung mit AI-Kantenglättung

Ich werde aus dem DLSS echt nicht schlau. :freak:

Wie kann DLSS bis zu 100% schneller sein wenn TAA fast nichts kostet? Das geht doch eigentlich nur wenn die Renderauflösung drastisch reduziert wird. :confused: Wird das die neue Art von Cheating? :weg: Auf jeden Fall tun mir die Redaktionen jetzt schon leid. Demnächst Benchmarks mit RT on/off und DLSS on/off in unterstützten Games? :D

Godmode
2018-08-22, 22:06:46
Die 2080 soll 50% schneller sein als die 1080 (standard / oc?)? Nur mit AI AA oder generell? Wenn generell und ootb wird das mit OC den Preis vielleicht doch noch rechtfertigen, zumindest für mich. Gab ja schon einen Screen mit 2,1 Ghz Chiptakt auf der TI. Da könnten schon 70% mehr Power drin sein, theoretisch.
Wäre für VR extrem goil. PCars2 mit max. Details und Downsampling - wäre für mich definitiv ein Anschaffungsgrund, auch für 1,3.

Ich denke dass das Powerlimit einen Strich durch die OC-Rechnung machen wird. Wir haben jetzt deutlich mehr ALUs, aber der Process ist eigentlich der selbe wie schon bei Pascal, mit der ein oder anderen Optimierung.

Ich werde aus dem DLSS echt nicht schlau. :freak:

Wie kann DLSS bis zu 100% schneller sein wenn TAA fast nichts kostet? Das geht doch eigentlich nur wenn die Renderauflösung drastisch reduziert wird. :confused: Wird das die neue Art von Cheating? :weg: Auf jeden Fall tun mir die Redaktionen jetzt schon leid. Demnächst Benchmarks mit RT on/off und DLSS on/off in unterstützten Games? :D

Du berechnest einfach weniger Pixel und den Rest "interpolierst" du über die AI.

Troyan
2018-08-22, 22:07:05
Man, die Battlefield 5 Präsentation vor den Journalisten ist richtig gut. Dildo hat es ja schon gepostet. Die Reflexionen sehen fantastisch aus. Man, die Zukunft ist wirklich strahlend (ha).

wenn man die shader und den takt beim vergleich zwischen 1080 und 2080 normiert, kommen ca. 20% geschwindigkeitszuwachs raus. hört sich ziemlich enttäuschend an, zumal auf der 2080 GDDR6 verbaut ist.

In Wolfenstein 2 ist die Karte doch fast 60% schneller...
Die Unterschiede hängen eben von den einzelnen Spielen ab. Turing ist doch ein großer Architektursprung.

RLZ
2018-08-22, 22:07:36
Rechts ist auf dem Foto eindeutig unschärfer. Das kann in der Tat jeder sehen
Es kann in der Tat auch jeder sehen, dass das nicht mal 2 identische Frames sind.
Wird hier nun die schon Bildschärfe anhand von kleinen, um dunkeln fotografierten Bildern beurteilt? Allein das Rauschen des Kamerasensors springt einem schon ins Gesicht. :freak:

SKYNET
2018-08-22, 22:08:16
Magst mal messen wie groß die Lüfter sind? Also Durchmesser. Die wirken nämlich recht groß.

Imho auf jeden Fall der richtige Schritt von den Blowern wegzugehen.

90mm haben die rotoren

sunshine
2018-08-22, 22:08:47
Ich zock nicht auf meinem Fernseher, der hat weder Gsync, noch 120 Hz noch 21:9 und wahrscheinlich einen Inputlag aus der Hölle. Sorry aber was ist das für ein Nullargument.
Gibt eben auch Leute wie mich, die nur noch am TV spielen. Die Zeiten kompetitiv unterwegs zu sein sind fuer mich vorbei. Mein TV hat gemessene 19.6 ms bei 4k HDR @ 60 Hz. Die meisten Spiele, die ich spiele, kommen ohnehin auf der Konsole raus und sind daher gut auf Controller ausgerichtet. Daher habe ich 2 Xbone Controller an der Kiste laufen. Fuer Strategiespiele etc. gibt es Funktastatur + Funkmaus.

Timbaloo
2018-08-22, 22:09:57
Wie kann DLSS bis zu 100% schneller sein wenn TAA fast nichts kostet? Das geht doch eigentlich nur wenn die Renderauflösung drastisch reduziert wird. :confused:
Ja, die Frage habe ich vor ein paar Seiten schon gestellt. Da ist noch mindestens eine Variable unklar.

Wird das die neue Art von Cheating? :weg:
Naja, cheating klingt hart. Wenn DLSS richtig gut funktioniert um man bei intern niedrigerer Auflösung ein "gleich gutes" Bild bekommt ist ja ok. Nur wird das "gleich gut" halt schwierig objektiv zu bewerten sein.

90mm haben die rotoren
Ah, danke :)

Loeschzwerg
2018-08-22, 22:10:35
Magst mal messen wie groß die Lüfter sind? Also Durchmesser. Die wirken nämlich recht groß.

Sieht mir nach 100mm aus und ist auch der Durchmesser der Lüfter von Partnerkarten.

Z.B.:
https://geizhals.de/asus-dual-geforce-rtx-2080-ti-oc-90yv0c41-m0na00-a1870829.html

Edit: Ok, sind vermutlich 90mm wenn man direkt vergleicht. Thx @ Skynet.

Troyan
2018-08-22, 22:11:36
Ist doch offensichtlich: Die berechnete Auflösung bei DLSS ist niedriger. Die fehlenden Bildpunkte werden dann durch AI eingefügt. Hat doch Huang gesagt: Statt 4K nimmt man eben ein 1440px1440p (oder so) Bild.

Platos
2018-08-22, 22:11:39
Wie siehts denn mit derQualität von DLAA aus ? Ist die denn gut ? Und in dem Fall kann man jetzt die Tensor Cores doch noch im Gaming gebrauchen für eben dieses AA? D.h die "normale" GPU muss dann kein AA mehr machen und so kann man theoretisch doch noch ein mehr oder weniger gutes Plus an Perfomance erwarten ? (40-50%)

Ist DLAA dann eig. im Treiber zu erwarten, also per Treiber (somit auch bei älteren ) im Spiel erzwingbar ?

@ Schnoesel: Bin, abgesehen von Shootern, auch immer am Tv :D aber HDR stört mich da wenig. Das Wichtigste am TV ist erst mal VRR Unterstützung bei nvidia.

Schnoesel
2018-08-22, 22:11:41
Gibt eben auch Leute wie mich, die nur noch am TV spielen.

Sag ich ja nicht dass es nicht auch Ausnahmen gibt, aber mir zu sagen ich soll auf dem Fernseher spielen weil die HDR haben. Nein Danke und ich denke ich werde hier nicht die Ausnahme sein sondern die Regel. Insofern ist HDR für mich kein Argument für Turing, solange die Monitore fehlen.

ich auch
2018-08-22, 22:14:10
es gibt doch einige Monitore mit HDR.

Rancor
2018-08-22, 22:17:47
Es kann in der Tat auch jeder sehen, dass das nicht mal 2 identische Frames sind.
Wird hier nun die schon Bildschärfe anhand von kleinen, um dunkeln fotografierten Bildern beurteilt? Allein das Rauschen des Kamerasensors springt einem schon ins Gesicht. :freak:

Ich hab nicht gesagt, das das an DLSS liegt, sondern einfach nur bemerkt das man die unschärfe sieht, welchem Grund sie auch immer hat.

So kann mir jetzt mal einer sagen ob ich ne 1080TI oder doch lieber die 2080 kaufen soll, als Upgrade von der 1070. Die 2080ti fällt aus bekannten Gründen raus.

MiamiNice
2018-08-22, 22:18:54
Ich denke dass das Powerlimit einen Strich durch die OC-Rechnung machen wird. Wir haben jetzt deutlich mehr ALUs, aber der Process ist eigentlich der selbe wie schon bei Pascal, mit der ein oder anderen Optimierung.

Da mache ich mir wenig Sorgen, da kommen recht schnell Bios Mods, wie immer. Ich mache mir aktuell eher Gedanken ob NV uns nicht alle ein wenig veräppelt. Ich könnte mir gut vorstellen das die ganzen 4K Folien auf dem AI Skalierzeug basieren und die Karte echt wenig (mehr)Power bietet.

Wobei dann, für mich, die nächste Frage ist ob nicht genau diese Funktion DLSS? der nächste "heilige Gral" für VR ist. Zusammen mit Eye Tracking und Foveated Rendering könnten 2x 4K Displays in den nächsten HMDs real werden.

Ob NV das Feature wohl für aktuell HMDs nutzbar macht? Wir sind aktuell sehr auf Downsampling angewiesen.

Timbaloo
2018-08-22, 22:20:27
So kann mir jetzt mal einer sagen ob ich ne 1080TI oder doch lieber die 2080 kaufen soll, als Upgrade von der 1070.
Nein, denn dazu musst du die Reviews abwarten..

Die 2080ti fällt aus bekannten Gründen raus.
Passt nicht ins Gehäuse? :freak:

Schnoesel
2018-08-22, 22:20:47
es gibt doch einige Monitore mit HDR.

Und? fällt dir an denen was auf?

Raff
2018-08-22, 22:20:52
Der "Heilige Gral" ist Ray Tracing.

MfG,
Raff

Dural
2018-08-22, 22:21:37
Gibt es eigentlich schon ein datum für die tests der karten?

Rancor
2018-08-22, 22:21:43
Passt nicht ins Gehäuse? :freak:

Zu teuer ;)

Monsta
2018-08-22, 22:22:44
Die 1080Fe ist ja ca. 10% langsamer als die Partnerkarten, ich denke Nvidia hat in Ihrem Chart die Fe als Maß genommen.
Die 2080 hat ja ab Werk einen guten Kühler, da werden die Partnerkarten wohl nicht mehr so viel drauflegen können.
Das Schrumpft den Vorsprung in meinen Augen ein bisschen.

RLZ
2018-08-22, 22:23:42
Ich werde aus dem DLSS echt nicht schlau. :freak:

Wie kann DLSS bis zu 100% schneller sein wenn TAA fast nichts kostet?
https://github.com/alexjc/neural-enhance
Das hatte damals bei einigen Entwicklern die Diskussion entfacht, ob man das auch für Spiele nutzen kann. Damals war die Latenz zu hoch, aber wir sind halt auch 2 Jahre weiter, haben viel schnellere Hardware und viel mehr Ahnung von Netzstrukturen.

sunshine
2018-08-22, 22:23:56
Und? fällt dir an denen was auf?
Da muss ich leider beipflichten. Die Teile sind viel zu teuer.

PHuV
2018-08-22, 22:25:12
Ich werde aus dem DLSS echt nicht schlau. :freak:
Wenn ich mir das Verfahren so anschauen

Experience analylsiert Spiel und schickt Kenndaten zu Superrechner in die Cloud
Superrechner ermittelt KI-Algorithmus für 64 AA-Samples
Per Experience wird der KI-Algorithmus wieder auf den lokalen PC gespielt und mit den neuen 207/80er Karten durch die Tenorcores in Echtzeit angewendet

sieht das für mich vergleichbar wie das aus, was aktuell in der Musik mit Faltungshall, Signaturen von Geräten wie Kemper AMP, UAD (mit SHARC-Prozessoren) gemacht wird. Laienhaft, es wird der Zustand der Audioerzeugung algothrimisch eingefangen, und in Echtzeit mit hocheffizienten DSPs auf die Klangausgabe eingerechnet. Dann ist klar, warum das so viel Rechenpower frist, weil die Berechnung nicht statisch, sondern dynamisch erfolgt.

Frage für mich, wird das Spiel immer wieder vom Supercomputer erneut berechnet, oder ist das nur ein einmaliger Vorgang?
https://github.com/alexjc/neural-enhance
Das hatte damals bei einigen Entwicklern die Diskussion entfacht, ob man das auch für Spiele nutzen kann. Damals war die Latenz zu hoch, aber wir sind halt auch 2 Jahre weiter, haben viel schnellere Hardware und viel mehr Ahnung von Netzstrukturen.
Latenz war auch genau das Problem mit dem Verarbeiten der Signaturen im Faltungshall, womit alles anfing. Es war damals in Echtzeit nicht möglich, und konnte nur auf bereits aufgenommene Spuren mit ca. 1 Sekunde Latenz und enormen CPU-Verbrauch beim Mischen oder Mastern angewendet werden.

Nur mal so für die Nichtkenner: Früher wurde Hall ebenfalls per Algorithmen fest berechnet. Der Nachteil war jedoch, das der Hall und die Reflexionen immer deutlich wahrnehmbar künstlich klangen. Wer darauf etwas geschult ist, hört das bei vielen Aufnahmen raus. Hall in der Audioprodukion ist vergleichbar dem Gral wie hier RT. Deshalb hat man doch lieber Liveaufnamen in entsprechenden Räumlichkeiten gemacht, um "natürlichen" Hall zu bekommen, aber wieder mit allen aufnahmetechnischen Problemen. Irgendwann kam einer auf die Idee, nicht den Hall selbst zu berechnen, sondern mittels Impulsantworten im Hall, die durch einen leiser Knall und Schnalzen erzeugt werden, aufzunehmen. Damit hatte man die Eigenschaften eines Raumes quasi digital festhalten können, die Impulsantwort war die gespeicherte Reaktion des Raumes auf ein Geräusch. Ein Faltungshall nimmt dann diese Impulsantwort, auch Signatur genannt, und kann sie dann auf eine beliebige Audiospur mit Einrechnen.

Wird das die neue Art von Cheating?
Meinst Du, wenn das auf einem runtergerechneten Bild angewendet wird und dann wieder künstlich hochskaliert wird?

Kriton
2018-08-22, 22:25:19
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html

Das ist ein Ausschlusskriterium für mich. Schade, das Problem hatte ich schon mit dem Razertreiber.

MiamiNice
2018-08-22, 22:29:11
Btw:

Ich hatte vor dem Release genau auf so einen AI AA Modi getippt :)

ich auch
2018-08-22, 22:32:10
Und? fällt dir an denen was auf?
was soll mir da auffallen,meinst du das gute HDR Monitore zu teuer sind?

Linmoum
2018-08-22, 22:34:24
Die 1080Fe ist ja ca. 10% langsamer als die Partnerkarten, ich denke Nvidia hat in Ihrem Chart die Fe als Maß genommen.
Die 2080 hat ja ab Werk einen guten Kühler, da werden die Partnerkarten wohl nicht mehr so viel drauflegen können.
Das Schrumpft den Vorsprung in meinen Augen ein bisschen.
Stimmt, da war ja jetzt was mit der FE. Das wird natürlich enorm helfen, so schnell wie die 1080 ins TT gelaufen ist. Würde mich auch nicht überraschen, wenn die 2080 @default auf dem Niveau von Customs taktet, das scheint dafür potent genug zu sein.

Schnoesel
2018-08-22, 22:36:22
was soll mir da auffallen,meinst du das gute HDR Monitore zu teuer sind?

Teuer, Laut, Halo-Effekt...

Es gibt keine guten HDR Monitore.

Aber das ist OT.

Würde mich auch nicht überraschen, wenn die 2080 @default auf dem Niveau von Customs taktet, das scheint dafür potent genug zu sein.

Das ist die Frage wir wissen nicht wie was gelaufen Ist. Laut Nvidia taktet die Referenz niedriger als die FE : 1.800 (FE) vs 1.710 MHz (Referenz). Eine 1080 lag im Durchschnitt (ohne maximales PT/TT) bei ca. 1.667 MHz. Laut Raff soll der neue FE Kühler ja recht gut sein. Bin gespannt auf echte Benches.

Ex3cut3r
2018-08-22, 22:36:53
@PCGH Habt ihr schon ein Datum, wann ihr Karten zum testen bekommt? Oder darf man das noch nicht sagen?

PHuV
2018-08-22, 22:38:31
Blöde Frage, wieviele Leute hier spielen den bereits in HDR? Dürfte überschaubar sein, oder?

Raff
2018-08-22, 22:40:36
@PCGH Habt ihr schon ein Datum, wann ihr Karten zum testen bekommt? Oder darf man das noch nicht sagen?

Hoffentlich vor dem 20. September. ;) Tut mir leid, ihr wisst doch, wie das ist.

MfG,
Raff

dargo
2018-08-22, 22:41:00
Stimmt, da war ja jetzt was mit der FE. Das wird natürlich enorm helfen, so schnell wie die 1080 ins TT gelaufen ist. Würde mich auch nicht überraschen, wenn die 2080 @default auf dem Niveau von Customs taktet, das scheint dafür potent genug zu sein.
Eigentlich sind die RTX FE Karten schon von Werk aus übertaktet.
https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2000-founders-edition-details/

Das heißt einige Customs werden langsamer takten als die FEs. Sicherlich wird es auch viele Customs geben die höher takten wenn man das Powerlimit weiter öffnet.

PHuV
2018-08-22, 22:42:28
Eigentlich sind die RTX FE Karten schon von Werk aus übertaktet.
https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2000-founders-edition-details/

Das heißt einige Customs werden langsamer takten als die FEs. Sicherlich wird es auch viele Customs geben die höher takten wenn man das Powerlimit weiter öffnet.
Nvidia pickt sich die Perlen raus, Rest bekommen die Reseller? Ein Grund mehr, zur FE-Version zu greifen.
Und leise sind die Teile auch:
PCGH - Nvidia Geforce RTX 2080 (Ti) in Aktion: Lüftergeräusch, Design und Leistung mit AI-Kantenglättung (http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-2080-Ti-Preview-1263488/)
Hat also Huang nicht übertrieben oder gar gelogen. ;)

Ex3cut3r
2018-08-22, 22:46:56
Hoffentlich vor dem 20. September. ;) Tut mir leid, ihr wisst doch, wie das ist.

MfG,
Raff

Ok, wenigstens eine Antwort, blödes NDA. :biggrin:

@PHuV Naja in eine lauten Messe Umgebung, wage ich zu bezweifeln, dass da ein Hörtest mit subjetkiver Meinung wirklich 100% Richtig ist. Wenn man sich die Customs ansieht, teilweise was für Brocken das sind, und dann die FE, denke ich mal das die Customs doch um einiges leiser sein werden.

Troyan
2018-08-22, 22:48:23
Ach, bei der Geschwindigkeit wie die Infos zu Videocardz geleakt wird, sehen wir Zahlen nächste Woche.

Linmoum
2018-08-22, 22:50:39
Ok, wenigstens eine Antwort, blödes NDA. :biggrin:

@PHuV Naja in eine lauten Messe Umgebung, wage ich zu bezweifeln, dass da ein Hörtest mit subjetkiver Meinung wirklich 100% Richtig ist. Wenn man sich die Customs ansieht, teilweise was für Brocken das sind, und dann die FE, denke ich mal das die Customs doch um einiges leiser sein werden.
Leiser mit Sicherheit. Aber ich denke, dass die FE diesmal potent genug ist, einen Takt auf Custom-Niveau zu halten (also real anliegender, nicht die Schein-Angabe beim Boost). Da wird nicht das TT limitieren, wie es bei Pascal der Fall ist.

Ex3cut3r
2018-08-22, 22:51:55
Jo klar, also wenn die Customs weiterhin bei den Preisen bleiben, denke ich zum ersten mal wirklich an einer FE als Karte nach.

Kartenlehrling
2018-08-22, 22:53:08
Ich werde aus dem DLSS echt nicht schlau. :freak:



https://zdnet1.cbsistatic.com/hub/i/r/2018/01/08/bb1cef63-8f23-4bb5-92c2-9cc9e5766082/resize/770xauto/82b81da8381ee02f41bdc357a1c8e8e9/samsung-ai-8k-upscaling.jpg
dbx2bIweieg
Samsung 8K AI Technology

Der TV, Console bzw. die Grafikkarte hat zugriff auf eine Cloud Datenbank, mit jedem neuen Spiel oder Film/Bild lernt das System dazu.

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html
hardwareluxx.de : Neuer AA-Modi DLSS erläutert und erste Leistungsdaten

VooDoo7mx
2018-08-22, 22:53:44
Das ist jetzt die erste nVidia Karte wo meiner Meinung nach das Kühlsystem besser aussieht als das was die Dritthersteller anbieten.

Wann fällt eigentlich das Review Embargo? Es gibt noch so viel was ich wissen möchte.

Blöde Frage, wieviele Leute hier spielen den bereits in HDR? Dürfte überschaubar sein, oder?
Ich auf meinen LG OLED. Und es sieht klasse aus. Leider hab ich seit den Windows 10 Creators Update immer wieder Probleme mit der HDR Ausgabe weil Microsoft da selber irgendeinen SHit in das Betriesbsystem eingebaut hat.

PHuV
2018-08-22, 22:54:10
@PHuV Naja in eine lauten Messe Umgebung, wage ich zu bezweifeln, dass da ein Hörtest mit subjetkiver Meinung wirklich 100% Richtig ist. Wenn man sich die Customs ansieht, teilweise was für Brocken das sind, und dann die FE, denke ich mal das die Customs doch um einiges leiser sein werden.
Also ich höre hier schon meine Titan X (Pascal) kaum bis wenig, und der dortige Referenzkühler soll ja nicht der Brüller sein. Gut, ich übertakte auch nicht, da würde die Sache wieder anders aussehen.
Jo klar, also wenn die Customs weiterhin bei den Preisen bleiben, denke ich zum ersten mal wirklich an einer FE als Karte nach.
Und Du bekommst sogar eventuell die besseren übertaktbaren Chips.

Aber das alles zeigt doch, daß Nvidia dazugelernt hat, oder mehr und mehr selbst vieles in die Hand nimmt, um die Kunden mit besseren Argumenten zu melken. :freak: Gut, Intel lernt ja endlich mit dem i7-9900 auch wieder dazu und verlötet endlich wieder den Heatspreader ordentlich.

Ex3cut3r
2018-08-22, 22:55:42
Also ich höre hier schon meine Titan X (Pascal) kaum bis wenig, und der dortige Referenzkühler soll ja nicht der Brüller sein. Gut, ich übertakte auch nicht, da würde die Sache wieder anders aussehen.

Sry, ich bin keine 3,2 Sone gewöhnt, sondern 0,0, @ Desktop und 1,3 @ Game und übertaktet, Custom 1070er macht es möglich, aber das kann ein bisheriger FE User Only ja nicht wissen. :smile:

dargo
2018-08-22, 22:56:30
Nvidia pickt sich die Perlen raus, Rest bekommen die Reseller?
Nicht wirklich, die FEs haben einfach nur ein etwas höheres PT-Limit für den 5-6% höheren Boostakt.

PHuV
2018-08-22, 23:00:01
Hoffentlich vor dem 20. September. ;) Tut mir leid, ihr wisst doch, wie das ist.
Siehe Deine Aussage:
[x] Am Oasch. Wenn, dann nach tiefgehenden Tests. Gebraucht und angenehm dreistellig.
Hmm, dann hat Dich wohl die Performance nicht so überzeugt. Gut, wir wissen ja nicht, ob Du zu diesem Zeitpunkt schon was wußtest, oder hier bewußt eine Nebelkerze gezündet hast. :wink:
Nicht wirklich, die FEs haben einfach nur ein etwas höheres PT-Limit für den 5-6% höheren Boostakt.
Das, was die Übertakterkollegen vorher per BIOS Hack selbst modifizieren mußten, korrekt?

Troyan
2018-08-22, 23:04:41
Na, Leistungswerte sind erst seit heute bekannt.

Ex3cut3r
2018-08-22, 23:05:02
Siehe Deine Aussage:

Das, was die Übertakterkollegen vorher per BIOS Hack selbst modifizieren mußten, korrekt?

Nein, das war noch bei Maxwell der Fall, in der Regel hast du einfach im Afterburner das Power Target hochgezogen, schon hat die Karte höher geboostet.

dargo
2018-08-22, 23:05:29
https://zdnet1.cbsistatic.com/hub/i/r/2018/01/08/bb1cef63-8f23-4bb5-92c2-9cc9e5766082/resize/770xauto/82b81da8381ee02f41bdc357a1c8e8e9/samsung-ai-8k-upscaling.jpg
http://youtu.be/dbx2bIweieg
Samsung 8K AI Technology

Der TV, Console bzw. die Grafikkarte hat zugriff auf eine Cloud Datenbank, mit jedem neuen Spiel oder Film/Bild lernt das System dazu.

https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html
hardwareluxx.de : Neuer AA-Modi DLSS erläutert und erste Leistungsdaten
So langsam klingelts hier. :D Also wenn ich ehrlich bin finde ich dieses DLSS jetzt um Welten interesannter als das Raytracing Gedöns wenn man in der Bildqualität wirklich keinen Nachteil sieht.


Das, was die Übertakterkollegen vorher per BIOS Hack selbst modifizieren mußten, korrekt?
Ich glaube kaum, dass du vorher für magere 104-106% PT das Bios hacken musstest. :tongue:

Kartenlehrling
2018-08-22, 23:12:01
Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß.
Allerdings würde damit auch die Installation der GeForce Experience zusätzlich zum Treiber notwendig und zudem verlangt dieser nach einem Login und
kann nicht mehr einfach so betrieben werden.

Was halt wieder stinkt ist das ständige Login, die Daten die übertragen werden sollen ja nicht so gross sein.

Ex3cut3r
2018-08-22, 23:12:56
So langsam klingelts hier. :D Also wenn ich ehrlich bin finde ich dieses DLSS jetzt um Welten interesannter als das Raytracing Gedöns wenn man in der Bildqualität wirklich keinen Nachteil sieht.


Wird AMD wohl in Navi so ähnlich auch haben. :up:

Platos
2018-08-22, 23:15:14
Was halt wieder stinkt ist das ständige Login, die Daten die übertragen werden sollen ja nicht so gross sein.

Das ist aber offline nutzbar, oder ? Also immer wieder die neueste Version donwloaden, aber sonst offline nutzbar, oder ?

r3ptil3
2018-08-22, 23:22:29
Hatte gerade ein paar Minuten Zeit:

http://fs5.directupload.net/images/180822/c2hyih5g.jpg

w0mbat
2018-08-22, 23:23:26
Naja, für eine 20180Ti ist das etwas langsam ;)

Troyan
2018-08-22, 23:25:23
Naja, haut hin, RTX2080 ist 50% schneller als GTX1080. Die RTX2080TI steht besser gegenüber der GTX1080TI dar.

Mit DLSS sollten es dann 78FPS sein...

/edit: Konsolenhersteller kommen eigentlich nicht mehr an nVidia vorbei. DLSS ist so ein Konsolenfeature schlecht hin.

PHuV
2018-08-22, 23:31:15
Nein, das war noch bei Maxwell der Fall, in der Regel hast du einfach im Afterburner das Power Target hochgezogen, schon hat die Karte höher geboostet.
Ich erinnere mich wieder, ich werde alt:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11124185&postcount=408
Das Ergebnis der Experimente mit Power Target war, daß ein paar mal die Karte einfach nicht mehr ansprechbar war, und ich mehrfach booten mußte, bis sie wieder lief. Seitdem habe ich die Experimente gelassen. Meine Verdrängung funktioniert gut. :freak:

PHuV
2018-08-22, 23:32:25
Hier stand Unsinn, bitte löschen.

r3ptil3
2018-08-22, 23:33:43
Hier stand Unsinn, bitte löschen.

Ne, noch nicht. Die Werte sind von Hwlux.

Ex3cut3r
2018-08-22, 23:38:39
Ich erinnere mich wieder, ich werde alt:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11124185&postcount=408
Das Ergebnis der Experimente mit Power Target war, daß ein paar mal die Karte einfach nicht mehr ansprechbar war, und ich mehrfach booten mußte, bis sie wieder lief. Seitdem habe ich die Experimente gelassen. Meine Verdrängung funktioniert gut. :freak:

Hmm ok, das muss aber irgendwie was anderes schief gelaufen sein, ein erhöhtes PT erlaubt der Karte ja nur mehr Strom ziehen zu lassen, und damit höher zu boosten.

BlacKi
2018-08-22, 23:40:49
/edit: Konsolenhersteller kommen eigentlich nicht mehr an nVidia vorbei. DLSS ist so ein Konsolenfeature schlecht hin.
guter punkt, dort kann man jede fps gut gebrauchen und die pienzen auch nicht so rum wenn es nicht absolut perfekt aussieht weil kein vergleich da ist.

aber ganz ehrlich, das würd mich auch nicht stören, wenn die quali halbwegs was taugt, kann man die mehr performance auch ohne probleme mitnehmen.

btw. dann dürfte die 2070 auch ungefähr bei der 1080ti rauskomen. mit dlss sogar wohl deutlich darüber. wenn die karten 16gb hätten wäre ich vl sogar wegen der extra performance unter dlss entweder auf die 2070 oder 2080 gewechselt. aber runter auf 8gb? ne danke. da bleibt die 1080ti bis 7nm drin.

Troyan
2018-08-22, 23:45:27
Mal abwarten. Ich gehe davon aus, dass man nVidia auf die Speicherbestückung angesprochen hat.

Linmoum
2018-08-22, 23:45:29
/edit: Konsolenhersteller kommen eigentlich nicht mehr an nVidia vorbei. DLSS ist so ein Konsolenfeature schlecht hin.Konsolenhersteller interessiert der Preis und nichts anderes. Ab 500€ aufwärts kann man zusehen, wie die Dinger in den Regalen liegen bleiben, weil Otto-Normalo als Casual so viel nicht ausgeben will.

Entsprechende CPUs kann Nvidia nicht bieten, was den Preis noch einmal hochtreiben würde. Macht niemand mit.

PHuV
2018-08-22, 23:50:36
/edit: Konsolenhersteller kommen eigentlich nicht mehr an nVidia vorbei. DLSS ist so ein Konsolenfeature schlecht hin.
Dann müssen sie aber gleich den Treiber direkt mit der Cloud verbinden, um das zu aktivieren und die Daten hin- und her zu schicken.

BlacKi
2018-08-22, 23:50:38
Konsolenhersteller interessiert der Preis und nichts anderes.
preisleistung, die bringt dlss ordentlich.

Mal abwarten. Ich gehe davon aus, dass man nVidia auf die Speicherbestückung angesprochen hat.
eine volle titan xt mit 24gb wären mir vl 1500€ -1700€ wert, 3000 allerdings nicht^^. aber 1230€ für ne teildeaktivierte 11gb karte? uff, ne danke auch wenn die leistung reichen würde.

Troyan
2018-08-22, 23:52:04
Dann müssen sie aber gleich den Treiber direkt mit der Cloud verbinden, um das zu aktivieren und die Daten hin- und her zu schicken.

Na, die Daten werden lokal gespeichert. Da sagt man den Kunden, er muss einen Patch ziehen und schon sind die Daten vorhanden.

Ex3cut3r
2018-08-23, 00:04:03
Lasst AMD den Konsolen, oder wollt ihr für eine 3080 non Ti 1200€ auf den Tisch legen? Wir können nur hoffen das Navi was wird, und AMD allgemein Konkurrenzfähiger wird, denn davon profitieren wir.

monstar-x
2018-08-23, 00:04:44
Na, die Daten werden lokal gespeichert. Da sagt man den Kunden, er muss einen Patch ziehen und schon sind die Daten vorhanden.

Viele Konsolen gehen nicht ins Internet.
Die haben dann nur 10FPS, oder wie stellst du dir das vor.
Den Shitstorm würde man selbst auf dem Mond hören.

Thunderburne
2018-08-23, 00:06:27
Bin gespannt für welche Karte es einen Wasserkühler gibt welche mit die höchste Leistungsaufnahme zulässt (PT).
Evga FTW Ultra? Gigabyte Auorus? STRIX? HOF?
Wenn die Offiziellen Benchmarks überzeugen muss ein gescheiter Unterbau her.

Luftkühler kommt mir gar nicht in die Tüte.. so ein Mora wird die 450W schon schlucken.
Bin echt gespannt ob bei Turing die OC Takraten ein neues Level erreichen (2200+)

Dural
2018-08-23, 00:06:28
preisleistung, die bringt dlss ordentlich.


eine volle titan xt mit 24gb wären mir vl 1500€ -1700€ wert, 3000 allerdings nicht^^. aber 1230€ für ne teildeaktivierte 11gb karte? uff, ne danke auch wenn die leistung reichen würde.

Die quadro hat sonst 16gb für nur 2300.- dazu einen vollen tu104 chip ;)

PHuV
2018-08-23, 00:17:02
Viele Konsolen gehen nicht ins Internet.

Hast Du schon lang keine Konsole mehr gehabt? Die Teile brauchen heute für die Spiele alle auch schon eine permanente Online-Verbindung, siehe Erfahrungen Xbox One mit Sohnemann.

Troyan
2018-08-23, 00:19:27
Vulkan, Raytracing, 4k, >60FPS: https://youtu.be/ZnQRzLZ5nEE?t=153

monstar-x
2018-08-23, 00:20:48
Hast Du schon lang keine Konsole mehr gehabt? Die Teile brauchen heute für die Spiele alle auch schon eine permanente Online-Verbindung, siehe Erfahrungen Xbox One mit Sohnemann.

Was erzählst du da?
Weder meine PS4 Pro noch meine Switch müssen ins Internet um irgend etwas spielen zu können.

Troyan
2018-08-23, 00:24:54
Und mehr Leaks: https://videocardz.com/77696/exclusive-nvidia-geforce-rtx-2080-ti-editors-day-leaks

MiamiNice
2018-08-23, 00:26:14
Was erzählst du da?
Weder meine PS4 Pro noch meine Switch müssen ins Internet um irgend etwas spielen zu können.

Ja ne, ist klar. Dir ist klar das die meisten User hier auch solche Teile zu Hause haben?

;D;D

monstar-x
2018-08-23, 00:27:43
Und mehr Leaks: https://videocardz.com/77696/exclusive-nvidia-geforce-rtx-2080-ti-editors-day-leaks

Alles bisher leider nichts sagen.
Wir kennen keine der Einstellungen :mad:

monstar-x
2018-08-23, 00:29:08
Ja ne, ist klar. Dir ist klar das die meisten User hier auch solche Teile zu Hause haben?

;D;D

Was willst du damit sagen? Das ohne Internet die PS4 Pro und Switch keine
neu eingelegte Spiele abspielen können?

MiamiNice
2018-08-23, 00:34:37
Ich will damit sagen das so ziemlich jeder hier auf dem Board weiß wie funktional eine Konsole anno 2018 ohne Internet ist. Zu behaupten der Download einer Datei wäre nicht OK weil xyz Konsolen nicht am Netz hängen -> klingt extrem surreal oder nach starkem trolling.

Und btw. zumindest meine Switch spielt nicht jedes Spiel ohne Internet ab :)
Und wenn mich nicht alles täuscht läuft ohne ein Online Konto bei Nintendo auch nicht so viel, oder?

PHuV
2018-08-23, 00:38:33
Was erzählst du da?
Weder meine PS4 Pro noch meine Switch müssen ins Internet um irgend etwas spielen zu können.
Tatsachen. :rolleyes: Die XBox One ohne Onlineverbindung ist nicht, ich habs doch durch. Spätestens beim Installieren geht ohne Onlineverbindung nix.

monstar-x
2018-08-23, 00:40:43
Ich will damit sagen das so ziemlich jeder hier auf dem Board weiß wie funktional eine Konsole anno 2018 ohne Internet ist. Zu behaupten der Download einer Datei wäre nicht OK weil xyz Konsolen nicht am Netz hängen -> klingt extrem surreal oder nach starkem trolling.

Und btw. zumindest meine Switch spielt nicht jedes Spiel ohne Internet ab :)
Vielleicht hast eine andere Version :wink:

Na wenn du sagst, dass es jeder weiß, dann muss das so stimmen.
Für was soll meine Konsole ans Netz wenn ich nur Offline Spiele.
Gerade das ist der Vorteil einer Konsole.


Welches Spiel (kein MP Only) spielt den deine Switch nicht ohne Internet ab, jetzt bin ich aber echt gespannt.

Ich habe ca. 20 Spiele auf der Switch, bisher startet jedes Spiel ohne Internet. Das selbe auf der Wii U und 3DS.

Ex3cut3r
2018-08-23, 00:41:29
Also, bei der PS4 geht das nicht, wenn du ein neues PS4 Spiel kaufst, wird in Regel auch immer die neuste aktuellste Firmware verlangt, und wenn du die nicht hast, dann wird die PS4 zwangsgeupdateted. Die Firmware liegt aber oft auch auf der Blu-Ray drauf.

monstar-x
2018-08-23, 00:41:41
Tatsachen. :rolleyes: Die XBox One ohne Onlineverbindung ist nicht, ich habs doch durch. Spätestens beim Installieren geht ohne Onlineverbindung nix.

Das ist richtig, aber du sagtest Konsolen, also alle.
Weder die PS4 noch die Switch / 3DS brauchen internet, einen Day One Patch oder dergleichen.

Platos
2018-08-23, 00:42:22
Ja, und ist ja nicht noch zusätzlich so, dass man alle Patches online bezieht:biggrin: Was will man heute mit ungepatchten Spielen ??

SKYNET
2018-08-23, 00:49:39
Die quadro hat sonst 16gb für nur 2300.- dazu einen vollen tu104 chip ;)

nix voll, nur 3072/384, voll wäre 4608/576... und die gibts ab $6300 :freak:

MiamiNice
2018-08-23, 00:51:20
Na wenn du sagst, dass es jeder weiß, dann muss das so stimmen.
Für was soll meine Konsole ans Netz wenn ich nur Offline Spiele.
Gerade das ist der Vorteil einer Konsole.


Welches Spiel (kein MP Only) spielt den deine Switch nicht ohne Internet ab, jetzt bin ich aber echt gespannt.

Ich habe ca. 20 Spiele auf der Switch, bisher startet jedes Spiel ohne Internet. Das selbe auf der Wii U und 3DS.

Du verwendest wahrscheinlich Spielmodule? Kein Updates? Keine MP Spiele? Nur teure Games auf Karte, keine Online Einkäufe im Nintendo Store oder auf 3. Webseiten?

Na, dann läuft es wahrscheinlich offline. Musst aber akzeptieren das das für die meisten Spieler so nicht geht und an anderen Konsolen auch gar nicht mehr vorgesehen ist. Selbst die Switch ist ohne Netz quasi kastriert.
Nutzbar sind Konsolen nimmer ohne Netz und im Fall der Switch nicht uneingeschränkt nutzbar und sie wird vieler Ihre tollen Features beraubt.

Menace
2018-08-23, 00:51:21
Wie sieht das aber mit den Leuten auf dem Land aus? Wenn ich ein Spiel für PS4 runterladen möchte, dauert das mal eine Woche (dann geht aber sonst nichts). Also wird nur nachts runtergeladen. Bräuchte ich das für die neue Technik auch?

Und klar kann man offline spielen. Machen wir auch.

Troyan
2018-08-23, 00:53:42
Schaut euch die Videos von den einzelnen Spielen an: https://www.youtube.com/user/trogdorjw/videos

Man, das sieht alles so gut aus.

Liquaron
2018-08-23, 00:54:55
Wann kann ich denn endlich bei Amazon vorbestellen? Würde dann gerne mal die 2080 ti testen. Wenn mir die Leistung nicht passt schicke ich sie wieder problemlos zurück....

Dural
2018-08-23, 00:55:18
Also wenn sich die 50% pro core im schnitt bewahrheitet, führt definitiv kein weg mehr an turing vorbei.

MiamiNice
2018-08-23, 00:56:57
Wie sieht das aber mit den Leuten auf dem Land aus? Wenn ich ein Spiel für PS4 runterladen möchte, dauert das mal eine Woche (dann geht aber sonst nichts). Also wird nur nachts runtergeladen. Bräuchte ich das für die neue Technik auch?

Und klar kann man offline spielen. Machen wir auch.

Es geht hier um den Download einer kleiner Datei damit die Tensor Cores wissen was sie zu tun haben ...
Das ist doch nun wirklich keiner tieferen Diskussion würdig.

Dural
2018-08-23, 01:01:30
nix voll, nur 3072/384, voll wäre 4608/576... und die gibts ab $6300 :freak:

Anderer chip, 3072 ist voll aktiv für den tu104.

crux2005
2018-08-23, 01:04:29
NVIDIA has set the date for the full reviews to September 14th.

Ist ein Freitag... :uponder:

Also keine Leaks zur Leistung bis ~7. September.

Und mehr Leaks: https://videocardz.com/77696/exclusive-nvidia-geforce-rtx-2080-ti-editors-day-leaks

TU102 has 576 Tensor cores, 72 RT cores, 32 Geometry Units and 288 TMUs. The chip also features 96 Raster Units.

Und nochmal die 1,5x Shading Leistung vs. Pascal, jetzt auch mit Spielen:

https://i.imgur.com/36BXVrKl.jpg

@pixeljetstream :P

Dural
2018-08-23, 01:09:36
Ja leider, habe auch schon nachgeschaut.

Ich glaube, ich muss mir bei nv doch eine 2080ti vorbestellen, das ding ist einfach zu krass um in einer sammlung zu fehlen.
Die frage nach der titan ist leider noch offen.


Letzteres soll fast 50 Prozent schneller als auf einer Geforce GTX 1080 laufen, was zu unseren internen Benchmarks passt.


https://www.golem.de/news/nvidia-turing-geforce-rtx-2080-rechnet-50-prozent-schneller-1808-136141.html

MiamiNice
2018-08-23, 01:35:19
VRMark scheint Turing ja zu lieben. Meine Kreditkarte fängt gerade an zu vibrieren :eek::freak:

Das sieht nach soliden 60% moor Power aus ohne die neuen Features. I Like ;)

Thunderburne
2018-08-23, 03:02:14
https://wccftech.com/nvidia-turing-gpu-geforce-rtx-2080-ti-ipc-block-diagram-detailed/
50% mehr IPC.

Nightspider
2018-08-23, 03:14:23
Also nichts was irgendwie überrascht. Interessant wird dann 12nm -> 7nm.

dargo
2018-08-23, 06:28:55
Nachdem ich mal drüber geschlafen habe ein paar Gedanken von mir zu DLSS bzw. den RTX Karten. Vielleicht liege ich damit auch voll daneben, mal sehen was andere darüber denken.

Gehen wir mal davon aus DLSS funktioniert einwandfrei ohne sichtbaren Qualitätsverlust. Ich schiele hier nicht mal Richtung Spieler mit Adleraugen sondern habe im Fokus den 08/15 Hans. Nvidia lagert hier praktisch rechenintensive Sachen in der eigenen Cloud aus. Ist das eventuell die Vorbereitung seitens Nvidia auf in der Zukunft kommende Abos? Dafür spricht jedenfalls, dass man Geforce Experience zwingend für DLSS braucht und sich auch einlogen muss, sprich einen Account erstellen muss. So ein Abo ist natürlich erst möglich wenn die Masse entsprechende Karten hat. Ob das die Vorbereitung dafür ist? :uponder: Weiß nicht so recht was ich davon halten soll. So nach dem Motto willst du mehr fps und/oder schönere Grafik zahle ein entsprechendes Abo.

gravitationsfeld
2018-08-23, 06:30:32
50% mehr IPC ist nicht ueberraschend? Also mich ueberrascht das sehr.

Frag mich was da wieder im Busch ist und sie dieses Mal nicht verraten.

Ex3cut3r
2018-08-23, 06:34:33
50% mehr IPC finde ich auch krass, aber diese Salami Info Scheiben Technik bei Nvidia ist einfach lächerlich.

@Dargo, glaube ich nicht, bzw. das wurde nie so kommen, und wenn doch, wirds DLSS einfach nicht benutzt.

dargo
2018-08-23, 06:40:21
Ich bin mir da nicht so sicher ob NV hiermit nicht schon den ersten Schritt ins eigene Öko-System plant. Wer weiß was außerhalb von DLSS noch alles möglich ist. In wenigen Jahren sind wir schlauer.

mczak
2018-08-23, 06:41:45
https://wccftech.com/nvidia-turing-gpu-geforce-rtx-2080-ti-ipc-block-diagram-detailed/
50% mehr IPC.
Halte ich für reichlich übertrieben. Die RTX 2080 soll ja scheinbar so ~50% schneller sein in Spielen (auch laut den offiziellen Folien) gegenüber der GTX 1080, und die hat ja 20% mehr ALUs.
Aber gut, auch wenn's im Durchschnitt bloss 20-25% mehr IPC sind wäre das auch schon ein rechter Sprung - ist ja nicht so dass Pascal da ein Defizit gehabt hätte, und allzuviel Fläche kann es ja auch nicht gekostet haben. So wie ich das sehe sind die TPCs/SMs wohl sowieso quasi identisch zu denen von Volta (halt ohne 1/2 FP64, dafür mit RT). Natürlich wird es aber Workloads geben wo die IPC 50% grösser ist.

Spasstiger
2018-08-23, 06:48:24
Was bedeutet denn DLSS 2x? Ich rendere zunächst das Bild in der halben Ziel-Auflösung und lasse das eintrainierte, neuronale Netz das Upsampling auf Zielauflösung inkl. AA durchführen?

dildo4u
2018-08-23, 06:49:26
Achtet Mal drauf Das ist alles DX12 bis auf ein Game.NV sollte DX12 Performance besser fixen da RTX es vorraussetz.

AffenJack
2018-08-23, 06:51:44
Halte ich für reichlich übertrieben. Die RTX 2080 soll ja scheinbar so ~50% schneller sein in Spielen (auch laut den offiziellen Folien) gegenüber der GTX 1080, und die hat ja 20% mehr ALUs.
Aber gut, auch wenn's im Durchschnitt bloss 20-25% mehr IPC sind wäre das auch schon ein rechter Sprung - ist ja nicht so dass Pascal da ein Defizit gehabt hätte, und allzuviel Fläche kann es ja auch nicht gekostet haben. So wie ich das sehe sind die TPCs/SMs wohl sowieso quasi identisch zu denen von Volta (halt ohne 1/2 FP64, dafür mit RT). Natürlich wird es aber Workloads geben wo die IPC 50% grösser ist.

Du vergleichst Gesamtperformance. Ich würde das Bild eher auf pures Shading beziehen. Durch die erhöhte Leistung in dem Bereich verschiebt sich das Limit aber eben zu anderen Bereichen, wie Bandbreite etc, weshalb du die Steigerungen in Spielen nicht sehen wirst. Kein Plan wie sie das gemessen haben, aber es sollte wohl Entwicklertools geben, die das können.

Kriegsgeier
2018-08-23, 06:54:03
War da nicht was mit verdopplung der Caches?
Das alleine bring schon was...

https://videocardz.com/77696/exclusive-nvidia-geforce-rtx-2080-ti-editors-day-leaks

Also jetzt verstehe ich langsam was Igor vor ein paar Monaten meinte als er sehr von Turing geschwärmt hat!

Es wird doch ein Monster werden!

Ende September wird folgendes passieren:

1080 GTX --> Straßenpreis um 350€
1080ti GTX --> Straßenpreis um 480€

basix
2018-08-23, 07:04:01
Was bedeutet denn DLSS 2x? Ich rendere zunächst das Bild in der halben Ziel-Auflösung und lasse das eintrainierte, neuronale Netz das Upsampling auf Zielauflösung inkl. AA durchführen?

Jap das sollte hinkommen. Downsampling per Treiber wird mit selben Zahlen gemacht. Gibt aber krumme Teiler. Somit Wurzel(2) geringere Auflösung pro Seite. DLSS 4x wäre dann Full HD auf 4k. Wäre dann immer noch 16xAA drauf :)

Bin gespannt auf Qualitätsvergleiche ;)

Edit: Sollte DLSS mit der Zeit mehr oder minder allen Spielen funktionieren, wären die 20-30% Fläche für AI + RT reingeholt ;)

Loeschzwerg
2018-08-23, 07:22:17
Dafür spricht jedenfalls, dass man Geforce Experience zwingend für DLSS braucht und sich auch einlogen muss, sprich einen Account erstellen muss.

Wobei hier lediglich die paar MB an relevanten Daten für DLSS gezogen werden. Danach kann man sich wieder abmelden und quasi "Offline" das Feature nutzen.

Igor schreibt dass es dazu noch ein Whitepaper geben wird.

basix
2018-08-23, 07:32:36
Wenn es MB sind (ist ja ein trainiertes Netz, deshalb so klein) kann man für Offline Jünger eine Version auf die Disk tun.

Allgemein noch zu AI: Ich erhoffe mir dadurch eine anständige Reduktion der benötigten Speichermenge für gewisse Dinge. Das ist nur im Interesse aller (User, GPU Hersteller, Konsolen Hersteller, Game Entwickler), deswegen wird es sich durchsetzen.

Loeschzwerg
2018-08-23, 07:37:10
kann man für Offline Jünger eine Version auf die Disk tun.


Vielleicht basteln findige Modder irgendetwas, who knows.

ShinyMcShine
2018-08-23, 07:38:19
Wenn es MB sind (ist ja ein trainiertes Netz, deshalb so klein) kann man für Offline Jünger eine Version auf die Disk tun.

Den Gefallen wird Dir NVIDIA bestimmt nicht tun. Ich denke, dass hier wieder versucht wird, GeForce Experience zu pushen...

Adam D.
2018-08-23, 07:46:11
Bitte löschen

Digidi
2018-08-23, 07:58:04
50% mehr IPC ist nicht ueberraschend? Also mich ueberrascht das sehr.

Frag mich was da wieder im Busch ist und sie dieses Mal nicht verraten.

Überlege gerade man könnte 70% der Pixel rendern und die restlichen 30% durch neuronale Netze auffüllen. Das müsste sich auch super trainieren lassen.

Vielleicht kann jemand mal ein tricky test schreiben um das zu prüfen.

HOT
2018-08-23, 08:04:31
Die Benchmarks sind in UHD mit HDR durchgeführt. Das bedeutet, dass Turing hier 2 massive Vorteile ggü. Pascal ausfährt, nämlich HDR, was auf Pascal im Gegensatz zu Vega und sicher auch Turing, ordentlich wegbricht von der Leistung her und in UHD kann Turing eben seine massiv höhere Speicherbandbreite voll ausfahren. Die Ergebnisse sind also absolut ernüchternd und auf dem leider erwartetem Niveau. Hinzu kommt, dass Turing LL sicher besser ausfahren kann als Pascal, das kommt also ebenfalls noch oben drauf, da ja die meisten Titel davon LL sind. Haben eben gut die Rosinen rausgepickt.

Captain Future
2018-08-23, 08:07:36
Du kannst auch die Fps die du wilst vorgeben und nach Abbruchbedingung Zeit wird der Rest über AI aufgefüllt.

dildo4u
2018-08-23, 08:11:43
DLSS ist eigentlich dumm für Nvidia wenn das mit der Zeit immer besser wird,kann man das aufrüsten massiv verschieben.

Hübie
2018-08-23, 08:12:39
50% mehr IPC ist nicht ueberraschend? Also mich ueberrascht das sehr.

Frag mich was da wieder im Busch ist und sie dieses Mal nicht verraten.

Videocardz nennt 50% faster core, was nicht mit clock-by-clock gleich zu setzen ist. Die ALUs takten schon mal höher und haben mehr Cache zur Verfügung. IPC ist wahrscheinlich so 25-30% gewachsen, was auch schon beachtlich ist. Edit: Plus granulareres scheduling - > 64 statt 128 FP32 ALU/SM und eben die Möglichkeit für mixed modes (INT8 bis FP32 [oder gar FP64? :uponder:]).
Das Taktverhalten hat sich ggü Pascal geändert und man wird wohl dieses Mal von NV schon so etwas wie OC ootb sehen, wenn man das PT/TT öffnet. Wie viele clockdomains es dieses Mal gibt weiß ich nicht, aber kann mir gut vorstellen dass man da noch weiter geht.

gravitationsfeld
2018-08-23, 08:14:42
Überlege gerade man könnte 70% der Pixel rendern und die restlichen 30% durch neuronale Netze auffüllen. Das müsste sich auch super trainieren lassen.
Quatsch.

MiamiNice
2018-08-23, 08:15:34
Nachdem ich mal drüber geschlafen habe ein paar Gedanken von mir zu DLSS bzw. den RTX Karten. Vielleicht liege ich damit auch voll daneben, mal sehen was andere darüber denken.

Gehen wir mal davon aus DLSS funktioniert einwandfrei ohne sichtbaren Qualitätsverlust. Ich schiele hier nicht mal Richtung Spieler mit Adleraugen sondern habe im Fokus den 08/15 Hans. Nvidia lagert hier praktisch rechenintensive Sachen in der eigenen Cloud aus. Ist das eventuell die Vorbereitung seitens Nvidia auf in der Zukunft kommende Abos? Dafür spricht jedenfalls, dass man Geforce Experience zwingend für DLSS braucht und sich auch einlogen muss, sprich einen Account erstellen muss. So ein Abo ist natürlich erst möglich wenn die Masse entsprechende Karten hat. Ob das die Vorbereitung dafür ist? :uponder: Weiß nicht so recht was ich davon halten soll. So nach dem Motto willst du mehr fps und/oder schönere Grafik zahle ein entsprechendes Abo.

Also bei all meinen Gedanken, den hatte ich noch nicht. Finde ich auch recht abwegig.

Grüße

MiamiNice
2018-08-23, 08:19:50
Jap das sollte hinkommen. Downsampling per Treiber wird mit selben Zahlen gemacht. Gibt aber krumme Teiler. Somit Wurzel(2) geringere Auflösung pro Seite. DLSS 4x wäre dann Full HD auf 4k. Wäre dann immer noch 16xAA drauf :)

Bin gespannt auf Qualitätsvergleiche ;)

Edit: Sollte DLSS mit der Zeit mehr oder minder allen Spielen funktionieren, wären die 20-30% Fläche für AI + RT reingeholt ;)

Hier ist halt noch sehr fraglich wie gut es optisch wirklich ist und ob es z.b. Mouselag erzeugt oder andere Nachteile hat.

Linmoum
2018-08-23, 08:23:17
Immerhin scheinen sie LL endlich gefixt zu haben, sind ja bisher fast nur DX12 und Vulkan Spiele die sie mit Performancesprüngen belegen. Mal schauen, wie es mit DX11 aussieht.

Digidi
2018-08-23, 08:23:19
Quatsch.

Begründung?

moBi
2018-08-23, 08:25:03
50% mehr IPC ist nicht ueberraschend? Also mich ueberrascht das sehr.

Frag mich was da wieder im Busch ist und sie dieses Mal nicht verraten.

FP und Int gleichzeitig könnte man sogar als doppelt so viel shading performance interpretieren. Es steht nicht "relative FPS" auf der y-achse.

Rancor
2018-08-23, 08:25:59
Immerhin scheinen sie LL endlich gefixt zu haben, sind ja bisher fast nur DX12 und Vulkan Spiele die sie mit Performancesprüngen belegen. Mal schauen, wie es mit DX11 aussieht.

Wenn die Sheets stimmen, auch gut. Destiny 2 ist zB. ein DX 11 Titel.

dildo4u
2018-08-23, 08:27:01
Da sind hauptsächlich DX11 Games zu sehen.

basix
2018-08-23, 08:30:41
Den Gefallen wird Dir NVIDIA bestimmt nicht tun. Ich denke, dass hier wieder versucht wird, GeForce Experience zu pushen...
Ja, vermutlich. Finde ich auch kacke. Habe bisher GeForce Experience gemieden. Hier könnte der Game Hersteller aber evtl. Gegensteuer geben, wenn sie DLSS direkt integrieren ohne über GF-Exp. zu gehen. Ob das Nvidia zulässt ist eine andere Frage.

Hier ist halt noch sehr fraglich wie gut es optisch wirklich ist und ob es z.b. Mouselag erzeugt oder andere Nachteile hat.
Laut CB und anderen Augenzeugenberichten sieht es auf den ersten Blick ziemlich gut aus. Mouselag etc. wird sich zeigen. Ansonsten kann man es ja wohl auch ausschalten ;)

DLSS ist eigentlich dumm für Nvidia wenn das mit der Zeit immer besser wird,kann man das aufrüsten massiv verschieben.
Wohl kaum. Es wird einfach Platz für mehr Effekte / Qualität an anderer Stelle geschaffen.

Linmoum
2018-08-23, 08:30:49
Da sind hauptsächlich DX11 Games zu sehen.
Achtet Mal drauf Das ist alles DX12 bis auf ein Game.NV sollte DX12 Performance besser fixen da RTX es vorraussetz.
Ok.

MadManniMan
2018-08-23, 08:31:13
Haben wir eigentlich schon aufgedröselt, was DLSS tatsächlich genau tut?

Aktuell klingt es mir noch ein wenig zu sehr nach "irgendwas mit Cloud und AI und vielleicht auch Blockchain und außerdem hat es vier Buchstaben, das mögen die SSAA-Nerds".

Godmode
2018-08-23, 08:34:54
RTX Games erlauben mit Ansel mehr Strahlen:

https://www.tomshw.de/2018/08/22/nvidia-praesentiert-geforce-experience-rtx-wir-haben-die-informationen-und-die-folien/

dildo4u
2018-08-23, 08:35:45
Ok.

Ich meinte das was bisher öffentlich ist,die Architektur IPC wurde bisher nur der Presse gezeigt soweit ich das verstanden hab.
Für die Masse werden sie immer Produkte vergleichen nicht die SM Cores Einzeln.


Mass Effect hat kein DX12,7 DX11 zu 3 DX12.Es sollte in 4k auch nicht schwer sein zumindest die 2080 auszulasten,bei der Ti kann es anders aussehen.

https://abload.de/img/1-1080.3495872239viyf.jpg

SamLombardo
2018-08-23, 08:44:16
Blöde Frage, wieviele Leute hier spielen den bereits in HDR? Dürfte überschaubar sein, oder?
Hier! Ebenfalls auf LG OLED. Und es sieht dermaßen fantastisch aus, dass ich zurück auf LCD jeglicher Art wohl nicht wieder kann. Klar, wenn jemand kompetitiver Multiplayer ist, fällt das natürlich aus wegen der 21ms Lag. Dem steht aber die konkurrenzlos gute Reaktionszeit des Oled Panels gegenüber, die jeden LCD um Längen schlägt. Für Single Player gibt es nichts Besseres, selbst schnelle Shooter wie Doom spielen sich ohne Einschränkung super, ja besser als auf meinem vorherigen LCD, da auch schnellste Bewegungen ohne jedliche Nachzieheffekte messerscharf bleiben - dem Oled Panel sei dank. Ich habe auch mit HDR unter Windows 10 noch nie irgendwelche Probleme gehabt. Und es wertet die Spiele wunderbar auf. Manche Szenen in AC Origns, Shadow of War, ME Andromeda...usw. sehen einfach nur zum Niederknien aus. Wenn man zum Testen HDR mal ausschaltet merkt man erst richtig, wie flau die fehlende Bilddynamik auf einmal wirkt.
Wenn du mal in Jena sein solltest, schreib mich kurz an:wink:. Schaust du es dir einfach mal selber an, das geht flexibel und absolut problemlos.

Aber mal on Topic. Die ersten Benchmarks lassen es mir schon irgendwie in den Fingern jucken :D. Nochmal die finalen Tests abwarten. Wie ich mich kenne, kann ich mich wieder nicht beherrschen:wink:.

ShinyMcShine
2018-08-23, 08:47:48
Ja, vermutlich. Finde ich auch kacke. Habe bisher GeForce Experience gemieden. Hier könnte der Game Hersteller aber evtl. Gegensteuer geben, wenn sie DLSS direkt integrieren ohne über GF-Exp. zu gehen. Ob das Nvidia zulässt ist eine andere Frage.

Das Experience Zeugs kam mir bisher noch nie auf die Platte. Und wird es auch in Zukunft nicht. So viel besser wie die bisherigen AA-Modi kann DLSS für mich gar nicht aussehen, das ich mir das antue (wenn ich mir mal in 2 Jahren oder so eine Grafikkarte von NVIDIA kaufe die das dann auch beherrscht).
Auch bin ich kein high-FPS Spieler der 100 FPS+ braucht (falls DLSS so viel schneller sein wird wie andere AA Modi). 60 FPS reichen mir, von daher ist es für mich ein technisch interessantes Thema welches ich auch neugierig verfolgen werde. Aber das war es dann auch.

VG
Shiny

chiller
2018-08-23, 08:49:12
Gibt es schon einen Termin für die Asus 2080 Ti Strix?

Linmoum
2018-08-23, 09:04:06
https://i.imgur.com/SWMjHOK_d.jpg?maxwidth=640&shape=thumb&fidelity=medium
https://m.imgur.com/SWMjHOK

Vergleichswerte von GN und guru, allerdings ohne HDR. Jetzt müsste man nur noch die Settings wissen, die Nvidia genutzt hat.

Hübie
2018-08-23, 09:05:45
Das Experience Zeugs kam mir bisher noch nie auf die Platte. Und wird es auch in Zukunft nicht. So viel besser wie die bisherigen AA-Modi kann DLSS für mich gar nicht aussehen, das ich mir das antue (wenn ich mir mal in 2 Jahren oder so eine Grafikkarte von NVIDIA kaufe die das dann auch beherrscht).
Auch bin ich kein high-FPS Spieler der 100 FPS+ braucht (falls DLSS so viel schneller sein wird wie andere AA Modi). 60 FPS reichen mir, von daher ist es für mich ein technisch interessantes Thema welches ich auch neugierig verfolgen werde. Aber das war es dann auch.

VG
Shiny

Dürfte ich nach deiner Begründung fragen? Welchen Nachteil hast du im Kopf, der dich blockiert?

Adam D.
2018-08-23, 09:08:00
Das sieht doch schon deutlich realistischer aus, also 2080 im Durchschnitt etwas über 1080 Ti mit teils deutlichen Ausschlägen nach oben. Wahrscheinlich hat man viele der Pascal-Schwachstellen (HDR, DX12 etc.) ausgemerzt.

MiamiNice
2018-08-23, 09:11:39
https://i.imgur.com/SWMjHOK_d.jpg?maxwidth=640&shape=thumb&fidelity=medium
https://m.imgur.com/SWMjHOK

Vergleichswerte von GN und guru, allerdings ohne HDR. Jetzt müsste man nur noch die Settings wissen, die Nvidia genutzt hat.

Selbst mit viel wohlwollen und Verständnis - das geht gar nicht. Damit ist die Art gemeint wie die Werte zusammengetragen wurden und wie sie dargestellt werden.

GSXR-1000
2018-08-23, 09:14:16
Schon erstaunlich das hier keinem der hier so zahlreich vertretenen hochgebildeten die Chronologie der Ereignisse auffaellt?
NV macht eine mit megagedoens aufgemachte praesi zu einer neuen kartengen, in der man ausschliesslich ueber in 5-10 jahren gamechanging superduper "neuen" features spricht (keines der features ist wirklich "neu"), und kein einziges wort ueber den aktuellen real world vergleich zur vorgaengergeneration.
Eine praesi bestehend aus heisser luft und buzzword. 1 monat vor launch, somit auch 1 monat vor ersten unabhaengigen tests mit im freien handel erworbenen karten und ohne nda getesteten karten.
Die reaktion im netz ist nicht so wie captain lederjoppe erwartet hat, nicht alle hypen seine buzzword praesi,eine mehrzahl hinterfragt preispunkte und relevante leistung.
1 tag spaeter dann haut man eine folie raus mit nicht evaluierbaren testwerten und in sich nicht konsistenter logik. Selbst grundinfos wie exakte settings, software und treiberversionen fehlen. Prozentbalken ftw. Erfahrungen der vergangenheit, sowohl bei amd als auch nv, duerfen eine gemittelte schoenung der werte von 30-50% unterstellen.
Wer nach dieser chronologie solche werbefolien als hard facts bewertet, dem ist kaum mehr zu helfen.
Hier ergibt sich aus der chronologie direkt der schluss reines marketings. Die erste praesi hat nicht funktioniert, also musste man auf das echo mit neuem marketing reagieren,haut was raus, was dankenswerter weise schon nichtssagend in relevanz ist und in ueberpruefbarkeit, aber die balken stimmen, denn kaufen sollen die kunden die katze im sack ja schon...geld schonmal bei nv deponieren ist ausdruecklich gewuenscht.
Laeuft doch fuer NV bei einem publikum wie hier.

Adam D.
2018-08-23, 09:14:42
Selbst mit viel wohlwollen und Verständnis - das geht gar nicht. Damit ist die Art gemeint wie die Werte zusammengetragen wurden und wie sie dargestellt werden.
Was erwartest du? Marketing und NDA.

Dural
2018-08-23, 09:18:22
das sieht für mich aber nicht nach NV aus, ist es wirklich eine offizielle folie?

Troyan
2018-08-23, 09:20:58
Schon erstaunlich das hier keinem der hier so zahlreich vertretenen hochgebildeten die Chronologie der Ereignisse auffaellt?
NV macht eine mit megagedoens aufgemachte praesi zu einer neuen kartengen, in der man ausschliesslich ueber in 5-10 jahren gamechanging superduper "neuen" features spricht (keines der features ist wirklich "neu"), und kein einziges wort ueber den aktuellen real world vergleich zur vorgaengergeneration.
Eine praesi bestehend aus heisser luft und buzzword. 1 monat vor launch, somit auch 1 monat vor ersten unabhaengigen tests mit im freien handel erworbenen karten und ohne nda getesteten karten.
Die reaktion im netz ist nicht so wie captain lederjoppe erwartet hat, nicht alle hypen seine buzzword praesi,eine mehrzahl hinterfragt preispunkte und relevante leistung.
1 tag spaeter dann haut man eine folie raus mit nicht evaluierbaren testwerten und in sich nicht konsistenter logik. Selbst grundinfos wie exakte settings, software und treiberversionen fehlen. Prozentbalken ftw. Erfahrungen der vergangenheit, sowohl bei amd als auch nv, duerfen eine gemittelte schoenung der werte von 30-50% unterstellen.
Wer nach dieser chronologie solche werbefolien als hard facts bewertet, dem ist kaum mehr zu helfen.
Hier ergibt sich aus der chronologie direkt der schluss reines marketings. Die erste praesi hat nicht funktioniert, also musste man auf das echo mit neuem marketing reagieren,haut was raus, was dankenswerter weise schon nichtssagend in relevanz ist und in ueberpruefbarkeit, aber die balken stimmen, denn kaufen sollen die kunden die katze im sack ja schon...geld schonmal bei nv deponieren ist ausdruecklich gewuenscht.
Laeuft doch fuer NV bei einem publikum wie hier.

Logik @ best:
nvidia veröffentlicht keine eigenen Vergleichswert - sie haben was zu verstecken.
nVidia veröffentlicht eigene Vergleichswert - denen darf man nicht glauben.

Wow - soviel Populismus in einem Stück digitaler Kultur.

Wie wäre es, wenn man bis zu den offiziellen Reviews von unabhängigen Testern wartet? Und wo warst du, als AMD ihren Polaris <> Maxwell Vergleich gefakt hatte?

ShinyMcShine
2018-08-23, 09:22:47
Dürfte ich nach deiner Begründung fragen? Welchen Nachteil hast du im Kopf, der dich blockiert?

Ganz einfach: kein Mehrwert für mich. Shadow Play, automatischer Treiberdownload, irgendwelche Grafikfilter, DLSS (das nehme ich mal vorweg), ANSEL, automatische Grafikeinstellungen und SHIELD Streaming brauche ich alles nicht. Ich brauche einen Grafikkartentreiber mehr nicht.

Dadurch das NVIDIA den Treiber-Download nicht wie damals angekündigt nur über GeForce Experience zulässt habe ich absolut keinen Bedarf für zusätzliche Bloatware auf meinem PC, die zusätzliche Sicherheitslücken haben kann (und wohl auch schon hatte).

Darüber hinaus ist mir unverständlich, warum man dafür eine Account-Bindung braucht...

VG
Shiny

mironicus
2018-08-23, 09:23:14
Vulkan, Raytracing, 4k, >60FPS: https://youtu.be/ZnQRzLZ5nEE?t=153

Die Grafik ist hier aber nicht besonders detailreich. Allerdings muss ich zugeben, dass das Raytracing auch simple Grafik sehr viel beeindruckender wirken lässt.

BigKid
2018-08-23, 09:23:32
Siehe Deine Aussage:
Hmm, dann hat Dich wohl die Performance nicht so überzeugt. Gut, wir wissen ja nicht, ob Du zu diesem Zeitpunkt schon was wußtest, oder hier bewußt eine Nebelkerze gezündet hast. :wink
Vlt. gehört Raff auch nur zu denen die finden dass der Preis überzogen ist (fast) egal wieviel Performance am Ende raus kommt...

Rancor
2018-08-23, 09:24:33
Logik @ best:
nvidia veröffentlicht keine eigenen Vergleichswert - sie haben was zu verstecken.
nVidia veröffentlicht eigene Vergleichswert - denen darf man nicht glauben.

Wow - soviel Populismus in einem Stück digitaler Kultur.

Wie wäre es, wenn man bis zu den offiziellen Reviews von unabhängigen Testern wartet? Und wo warst du, als AMD ihren Polaris <> Maxwell Vergleich gefakt hatte?

Ist eigentlich recht einfach zu verstehen.

Wenn man nur Zahlen raushaut, ohne weitere Infos zu Settings, Taktraten, Treiber etc.. . ist das nun mal wertlos.
Hätte Nvidia diese Infos dazu geliefert wäre alles in Ordnung.

Dural
2018-08-23, 09:24:36
Hat mir jemand einen Tipp wie ich an eine NV Karte komme??? NV liefert bis heute leider nicht in die Schweiz :rolleyes:

Troyan
2018-08-23, 09:26:40
Ist eigentlich recht einfach zu verstehen.

Wenn man nur zahlen raushaut, ohne weitere Infos zu Settings, Takt, Treiber etc.. . ist das nunmal wertlos.
Hätte Nvidia diese Infos dazu geliefert wäre alles in Ordnung.

Unsinn. nVidia liefert nie solche Werte in Marketingfolien. Es ist reiner Populismus sich hier aufzuführen.

dildo4u
2018-08-23, 09:26:50
https://i.imgur.com/SWMjHOK_d.jpg?maxwidth=640&shape=thumb&fidelity=medium
https://m.imgur.com/SWMjHOK

Vergleichswerte von GN und guru, allerdings ohne HDR. Jetzt müsste man nur noch die Settings wissen, die Nvidia genutzt hat.
Der einzige richtige Wert ist FC5 da dort vermutlich der Ingame Bench verwendet wurde,der Rest können komplett andere Stellen im Game sein.

Rancor
2018-08-23, 09:27:57
Unsinn. nVidia liefert nie solche Werte in Marketingfolien. Es ist reiner Populismus sich hier aufzuführen.

Achso und weil Nvidia das nie so macht, ist es richtig. Seems legit :up:
Diese Werte sind völlig nichtssagend, egal wie doll du hier versuchst Nvidia zu verteidigen.

pilzsammler2002
2018-08-23, 09:30:50
Der einzige richtige Werte ist FC5 da dort vermutlich der Ingame Bench verwendet wurde,der Rest können komplett andere Stellen im Game sein.
Hitman hat auch Ingame Benchmark... ;)

Hübie
2018-08-23, 09:31:35
Hat mir jemand einen Tipp wie ich an eine NV Karte komme??? NV liefert bis heute leider nicht in die Schweiz :rolleyes:

Grenznahe DHL Lieferstation? Abweichende Rechnungsadresse ist ja legitim. Oder fragst halt ein Mitglied dem du vertraust. ;)

@Shiny: Wenn du es nicht kennst, brauchst du es nicht. Damit fehlt dir aber gleichzeitig jegliche Erfahrung und Beurteilung. ;)

BlacKi
2018-08-23, 09:34:43
Hitman hat auch Ingame Benchmark... ;)
jaber waren die werte mit dlss mit hdr usw? da sind letztendlich die werte von nv aussagekräftiger, da sind wenigstens die settings gleich.

ShinyMcShine
2018-08-23, 09:37:21
@Shiny: Wenn du es nicht kennst, brauchst du es nicht. Damit fehlt dir aber gleichzeitig jegliche Erfahrung und Beurteilung. ;)

I disagree. :smile:

Ich mache keine Videos und Screenshots (ich spiele die Spiele, das war's), stelle meine Grafikoptionen selbst ein, habe keine SHIELD und wähle auch lieber selbst aus, welchen Treiber ich installiert haben will.

Wo habe ich dann einen Mehrwert, GFE zu installieren? :confused:

pilzsammler2002
2018-08-23, 09:37:40
jaber waren die werte mit dlss mit hdr usw? da sind letztendlich die werte von nv aussagekräftiger, da sind wenigstens die settings gleich.
DLSS wurde ja extra aufgeführt...
Sehr klug gewesen das HDR/Gsync Problem auszusitzen und jetzt von etwas mehr Theorethischer Power zu profitieren :biggrin::biggrin::biggrin:

Edit:
Ja da ist was dran. Aber wenn sie HDR erwähnen inihren benchmarks wird es da bestimmt Fortschritte gegeben haben :D

dildo4u
2018-08-23, 09:37:53
Wir wissen noch nicht mal ob HDR Performance gefixt wurde das ist auch noch Spekulation.Kann sein das es immer noch was kostet.

HOT
2018-08-23, 09:42:09
Der einzige richtige Wert ist FC5 da dort vermutlich der Ingame Bench verwendet wurde,der Rest können komplett andere Stellen im Game sein.
Unsinn, grad FC5 bietet FP16 und ist damit am wenigsten vergleichbar.
Und Andromeda ist HDR. Das sieht eher nach genau dem erwarteten Ergebnis aus. Man hat halt HDR und LL von Pascal aus gefixt, was gut ist, und unterstützt jetzt eben auch FP16. Hinzu kommt die höhere Bandbreite, was HDR und den hohen Auflösungen entgegen kommt. Im normalen WQHD-Vergleich ohne HDR dürfte das Ergebnis wie erwartet aussehen: 2080 unter 1080Ti und 2070 knapp auf 1080 Niveau, das passt sehr gut. Da aber immer mehr LL-Titel erscheinen und UHD immer mehr genutzt wird, kommt das natürlich Turing entgegen, was Pascal eben alt aussehen lassen wird und die Nachteile dieser Architektur offenbart.

Ach ja, was ich noch vergessen habe, Turing bietet eine deutlich höhere TDP als Pascal.

BlacKi
2018-08-23, 09:46:03
wenn ich mir die werte ansehe, muss dlss off sein, selbst dann wären die werte für eine 2080 schon etwas gering. eigentlich sollten das werte einer 2070 mit leichtem oc ohne dlss sein. mit dlss dürfte eine 2070 eine 1080ti deutlich übertrumpfen.

Troyan
2018-08-23, 09:50:22
wenn ich mir die werte ansehe, muss dlss off sein, selbst dann wären die werte für eine 2080 schon etwas gering. eigentlich sollten das werte einer 2070 mit leichtem oc ohne dlss sein. mit dlss dürfte eine 2070 eine 1080ti deutlich übertrumpfen.

Wieso? Ein Großteil der Transistoren floss nicht in mehr reine FP32 Leistung. Logisch, dass Turing sich in der Mehrzahl der heutigen Spiele dementsprechend nicht übermäßig absetzen kann.

dildo4u
2018-08-23, 09:50:43
I6_U4CRc8FQ

BigKid
2018-08-23, 09:51:19
Ich bin mir da nicht so sicher ob NV hiermit nicht schon den ersten Schritt ins eigene Öko-System plant. Wer weiß was außerhalb von DLSS noch alles möglich ist. In wenigen Jahren sind wir schlauer.
Habe ich vor ein paar Seiten schon "gewitzelt" ...
Es wird "RTX branded Games" geben dazu gabs einen Post... Es könnte durchaus sein, dass NVidia versucht mit RTX ein eigenes Öko-System zu schaffen.
Wer das RTX Logo auf seinem Spiel haben will muss NV Lizenz zahlen. Dafür bekommen Sie dann zB das Training der Neuronalen-Netze für die Tensor-Cores von NV sowie Support etc.

Was ich über DLSS noch nicht ganz verstanden habe - ist das nun "nur" ein effizientes AA oder ist das eher ein Upscaling mit AA per AI ?
Denn IMHO kann nur letzteres erklären wieso es soviel Perfomance "sparen" kann - nämlich indem es nicht nur beim AA sondern schon durch das rendern in einer niedrigeren Auflösung spart.
Vlt. kann man es sogar pro Szene/Setting und nicht nur pro Spiel "trainieren".

BlacKi
2018-08-23, 09:54:11
Wieso? Ein Großteil der Transistoren floss nicht in mehr reine FP32 Leistung. Logisch, dass Turing sich in der Mehrzahl der heutigen Spiele dementsprechend nicht übermäßig absetzen kann.
weil nv die werte im schnitt mit 40-60% performance gain (ohne dlss) angibt und die werte von guru nicht einmal 30% erreichen?

Dural
2018-08-23, 09:57:33
Ach ja, was ich noch vergessen habe, Turing bietet eine deutlich höhere TDP als Pascal.

Die 1080Ti hat 250W / die 2080Ti auch 250W (FE 260W)

Einzig die 2080 hat etwas mehr mit 210Watt. Von deutlich kann man da wohl kaum sprechen, in anbetracht dessen das die GPU deutlich grösser sind ist es mal wieder ein Wunder wie das NV hinbekommen hat.

Troyan
2018-08-23, 09:59:31
weil nv die werte im schnitt mit 40-60% performance gain (ohne dlss) angibt und die werte von guru nicht einmal 30% erreichen?

Ah, okay. Bild wird bei mir nicht angezeigt. Quervergleiche sind immer unsinnig.

zum DLSS: Es ist "Upscaling". Das Bild wird in einer kleineren Auflösung berechnet und die fehlenden Pixel dann per AI erstellt.

dildo4u
2018-08-23, 09:59:32
Die 1080Ti hat 250W / die 2080Ti auch 250W (FE 260W)

Einzig die 2080 het etwas mehr mit 210Watt.
Ebend schon Titan V hatte +40% innerhalb von 250.

https://farm2.staticflickr.com/1869/44164512822_8aa828997a_b.jpg (https://flic.kr/p/2ahEEZC)titanvg (https://flic.kr/p/2ahEEZC) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Screemer
2018-08-23, 09:59:35
@Shiny: Wenn du es nicht kennst, brauchst du es nicht. Damit fehlt dir aber gleichzeitig jegliche Erfahrung und Beurteilung. ;)
Wie kommst du von der aussage, dass man etwas nicht braucht darauf es nicht zu kennen? Wie nennt sich diese Logik?

BlacKi
2018-08-23, 10:00:36
Die 1080Ti hat 250W / die 2080Ti auch 250W (FE 260W)

Einzig die 2080 het etwas mehr mit 210Watt.
und die 2070 mit 180w statt 150 der 1070.

dennoch ist die effizienz leicht gestiegen. 50% mehr performance bei 20% mehr verbrauch. im selben prozess ist das ganz ok. mit dlss wäre das schon ein fullnode sprung, wenn es was taugt.

Hübie
2018-08-23, 10:05:24
Wie kommst du von der aussage, dass man etwas nicht braucht darauf es nicht zu kennen? Wie nennt sich diese Logik?

Erfahrung? Neugier? Nenn es wie du willst. Manchmal weiß man nicht, dass man etwas braucht, weil man es nie probiert hat. Dann versucht man es und kann von da an nicht mehr darauf verzichten. Erzähl mir nicht, dass hattest du noch nie... :rolleyes:

Lapidares Beispiel: Ein Kind weiß nicht wie vorteilhaft ein Löffel sein kann, aber wenn es selbigen erst einmal benutzt hat will es früher oder später nicht mehr darauf verzichten. ;)

Bösewicht
2018-08-23, 10:06:02
Die 1080Ti hat 250W / die 2080Ti auch 250W (FE 260W)

Einzig die 2080 hat etwas mehr mit 210Watt. Von deutlich kann man da wohl kaum sprechen, in anbetracht dessen das die GPU deutlich grösser sind ist es mal wieder ein Wunder wie das NV hinbekommen hat.
nvidia link kostet ja wohl auch noch 30 watt also die muss man schon noch abziehen wobei ich das auch nur hier aus dem thread habe das dir link im tdp sitzen soll.

BigKid
2018-08-23, 10:06:38
zum DLSS: Es ist "Upscaling". Das Bild wird in einer kleineren Auflösung berechnet und die fehlenden Pixel dann per AI erstellt.
Das bedeutet wenn ich eigentlich WQHD in den Settings auswähle und dann DLSS aktiviere wird mit FullHD gerendert und dann "intelligent" hochgerechnet und geglättet. Auf den ersten Blick und vor allem ohne direkten Vergleich ist vermutlich noch nichtmal ein Unterschied zu erkennen. Ganz im Gegenteil fürs Auge mag das DLSS Bild sogar angenehmer sein.
Trotzdem ist es irgendwie eine Mogelpackung wenn dann WQHD mit DLSS gegen WQHD mit irgend einem anderen Verfahren gebencht wird. Speziell wenn dann NV Karten an nicht NV Karten gemessen werden...

Genial... Im Prinzip Beschiss aber gleichzeitg ne so geniale Technik dass man es schwer hat etwas dagegen zu sagen... :eek:

Aber damit ist die Frage die schon ein paar mal gestellt wurde beantwortet. Nämlich wie ein AA-Verfahren soviel Performance bringen kann wo doch AA eigentlich nicht mehr viel Performance kostet... Da muss man dann aber bei den Reviews GENAU hinschauen...

MiamiNice
2018-08-23, 10:07:12
dennoch ist die effizienz leicht gestiegen. 50% mehr performance bei 20% mehr verbrauch. im selben prozess ist das ganz ok. mit dlss wäre das schon ein fullnode sprung, wenn es was taugt.

Dazu noch die neuen Features.
Wahrlich beeindruckend auch wenn der ein oder andere das hier nicht so sieht.

Troyan
2018-08-23, 10:10:26
Das bedeutet wenn ich eigentlich WQHD in den Settings auswähle und dann DLSS aktiviere wird mit FullHD gerendert und dann "intelligent" hochgerechnet und geglättet. Auf den ersten Blick ist vermutlich noch nichtmal ein Unterschied zu erkennen. Ganz im Gegenteil fürs Auge mag das DLSS Bild sogar angenehmer sein.
Trotzdem ist es irgendwie eine Mogelpackung wenn dann WQHD mit DLSS gegen WQHD mit irgend einem anderen Verfahren gebencht wird. Speziell wenn dann NV Karten an nicht NV Karten gemessen werden...

Genial... Im Prinzip Beschiss aber gleichzeitg ne so geniale Technik dass man es schwer hat etwas dagegen zu sagen... :eek:

Aber damit ist die Frage die schon ein paar mal gestellt wurde beantwortet. Nämlich wie ein AA-Verfahren soviel Performance bringen kann wo doch AA eigentlich nicht mehr viel Performance kostet...

Es ist Fake wie Rasterizing. :eek:
Schlussendlich zählt einzig das fertige Bild. Wenn ein vergleichbares Ergebnis mit "Upscaling" erreicht werden kann, dann interessiert es niemanden.

Screemer
2018-08-23, 10:14:07
Erfahrung? Neugier? Nenn es wie du willst. Manchmal weiß man nicht, dass man etwas braucht, weil man es nie probiert hat. Dann versucht man es und kann von da an nicht mehr darauf verzichten. Erzähl mir nicht, dass hattest du noch nie... :rolleyes:

Woher nimmst du denn, dass er etwas noch nie benutzt hat oder warum muss man etwas benutzt haben um es überhaupt bewerten zu können? Das eine geht aus der aussage nicht hervor und das zweite sehe ich eindeutig anders.

nvidia link kostet ja wohl auch noch 30 watt also die muss man schon noch abziehen wobei ich das auch nur hier aus dem thread habe das dir link im tdp sitzen soll.
Ob das diesmal in die Boardpower verrechnet wird ist fraglich, denn dann wären wir schon bei abzüglich 57w für nv- und virtual-link. Das sollte aber dann langsam jedem unrealistisch vorkommen.

Screemer
2018-08-23, 10:18:53
Dp

pilzsammler2002
2018-08-23, 10:19:26
Muss das simultane Int32 und FP32 Shading eigentlich von einer speziellen Api supportet werden oder könnte das auch OOTB laufen? :wink:

basix
2018-08-23, 10:19:53
Ganz einfach: kein Mehrwert für mich. Shadow Play, automatischer Treiberdownload, irgendwelche Grafikfilter, DLSS (das nehme ich mal vorweg), ANSEL, automatische Grafikeinstellungen und SHIELD Streaming brauche ich alles nicht. Ich brauche einen Grafikkartentreiber mehr nicht.

Da sind wir etwa auf der selben Linie ;) Wenn wir Glück haben, kann man die DLSS Packages aber separat herunterladen oder noch besser beim nächsten Treiber sind sie jeweils integriert.


Das bedeutet wenn ich eigentlich WQHD in den Settings auswähle und dann DLSS aktiviere wird mit FullHD gerendert und dann "intelligent" hochgerechnet und geglättet. Auf den ersten Blick und vor allem ohne direkten Vergleich ist vermutlich noch nichtmal ein Unterschied zu erkennen. Ganz im Gegenteil fürs Auge mag das DLSS Bild sogar angenehmer sein.
Trotzdem ist es irgendwie eine Mogelpackung wenn dann WQHD mit DLSS gegen WQHD mit irgend einem anderen Verfahren gebencht wird. Speziell wenn dann NV Karten an nicht NV Karten gemessen werden...

Genial... Im Prinzip Beschiss aber gleichzeitg ne so geniale Technik dass man es schwer hat etwas dagegen zu sagen... :eek:

Aber damit ist die Frage die schon ein paar mal gestellt wurde beantwortet. Nämlich wie ein AA-Verfahren soviel Performance bringen kann wo doch AA eigentlich nicht mehr viel Performance kostet... Da muss man dann aber bei den Reviews GENAU hinschauen...

Wenn man den Unterschied nicht sieht oder es sogar besser aussieht, kann es doch egal sein. Oder bist du da anderer Meinung? Es geht ja um gleichbleibende oder bessere Qualität bei gleichzeitig höherer Performance. Also das was du normalerweise nur mit schnellerer HW oder effizienterer Programmierung der SW erreichst :)

Ebend schon Titan V hatte +40% innerhalb von 250.
Das ist richtig. Die hatte aber auch +20% mehr Shader als die 2080 Ti. Und da fast niemand eine Titan V hat, sollte uns "Normales" das sowieso nicht gross interessieren, was die Titan V im Vergleich leistet. Uns sollte interessieren was Turing bietet im Vergleich zu dem bietet was wir momentan im PC haben.

Troyan
2018-08-23, 10:21:57
Muss das simultane Int32 und FP32 Shading eigentlich von einer speziellen Api supportet werden oder könnte das auch OOTB laufen? :wink:

Der Compiler muss in der Lage sein, die INT-Operationen erkennen und isolieren zu können.

Screemer
2018-08-23, 10:22:20
Ob der ai fill artefaktfrei ist muss sich erst mal zeigen. Bin schon sehr gespannt.

basix
2018-08-23, 10:23:49
Ob der ai fill artefaktfrei ist muss sich erst mal zeigen. Bin schon sehr gespannt.

Das ist die grosse Frage :) Aber sind wir ehrlich, TAA ist gut aber ebenfalls nicht artefaktfrei. Artefaktfrei ist meines Wissens nach nur echtes SSAA / Downsampling. Sobald du aus weniger Information mehr Information machst sind Artefakte unumgänglich. "You shall never extrapolate" ist so ein Spruch dazu. Wenn man es aber von Auge nicht oder nur marginal sieht ist es mir persönlich jedenfalls egal. Endlich weniger AA und weniger flimmern ohne Unschärfe (falls die Versprechungen so stimmen).

Cyphermaster
2018-08-23, 10:27:50
Was ich über DLSS noch nicht ganz verstanden habe - ist das nun "nur" ein effizientes AA oder ist das eher ein Upscaling mit AA per AI ?
Denn IMHO kann nur letzteres erklären wieso es soviel Perfomance "sparen" kann - nämlich indem es nicht nur beim AA sondern schon durch das rendern in einer niedrigeren Auflösung spart.
Vlt. kann man es sogar pro Szene/Setting und nicht nur pro Spiel "trainieren".Mich würde eher interessieren, wie gut DLSS funktioniert, OHNE daß man eine Szene schon zigfach gespielt hat. Wenn erst nach dem 5.,10., oder 12. Durchlauf einer Szene die Wirkung wirklich gut ist, interessiert das bei RTS-Spielen, immer gleichen MP-Maps bei CS, Warcraft oder dergleichen noch, wo Wiederholungen oder sehr ähnliche Settings durchweg auftauchen - aber bei Konzepten, die von immer neuen Szenerien leben, so wie Doom, FarCry oder Ähnliches, sicherlich nicht mehr wesentlich.

monstar-x
2018-08-23, 10:40:02
Hier! Ebenfalls auf LG OLED. Und es sieht dermaßen fantastisch aus, dass ich zurück auf LCD jeglicher Art wohl nicht wieder kann.

Welcher LG OLED Monitor ist es?

SKYNET
2018-08-23, 10:40:30
wenn die touring wirklich durchweg mit einer auflösung geringer rechnen(was ca. 20% leistungsvorteil sind), dürfte die mehrleistung der touring ggü. pascal im nichts verpuffen wenn man sie unter 1:1 bedingungen bencht ;D

Sunrise
2018-08-23, 10:49:41
Das bedeutet wenn ich eigentlich WQHD in den Settings auswähle und dann DLSS aktiviere wird mit FullHD gerendert und dann "intelligent" hochgerechnet und geglättet. Auf den ersten Blick und vor allem ohne direkten Vergleich ist vermutlich noch nichtmal ein Unterschied zu erkennen. Ganz im Gegenteil fürs Auge mag das DLSS Bild sogar angenehmer sein.
Trotzdem ist es irgendwie eine Mogelpackung wenn dann WQHD mit DLSS gegen WQHD mit irgend einem anderen Verfahren gebencht wird. Speziell wenn dann NV Karten an nicht NV Karten gemessen werden...

Genial... Im Prinzip Beschiss aber gleichzeitg ne so geniale Technik dass man es schwer hat etwas dagegen zu sagen... :eek:

Aber damit ist die Frage die schon ein paar mal gestellt wurde beantwortet. Nämlich wie ein AA-Verfahren soviel Performance bringen kann wo doch AA eigentlich nicht mehr viel Performance kostet... Da muss man dann aber bei den Reviews GENAU hinschauen...
Da DLSS "Upscaling" kein natives Ergebnis ist, es ist ja "intelligentes Upscaling", sollte das zumindest kenntlich gemacht werden. Denn Turing kann ja weiterhin natives 4K, bzw. sogar 8K nativ berechnen.

In diesem Fall und in diesem Moment fehlen aber noch zuviele Daten, als dass das jemand nicht-Eingeweihtes irgendwie beurteilen kann.

Die enorme Einschränkung, dass die Vorabberechnung notwendig ist, schränkt natürlich auch die Reichweite ein, mal abseits von Spielen, die NV im Fokus hat.

robbitop
2018-08-23, 10:50:54
50% Mehrleistung bei 16% mehr Rohleistung würde bedeuten, dass die rohleistungsnormierte Leistung um ca. 30% zunimmt. Ähnlich viel wie von Kepler auf Maxwell. Das wäre schon ziemlich beeindruckend.

DLSS - hier bin ich noch skeptisch. Informationen, die nicht da sind zu rekonstruieren, die auch immer korrekt sind, ist schon schwierig.
Bei Filmmaterial oder bei Timedemos (wo der Bildinhalt immer gleich ist), ist das sicherlich deutlich einfacher als bei Spielen, bei denen man nahezu unendlich viele verschiedene Blickwinkel und Szenen vor sich hat.
Das würde mich wundern, wenn das artefaktfrei und ohne Schärfeverlust geht.

Genial wäre es natürlich. Aber ich bin zunächst skeptisch.

pixeljetstream
2018-08-23, 10:52:44
Mich würde eher interessieren, wie gut DLSS funktioniert, OHNE daß man eine Szene schon zigfach gespielt hat. Wenn erst nach dem 5.,10., oder 12. Durchlauf einer Szene die Wirkung wirklich gut ist, interessiert das bei RTS-Spielen, immer gleichen MP-Maps bei CS, Warcraft oder dergleichen noch, wo Wiederholungen oder sehr ähnliche Settings durchweg auftauchen - aber bei Konzepten, die von immer neuen Szenerien leben, so wie Doom, FarCry oder Ähnliches, sicherlich nicht mehr wesentlich.

Der visuelle Stil des Spiels wird ja antrainiert, der ändert sich ja nicht unwesentlich. Das ganze Training kommt von NV selbst.

Dural
2018-08-23, 10:53:04
Das einzige Problem von Turing dürfte die TDP / PT sein, gerade wenn der ganze Chip belastet wird, könnte ich mir vorstellen das der Takt schnell runter geht. Tiefer als wenn zb. nur die normalen Shader belastet werden.

Die Erhöhung des PT wertes dürfte vor allem bei RTX Anwendungen ziemlich sicher sehr viel bringen, jedenfalls in der Theorie ;)

Kleines Rechenbeispiel, eine 2080Ti mit 2Ghz hat rund 17Tflops, bei einer Effizienz-Steigerung von sagen wir mal 30% sind das wie 22Tflops bei einem Pascal :D
Plötzlich wirken die 1259.- Euro für die FE wie ein Schnäppchen ;)

robbitop
2018-08-23, 10:54:03
Muss das simultane Int32 und FP32 Shading eigentlich von einer speziellen Api supportet werden oder könnte das auch OOTB laufen? :wink:

Das sollte eigentlich der Shadercompiler und die Kontrolllogik in der GPU erledigen.

Sunrise
2018-08-23, 10:54:21
50% Mehrleistung bei 16% mehr Rohleistung würde bedeuten, dass die rohleistungsnormierte Leistung um ca. 30% zunimmt. Ähnlich viel wie von Kepler auf Maxwell. Das wäre schon ziemlich beeindruckend.

DLSS - hier bin ich noch skeptisch. Informationen, die nicht da sind zu rekonstruieren, die auch immer korrekt sind, ist schon schwierig.
Bei Filmmaterial oder bei Timedemos (wo der Bildinhalt immer gleich ist), ist das sicherlich deutlich einfacher als bei Spielen, bei denen man nahezu unendlich viele verschiedene Blickwinkel und Szenen vor sich hat.
Das würde mich wundern, wenn das artefaktfrei und ohne Schärfeverlust geht.

Genial wäre es natürlich. Aber ich bin zunächst skeptisch.
Da die Pixel scheinbar tatsächlich hinzukommen, und hier nicht nur interpoliert wird, kann das Ergebnis beeindruckend sein.

Mich persönlich stört aber die Abhängigkeit der vorberechnet Daten, denn ich würde DLSS ja gerne für alles nutzen, wenn ich 4K ausgeben möchte. Dann wäre es wirklich (ein) Killer(feature).

Ich bin mal gespannt, wie das umgesetzt wird und wie "frei" bzw. offen das tatsächlich ist. Ich hoffe NV baut da keine Black Box.

MiamiNice
2018-08-23, 10:55:32
Da die Pixel scheinbar tatsächlich hinzukommen, und hier nicht nur interpoliert wird, kann das Ergebnis beeindruckend sein.

Mich persönlich stört aber die Abhängigkeit der vorberechnet Daten, denn ich würde DLSS ja gerne für alles nutzen, wenn ich 4K ausgeben möchte. Dann wäre es wirklich (ein) Killer(feature).

Was mich dabei interessiert ist die Latenz.

Menace
2018-08-23, 10:55:36
Der visuelle Stil des Spiels wird ja antrainiert, der ändert sich ja nicht unwesentlich. Das ganze Training kommt von NV selbst.

Das könnte doch nVidia aber unabhängig von den Spielern machen und dann einfach mit in den Treiber packen bzw. kleine Profil-dateien zur Verfügung stellen. Verstehe den upload noch nicht. :confused:

Troyan
2018-08-23, 10:57:44
Was mich dabei interessiert ist die Latenz.

Es gibt keine Latenzerhöhung oder Ghosting. Die TensorCores arbeiten am selben Frame.

Das könnte doch nVidia aber unabhängig von den Spielern machen und dann einfach mit in den Treiber packen bzw. kleine Profil-dateien zur Verfügung stellen. Verstehe den upload noch nicht. :confused:

Es gibt kein Upload. nVidia trainiert und liefert das trainierte Netzwerk per Treiber/Profil-Download aus.

Monsta
2018-08-23, 10:57:49
Wird das bei allen Spiele funktionieren, oder nur wo es Nvidia für nötig hält?

MiamiNice
2018-08-23, 10:57:51
Das könnte doch nVidia aber unabhängig von den Spielern machen und dann einfach mit in den Treiber packen bzw. kleine Profil-dateien zur Verfügung stellen. Verstehe den upload noch nicht. :confused:

Gelesen in welchen Größenordnungen trainiert wird? Auf Supercomputern mit hunderten von Volta Karten. Scheint zu rechenintensiv für daheim zu sein.

Es gibt keine Latenzerhöhung oder Ghosting. Die TensorCores arbeiten am selben Frame.


Den reißt die Nummer eventuell die FPS massiv runter was auch ziemlich uncool wäre.
Blöde Situation gerade ;)

Screemer
2018-08-23, 11:01:10
Das könnte doch nVidia aber unabhängig von den Spielern machen und dann einfach mit in den Treiber packen bzw. kleine Profil-dateien zur Verfügung stellen. Verstehe den upload noch nicht. :confused:
Welchen Upload? Die dlss Patches kommen doch von nv oder sollen da die Gamer auch noch eingespannt werden um die refernezframes zu liefern?

Menace
2018-08-23, 11:01:59
Gelesen in welchen Größenordnungen trainiert wird? Auf Supercomputern mit hunderten von Volta Karten. Scheint zu rechenintensiv für daheim zu sein.

Dass das von nvidia kommen muss ist schon klar. Aber warum lassen die die Spiele nicht unabhängig von den Spielern laufen und stellen dann Spielprofile zur Verfügung? Oder machen die das?

Anders gefragt: Gibt es einen upload zu nVidia an die Supercomputer von meiner Grafikkarte?

Gruseliger Gedanke: Während throtteling wird meine AI-Einheit wie für BOINC benutzt. ;-)

Troyan
2018-08-23, 11:02:02
Den reißt die Nummer eventuell die FPS massiv runter was auch ziemlich uncool wäre.

Naja, es wird Zeit gespart, da kein richtiges 4K Bild errechnet wird. Wenn man 70% spart und dann 20% in das AI-Upscaling investiert, hat man am Ende ein deutliches Netto.

dildo4u
2018-08-23, 11:02:16
Unsinn, grad FC5 bietet FP16 und ist damit am wenigsten vergleichbar.

Es ist vergleichbar zwischen Pascal und Turing FP16 wird durch eine AMD Erweiterung erreicht,da das Game kein DX12 unterstützt.

Menace
2018-08-23, 11:02:39
Welchen Upload? Die dlss Patches kommen doch von nv oder sollen da die Gamer auch noch eingespannt werden um die refernezframes zu liefern?

So habe ich es wohl (falsch) verstanden. Sorry.

MiamiNice
2018-08-23, 11:08:00
Dass das von nvidia kommen muss ist schon klar. Aber warum lassen die die Spiele nicht unabhängig von den Spielern laufen und stellen dann Spielprofile zur Verfügung? Oder machen die das?

Anders gefragt: Gibt es einen upload zu nVidia an die Supercomputer von meiner Grafikkarte?

Gruseliger Gedanke: Während throtteling wird meine AI-Einheit wie für BOINC benutzt. ;-)


Ich habe das so verstanden das das Learning gar nicht Spiel bezogen ist. Man setzt der AI ein paar Games vor und "zeigt" wohl was toll ist oder nicht. Die Daten werden dann auf den heimischen Rechner überspielt und die AI wendet das auf alle Games an. Je mehr Games NV antrainiert, desto besser wird das Ergebnis in allen anderen Games.

Hab es allerdings nicht in deutsch gelesen, mag sein das ich da was verwechsle.

Mangel76
2018-08-23, 11:08:21
50% Mehrleistung bei 16% mehr Rohleistung würde bedeuten, dass die rohleistungsnormierte Leistung um ca. 30% zunimmt. Ähnlich viel wie von Kepler auf Maxwell. Das wäre schon ziemlich beeindruckend.


Klingt im ersten Moment tatsächlich sehr beeindruckend. Aber wieviel davon ist tatsächlich auf Architekturverbesserung zurückzuführen? Wenn NVIDIA die FE-Versionen vergleicht, dann hat die Turingversion ja weitere Vorteile:

- Turing ist übertaktet ootb
- Turing hat ein höheres Powerbudget - spätere Drosselung
- Turing hat einen besseren Kühler - spätere Drosselung wegen Temperatur
- höhere Speicherbandbreite

Die Pascal-FE liefen doch eher ins Temp-Target, soweit ich weiß. Wie viel Prozent von den 50 macht hier ein besserer Kühler aus? Wie viel geht auf eine höhere Speicherbandbreite zurück? Wie viel geht auf Pascal-Probleme mit HDR und DX12 zurück? Das sind alles Aspekte, die nicht von der Effizienz der Architektur abhängen.

Ich gehe davon aus, dass ein großer Teil des Vorsprungs auf andere Aspekte als tatsächliche Effizienzsteigerung zurückgehen.

SKYNET
2018-08-23, 11:08:33
50% Mehrleistung bei 16% mehr Rohleistung würde bedeuten, dass die rohleistungsnormierte Leistung um ca. 30% zunimmt. Ähnlich viel wie von Kepler auf Maxwell. Das wäre schon ziemlich beeindruckend.

DLSS - hier bin ich noch skeptisch. Informationen, die nicht da sind zu rekonstruieren, die auch immer korrekt sind, ist schon schwierig.
Bei Filmmaterial oder bei Timedemos (wo der Bildinhalt immer gleich ist), ist das sicherlich deutlich einfacher als bei Spielen, bei denen man nahezu unendlich viele verschiedene Blickwinkel und Szenen vor sich hat.
Das würde mich wundern, wenn das artefaktfrei und ohne Schärfeverlust geht.

Genial wäre es natürlich. Aber ich bin zunächst skeptisch.


bin mal gespannt was ihr und igor bei der BQ sagt... upscaling bin ich immer sehr skeptisch :rolleyes:

und gerne auch titel abseits von AAA benchen, da wo nicht vorgerechnetes AA zum tragen kommt, sondern die karte es selber stemmen muss... dann sehen wir ja was die rohpower ist oder halt auch nicht(was ich eher denke).

RLZ
2018-08-23, 11:22:46
Je mehr Games NV antrainiert, desto besser wird das Ergebnis in allen anderen Games.
Bis zu einem gewissen Punkt ja, aber ich würde vermuten, dass die größten Verbesserung auch hier durch andere Netzwerkstrukturen erreicht werden können.
Der Trainingsdatensatz von Nvidia sollte inzwischen schon recht groß sein.

Witzigerweise wurde ich hier im Forum vor 2 Jahren für die Idee von DL-Upscaling in Spielen von "den Experten" verrissen :D

Nazar
2018-08-23, 11:24:30
Wie wäre es, wenn man bis zu den offiziellen Reviews von unabhängigen Testern wartet? Und wo warst du, als AMD ihren Polaris <> Maxwell Vergleich gefakt hatte?

Dir scheint nicht bewusst zu sein, dass du mit dieser Aussage, deine unten zitierte Aussage vollumfänglich bestätigst? :wink:

Logik @ best:
nvidia veröffentlicht keine eigenen Vergleichswert - sie haben was zu verstecken.
nVidia veröffentlicht eigene Vergleichswert - denen darf man nicht glauben.

Wenn du schon den "Logik - Dampfhammer" rausholst, dann würde ich an deiner Stelle, mir damit nicht selber die volle Breitseite geben... :wink:

mironicus
2018-08-23, 11:29:01
Ein wahrer Enthusiast kauft sich natürlich eine Quadro, voller Chip und mehr Speicher und ein höherer Podest zum herabschauen. :)

Troyan
2018-08-23, 11:29:53
Nein, denn ich rege mich nicht auf. Es sind Leute wie oben, die sich hier massiv aufführen, weil eine Firma Balkendiagramme erstellt, aber komischerweise vor 2 1/2 Jahren hier MiA waren als AMD vor Publikum einen Fake-Vergleich(!) durchgeführt und abstruse Aussagen getroffen hat.

Wartet doch einfach ab. Test kommen und dann sieht man das richtige Bild. Wie immer.

HOT
2018-08-23, 11:33:14
Es ist vergleichbar zwischen Pascal und Turing FP16 wird durch eine AMD Erweiterung erreicht,da das Game kein DX12 unterstützt.
Blödsinn, auch unter DX11 kannst FP16 nutzen.

X-Bow
2018-08-23, 11:35:38
Ich denke auch das DLSS recht gut funktionieren wird, aber es muss einem dabei bewusst bleiben das man kein "echtes" Bild sieht sondern ein gefaktes was eben auch Artefakte zeigen könnte.

Was mir aber auch aufgefallen ist, ist das es bei bisheriger Datenlage immer dann verwendet wurde wenn niedrige FPS anliegen um auf über 60FPS zu kommen. Soweit so gut, aber kann ich es auch einsetzen um von 80 auf 144 FPS zu pushen? oder gar von 144 auf 200FPS? Sprich ist die Latenz der TC klein genug um höhere FPS als die bisher gezeigten zu Pushen?

Sven77
2018-08-23, 11:38:22
Ich denke auch das DLSS recht gut funktionieren wird, aber es muss einem dabei bewusst bleiben das man kein "echtes" Bild sieht sondern ein gefaktes was eben auch Artefakte zeigen könnte.

Man sieht nie ein echtes Bild wenn man danach geht sobald irgendein Post-Process Filter wie z.B. TAA angewandt wird

und gerne auch titel abseits von AAA benchen, da wo nicht vorgerechnetes AA zum tragen kommt, sondern die karte es selber stemmen muss... dann sehen wir ja was die rohpower ist oder halt auch nicht(was ich eher denke).

Was Leute wie du nicht verstehen ist das Turing neue Techniken versucht zu etablieren die die Grafikqualität mehr voranbringen als irgendwelche Balken

pixeljetstream
2018-08-23, 11:38:28
Ein wahrer Enthusiast kauft sich natürlich eine Quadro, voller Chip und mehr Speicher und ein höherer Podest zum herabschauen. :)
Ja bitte! ;)

Swissr
2018-08-23, 11:38:42
Sodala, nachdem Nvidia die ersten Balkendiagramme rausgehauen hat, bin ich jetzt auch eher positiv gestimmt und habe bei Digitec eine Gigiabyte GeForce RTX 2080 Ti GAMING OC vorbestellt.

Lustigerweise wird diese mit "Versand in 1-2 Wochen" angegeben, was ich jetzt erst mal bezweifel ;D

Sollten bis Mitte September die ersten professionellen Tests eine unbefriedigende Mehrleistung aufzeigen, dann wird halt wieder storniert..

Finch
2018-08-23, 11:45:16
Die Benches, sofoern korrekt, sehen gut aus. Der PReis ist zwar noch immer sehr hoch, aber der Rasterblock scheint wohl mehr zu sein als ein reiner Pascal copy&paste. Das würde id eTF Zahlen aber auch gleichzeitig unbrachbar machen. Evtl ist das der Grund warum damit nicht hausiert wurde. Sollte das alles so passen, könnte ich im Winter mit einer RTX 2080 glücklich werden.

mironicus
2018-08-23, 11:47:52
Ich denke auch das DLSS recht gut funktionieren wird, aber es muss einem dabei bewusst bleiben das man kein "echtes" Bild sieht sondern ein gefaktes was eben auch Artefakte zeigen könnte.

Die Option muss also ausgeschaltet bleiben, wenn man Benchmarks mit Konkurrenzkarten macht, ist ja auch unfair wenn man sich Leistung aus der Cloud holt. Stellt euch vor ihr startet einen 3DMark auf einen passiv gekühlten Ultrabook und ihr erhaltet die Leistung einer 2080Ti, und ihr merkt gar nicht das dies alles nur gestreamt wird.:freak:

MiamiNice
2018-08-23, 11:50:10
Die Option muss also ausgeschaltet bleiben, wenn man Benchmarks mit Konkurrenzkarten macht, ist ja auch unfair wenn man sich Leistung aus der Cloud holt. Stellt euch vor ihr startet einen 3DMark auf einen passiv gekühlten Ultrabook und ihr erhaltet die Leistung einer 2080Ti, und ihr merkt gar nicht das dies alles nur gestreamt wird.:freak:

Es kommt keine Leistung aus der Cloud. Warum sollte man nicht anhand der Bildqualität vergleiche anstellen wenn das wirklich gut ausschauen sollte?
Wenn man auf einer NV Karte ein Fake 4K Bild bekommt welches gleichwertig oder besser ausschaut wie ein echtes 4K Bild auf dem Konkurrenzprodukt -> sollte man die Option definitiv anlassen, imo.

Troyan
2018-08-23, 11:50:54
Die Option muss also ausgeschaltet bleiben, wenn man Benchmarks mit Konkurrenzkarten macht, ist ja auch unfair wenn man sich Leistung aus der Cloud holt. Stellt euch vor ihr startet einen 3DMark auf einen passiv gekühlten Ultrabook und ihr erhaltet die Leistung einer 2080Ti, und ihr merkt gar nicht das dies alles nur gestreamt wird.:freak:

Mit Geforce Now kannst du Futuremark auf deinem Ultrabook laufen lassen. ;D

dildo4u
2018-08-23, 11:51:03
Die Option muss also ausgeschaltet bleiben, wenn man Benchmarks mit Konkurrenzkarten macht, ist ja auch unfair wenn man sich Leistung aus der Cloud holt. Stellt euch vor ihr startet einen 3DMark auf einen passiv gekühlten Ultrabook und ihr erhaltet die Leistung einer 2080Ti, und ihr merkt gar nicht das dies alles nur gestreamt wird.:freak:
Das hat nix mit Streaming zu tun das sind Profile die auf Nvidias Volta Cluster berechnet wurden die dann in kleinen Dateien verschickt werden.Nur will man sicherlich nicht alles in den Treiber integrieren,da sonst Jeder mit Pascal umsonst Daten runterlädt,daher geht man über GFE Profile.

PHuV
2018-08-23, 11:51:36
Witzigerweise wurde ich hier im Forum vor 2 Jahren für die Idee von DL-Upscaling in Spielen von "den Experten" verrissen :D
Tja, Du warst Deiner Zeit einfach voraus.
Ich habe das so verstanden das das Learning gar nicht Spiel bezogen ist. Man setzt der AI ein paar Games vor und "zeigt" wohl was toll ist oder nicht. Die Daten werden dann auf den heimischen Rechner überspielt und die AI wendet das auf alle Games an. Je mehr Games NV antrainiert, desto besser wird das Ergebnis in allen anderen Games.

Hab es allerdings nicht in deutsch gelesen, mag sein das ich da was verwechsle.
Fall 1: Spiel X hat noch keine Daten
Ich würde das schon so verstehen, daß der HeimPC im Spiel erste Analysedaten sammelt, und sie dann per Upload zum Nvidia Supercomputer sendet. Der rechnet dann brav, und bringt das Profil zurück.
Fall 2: Spiel Y hat Daten
In diesem Fall muß Experience die bereits vorliegenden Daten nur noch runterladen.

Meine Frage wäre hier, muß man das nun permanent machen, oder ist das ein einmaliger Prozess? Spiele verändern sich ja, die Grafik verändert sich, je nach Setting. Fraglich, um ein KI-Algorithmus nur für ein spezielles Stetting paßt, oder es für verschiedene Settings verschiedene KI-Algorithmen gibt.

Man braucht sich ja nur vorstellen, daß ein Spieler etwas an der Auflösung, den Details, Blur und Co irgendwas neu einstellt, und dann wird der bisherige KI-Algorithmus hinfällig. Ebenso ist ja bei DeepLearning zu keinem Zeitpunkt ausgelernt. Was ich so bisher gelesen haben, daß es ein kontinuierlicher Prozess ist, der zwar irgendwann einen guten Schwellwert zur Implementierung erreicht, aber trotzdem noch stetig verbessert werden kann.

Sven77
2018-08-23, 11:52:08
Die Option muss also ausgeschaltet bleiben, wenn man Benchmarks mit Konkurrenzkarten macht, ist ja auch unfair wenn man sich Leistung aus der Cloud holt. Stellt euch vor ihr startet einen 3DMark auf einen passiv gekühlten Ultrabook und ihr erhaltet die Leistung einer 2080Ti, und ihr merkt gar nicht das dies alles nur gestreamt wird.:freak:

Du hast DLSS nicht wirklich verstanden, oder?

MiamiNice
2018-08-23, 11:56:35
Meine Frage wäre hier, muß man das nun permanent machen, oder ist das ein einmaliger Prozess? Spiele verändern sich ja, die Grafik verändert sich, je nach Setting. Fraglich, um ein KI-Algorithmus nur für ein spezielles Stetting paßt, oder es für verschiedene Settings verschiedene KI-Algorithmen gibt.

Man braucht sich ja nur vorstellen, daß ein Spieler etwas an der Auflösung, den Details, Blur und Co irgendwas neu einstellt, und dann wird der bisherige KI-Algorithmus hinfällig. Ebenso ist ja bei DeepLearning zu keinem Zeitpunkt ausgelernt. Was ich so bisher gelesen haben, daß es ein kontinuierlicher Prozess ist, der zwar irgendwann einen guten Schwellwert zur Implementierung erreicht, aber trotzdem noch stetig verbessert werden kann.

Ich verstehe es so das die AI sehr "allgemein" antrainiert wird. Es wird dann so etwas wie eine "Beispiels-Lib" geben die ständig erweitert/aktualisiert wird. Ich denke nicht das es den Fall gibt das es für ein Spiel kein Profil gibt, da es keine Spiel spezifischen Profile gibt. Aber wie gesagt, kein Anspruch auf Richtigkeit.

€: Es wird imho nicht trainiert das eine Steinmauer in Spiel xyz so und so aussieht, sondern es wird so lange trainiert bis die AI weiß wie Steine nun mal in echt aussehen. Und diese Erfahrung wenden die Tensor Cores dann auf alle Materialien aus Stein in der Szene an.

So oder so ähnlich stelle ich mir das vor.

mironicus
2018-08-23, 11:58:34
DLSS ist ein vorberechnetes Profil was von Supercomputern erstellt worden ist. Ohne die funktioniert DLSS gar nicht.

Ich bin gespannt, was NVidia noch so mit diesen neuen Technologie machen kann. Da geht bestimmt noch mehr, was man für Spiele verwenden kann.

Timbaloo
2018-08-23, 12:02:03
Irgendwie sind bei DLSS ja mehrere Szenarien denkbar:

Szenario A:
Anzeigeauflösung: 1440p
Auflösung intern: 1080p
Hochskalieren/Datenpunkte generieren mittels DLSS auf: 1440p

Szenario B:
Anzeigeauflösung: 1440p
Auflösung intern: 1440p
Hochskalieren/Datenpunkte generieren mittels DLSS auf: 4k
Runterskalieren (SS) auf: 1440p

Bei Szenario A müsste man sicher mit auch sichtbaren Artefakten rechnen. Bei Szenario B dürften die Artefakte gar nicht mehr wirklich sichtbar sein, da sie ja eh wieder "rausskaliert" werden.

Wie wird es nun angewendet? Oder kann man das hoffentlich frei wählen?

drdope
2018-08-23, 12:03:53
Was Leute wie du nicht verstehen ist das Turing neue Techniken versucht zu etablieren die die Grafikqualität mehr voranbringen als irgendwelche Balken

Der DLSS-Ansatz ist ist (imho) angesichts immer größer werdender Displayauflösungen (4k->5k->8k) und das Ganze ggf. mal zwei (AR/VR) eine sehr interessante Lösung.
Der bisherige "Brute Force" Ansatz kommt da irgendwann nicht mehr hinterher.

Oder andersherum formuliert -> die Fertigungsprozessse halten mit der anwachsenden Pixelmenge nicht mehr mit.
Ausreichend Transistoren, um 2x 8k-Displays@90Hz (VR-Beispiel) adäquat zu befeuern kriegt man mit der bisherigen Technik absehbar nicht mehr auf einem Chip unter.

Sven77
2018-08-23, 12:04:31
@Timbaloo
Beide Szenarios gibts ja auch mit TAA, z.B. in R6:Siege. Und das funktioniert erstaunlich gut, kaum Artefakte, nur leichter Schärfeverlust.

Der DLSS-Ansatz ist ist (imho) angesichts immer größer werdender Displayauflösungen (4k->5k->8k) und das Ganze ggf. mal zwei (AR/VR) eine sehr interessante Lösung.
Der bisherige "Brute Force" Ansatz kommt da irgendwann nicht mehr hinterher.

Oder andersherum formuliert -> die Fertigungsprozessse halten mit der anwachsenden Pixelmenge nicht mehr mit.

Ab bestimmten Auflösungen ist es auch unsinnig die Pixel alle explizit zu rastern da das Auge da sowieso nicht mehr mitkommt. Wenn man das Problem der Bewegt-Artefakte in den Griff bekommt wird es nie nötig sein mal 8K zu rendern

dabad1
2018-08-23, 12:08:44
Ich nehme an das DLSS vorher pro Spiel trainiert werden muss.
Man könnte sich aber auch ein allgemeines DLSS vorstellen was auf 100x Spielen trainiert wurde und auf neuen Spiele ohne extra Training übertragen wird.

Mich würde intressieren wie NVIDIA das genau trainiert. Imho müsste man das für jeder quelleauflösung 1080p,1440p etc. und jedes mögliche qualitätssetting extra Trainieren.

Intressant ist auch ob das wirklich in jedem Spiel, Scene und Setting ähnliche Ergebnisse liefert. Die Tester werden damit auf jedenfall eine menge Freude haben.

PHuV
2018-08-23, 12:14:47
Eben. Man stelle sich allein mal Spiele mit wechselndem Wetter und sich stark unterscheidenen Umgebungen vor, wie Witcher3 oder nun auch Pubg. Oder, der KI-Algorithmus ist so gut, das er die erzeugende Engine feststellen kann, und sein Profil daran erstellt.