PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 [28] 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Nightspider
2018-08-23, 12:19:01
Ob zum Jahreswechsel bzw. Anfang 2019 dann eine Titan mit 24GB VRAM und unbeschnittenem Chip kommt?

Es würde mich auch irgendwie wundern wenn Nvidia die Preise so hoch halten kann.

Die Verkaufszahlen werden extrem gering ausfallen bei so hohen Preisen und dem kleinsten Model für 650 Euro.
Am Ende regelt die Nachfrage den Preis.

basix
2018-08-23, 12:19:46
Jetzt wo 3DMark angesprochen wurde: Das wäre doch ein perfektes Beispiel um trainiert zu werden für DLSS. Sehen wir jetzt plötzlich riesige 3DM Scores wegen DLSS? Dann wird der Nutzen von 3DM gegen Null tendieren, da ein Vergleich nicht mehr möglich ist. Je nach DLSS Faktor erhält man komplett andere Ergebnisse, welche so eben nicht auf Spiele transferiert werden können. Ausnahme wäre, wenn es "nur" ein globales DLSS gibt, welche nicht je Spiel / Spiel-Engine anders parametriert ist.

BigKid
2018-08-23, 12:19:53
Mich würde eher interessieren, wie gut DLSS funktioniert, OHNE daß man eine Szene schon zigfach gespielt hat. Wenn erst nach dem 5.,10., oder 12. Durchlauf einer Szene die Wirkung wirklich gut ist, interessiert das bei RTS-Spielen, immer gleichen MP-Maps bei CS, Warcraft oder dergleichen noch, wo Wiederholungen oder sehr ähnliche Settings durchweg auftauchen - aber bei Konzepten, die von immer neuen Szenerien leben, so wie Doom, FarCry oder Ähnliches, sicherlich nicht mehr wesentlich.
Soweit ich das verstanden habe findet auf den RTX Karten beim Zocken kein Training mehr statt - dafür fehlt schlicht die Power - das Netz wird von NVidia oder dem Spiele Entwickler trainiert und optimiert (Deep Learning) - daher braucht der Treiber auch die Verbindung um dafür zu sorgen, dass du auch immer das neuste Trainingsergebnis bekommst... Eventuell kann/muss hier sogar pro Spiel oder Szene optimiert werden damit das Upscaling glaubhafte Ergebnisse liefern kann...

BigKid
2018-08-23, 12:23:21
Es kommt keine Leistung aus der Cloud. Warum sollte man nicht anhand der Bildqualität vergleiche anstellen wenn das wirklich gut ausschauen sollte?
Wenn man auf einer NV Karte ein Fake 4K Bild bekommt welches gleichwertig oder besser ausschaut wie ein echtes 4K Bild auf dem Konkurrenzprodukt -> sollte man die Option definitiv anlassen, imo.
Ja und nein... Das neuronale Netz wird vortrainiert denn das Training kostet so viel Leistung dass das nicht bei dir Zuhause passiert sondern dass das auf nem dicken Supercomputer passieren muss... Das Ergebnis des Trainings - also das trainierte Netz wird dann bei dir auf die Karte gehauen und die Leistung der Tensor Cores reicht um es auzuführen...
Es kommt also definitiv Leistung von aussen die Vorab erbracht wurde...

Ob das nun gemogelt ist...

Im reinen Sinne von Balkenlängen auf jeden Fall... Es werden von der Karte schlicht nicht so viele Pixel berechnet wie angezeigt werden...
Beim Upscaling werden dann Pixel "erfunden"... das mag gut gehen - aber es ist NICHT gleichwertig wenn man die Rohleistung bewerten will...

Ich erinnere mal an die Aufschreie hier wenn die BQ durch "fast nicht sichtbare" Optimierungen durch den Treiber hochgetrieben wurde...

Nightspider
2018-08-23, 12:24:55
Hach mir fehlt Tombman bei dem Hype um eine neue GPU Gen. :/

Sven77
2018-08-23, 12:25:03
Jetzt wo 3DMark angesprochen wurde: Das wäre doch ein perfektes Beispiel um trainiert zu werden für DLSS. Sehen wir jetzt plötzlich riesige 3DM Scores wegen DLSS? Dann wird der Nutzen von 3DM gegen Null tendieren, da ein Vergleich nicht mehr möglich ist. Je nach DLSS Faktor erhält man komplett andere Ergebnisse, welche so eben nicht auf Spiele transferiert werden können. Ausnahme wäre, wenn es "nur" ein globales DLSS gibt, welche nicht je Spiel / Spiel-Engine anders parametriert ist.

Hier stellt sich mir die Frage: Wer gibt 2018 noch was auf 3DM Benches?

Troyan
2018-08-23, 12:27:17
DLSS muss per API-Aufruf in die Spiele eingebaut werden.

Bösewicht
2018-08-23, 12:28:00
Hach mir fehlt Tombman bei dem Hype um eine neue GPU Gen. :/
der hätte seine Frührente schön in 2 von diesen ti babys gesteckt und hätte probiert das mit seinen koffer kompatibel zu machen ;D

Hübie
2018-08-23, 12:28:04
50% Mehrleistung bei 16% mehr Rohleistung würde bedeuten, dass die rohleistungsnormierte Leistung um ca. 30% zunimmt. Ähnlich viel wie von Kepler auf Maxwell. Das wäre schon ziemlich beeindruckend.

DLSS - hier bin ich noch skeptisch. Informationen, die nicht da sind zu rekonstruieren, die auch immer korrekt sind, ist schon schwierig.
Bei Filmmaterial oder bei Timedemos (wo der Bildinhalt immer gleich ist), ist das sicherlich deutlich einfacher als bei Spielen, bei denen man nahezu unendlich viele verschiedene Blickwinkel und Szenen vor sich hat.
Das würde mich wundern, wenn das artefaktfrei und ohne Schärfeverlust geht.

Genial wäre es natürlich. Aber ich bin zunächst skeptisch.

Es geht eher um die Bildinformationen, dem Stil bzw. Artwork als jeden Blickwinkel. Die AI wird durch Image recognition / separation trainiert Objekte voneinander abzuheben und deren Kanten zu glätten. Bei FC5 muss z. B. nicht jeder Baum aus jedem Winkel ins Netzwerk wandern sondern die Differenzen aus Baum, Himmel, Straße, Auto usw. usf. Das ist ja eben der Vorteil: KI erkennt eben Blätter von Bäumen und dahinter liegender Hintergrund (relativ) unabhängig von Blickwinkel während des Trainings.
Die Ergebnisse werden dann (in welcher Form ist mir nicht klar) an den Nutzer weiter gegeben und dieser führt lokal die Entscheidungsfindung aus (inference).


Edit: Frühere Hinweise deuteten schon an, dass der Sprung in etwa Kepler - > Maxwell gleicht. Da waren es iirc 30% bessere Effizienz (oder war es Performance? :uponder:)

Bösewicht
2018-08-23, 12:31:11
50% Mehrleistung bei 16% mehr Rohleistung würde bedeuten, dass die rohleistungsnormierte Leistung um ca. 30% zunimmt. Ähnlich viel wie von Kepler auf Maxwell. Das wäre schon ziemlich beeindruckend.

du blendest aber auch aus das es nicht nur 16(in wirklichkeit ca. 20-22%) sondern auch ca. 30-40% mehr bandbreite da ist.
20% mehr Einheiten und vielleicht bessere Kühlung mehr stabiler boost takt 40% mehr bandbreite, eventuell auch mehr ipc da können auch aus 20% mehr einheiten am ende schnell 50% mehr leistung werden.

PHuV
2018-08-23, 12:33:02
Ob zum Jahreswechsel bzw. Anfang 2019 dann eine Titan mit 24GB VRAM und unbeschnittenem Chip kommt?
Wenn ja, zu welchem Preis? Meine Schätzung läge bei min. 1799-1999 €. :frown:

dargo
2018-08-23, 12:33:27
Du hast DLSS nicht wirklich verstanden, oder?
DLSS ist dann trotzdem eine Art Cheating. Man bedient sich für bessere Bildqualität und/oder mehr fps an fremder Leistung. Ich freue mich schon auf kommende Benchmarks. :freak:

yamo
2018-08-23, 12:34:45
Ob zum Jahreswechsel bzw. Anfang 2019 dann eine Titan mit 24GB VRAM und unbeschnittenem Chip kommt?


Würde mich nicht wundern, wenn Ende Q1/Anfang Q2 2019 noch was fettes in 7nm kommt und Lederjacke uns wieder den Finger zeigt:freak:

Soweit ich das verstanden habe findet auf den RTX Karten beim Zocken kein Training mehr statt - dafür fehlt schlicht die Power - das Netz wird von NVidia oder dem Spiele Entwickler trainiert und optimiert (Deep Learning) - daher braucht der Treiber auch die Verbindung um dafür zu sorgen, dass du auch immer das neuste Trainingsergebnis bekommst...
Natürlich ist das so. Die KI auf den NV-Rechnern wird bestimmte Engines analysieren (deshalb wohl auch der Zusatz, es müßten nicht explizit alle Games trainiert werden).
Also rein technisch ist das schon ganz großes Kino von NV. Nur die Preise sind scheisse. Hätte mir damals jemand erzählt, über upscaling (vermeintlich) gleich gute Ergebnisse mit massig Performance+ zu erreichen; ich hätte ihn ausgelacht.;D

So, jetzt bin ich auch angefixt:mad: Brauche aber ne ti-Ref für Wakü und ausser EVGA finde ich da nix (mit Garantie auf Umbau).
Hat jemand nen Tip?

THEaaron
2018-08-23, 12:37:35
DLSS ist dann trotzdem eine Art Cheating. Man bedient sich für bessere Bildqualität und/oder mehr fps an fremder Leistung. Ich freue mich schon auf kommende Benchmarks. :freak:

Wut. Das sind Trainingsdaten die per Treiber geliefert werden. Das ist nicht mehr Cheat als das was Treiber seit eh und je machen um für bestimmte Spiele zu optimieren.

Bösewicht
2018-08-23, 12:38:40
DLSS ist dann trotzdem eine Art Cheating. Man bedient sich für bessere Bildqualität und/oder mehr fps an fremder Leistung. Ich freue mich schon auf kommende Benchmarks. :freak:
wenn du in zufunkt in deinen Rennspielen aber ein extrem viel besseres Ergebnis hasst beschwerst du dich über das cheating ja auch nicht oder?

nur unter dem Gesichtspunkt das nvidia gegen der Konkurrenz dadurch ein vorteil haben könnte aber das ist kein cheating das ist Wettbewerb wie es zu stande kommt kann uns doch egal sein.

vielleicht ist das ja eine hybrid Lösung aus Echtzeit und cloud rendering/stream gaming das keine Latenz hat aber trotzdem die power einer farm nutzen kann.

amd kopiert es so oder so wenn es erfolgreich die runde machen sollte.

dildo4u
2018-08-23, 12:40:53
DLSS ist dann trotzdem eine Art Cheating. Man bedient sich für bessere Bildqualität und/oder mehr fps an fremder Leistung. Ich freue mich schon auf kommende Benchmarks. :freak:
Genau das selbe wird Heute oft mit Global Illumination gemacht,daher sah AC Unity schon 2014 extrem gut aus.Die Beleuchtung wurde auf einem Render Server gebacken und auf die Disk gepresst.

uweskw
2018-08-23, 12:43:12
Hallo,

mir sind zwei grundlegende Dinge bisher nicht wirklich klar. Kann mich Unwissenden da jemand aufklären?
1. Ist Raytracing RTX ein offener Standard wie DirectX oder OpenGL den auch AMD und Intel nutzen können oder etwas proprietäres was nur NV Karten in diesen Games vernünftig nutzen können?
2. Ist für die Nutzung von DLSS eine permanente Internetverbindung nötig?


greetz
US

dargo
2018-08-23, 12:43:19
Wut. Das sind Trainingsdaten die per Treiber geliefert werden. Das ist nicht mehr Cheat als das was Treiber seit eh und je machen um für bestimmte Spiele zu optimieren.
Die Grafikkarte die in deinem Rechner steckt rendert rechnet in niedrigerer Auflösung, was soll das sonst sein als Cheating? Das Endergebnis im Rendervorgang kommt dann nicht mehr von RTX sondern RTX + Supercomputer.

Nightspider
2018-08-23, 12:44:15
Wenn ja, zu welchem Preis? Meine Schätzung läge bei min. 1799-1999 €. :frown:

Die ti kauft eh kaum jemand für 1250 die wird "schnell" Richtung 900 fallen imo. Die Titan sehe ich dann bei 1300 Euro.

drdope
2018-08-23, 12:44:45
So, jetzt bin ich auch angefixt:mad: Brauche aber ne ti-Ref für Wakü und ausser EVGA finde ich da nix (mit Garantie auf Umbau).
Hat jemand nen Tip?

Ich würde sowas abwarten:
--> https://geizhals.de/asus-rog-poseidon-geforce-gtx-1080-ti-platinum-90yv0am2-m0nm00-a1628574.html

Da sparts du dir den (ggf. doppelten) Umbau und den seperaten Kühler.
Außerdem läuft die Karte auch mit Aircooling only.
Alte High-End Hardware mit/für Wakü kriegt man idR schlecht verkauft und den zeitlichen Umbauaufwand zahlt einem auch niemand...
Aber ich betrachte sowas auch eher pragmatisch.

Tesseract
2018-08-23, 12:44:51
Ich denke auch das DLSS recht gut funktionieren wird, aber es muss einem dabei bewusst bleiben das man kein "echtes" Bild sieht sondern ein gefaktes was eben auch Artefakte zeigen könnte.

es ist nicht streng deterministisch aber "fake" würde ich es nicht nennen. das training basiert auf echter ground truth und die methode hat auch das potenzial artefakte korrekt zu unterdrücken die bei reiner rasterisierung im bild wären aber falsch sind, sprich: das bild näher an dem liegt was höhere auflösung bw. supersampling produzieren.

THEaaron
2018-08-23, 12:45:06
Die Grafikkarte die in deinem Rechner steckt rendert in niedrigerer Auflösung, was soll das sonst sein als Cheating? Das Endergebnis im Rendervorgang kommt dann nicht mehr von RTX sondern RTX + Supercomputer.

Die Trainingsdaten sind vorgerendert wie bei GI was Dildo schon sagte. Die Graka muss mit den Daten trotzdem noch arbeiten.

ShinyMcShine
2018-08-23, 12:45:48
1. Ist Raytracing RTX ein offener Standard wie DirectX oder OpenGL den auch AMD und Intel nutzen können oder etwas proprietäres was nur NV Karten in diesen Games vernünftig nutzen können?
2. Ist für die Nutzung von DLSS eine permanente Internetverbindung nötig

zu 1) Wir sprechen von NVIDIA, daher ist RTX bestimmt kein offener Standard. Man korrigiere mich, wenn ich falsch liege.

zu 2) Genau weiß das die Öffentlichkeit bisher wohl nicht.

BlacKi
2018-08-23, 12:47:28
Ich nehme an das DLSS vorher pro Spiel trainiert werden muss.
das glaub ich nicht, das spiel muss die funktion einfach nur zulassen. den rest macht die AI egal bei welchem bild. auch bei fotos die die AI nicht kennt.

im prinzip wie unser gehirn und auge. nicht alles was wir sehen sehen wir auch wirklich, das unwichtige wird bei unserem hirn nur dazugedichtet. siehe blinder fleck den jedes auge hat. das gehirn muss sich nur ausdenken was an der stelle hingehören könnte, schon denkst du das du es wirklich siehst.

on the fly.

dildo4u
2018-08-23, 12:47:35
Hallo,

mir sind zwei grundlegende Dinge bisher nicht wirklich klar. Kann mich Unwissenden da jemand aufklären?
1. Ist Raytracing RTX ein offener Standard wie DirectX oder OpenGL den auch AMD und Intel nutzen können oder etwas proprietäres was nur NV Karten in diesen Games vernünftig nutzen können?
2. Ist für die Nutzung von DLSS eine permanente Internetverbindung nötig?


greetz
US
RTX ist Nvidia Tech der offene Standard heißt DXR.

https://blogs.msdn.microsoft.com/directx/2018/03/19/announcing-microsoft-directx-raytracing/

Sven77
2018-08-23, 12:47:53
Das Endergebnis im Rendervorgang kommt dann nicht mehr von RTX sondern RTX + Supercomputer.

Stimmt so nicht

Screemer
2018-08-23, 12:48:04
So habe ich es wohl (falsch) verstanden. Sorry.
Das kann schon sein. Ich hab keine Ahnung ob das überhaupt schon klar ist. Keine Entscheidung nötig!

MadManniMan
2018-08-23, 12:48:22
es ist nicht streng deterministisch aber "fake" würde ich es nicht nennen. das training basiert auf echter ground truth und die methode hat auch das potenzial artefakte korrekt zu unterdrücken die bei reiner rasterisierung im bild wären aber falsch sind, sprich: das bild näher an dem liegt was höhere auflösung bw. supersampling produzieren.

Klingt jedenfalls so, als könne man das auch recht gut zum selektiven Berechnen höherer Auflösungen nutzen - sprich: VR könnte ordentlich profitieren, right?

dargo
2018-08-23, 12:49:08
Genau das selbe wird Heute oft mit Global Illumination gemacht,daher sah AC Unity schon 2014 extrem gut aus.Die Beleuchtung wurde auf einem Render Server gebacken und auf die Disk gepresst.
Das mag schon sein, aber diese vorgebackene Beleuchtung konnte jeder Grafikkarte nutzen.

MadManniMan
2018-08-23, 12:49:16
Wenn du mal in Jena sein solltest, schreib mich kurz an:wink:. Schaust du es dir einfach mal selber an, das geht flexibel und absolut problemlos.

Damn, ich ziehe nächsten Freitag weg und habe sowas noch nich gesehen ^^

SamLombardo
2018-08-23, 12:49:49
https://i.imgur.com/36BXVrKl.jpg

Also wenn ich mir DAS so anschaue: Plus 100 Prozent im VR Mark - Als VR User hab ich ja fast keine andere Wahl mehr als so ein Ding zu kaufen, lol:freak:;D.

Edit:@MMM, das ist ja schade. Wenn du vorher noch Zeit finden solltest, schreib kurz. Sollten wir auf jeden Fall hinkriegen;)

Sven77
2018-08-23, 12:50:58
Das mag schon sein, aber diese vorgebackene Beleuchtung konnte jeder Grafikkarte nutzen.

Sieh es als Treiberoptimierung die nun von einer KI statt Menschen vorgenommen wird..

MusicIsMyLife
2018-08-23, 12:54:57
Ähm, 8, und Du?

Sorry, dass ich erst jetzt antworte. Hab den Post erst jetzt gesehen. Und wie vermutet hatte ich recht.

1x GTX 580 1,5 GB
2x GTX 580 3 GB (wegen Wechsel von 1920x1200 auf 2560x1600), später kam eine dritte gebrauchte Karte dazu, als BF3 rauskam
3x GTX 670 4 GB
2x Ur-Titan (gebraucht)
2x GTX 980
2x Titan X (Maxwell)
2x 1080 TI

Macht unterm Strich 15 Karten, drei davon gebraucht gekauft. 12 Stück also neu. Und fast mit jedem Wechsel wurde es teurer, obwohl die Leistungssprünge immer kleiner wurden. Wobei Titan X -> 1080 TI schon ordentlich ausfiel. Dafür hab ich ne Weile die Füße stillgehalten.

Jetzt ist jedenfalls der Punkt erreicht, nein zu sagen.

dargo
2018-08-23, 12:55:13
Sieh es als Treiberoptimierung die nun von einer KI statt Menschen vorgenommen wird..
Eine Treiberoptimierung ist was völlig anderes als ein Beziehen von Fremdleistung für den Rendervorgang.

dildo4u
2018-08-23, 12:56:40
DLSS macht vermutlich auch ne Menge Sinn da die Karten relativ wenig Vram haben,ich schätze mal der Vramverbrauch ist deutlich geringer als in nativen 4k.

BlacKi
2018-08-23, 12:57:00
wenn die fake extra pixel gut aussehen, dann kann man sie durchaus gegen echte vergleichen und benchen.

über displayport 1.4 wird sich ja auch nicht aufgeregt. soll ja auch "angeblich" optisch verlustfrei sein.

yamo
2018-08-23, 12:57:17
Die ti kauft eh kaum jemand für 1250 die wird "schnell" Richtung 900 fallen imo. Die Titan sehe ich dann bei 1300 Euro.
Das sehe ich nach den letzten "Leaks" anders. Selbst ich bin am hadern weil mich die neue tech so reizt und sie btw. sehr effizient scheint;)
es ist nicht streng deterministisch aber "fake" würde ich es nicht nennen. das training basiert auf echter ground truth und die methode hat auch das potenzial artefakte korrekt zu unterdrücken die bei reiner rasterisierung im bild wären aber falsch sind, sprich: das bild näher an dem liegt was höhere auflösung bw. supersampling produzieren.
Und genau das ist es, was für VR benötigt wird. Ich vermute Turing wird gerade da richtig was draufpacken.

Tesseract
2018-08-23, 12:58:33
Eine Treiberoptimierung ist was völlig anderes als ein Beziehen von Fremdleistung für den Rendervorgang.

da wird keine fremdleistung bezogen, die berechnung läuft vollständig offline. warum sollte training für DL am supercomputer anders sein als schaltkreisoptimierung am supercomputer beim designen des chips oder optimierungsarbeit im hirn des treiberprogrammierers?

robbitop
2018-08-23, 13:00:06
Wut. Das sind Trainingsdaten die per Treiber geliefert werden. Das ist nicht mehr Cheat als das was Treiber seit eh und je machen um für bestimmte Spiele zu optimieren.
Naja es ist ähnlich zu betrachten, wie Shaderreplacements. Da gab es vor ~10 Jahren ja auch diverse Kontroversen.
Fakt ist, Leistung ist Arbeit pro Zeit. Reduziere ich die Arbeit, habe ich nicht mehr Leistung. Wie das zu bewerten ist, steht jedem frei.

Der Nutzwert steigt ohne Frage. :) Aber bewertend vergleichen DLSS vs no DLSS sollte man dann eher nicht - IMO.

ShinyMcShine
2018-08-23, 13:00:34
DEL

Hübie
2018-08-23, 13:07:26
Wenn die BQ gleich oder besser ist sollte man immer DLSS an schalten und vergleichen. Wenn nicht (und das halte ich für wahrscheinlicher) sollte man Apples to Apples nehmen.

PHuV
2018-08-23, 13:09:27
Sorry, dass ich erst jetzt antworte. Hab den Post erst jetzt gesehen. Und wie vermutet hatte ich recht.
:
Macht unterm Strich 15 Karten, drei davon gebraucht gekauft.
Dann sage ich Chapeau! :wink: Gibts also noch Beklopptere als mich. :tongue:. Gut, Du hast immer SLI verwendet, ich habe seit der 980er darauf verzichtet. Und ich hatte 3x580er :P, aber nur 1,5 GB. :redface:

Ja, dann kann ich verstehen, daß Du hier mal aussetzt.
https://i.imgur.com/36BXVrKl.jpg

Also wenn ich mir DAS so anschaue: Plus 100 Prozent im VR Mark - Als VR User hab ich ja fast keine andere Wahl mehr als so ein Ding zu kaufen, lol:freak:;D.
Gerade mit Deiner Vive Pro sollte es dann spitzenmäßig aussehen, und Du wirst die nächsten Jahre wohl kaum Probleme mit 2.880 x 1.600 auf 90 Hz haben.

uweskw
2018-08-23, 13:10:59
zu 1) Wir sprechen von NVIDIA, daher ist RTX bestimmt kein offener Standard. Man korrigiere mich, wenn ich falsch liege.

zu 2) Genau weiß das die Öffentlichkeit bisher wohl nicht.


1. also gut möglich, dass hier propietäres Zeug, exklusiv für Karten oberhalb der 2070 gehyped wird? Exklusiv für ein paar % der Spieler? Das bedeutet der Spielehersteller nimmt in Kauf, dass sein Spiel bei 95% der Gamer nicht so gut ausschaut wie technisch möglich? Weil NV das so will?

Solche Spiele sollte man boykottieren.
2. also gut möglich, dass da ein weiterer Gängelmechanismus (Onlinezwang) installiert werden soll und kein Fachmedium interessiert es?


Ich hatte ja gehofft, dass es nicht so wild ist und ich das ein oder andere nur überlesen habe.



Mann was müssen wir froh sein dass es Unternehmen gibt die uns die Gnade erweisen unser Geld zu nehmen. :freak::freak::freak:


greetz
US

Ravenhearth
2018-08-23, 13:14:25
50% Mehrleistung bei 16% mehr Rohleistung würde bedeuten, dass die rohleistungsnormierte Leistung um ca. 30% zunimmt. Ähnlich viel wie von Kepler auf Maxwell. Das wäre schon ziemlich beeindruckend.
Der Sprung zwischen Kepler und Maxwell lag nicht ansatzweise bei 30%. Verglichen auf Boost-Taktraten hatte die GTX 980 rund 53% mehr Rohleistung als die GTX 680 (1536 SPs @ 1058MHz bzw. 2048 SPs @ 1216MHz) und war ca. 70% schneller in Spielen. Wäre die rohleistungsnormierte Leistung um 30% höher gewesen, hätte sich die Spieleperformance verdoppeln müssen. So sind es eher nur etwas über 10% rohleistungsnormiert. ;)

Ex3cut3r
2018-08-23, 13:22:06
So, habe mich jetzt anders entschieden, anstatt einer GTX 2080 non Ti, wirds doch eine Ti. Ich habe ja schon 850€ zur Seite gelegt, und jetzt lege ich halt nochmal 400€ drauf. Was solls, man lebt nur einmal. :freak:

Ravenhearth
2018-08-23, 13:23:16
Kommt eigentlich noch eine RTX 2060 o.ä.? Mein Limit sind 300€ :freak:

Sven77
2018-08-23, 13:24:19
2. also gut möglich, dass da ein weiterer Gängelmechanismus (Onlinezwang) installiert werden soll und kein Fachmedium interessiert es?

Dein Ernst? Welches "seriöse" Fachmedium würde sich denn auf solche an den Haaren herbeigezogene Spekulationen einlassen? Leo vielleicht ;D

Raff
2018-08-23, 13:25:09
So, habe mich jetzt anders entschieden, anstatt einer GTX 2080 non Ti, wirds doch eine Ti. Ich habe ja schon 850€ zur Seite gelegt, und jetzt lege ich halt nochmal 400€ drauf. Was solls, man lebt nur einmal. :freak:

Wenn du das Ding gezielt für Raytracing Mania kaufst, ist das gewiss die richtige Entscheidung, denn ~10 Jiggarays/s sind eben viel mehr als ~6 (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Quadro-RTX-Turing-Nvidia-GPU-Architektur-1262761/).

MfG,
Raff

dildo4u
2018-08-23, 13:25:17
Kommt eigentlich noch eine RTX 2060 o.ä.? Mein Limit sind 300€ :freak:
Nein diese Karten kommen als GeForce GTX ohne RT Cores.Die Chips sind zu Groß in 12nm.

Platos
2018-08-23, 13:25:38
So, habe mich jetzt anders entschieden, anstatt einer GTX 2080 non Ti, wirds doch eine Ti. Ich habe ja schon 850€ zur Seite gelegt, und jetzt lege ich halt nochmal 400€ drauf. Was solls, man lebt nur einmal. :freak:

Warum wartest du nicht einfach 3 Monate?Ich glaube kaum, dass der Preis gehalten werden kann. Die Karten sind noch nicht mal draussen, warte doch mal ab. Auch was die Qualität von DLSS und die eigentliche Mehrleistung ohne das angeht.

ShinyMcShine
2018-08-23, 13:26:13
Kommt eigentlich noch eine RTX 2060 o.ä.? Mein Limit sind 300€ :freak:

Unwahrscheinlich, weil es keine Leaks/Infos über kleinere GPUs als den TU104 gibt.
Außerdem hat Turing wohl 'eh keine lange Lebenszeit und NVIDIA wird dann mit der 7nm Generation das komplette Portfolio mit einer 3000er-Serie erneuern.

So lange hat der Markt eine 1000er Serie für den sub-500€ Markt mit GTX Brand und darüber dann die 2000er Serie mit RTX.

Ex3cut3r
2018-08-23, 13:26:47
Wenn du das Ding gezielt für Raytracing Mania kaufst, ist das gewiss die richtige Entscheidung, denn ~10 Jiggarays/s sind eben viel mehr als ~6 (http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Quadro-RTX-Turing-Nvidia-GPU-Architektur-1262761/).

MfG,
Raff

Eigentlich nicht, ich spiele in 3440x1440. Aber da war die GTX 1070 in fast allen Titeln in "Max" immer am Limit, sprich 50 FPS im Schnitt.

Dazu steht mein alter 34" VA 60HZ only ohne VRR zum Verkauf, und habe mir das geholt. IPS, 120HZ (OC) und G-Sync.
https://www.dell.com/de-de/shop/geschwungener-dell-34-monitor-aw3418dw/apd/210-amne/monitore-und-monitorzubeh%C3%B6r

Warum wartest du nicht einfach 3 Monate?Ich glaube kaum, dass der Preis gehalten werden kann. Die Karten sind noch nicht mal draussen, warte doch mal ab. Auch was die Qualität von DLSS und die eigentliche Mehrleistung ohne das angeht.

Ich warte ja schon noch, nur die GPU wird jetzt doch eine Ti. Ich hatte schon 8GB mit der 1070 und jetzt nochmal 8GB mit der 2080 erscheint mir nicht sooo super Sinnig, dann lieber die Ti und das Plus an Mehr Performance ist auch nochmal nett.

BigKid
2018-08-23, 13:36:30
das glaub ich nicht, das spiel muss die funktion einfach nur zulassen. den rest macht die AI egal bei welchem bild. auch bei fotos die die AI nicht kennt.

im prinzip wie unser gehirn und auge. nicht alles was wir sehen sehen wir auch wirklich, das unwichtige wird bei unserem hirn nur dazugedichtet. siehe blinder fleck den jedes auge hat. das gehirn muss sich nur ausdenken was an der stelle hingehören könnte, schon denkst du das du es wirklich siehst.

on the fly.
Das kannst du gerne glauben aber es ist nicht so.

Das neuronale Netz (oder was auch immer es ist) muss erstmal lernen wie es hochskaliert. Das ist deep thinking/learning - da bin ich mir sehr sicher. Und das ist NICHTS was wir heute Zuhause in Echtzeit hinbekommen könnten (auch nicht mit RTX).
Beim Training bekommt die AI dann das Bild in niedriger Auflösung und das Bild in der finalen Zielauflösung vorgesetzt und dann überlässt man es ihr herauszubekommen WIE sie das hinkommt... Sie probiert und lernt...
Wie gesagt - das kann IMHO nicht in Echtzeit bei dir Zuhause klappen.

Was RTX aber kann ist die trainierte AI in Echtzeit auszuführen (und das ist eine Leistung die ich nicht kleinreden will).

Ja das funktioniert dann auch mit Bildern, die die AI noch nicht kennt. Aber WIE GUT es funktioniert ist die Frage. DLSS tritt an Upscaling so gut zu betreiben dass du keinen Unterschied zu einem direkt in der hohen Auflösung berechneten Bild+AA siehst.

Ich denke da kommt es weniger auf die Engine sondern mehr auf den Kontent und Artstyle an. Für optimale Ergebnisse sollte die AI also IMHO pro Spiel oder Szene(Setting) trainiert werden. Muss die AI zu starke Unterschiede in dem Bereich abdecken werden beim lernen "faule Kompromisse" entstehen - denn unendlich Leistungsfähig ist das Ding halt auch nicht... Das hat man in dem Bereich oft... Wenn man den Dingern zuviel Vielfalt zumutet werden die Ergebnisse wieder schlechter...

Beispiel: Eine AI die Infos aus Text extrahieren soll... Die ist sicher effizienter wenn man pro Sprache ein Netz trainiert statt mit einem Netz alle Sprachen erschlagen zu wollen...

EDIT: Für Konsolen wäre das ein KILLER-Feature denn DORT fehlt dem Vebraucher am Ende JEDE Vergleichsmöglichkeit. Am Bildschirm kommt 4k an - wie die entstehen weiss dann keiner mehr so genau...

Bösewicht
2018-08-23, 13:37:01
Nein diese Karten kommen als GeForce GTX ohne RT Cores.Die Chips sind zu Groß in 12nm.
quatsch die 2060 wird ehr eine 2070 mit deaktivierter einheiten und kleinerem speicherinterface und damit auch ein paar gb weniger an ram.

ohne RT wird es wohl so schnell keine neue karte mehr geben:rolleyes:

eine vielleicht 400€ karte würde ich auch nicht mehr als klein bezeichnen.

ShinyMcShine
2018-08-23, 13:43:03
Ich warte ja schon noch, nur die GPU wird jetzt doch eine Ti. Ich hatte schon 8GB mit der 1070 und jetzt nochmal 8GB mit der 2080 erscheint mir nicht sooo super Sinnig, dann lieber die Ti und das Plus an Mehr Performance ist auch nochmal nett.

Man sieht, NVIDIA hat alles richtig gemacht... :wink:
Durch die Tatsache, dass die 2070/2080 auch "nur" 8GB RAM haben, drückt man bisherige 1070/1080er Besitzer "sanft" zur 2080 Ti.

dildo4u
2018-08-23, 13:47:01
So lange es keine Konsolen mit 16GB gibt wird man mit 8GB Vram locker auskommen,es sei denn du willst über 4k gehen.

Edgecrusher86
2018-08-23, 13:48:04
Laut den chinesischen Gerüchten ist auch noch eine 2060 geplant für später diesen Jahres. Ich denke, man dürfte grob 1070(OC) Performance erwarten können abseits DLSS.

Der volle Chip dürfte 1536 SP/ 128 TMUs / 32 ROPs haben. Ein 128-bit SI und 4/8 GB wären möglich bei 224 GB/s sofern wieder 14 Gbps G6 zum Einsatz käme. Gut möglich dass es wieder einen Cut geben könnte (1408 und 1280 SP bei einem 1060 3GB Nachfolger).

Timbaloo
2018-08-23, 13:51:29
1. also gut möglich, dass hier propietäres Zeug, exklusiv für Karten oberhalb der 2070 gehyped wird? Exklusiv für ein paar % der Spieler? Das bedeutet der Spielehersteller nimmt in Kauf, dass sein Spiel bei 95% der Gamer nicht so gut ausschaut wie technisch möglich? Weil NV das so will?
Was ist das denn schon wieder für eine abstruse Argumentation? Darf man technische Weiterentwicklungen nicht mehr einsetzen weil auf alten Karten nicht nutzbar? Verhinderung jedweden Fortschritts?

Es ist langsam nicht mehr tragbar was für Stuss hier geschrieben wird.

Cubitus
2018-08-23, 13:52:23
Gerade im Heise Forum gelesen..




Nvidia's Grafikkarten sind tatsächlich berechtigte Marktführer, was aber auch bei der Preisgestaltung scheinbar immer schamloser ausgenutzt wird.

Die Show bei der Vorstellung und die vergleichende Zahlenakrobatik, empfinde ich als groben Betrug und dreiste Hochstapelei.
(Anmerkung meinerseits: Wie damals das dezente Verschweigen des 970er Speicherkrüppels)

Natürlich wurde bei der Computergrafik in Spielen schon immer intelligent getrickst wie auch z.B. bei mp3 im Bereich Audio oder DivX im Bereich Video.

DivX und mp3 hatten die IMHO typische Nvidia/AMD Hochstapelei dabei allerdings nie nötig. Die waren immer transparent bzw. sogar stolz auf ihre Tricks und nie nötig ihre Leistung mit Helium-PR-Ballons wie Nvidias frei erfundenen "RTX-OPS"-Werte, die sicherlich keine neue allgemeine Benchmarkgröße wird, bis in die Stratosphäre zu "hypen".

Die nackte Warheit ist:
Die neuen "Geforce RTX" sind garkeine "Raytracing Revolution" - da wird garnicht alles "realtime" gerendert sondern nach wie vor fleißig getrickst! Allerdings nun mit neuen Tricks die besser aussehen.

Natürlich peinlich wenn dabei Fehler passieren!

Siehe Standbild der Battlefield V-Demo:
https://youtu.be/1_L43c7aQj0?t=11

Die Reflexion des Feuerscheins ist eindrucksvoll aber sie würde auf der Innenseite des (im Bild linken) Autoscheinwerfers bei echtem Raytracing garnicht entstehen sondern bei dem Winkel von der anderen Seite des Lampenreflektors verdeckt werden.

Ist wegen diesem peinlichen Fehler eindeutig genau kein Raytracing sondern nur das alte https://de.wikipedia.org/wiki/Environment_Mapping in einer hübscheren Variante.

"Partly raytraced Environment Mapping" bestenfalls. So wundert es dann auch nicht wenn die 1000% "RTX-OPS"-Steigerung im Vergleich zum letzten 3D-Karten-Modell auf die üblichen "25% mehr" eindampfen.

Verlockend dazu passend falsch gerechnet zurückzuhypen: 25%:1000%, Nvidia übertreibt Leistung mit 4000%!


Ziemlich passend..

SamLombardo
2018-08-23, 13:53:27
Gerade mit Deiner Vive Pro sollte es dann spitzenmäßig aussehen, und Du wirst die nächsten Jahre wohl kaum Probleme mit 2.880 x 1.600 auf 90 Hz haben.
Argh. Damit hast du sicher recht. Ich seh mich schon auf Geizhals rumgucken. Was tut man nicht alles für sein Hobby :wink:

SKYNET
2018-08-23, 13:53:41
Was Leute wie du nicht verstehen ist das Turing neue Techniken versucht zu etablieren die die Grafikqualität mehr voranbringen als irgendwelche Balken

hab ich irgendwas wegen/gegen RT/AI gesagt? :confused: ich will nur wissen wie es um die reine rohleistung von touring aussieht...

yamo
2018-08-23, 13:54:30
WaKÜ? Welche denn?

PHuV
2018-08-23, 13:54:52
So, habe mich jetzt anders entschieden, anstatt einer GTX 2080 non Ti, wirds doch eine Ti. Ich habe ja schon 850€ zur Seite gelegt, und jetzt lege ich halt nochmal 400€ drauf. Was solls, man lebt nur einmal. :freak:
Du hast also auch kein Problem als dumm dargestellt zu werden. Tja, Du bist jetzt auch einer von den gewissenlosen und unreflektiert Konsumenten, die den Preis hochtreiben, weil Du Dich von Nivida melken läßt. (y) Willkommen im Club. Bin ich nicht der einzige hier, der von der Masse geteert und gefedert wird.

MusicIsMyLife
2018-08-23, 13:55:52
Dann sage ich Chapeau! :wink: Gibts also noch Beklopptere als mich. :tongue:.

Bekloppt ist das richtige Wort, ja. *g*



Gut, Du hast immer SLI verwendet, ich habe seit der 980er darauf verzichtet. Und ich hatte 3x580er :P, aber nur 1,5 GB. :redface:

Multi-GPU macht aktuell halt keinen Sinn, weshalb ich davon auch weg will. Wogegen NVLink mit den RTX-2000 eigentlich sehr spannend klingt - vielleicht würde Multi-GPU dann wieder richtig viel bringen.

Der Punkt ist halt, dass du dann mindestens zwei 2080 zuzüglich einer NVLink-Brücke brauchst - macht laut NVIDIA-Shop aktuell 1.782 Euro als Einstiegspreis für diese Technik. Auch das lehne ich persönlich ab.



Ja, dann kann ich verstehen, daß Du hier mal aussetzt.

Ich hatte es gestern glaube ich schon geschrieben: Die Preise sind bei mir persönlich der letzte Tropfen, der das Fass zum Überlaufen bringt. Mich nervt die aktuelle Geschäftspolitik von NVIDIA auf vielen Ebenen. Deshalb will ich dieses Mal um jeden Preis verzichten.

Ich vergleiche immer gern meine beiden Käufe von 3x GTX 670 4 GB mit 2x 1080 TI. Die 670er waren nur das zweitschnellste Modell, dafür aber mit der doppelten (=sinnvollen) Speichermenge. Die 1080 TI ist sozusagen auch das zweitschnellste Modell - und trotzdem habe ich für die TIs rund 400 Euro mehr gezahlt, dafür aber eine Karte weniger erhalten. Hätte ich damals 3x 680 mit 4 GB genommen, hätte ich natürlich mehr gezahlt. Trotzdem wären es drei vs. zwei Karten gewesen.

Würde ich jetzt wieder tauschen und zwei TIs nehmen, wäre ich mit ~2,6k dabei und hätte somit wieder rund ein Drittel mehr zu investieren als beim letzten Tausch. Als Ergebnis hätte ich aber immerhin die schnellste Karte der Serie, wenngleich theoretisch noch ne Titan XYZ möglich wäre (wenngleich unwahrscheinlich).

Egal, wie ich es drehe und wende: Preistechnisch ist bei mir das vertretbare Limit erreicht.

Jeder soll es so handhaben, wie er es für richtig hält - keine Frage. Ich bin aber wie gesagt raus.

SKYNET
2018-08-23, 13:58:32
Eigentlich nicht, ich spiele in 3440x1440. Aber da war die GTX 1070 in fast allen Titeln in "Max" immer am Limit, sprich 50 FPS im Schnitt.

probiere mal RotTR in der auflösung und max setting inkl tesslation zu spielen... :ulol: selbst auf FHD gibt es passagen wo es dann auf einmal merklich zäher zur sache geht mit ner 1070... :freak:

yamo
2018-08-23, 14:01:31
Gibt´s hier auch hints bzgl. WaKü? Oder bin ich im falschen Forum?

Ex3cut3r
2018-08-23, 14:01:49
Du hast also auch kein Problem als dumm dargestellt zu werden. Tja, Du bist jetzt auch einer von den gewissenlosen und unreflektiert Konsumenten, die den Preis hochtreiben, weil Du Dich von Nivida melken läßt. (y) Willkommen im Club. Bin ich nicht der einzige hier, der von der Masse geteert und gefedert wird.

Das habe ich mitbekommen. :redface:
Ja, fühle mich auch nicht sonderbar cool jetzt oder so. Aber was soll man tun? Für 3440x1440 braucht man die Leistung, 11GB sind auch nochmal mehr als 8GB, und die Ti wird Stand jetzt wird, auch ein "Monster"

Ich zahle dank verkauf von anderen Sachen (siehe Sig) nur eine "kleine" Summe dazu.

PHuV
2018-08-23, 14:03:14
Multi-GPU macht aktuell halt keinen Sinn, weshalb ich davon auch weg will. Wogegen NVLink mit den RTX-2000 eigentlich sehr spannend klingt - vielleicht würde Multi-GPU dann wieder richtig viel bringen.
Ich hatte auch wirklich überlegt, aber andererseits reicht mir die Performance aktuell wirklich aus, und ich will hier wirklich erst mal Tests mit NVLink sehen, bevor ich überhaupt mal überlege. Auf Mikroruckeln habe ich keine Lust mehr. Jedoch kann ich mir vorstellen, daß mit RT die Berechnung anders läuft als mit AFR und Co, und vielleicht besser läuft? Abwarten.

Armaq
2018-08-23, 14:14:28
Ich wünsche den Testern viel Freude. Das wird offensichtlich arg kompliziert, die Bilder muss man mit der Lupe vergleichen und Hersteller gegeneinander geht vll. gar nicht mehr.

monstar-x
2018-08-23, 14:15:04
Die ti kauft eh kaum jemand für 1250 die wird "schnell" Richtung 900 fallen imo. Die Titan sehe ich dann bei 1300 Euro.

das hat sich wohl noch nicht rumgesprochen, ist nämlich ausverkauft.

https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-ti-founders-edition-schon-ausverkauft-ebay-mondpreise,3333815.html

dildo4u
2018-08-23, 14:16:00
mi4CGp_Qaxw

WoQr0k2IA9A

Edgecrusher86
2018-08-23, 14:16:06
Der Performance-Gab zwischen RTX 2080 Ti und GTX 1080 Ti/XP/Xp könnte unter 4K(+) SDR geringer ausfallen als bei der RTX 2080 zur GTX 1080.

+40% zur 1080 10 Gbps (+27% @ 11 Gbps 80) stehen +28/27/13% auf die GP102-Riege entgegen. Die RTX Ti dürfte also gut wie damals die 1080 (10Gbps) von MEM OC profitieren. Zumindest 500 MHz Offset dürfte auch der Micron G6 wieder generell schaffen. Dann hätte die Karte 7% mehr Bandbreite als Stock und käme auf 660 GB/s ausgehend von 616 GB/s. Das dürfte einen gewissen Schub geben.
+37,5/36/+20,5% auf die default XP/Ti/XP kämen so Zustande.

E: Im neuen NV Scanner (Curve Editor 2.0) sind also 820-1170mV hinterlegt und grob 1100mV kommen wohl default zum Einsatz im Boost.

Ich bin gespannt, wie gut TU102 mitsamt den zusätzlichen fixed Function Units zum großen Pascal performen kann und ob 1800 MHz @ 8xx-900mV oder grob 1000mV (bei der Ti waren es eher 1025-1050mV) für 2000 MHz gehen werden.

Da ich eh nicht mehr soviel spiele, lasse ich die Serie aus und greife frühstens zu 1-2 3080 Ti. Hoffentlich werden dann 22GB verbaut sein denn memory access per SLI und NVL sind wohl leider außen vor, wie es scheint.

Menace
2018-08-23, 14:20:11
Kann eine 2070 für RT bei HDR und 40+ fps bei 1440 Auflösung überhaupt reichen? :confused:

BigKid
2018-08-23, 14:26:07
Kann eine 2070 für RT bei HDR und 40+ fps bei 1440 Auflösung überhaupt reichen? :confused:
Mit DLSS schon... Weil dann vermutlich mit 1080p oder gar 720p gerendert und dann hochskaliert wird ;)

Meiner Ansicht nach ist DLSS der eigentliche Game-Changer... Wenn hier tatsächlich keine großen Unterschiede zwischen einem Hochskalierten Bild und einem Bild in der nativen Auflösung+AA auftreten dann wird aus einer Full-HD Karte plötzlich eine 4K taugliche Karte...
Und der "normal User" merkts nicht mal... Im Spiel wählt er 4k mit DLSS und freut sich ab der FPS - die Karte rechnet aber eigentlich nur noch FullHD oder WQHD...
Die Frage ist wie weit man das Spiel spielen kann bevor es auffällt - will sagen wie niedrig die eigentliche Auflösung werden darf... Eventuell kann das sogar dynamisch eingebaut werden.... wenn die FPS sinken wird die eigentliche render Auflösung dynamisch runter geschaltet und noch mehr skaliert...

Ich betrachte das gerade mit gemischten Gefühlen und hoffe dass NVidida nicht bei RTX die Leistungssteigerungsbehauptung ;) genau daher zieht...

Und bezüglich der Aussagen die hier nach dem Motto "wenn man es nicht sieht kann es doch egal sein" getroffen werden.
Dieses Argument hat man schon bei anderen Optimierungen nicht gelten lassen und speziell im Vergleich mit anderen Karten immer Vergleichbarkeit gefordert... und DAS wird jetzt schwer... Ich denke wenn man die Bilder nebeneinander hält wird man es schon sehen - ob es in Bewegung/im Gefecht direkt auffällt....

Edgecrusher86
2018-08-23, 14:30:38
Wenn ich mir die vermutlich unoptimierten Techdemos nun ansehe, würde ich bezweifeln, dass immer 1080p60 möglich sind - die ca. doppelt so starke 2080 Ti kommt ja in TR FHD auf 30-70 fps.
Ich denke nicht, dass später mehr als 1080p60 mit einer 2070 möglich sein werden und das wäre wohl sehr optimistisch betrachtet.

Ohne DLSS dürfte wohl eine 3080 Ti 1440p60 anstreben - 2020ff.

unl34shed
2018-08-23, 14:32:39
Ich wünsche den Testern viel Freude. Das wird offensichtlich arg kompliziert, die Bilder muss man mit der Lupe vergleichen und Hersteller gegeneinander geht vll. gar nicht mehr.

Dann kommen endlich Mal wieder die Bildqualitätsvergleiche wieder, gab es die letzten Jahre ja nicht mehr wirklich (außer PC vs Console)

pilzsammler2002
2018-08-23, 14:35:07
Dann kommen endlich Mal wieder die Bildqualitätsvergleiche wieder, gab es die letzten Jahre ja nicht mehr wirklich (außer PC vs Console)
Das fehlt eh... Gab ja häufig "Gerüchte" über die Unterschiede in der Quali :)

drdope
2018-08-23, 14:37:20
Ich wünsche den Testern viel Freude. Das wird offensichtlich arg kompliziert, die Bilder muss man mit der Lupe vergleichen und Hersteller gegeneinander geht vll. gar nicht mehr.

Dafür könnte man auch eine AI/KI heranziehen...
;)

Um die Preisdiskussion mal ein wenig zu relativieren/objektivieren:

Wenn man z.B. die Transistormenge eines 32Core Threadrippers für ca. 1800€ (https://geizhals.de/amd-ryzen-threadripper-2990wx-yd299xazafwof-a1840353.html?hloc=at&hloc=de) mit der 2080Ti vergleicht...

NV-RTX 2080Ti: 18.6B transistors (Cave "US-Billionen" = Milliarden), measuring 754mm2@TSMC 12nm "FFN" (https://www.anandtech.com/show/13249/nvidia-announces-geforce-rtx-20-series-rtx-2080-ti-2080-2070/2)
AM-TR 2990WX: "estimated transistor count" at 19.2 billion (https://www.phoronix.com/scan.php?page=article&item=amd-tr2990wx-preview&num=1)@12nm LP FinFET (iirc auch TSMC)

So gesehen ist die 2080Ti sogar noch sehr "preiswert"... man bekommt für 2/3 der Anschaffungskosten ähnlich viel Transistoren, 11GB GDDR6, ein PCB und einen Kühler dazu...
Wenn man das ganze sehr pingelig betrachtet, hat es AMD sogar deutlich einfacher als NV, weil TR2x kein monolithischer DIE ist, sondern ein "einfach nur" mehrere, kleinere Dies (iirc 2) zu einem "MultichipModule/MCM" zusammen backt...
Hat jemand "zufällig" belastbare Fakten/Vergleichszahlen zu Intels "großen" Xeons zur Hand?

Fertigungstechnisch ist das schon beeindruckend, was NV/TSMC da produzieren.

Flusher
2018-08-23, 14:37:22
Sagt mal, hab ich was verpasst oder seit wann ist DLSS plötzlich ein Upscaling von niedrigeren auf höhere Auflösungen? Ich hab der Präsentation entnommen, dass man das mittels Tensor Cores aufskalierte Bild wieder auf die Zielauflösung runterskaliert und damit einen Effekt ähnlich dem SSAA erzielt wird.

Hier schreiben plötzlich einige, dass auf die Zielauflösung aufskaliert wird und dieses Bild dann auf dem Bildschirm ausgegeben wird. Das hab ich der Präsentation am Montag aber nicht entnommen. Woher kommt diese Behauptung?

BigKid
2018-08-23, 14:44:56
Sagt mal, hab ich was verpasst oder seit wann ist DLSS plötzlich ein Upscaling von niedrigeren auf höhere Auflösungen? Ich hab der Präsentation entnommen, dass man das mittels Tensor Cores aufskalierte Bild wieder auf die Zielauflösung runterskaliert und damit einen Effekt ähnlich dem SSAA erzielt wird.

Hier schreiben plötzlich einige, dass auf die Zielauflösung aufskaliert wird und dieses Bild dann auf dem Bildschirm ausgegeben wird. Das hab ich der Präsentation am Montag aber nicht entnommen. Woher kommt diese Behauptung?
Von meiner Seite ist es eine Vermutung - und zwar basierend darauf, dass ein bessers AA Features eigentlich nicht so viel Performance bringen kann wie NV angibt wo doch AA eigentlich heut zu tage quasi umsonst ist. Ferner würde es überhaupt keinen Sinn machen die AI einzusetzen um etwas zu tun, was man schon kann... Fürs Downsampling brauchst du keine AI.
Die AI brauchst du für ein Upscaling das nicht mehr als solches erkennbar ist.
Ausserdem glaube ich nicht mehr an das Gute im Menschen sobald es ums Geld geht...

Zahlen siehe hier:
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html

NVIDIA hat auch eine erste Einschätzung der Leistung von DLSS im Vergleich zu TAA ermöglicht. Während eine GeForce GTX 1080 Ti die Infiltrator-Demo in 4K-Auflösung mit TAA bei 38 FPS berechnet, schafft eine GeForce RTX 2080 Ti dies mit etwa 60 FPS. Schaltet man das TAA ab und verwendet stattdessen DLSS, erreicht die GeForce RTX 2080 Ti fast 80 FPS und damit doppelt so viele Frames pro Sekunde wie eine GeForce GTX 1080 Ti.

Also sag mir mal wie DLSS es schaffen soll gegenüber TAA(!) 20 FPS draufzulegen ! Selbst wenn DLSS zum Nulltarif käme müsste TAA überhaupt erstmal 20 fps von 80fps kosten - glaub ich nicht...

Was das ganze Schwierig macht ist dass das Bild mit DLSS für das Auge sogar besser aussehen kann als ein natives - trotzdem können Details verloren gehen. Man siehts halt nicht ohne Direktvergleich. Trotzdem muss die AI Informationen "erfinden" die eigentlich nicht da sind... Es IST also nicht das selbe Bild. Wie will man jetzt ein Feature bewerten dass quasi ein Gratis AA + quasi 25% Performance bringt und dafür ein paar Details absaufen lässt die eh keiner sieht ohne Lupe + Standbild.

"Unfair" wirds aber wenn es sich in den Konfigurationseinstellungen oder in Balkenvergleichen nicht klar als Upscaling zu erkennen gibt sondern da dann schlicht steht Auflösung: 4k Antialising: DLSS

Elite_Warrior
2018-08-23, 14:48:17
Woher kommt diese Behauptung?

https://youtu.be/K-93VGSYcWI?t=3309

Hat er bei der Infiltrator Demo gesagt. Könnte man jedenfalls so deuten.

SKYNET
2018-08-23, 14:52:35
E: Im neuen NV Scanner (Curve Editor 2.0) sind also 820-1170mV hinterlegt und grob 1100mV kommen wohl default zum Einsatz im Boost.



:ulol: das teil wird nen richtiger backofen sein... wo sind grad alle die über vega hergezogen sind? :freak: :P

sorry, aber ne 1080/Ti brauch für 2GHz im schnitt 1V...

Edgecrusher86
2018-08-23, 14:55:27
:ulol: das teil wird nen richtiger backofen sein... wo sind grad alle die über vega hergezogen sind? :freak: :P

sorry, aber ne 1080/Ti brauch für 2GHz im schnitt 1V...

Da macht es wohl Sinn wenn man eine Kühllösung bei der FE präsentiert, die wohl im Best Case 10 Grad Differenz zur 1080 Ti FE ermöglicht. 😄


Ich brauche 1,037-1,05V für die 2 GHz im SLI. 1,025V crasht. Gibt auch andere Karten die soviel nötig haben. Daher konservativ von mir angegebenen.

Shaft
2018-08-23, 14:55:54
Auf DLSS bin ich mal gespannt, Praxistauglichkeit, Bildqualität.

Emil_i_Lönneberga
2018-08-23, 15:02:00
Gibt´s hier auch hints bzgl. WaKü? Oder bin ich im falschen Forum?


- Aquacomputer

Um mal etwas sinnvolles beizutragen: Der Kühler ist in Arbeit :) Es wird definitv eine Lösung von uns geben.

https://forum.aquacomputer.de/wasserk-hlung/p1434003-kryograpics-f-r-nvidia-geforce-rtx-2080/#post1434003


- Watercool

Material liegt in großer Menge auf Lager, die Maschinen sind alle im Top-Zustand und andere Projekte kollidieren nicht mit dem 2080er Launch... es sollte also recht zügig gehen.

https://www.hardwareluxx.de/community/f137/watercool-produktinfo-278904-220.html#post26467603


- Alphacool

https://www.alphacool.com/new-products?p=1&o=1&n=12&min=113.72&atsd_category=20582


Bis zum 20.09. ist deine Geduld gefragt und meine Empfehlung geht eindeutig in Richtung Aquacomputer oder Watercool.

Tesseract
2018-08-23, 15:06:22
Auf DLSS bin ich mal gespannt, Praxistauglichkeit, Bildqualität.

ich auch. DL finde ich eigentlich deutlich spannender als RT. klar, mit RT kann man einige nette dinge machen/vereinfachen, aber das potenzial von DL ist einfach gewaltig: DL-supersampling, DL- upscaling, DL-frameinterpolation usw.
es ist durchaus denkbar in ein paar jahren 8k@240fps auf mainstreamhardware zu sehen weil die hohe pixellast leichter zu stemmen als wenn man diese einfach stur berechnen würde. es gibt zwar auch beim rasterisieren tricks, aber auch die stoßen auch irgendwann an ihre grenzen.

dargo
2018-08-23, 15:17:45
Was das ganze Schwierig macht ist dass das Bild mit DLSS für das Auge sogar besser aussehen kann als ein natives - trotzdem können Details verloren gehen. Man siehts halt nicht ohne Direktvergleich. Trotzdem muss die AI Informationen "erfinden" die eigentlich nicht da sind... Es IST also nicht das selbe Bild.
So wie ich es verstanden habe muss die AI da nichts erfinden denn es liegen Vergleichsbilder in höheren Auflösungen vor, also wie es in einer nativen, höheren Auflösung aussehen muss bzw. sollte. Und an diese Bilder versucht die AI sich anzugleichen was die Qualität anbelangt.

w0mbat
2018-08-23, 15:18:56
Was sagen die großen Die-Schätzmeister hier?

https://i.imgur.com/i1MRhIe.jpg

dargo
2018-08-23, 15:21:45
es ist durchaus denkbar in ein paar jahren 8k@240fps auf mainstreamhardware zu sehen weil die hohe pixellast leichter zu stemmen als wenn man diese einfach stur berechnen würde. es gibt zwar auch beim rasterisieren tricks, aber auch die stoßen auch irgendwann an ihre grenzen.
Das passt aber irgendwie nicht zum Geschäftsmodell. Die Aufrüstintervalle würde man dadurch erheblich ausdehnen. Kann eigentlich nicht im Sinne eines IHVs sein. Es sei denn... wie ich vorher wild spekuliert habe, es gibt irgendwann Abos für solche Techniken.

Dural
2018-08-23, 15:23:03
wurde doch schon geschätzt, der TU104 soll um die 550mm2 liegen.

w0mbat
2018-08-23, 15:23:53
Ah, hab das Bild hier noch nicht gesehen. Aber der Thread bewegt sich auch so schnell :D

Tesseract
2018-08-23, 15:24:47
Das passt aber irgendwie nicht zum Geschäftsmodell. Die Aufrüstintervalle würde man dadurch erheblich ausdehnen. Kann eigentlich nicht im Sinne eines IHVs sein. Es sei denn... wie ich vorher wild spekuliert habe, es gibt irgendwann Abos für solche Techniken.


man kann ja trotzdem mehr rechenleistung in die beleuchtung, die szenendetails usw. stecken. außerdem sollte ein höherer durchsatz der TC auch das resultat des upscalings schrittweise verbessern, ähnlich wie eine höhere bitrate eines videocodecs die BQ verbessert ohne dass sich die auflösung oder framerate des videos ändern muss.

drdope
2018-08-23, 15:25:09
Was sagen die großen Die-Schätzmeister hier?

Da muß man nicht großartig schätzen, der Durchmesser der Bohrungen wird sich nicht geändert haben, der Rest sollte sich daraus berechnen lassen.
Ggf muß man das Bild dazu noch perspektivisch "gerade" filtern...

Flusher
2018-08-23, 15:29:14
https://youtu.be/K-93VGSYcWI?t=3309

Hat er bei der Infiltrator Demo gesagt. Könnte man jedenfalls so deuten.

Er vergleicht das Bild mit 4k TAA, wieso sollte er ein Upscaling Feature mit einem TAA Bild vergleichen?

Ich glaube nicht daran, dass die Tensor Cores in der Lage sind das Bild in adäquater Qualität in Echtzeit auf die Zielauflösung hochzuskalieren - zumindest noch nicht. Ich denke die Upscaling-Qualität reicht gerade dazu aus um das Bild wieder downzusampeln um Anti-Aliasing zu erreichen. Und nur das wurde auch präsentiert.

SKYNET
2018-08-23, 15:32:25
;D ;D ;D

https://www.hardwareluxx.de/community/attachments/f14/441963d1535026365-nvidia-macht-die-geforce-rtx-2080-ti-rtx-2080-und-rtx-2070-offiziell-com.png

ChaosTM
2018-08-23, 15:43:07
DLSS ist imho speziell für Leute mit Low-DPI Monitoren interessant aber die kaufen normalerweise keine High End Karten.
144+ HZ Monitor Besitzer mal ausgenommen aber die schalten dann eh wieder alles ab was Leistung kostet.
Mal schauen, ob auch die massentauglicheren Karten dieses Feature spendiert bekommen. Dann ist natürlich alles anders.

Sollte es wider erwarten auch bei 4K Monitoren eine sichtbare Verbesserung geben was ich nicht wirklich erwarte, gut..
Übrig bleibt die W/UW 1440p Fraktion, bei der die Technik dann wirklich gute Ergebnisse erzielen könnte/sollte.

AI powered AA klingt halt gut, muss sich aber erst beweisen.

BigKid
2018-08-23, 15:44:33
Er vergleicht das Bild mit 4k TAA, wieso sollte er ein Upscaling Feature mit einem TAA Bild vergleichen?

Ich glaube nicht daran, dass die Tensor Cores in der Lage sind das Bild in adäquater Qualität in Echtzeit auf die Zielauflösung hochzuskalieren - zumindest noch nicht. Ich denke die Upscaling-Qualität reicht gerade dazu aus um das Bild wieder downzusampeln um Anti-Aliasing zu erreichen. Und nur das wurde auch präsentiert.
Nochmal: Wenn eine RTX in 4k mit TAA auf 60fps kommt und mit DLSS auf 80fps. Wo sollen die 20fps „eingespart“ werden? Beim TAA ?!?! Das kostet wohl kaum 20fps! Ergo bleibt doch nur dass hier eben bei DLSS in Wirklichkeit in einer niedrigeren Auflösung gerendert wird.
Bezüglich Upscaling in Echtzeit - doch genau das ist anzunehmen... macht Samsung bei seinen 8k TVs doch auch schon und auch mit „AI“

EDIT: So verstehe ich auch PCGH
http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/Geforce-RTX-2080-Ti-Preview-1263488/

Elite_Warrior
2018-08-23, 15:51:16
Konsolen machen doch auch schon die ganze Zeit Upscaling auf 4k, rechnen aber selber um die 1600p-1800p? Und das ganze ohne DL. Das würde auch die Verschwommenheit bei den Vergleichsbildern zwischen TXAA und DLAA erklären. Am 14ten wissen wir wohl mehr. Hoffentlich haben die Redaktionen genug Zeit um sich das genau anzuschauen, auch bezüglich Latenz-Entwicklung

basix
2018-08-23, 16:11:04
Konsolen machen doch auch schon die ganze Zeit Upscaling auf 4k, rechnen aber selber um die 1600p-1800p? Und das ganze ohne DL. Das würde auch die Verschwommenheit bei den Vergleichsbildern zwischen TXAA und DLAA erklären. Am 14ten wissen wir wohl mehr. Hoffentlich haben die Redaktionen genug Zeit um sich das genau anzuschauen, auch bezüglich Latenz-Entwicklung

DLAA / DLSS ist nicht verschwommen, sondern verglichen mit TAA deutlich schärfer. Das sagen alle, die DLSS live in Aktion gesehen haben (z.B. CB). Nur weil jemand mit einer Handy-Cam bei schlechten Lichtverhältnissen und zittrigen Fingern nicht beide Monitore gleich gut fokussieren kann liegt es noch nicht an DLSS ;)

Ex3cut3r
2018-08-23, 16:13:52
Bei den Konsolen handelt es sich doch ums Checkerboard, das gabs soweit weiß am PC bei Ubi Spielen, wie Watch Dogs 2 und ACO z.B. Imo ist aber das DLSS überlegen.

dildo4u
2018-08-23, 16:15:47
Es gibt auch PC Games die das können(z.b Far Cry 5) aber DLAA sollte deutlich besser sein ansonsten macht es kein Sinn es dafür zu nutzen.

SamLombardo
2018-08-23, 16:24:16
Es gibt auch PC Games die das können(z.b Far Cry 5) aber DLAA sollte deutlich besser sein ansonsten macht es kein Sinn es dafür zu nutzen.
Das hoffe ich doch. Dieses Checkerboard ist ja ganz nett, aber kein Ersatz für echtes 4k. Bei weitem nicht. Das muss dieses DLAA merklich besser hinkriegen, wenn es mich überzeugen will;).

Ex3cut3r
2018-08-23, 16:25:18
Das hoffe ich doch. Dieses Checkerboard ist ja ganz nett, aber kein Ersatz für echtes 4k. Bei weitem nicht. Das muss dieses DLAA merklich besser hinkriegen.

Laut CB ist es auch deutlich besser, man soll keine Unterschiede zwischen Nativ und DLSS vom normalen Sitzabstand wahrnehmen. Aber um wirklich sicher zu sein, müssen wir uns noch gedulden, bis Benchmarks/Tests Online gehen.

Scheint aber auf jeden Fall, eine aufregende Technologie zu sein.

Erbsenkönig
2018-08-23, 16:31:32
;D ;D ;D

https://www.hardwareluxx.de/community/attachments/f14/441963d1535026365-nvidia-macht-die-geforce-rtx-2080-ti-rtx-2080-und-rtx-2070-offiziell-com.png

https://media1.tenor.com/images/8118f57c21f6e27ce866a426382c4fc8/tenor.gif?itemid=3563323

DoomGuy
2018-08-23, 16:33:19
RT scheint wirklich sehr zu saugen: https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-it-just-works-oder-halt-nicht,3333736.html

"Je nach Beleuchtung verändert sich die Transparenz der Reflexion - wow! Noch nie habe ich so eine detaillierte Spiegelung in einem Spiel gesehen. Was das für Vorteile mit sich bringt, wenn ich mit einer RTX Gegner in Reflexionen beispielsweise um eine Ecke sehen kann, sie mich aber mit einer GTX nicht... Fast schon unfair...

Aber natürlich haben die Entwickler von DICE eine Mechanik eingebaut, um diesen Vorteil auszugleichen. Denn schon beim ersten Feindkontakt bricht bei mir die Framerate ein. Statt 120 fps sehe ich nun 15 bis 20, aber immerhin bricht sich das Licht so wunderschön, wow! Hektische Bewegungen belohnt das Spiel mit noch härteren Rucklern."

Mangel76
2018-08-23, 16:34:04
Sagt mal, hab ich was verpasst oder seit wann ist DLSS plötzlich ein Upscaling von niedrigeren auf höhere Auflösungen? Ich hab der Präsentation entnommen, dass man das mittels Tensor Cores aufskalierte Bild wieder auf die Zielauflösung runterskaliert und damit einen Effekt ähnlich dem SSAA erzielt wird.

Hier schreiben plötzlich einige, dass auf die Zielauflösung aufskaliert wird und dieses Bild dann auf dem Bildschirm ausgegeben wird. Das hab ich der Präsentation am Montag aber nicht entnommen. Woher kommt diese Behauptung?

Er vergleicht das Bild mit 4k TAA, wieso sollte er ein Upscaling Feature mit einem TAA Bild vergleichen?

Ich glaube nicht daran, dass die Tensor Cores in der Lage sind das Bild in adäquater Qualität in Echtzeit auf die Zielauflösung hochzuskalieren - zumindest noch nicht. Ich denke die Upscaling-Qualität reicht gerade dazu aus um das Bild wieder downzusampeln um Anti-Aliasing zu erreichen. Und nur das wurde auch präsentiert.

Was denn nun, Up- oder Downscaling? Um mit DLSS etwas downsamplen zu können, müsste man es ja vorher in höherer Auflösung berechnen. Das passt überhaupt nicht zu Leistungssteigerung. Und ein 4k-Bild erst hoch- und dann wieder runterzuskalieren ist auch Quatsch.

Die gesehene Leistungssteigerung von teilweise +100% kann eigentlich nur erreicht werden, wenn in geringerer Auflösung gerendert und dann hochskaliert wird. Und genau das sagt die Lederjacke auch im Video: geringer aufgelöste Bilder in höher aufgelöste Bilder umzuwandeln.

THEaaron
2018-08-23, 16:34:31
Battlefield ist im Alpha Zustand und die Grafikkarten noch einen Monat nicht draußen. Vielleicht einfach mal warten bis alles final ist. Nur so eine Idee.

BigKid
2018-08-23, 16:35:04
Laut CB ist es auch deutlich besser, man soll keine Unterschiede zwischen Nativ und DLAA vom normalen Sitzabstand wahrnehmen. Aber um wirklich sicher zu sein, müssen wir uns noch gedulden, bis Benchmarks/Tests Online gehen.
Das ist ja das „geniale“ und auch gleichzeitig „perfide“. Das AI upscaling ist kein „dummer“ Algo der alle Pixel/Szenarien gleich behandelt. Sonder ein neuronales Netz das gelernt hat ausgehend von einem Bild mit niedeiger Auflösung möglichst Nahe and das Bild in Originalauflösung zu kommen. Machen wir uns nix vor da werden Pixel erfunden - aber das Ergebnis kann sehr gut sein...

DrumDub
2018-08-23, 16:43:06
http://youtu.be/WoQr0k2IA9A endlich nen vernünftiges video dazu. ich find den unterschied schon extrem. sieht einfach so viel besser aus mit RTX

Flusher
2018-08-23, 16:44:49
Was denn nun, Up- oder Downscaling? Um mit DLSS etwas downsamplen zu können, müsste man es ja vorher in höherer Auflösung berechnen. Das passt überhaupt nicht zu Leistungssteigerung. Und ein 4k-Bild erst hoch- und dann wieder runterzuskalieren ist auch Quatsch.

Die gesehene Leistungssteigerung von teilweise +100% kann eigentlich nur erreicht werden, wenn in geringerer Auflösung gerendert und dann hochskaliert wird. Und genau das sagt die Lederjacke auch im Video: geringer aufgelöste Bilder in höher aufgelöste Bilder umzuwandeln.

Ich glaube du hast meinen Punkt nicht verstanden: 4k DLSS = Upscalen auf höhere Auflösung mittels Tensor Cores und anschliessendes Downsamplen auf Zielauflösung 4k

Und von welcher Leistungssteigerung wird hier gesprochen? Lederjacke hat nur gesagt, dass die Infiltrator Demo in 4K mit "30-something FPS" auf einer 1080 TI läuft, während es mit einer Turing basierten Karte mit über 70 FPS laufen würde. Unter welchen Settings hat er nicht gesagt. Das Bild vorher in der Präsentation legt nahe, dass die 1080 TI mit 4k TAA lief während die Turing GPU mit 4K DLSS lief, aber das hat er nie gesagt. Die Leistungssteigerung kann auch einfach von der höheren Grundperformance der Turing GPU gegenüber Pascal kommen.

Edit: Übrigens ist TXAA auch nicht gerade kostenlos. Das frisst durchaus Performance

dargo
2018-08-23, 16:45:50
DLSS ist imho speziell für Leute mit Low-DPI Monitoren interessant aber die kaufen normalerweise keine High End Karten.

Ich würde das eher genau andersrum sehen. Bei einem High-DPI Monitor wird der Unterschied weniger auffällig.

Armaq
2018-08-23, 16:46:16
endlich nen vernünftiges video dazu. ich find den unterschied schon extrem. sieht einfach so viel besser aus mit RTX
Ist das so, weil RTX so gut ist? Oder wurde das dafür so gemacht? Das man nicht durch eine Scheibe schauen kann bei BF ist mir bspw neu. Das ging in BF4 auf jeden Fall.

Mangel76
2018-08-23, 16:47:27
Das ist ja das „geniale“ und auch gleichzeitig „perfide“. Das AI upscaling ist kein „dummer“ Algo der alle Pixel/Szenarien gleich behandelt. Sonder ein neuronales Netz das gelernt hat ausgehend von einem Bild mit niedeiger Auflösung möglichst Nahe and das Bild in Originalauflösung zu kommen. Machen wir uns nix vor da werden Pixel erfunden - aber das Ergebnis kann sehr gut sein...

Wenn das gut funktioniert, ist das wirklich toll. Das Problem einfach von der anderen Seite angehen: nicht die HW leistungsfähiger machen, um immer mehr Pixel zu berechnen, sondern einfach weniger Pixel berechnen und intelligent hochrechnen. Von der Idee her echt super.

Jedoch bleibe ich noch skeptisch. Ich kann mir noch nicht so ganz vorstellen, wie das gehen soll. Jedes Spiel hat seinen eigenen optischen Stil, teilweise sieht jede Szene wieder komplett anders aus. Bei realen Aufnahmen kann ich mir das noch vorstellen. Aber bei unterschiedlichen Stilen? Oder das Netz muss doch für jedes Spiel trainiert werden???

Ravenhearth
2018-08-23, 16:47:42
Ich glaube du hast meinen Punkt nicht verstanden: 4k DLSS = Upscalen auf höhere Auflösung mittels Tensor Cores und anschliessendes Downsamplen auf Zielauflösung 4k

Und von welcher Leistungssteigerung wird hier gesprochen? Lederjacke hat nur gesagt, dass die Infiltrator Demo in 4K mit "30-something FPS" auf einer 1080 TI läuft, während es mit einer Turing basierten Karte mit über 70 FPS laufen würde. Unter welchen Settings hat er nicht gesagt. Das Bild vorher in der Präsentation legt nahe, dass die 1080 TI mit 4k TAA lief während die Turing GPU mit 4K DLSS lief, aber das hat er nie gesagt. Die Leistungssteigerung kann auch einfach von der höheren Grundperformance der Turing GPU gegenüber Pascal kommen.
Versprochene Leistungssteigerung durch DLSS:

https://blogs.nvidia.com/wp-content/uploads/2018/08/TuringVsPascal_EditorsDay_Aug22_v3-2.png

Troyan
2018-08-23, 16:50:31
Wenn das gut funktioniert, ist das wirklich toll. Das Problem einfach von der anderen Seite angehen: nicht die HW leistungsfähiger machen, um immer mehr Pixel zu berechnen, sondern einfach weniger Pixel berechnen und intelligent hochrechnen. Von der Idee her echt super.

Logik? Natürlich ist die Hardware leistungsfähiger, da DLSS ohne vernünftige Leistung überhaupt nicht funktioniert.
Außerdem ist es unmöglich die FP32- und Rasterizer-Leistung in solche Höhe zu skalieren, um auf ähnliche Frames-Werte zu kommen.
Was nVidia macht, ist der einzige Weg und sinnvollere Weg, da TensorCores spottbillig sind sowie erheblich weniger Platz einnehmen als die doppelte Anzahl an Compute-Units.

Tesseract
2018-08-23, 16:50:55
Was denn nun, Up- oder Downscaling? Um mit DLSS etwas downsamplen zu können, müsste man es ja vorher in höherer Auflösung berechnen.

geht natürlich um upsampling. zum downsamplen braucht es kein DL, das macht die klassische hardware ohne mit der wimper zu zucken. anti-aliasing erreicht man indem man den frame zuerst mit DL aufbläst und dann klassisch runtersampelt. alternativ kann man auch den frame aufblasen und dann direkt ausgeben. wird wahrscheinlich beides irgendwie möglich sein.

Mangel76
2018-08-23, 16:52:52
Ich glaube du hast meinen Punkt nicht verstanden: 4k DLSS = Upscalen auf höhere Auflösung mittels Tensor Cores und anschliessendes Downsamplen auf Zielauflösung 4k

Und von welcher Leistungssteigerung wird hier gesprochen? Lederjacke hat nur gesagt, dass die Infiltrator Demo in 4K mit "30-something FPS" auf einer 1080 TI läuft, während es mit einer Turing basierten Karte mit über 70 FPS laufen würde. Unter welchen Settings hat er nicht gesagt. Das Bild vorher in der Präsentation legt nahe, dass die 1080 TI mit 4k TAA lief während die Turing GPU mit 4K DLSS lief, aber das hat er nie gesagt. Die Leistungssteigerung kann auch einfach von der höheren Grundperformance der Turing GPU gegenüber Pascal kommen.

Diese Leistungssteigerung: CB (https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2080-performance-benchmark/#bilder)

Wie bitte soll denn die 2080 mit 4K DLSS so viel schneller sein als ohne? Welche Kantenglättung haben sie denn ohne DLSS eingesetzt, dass so eine Steigerung überhaupt möglich sein soll? Selbst wenn DLSS "kostenfrei" wäre, müsste diese andere Kantenglättung ja teilweise mehr als 25% Leistung kosten. Hier waren sich aber alle sicher, dass dies nicht der Fall wäre.

Ex3cut3r
2018-08-23, 16:52:56
Was mich auch noch interessieren wurde, wird DLSS auch mit "exotischen" Auflösungen wie 3440x1440 21:9 verfügbar sein? Ich denke das spielt keine Rolle oder? :freak:

Und wird man DS + DLSS gleichzeitig werwenden können? 5160x2160 @ 3440x1440 + DLSS hätte bestimmt was. :naughty:

Mangel76
2018-08-23, 16:57:17
geht natürlich um upsampling. zum downsamplen braucht es kein DL, das macht die klassische hardware ohne mit der wimper zu zucken. aliasing erreicht man indem man den frame zuerst mit DL aufbläst und dann klassisch runtersampelt. alternativ kann man auch den frame aufblasen und dann direkt ausgeben. wird wahrscheinlich beides irgendwie möglich sein.

Das ist mir durchaus klar. Nur wo soll diese Leistungssteigerung herkommen? Wenn beide Ansätze in 4K rendern, dann kann es nur noch der höhere Verlust durch das alternativ genutzte Kantenglättungsverfahren (TAA?) sein. Dies erscheint mir jedoch zu hoch.

Tesseract
2018-08-23, 17:00:10
ich würde auf diese werte nicht viel geben, das ist reines marketing-blah.

unl34shed
2018-08-23, 17:01:24
Das ist ja das „geniale“ und auch gleichzeitig „perfide“. Das AI upscaling ist kein „dummer“ Algo der alle Pixel/Szenarien gleich behandelt. Sonder ein neuronales Netz das gelernt hat ausgehend von einem Bild mit niedeiger Auflösung möglichst Nahe and das Bild in Originalauflösung zu kommen. Machen wir uns nix vor da werden Pixel erfunden - aber das Ergebnis kann sehr gut sein...

Da es ein fertig trainiertes Neuronalen Netz ist, ist es eigentlich schon wieder ein dümmer Algorithmus ;)

ShinyMcShine
2018-08-23, 17:02:03
ich würde auf diese werte nicht viel geben, das ist reines marketing-blah.

Man sollte meinen, dass die Leute hier schon lange genug dabei sind, um das zu kapieren...

Screemer
2018-08-23, 17:07:35
Versprochene Leistungssteigerung durch DLSS:

https://blogs.nvidia.com/wp-content/uploads/2018/08/TuringVsPascal_EditorsDay_Aug22_v3-2.png
Wenn man nach der Folie und der 76 vs 30fps Aussage geht, dann sind die 76fps auf jeden Fall mit dlss.

BigKid
2018-08-23, 17:25:32
Diese Leistungssteigerung: CB (https://www.computerbase.de/2018-08/nvidia-geforce-rtx-2080-performance-benchmark/#bilder)

Wie bitte soll denn die 2080 mit 4K DLSS so viel schneller sein als ohne? Welche Kantenglättung haben sie denn ohne DLSS eingesetzt, dass so eine Steigerung überhaupt möglich sein soll? Selbst wenn DLSS "kostenfrei" wäre, müsste diese andere Kantenglättung ja teilweise mehr als 25% Leistung kosten. Hier waren sich aber alle sicher, dass dies nicht der Fall wäre.
Genau das versuche ich auch schon die ganze Zeit darzulegen.
Es KANN nur Upscaling sein wenn es mehr als ein paar Prozent bringen soll... Speziell da in dem von mir zitierten Beispiel DLSS gegenüber TAA (!) 20 fps (von 60 auf 80) bringen soll !
Also mitnichten 4k nach 8k per Upscaling und dann Downscaling mit AA auf 4k... Ganz ehrlich...Wir reden hier ja auch von Angaben für die selbe Hardware (eine RTX) nicht von Angaben RTX gegen GTX...
Nochmal: Mit TAA waren es bei 4k 60 fps auf der RTX.
Mit DLSS waren es 80fps in (angeblichen) 4k auf der selben Hardware. Ich gehe jede Wette ein, dass hierbei nicht mehr in 4k gerendert wurde sondern es 4k nach upscaling sind. Kann gar nicht anders... Sonst MUSS das TAA ja mindest 20fps kosten die man dann einsparen könnte - wer glaubt das bitte ? Es liegt nahe dass es, sobald man 4k mit DLSS anwählt in Wirklichkeit WQHD oder FullHD mit Upscaling ist - das AA fällt dabei gratis ab...

Da es ein fertig trainiertes Neuronalen Netz ist, ist es eigentlich schon wieder ein dümmer Algorithmus ;)
Ja - aber eines das ich pro Game oder Szene trainieren kann und das somit für jedes Game/jede Szene optimale Ergebnisse erzielen kann...
Und dieses Training kostet nur Rechenpower - da muss ich niemanden hinsetzen der das macht... Ich lasse das Game in 2 Auflösungen Rendern und die AI schaut sich das an und findet selbst heraus was zu tun ist... (wie gesagt Training selbst passiert garantiert Offline und im Vorraus - das stemmt keine einzelne RTX...)
Sicher wird es auch ein Default-Netz das allgemein trainiert ist geben für unbekannte Games aber ich denke genau dann wird man es deutlicher sehen...

Und wenn ich dann lese: Impossible now possible - 4k in 60Hz dann bin ich mir recht sicher, dass hier DLSS im Spiel ist ;)
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html

Auf einem weiteren Bild gibt NVIDIA einige Leistungswerte für die GeForce RTX 2080 in 4K HDR mit 60 Hz an. Unbekannt ist, welche Qualitätseinstellungen NVIDIA hier gewählt hat. Ausgehend von den mindestens 60 FPS, die hier für alle Spiele genannt werden, dürften die Einstellungen recht niedrig gewählt worden sein.
Und egal wie geil DLSS ist - Nvidia verschleiert hier IMHO wieder dass es eben keine nativen 4k sind... sondern nur "verdammt nah drann"...

dildo4u
2018-08-23, 17:26:16
Klar war es mit DLSS,das war eine Demo der Tech in der Keynote.

mironicus
2018-08-23, 17:26:45
Was mich auch noch interessieren wurde, wird DLSS auch mit "exotischen" Auflösungen wie 3440x1440 21:9 verfügbar sein? Ich denke das spielt keine Rolle oder? :freak:

Nur 16:9-Auflösungen werden von DLSS unterstützt. :freak:;D

pilzsammler2002
2018-08-23, 17:31:32
Nur 16:9-Auflösungen werden von DLSS unterstützt. :freak:;D
Je nachdem ob die BFGD auch in 21:9 kommen. Dann gibts auch 21:9 support :rolleyes:
/s

Mangel76
2018-08-23, 17:35:31
Ich habe mir nochmal ein Video (https://www.youtube.com/watch?v=WMbh6zFrzto) angeschaut. Ist klar, dass es nur abgefilmt ist unter schlechten Lichtbedingungen und ohne Profiausrüstung. Da der Filmer hier aber fast senkrecht zu den beiden Monitoren steht, müssten beide Bilder "gleich schlecht" sein. Allerdings sind beide Monitore auch nicht ganz synchron.

Vergleiche ich nun TAA (Bild 1) und DLSS (Bilder 2+3), so fallen mir ein paar Unterschiede auf. Der Rauch/Nebel, der aus den Antrieben kommt, ist bei TAA recht gleichmäßig bei DLSS erkennt man da so "Ballungen". Ich habe verschiedene Standbilder mit TAA angesehen, finde aber nichts vergleichbares.

Zudem sieht man bei TAA mehr Details, etwa die Streifen kurz hinter den Düsen. Diese sind bei DLSS kaum noch zu erahnen. Beim zweiten Bild mit DLSS sehe ich auch noch einen "Knick" in den Antrieben. Dieser ist vertikal, kann also nicht durch Tearing verursacht worden sein.

Mir ist klar, dass sind schlechte Voraussetzungen für einen guten Vergleich. Es geht mir hier auch nicht um "Körnigkeit" oder so etwas. Und wer weiß, was die Kamerakompression da noch an den Bildern rumpfuscht. Aber ich bleibe erstmal skeptisch und warte auf echte Tests.

ChaosTM
2018-08-23, 17:46:33
Checkerboard von 1800p auf 4k schaut recht gut aus. 1620 ist dann allerdings schon zu wenig.

Ähnliche Erfahrungen machte ich am PC als ich einige Spiele noch in 1800p oder 1980p spielen musst, um auf flüssige Bildraten zu kommen. Da bekommt man schon recht brauchbare Ergebnisse. Den Unterschied zu 4k sieht man aber aber sofort..

Sollte zb. 1800p mit DSAA wirklich sehr nahe an echtes 4k herankommen, bei minimalem Leistungsverlust, wäre das eine sehr nette Sache.

dargo
2018-08-23, 17:48:41
Mit DLSS waren es 80fps in 4k auf der selben Hardware. Ich gehe jede Wette ein, dass hierbei nicht mehr in 4k gerendert wurde sondern es 4k nach upscaling sind. Kann gar nicht anders... Sonst MUSS das TAA ja mindest 20fps kosten die man dann einsparen könnte - wer glaubt das bitte ? Es liegt nahe dass es, sobald man 4k mit DLSS anwählt in Wirklichkeit WQHD oder FullHD mit Upscaling ist - das AA fällt dabei gratis ab...

Ich glaube so tief muss man beim Rendern gar nicht ausgehend vom nativen 4k gehen. 80fps vs. 60fps sind +33%. Um diese 33% rauszuholen brauche ich gewiss nicht auf 1440p runter gehen. 4k hat 125% mehr Pixel als 1440p. Damit diese +33% hinten rauskommen muss man denke ich ca. 25% bei den Pixeln einsparen. Immer dabei davon ausgehend, dass das "Rekonstruieren" vom endgültigen Bild durch die Tensor Cores praktisch for free ist und das TAA kostenlos ist. Da der Durchsatz bei TC aber fast Faktor 8 von FP32 beträgt dürfte das for free sein denke ich denn limitieren tut hier wohl Rasterization.

BigKid
2018-08-23, 17:48:52
Checkerboard von 1800p auf 4k schaut recht gut aus. 1620 ist dann allerdings schon zu wenig.

Ähnliche Erfahrungen machte ich am PC als ich einige Spiele noch in 1800p oder 1980p spielen musst, um auf flüssige Bildraten zu kommen. Da bekommt man schon recht brauchbare Ergebnisse. Den Unterschied zu 4k sieht man aber aber sofort..

Sollte zb. 1800p mit DSAA wirklich sehr nahe an echtes 4k herankommen, bei minimalem Leistungsverlust, wäre das eine sehr nette Sache.
Das ist unbestreitbar und für die Leistung muss man Nvidia IMHO loben.
Was mir aber nicht gefällt ist, dass es sich IMHO Abzeichnet dass NVidia verschleiert wo der Leistungsschub herkommt...
Sie geben eben nicht an "1080p native with DLSS to 4k in 60Hz" sondern zaubern Folien in denen nur steht "4k in 60Hz" ...
Oder Balken zeigen die sagen RTX ist 1,5x schneller in 4k Game XY und mit DLSS 2,0x schneller in 4k ...
zB
https://cdn01.hardwareluxx.de/razuna/assets/1/4D5492C3871D4BB2BB27386B13B98C3E/img/8F26F231CA344A8F9F97839210BEF298/TuringVsPascal_EditorsDay-02_8F26F231CA344A8F9F97839210BEF298.jpg
"Data measured at 4k resolution"
Und das ist dann eigentlich gelogen...

Am Ende wirds wieder heissen man habe sich nur Missverständlich ausgedrückt...

uweskw
2018-08-23, 17:59:04
Was ist das denn schon wieder für eine abstruse Argumentation? Darf man technische Weiterentwicklungen nicht mehr einsetzen weil auf alten Karten nicht nutzbar? Verhinderung jedweden Fortschritts?

Es ist langsam nicht mehr tragbar was für Stuss hier geschrieben wird.




Nix kappiert aber aggresiv rumpoltern........





RTX ist Nvidia Tech der offene Standard heißt DXR.

https://blogs.msdn.microsoft.com/dir...tx-raytracing/ (http://www.smartredirect.de/redir/clickGate.php?u=lnwCExJb&m=1&p=3d26AYJ0k7&t=p09f7K1v&st=&s=&splash=0&abp=1&url=https%3A%2F%2Fblogs.msdn.microsoft.com%2Fdirectx%2F2018%2F03%2F19%2Fannounci ng-microsoft-directx-raytracing%2F&r=https%3A%2F%2Fwww.forum-3dcenter.org%2Fvbulletin%2Fshowthread.php%3Ft%3D587130%26page%3D339)


Warum schliesst NV mit RTX was nur mit der 2080 und AUFWÄRTS kompatibel ist 95% der Kunden unnötiger weise aus? Natürlich nur weil es NV um den Fortschritt geht. :freak:


Und falls DLSS wirklich mit einem Onlinezwang verbunden ist, können die es sich sonstwohin schmieren.



greetz
US

Korvaun
2018-08-23, 18:01:37
Dynamische Auflösung/Upscaling/Checkerboard rendering+temporales AA ist ja bei der aktuellen Konsolengeneration fast schon "normal", mich wundert es eher das das bisher auf PC so gut wie kein Thema war. Wenn das nV nun in guter Qualität breit einführt wäre das super.

Was ich in dem Zusammenhang auch spannend finde ist die ortsabhängige Renderauflösung auf dem Bildschirm (hat Lederjacke in der Präsi glaub ich auch kurz erwähnt, kommt wohl aus der VR Ecke). Also in den Ecken/an den Rändern wird mit geringerer Auflösung gerendert da es dort nicht auffällt wenn man hauptsächlich in die Mitte des Bildschirms schaut. Da liegt auch noch Potential für ein ordentliches Speedup ;)

Troyan
2018-08-23, 18:01:38
"Data measured at 4k resolution"
Und das ist dann eigentlich gelogen...

Am Ende wirds wieder heissen man habe sich nur Missverständlich ausgedrückt...

Nein, da reale Pixel generiert werden. Es werden nur keine 4K Pixel über "herkömmlichen" Weg erzeugt.

dildo4u
2018-08-23, 18:01:59
Nix kappiert aber aggresiv rumpoltern........





RTX ist Nvidia Tech der offene Standard heißt DXR.

https://blogs.msdn.microsoft.com/dir...tx-raytracing/ (http://www.smartredirect.de/redir/clickGate.php?u=lnwCExJb&m=1&p=3d26AYJ0k7&t=p09f7K1v&st=&s=&splash=0&abp=1&url=https%3A%2F%2Fblogs.msdn.microsoft.com%2Fdirectx%2F2018%2F03%2F19%2Fannounci ng-microsoft-directx-raytracing%2F&r=https%3A%2F%2Fwww.forum-3dcenter.org%2Fvbulletin%2Fshowthread.php%3Ft%3D587130%26page%3D339)


Warum schliesst NV mit RTX was nur mit der 2080 und AUFWÄRTS kompatibel ist 95% der Kunden unnötiger weise aus? Natürlich nur weil es NV um den Fortschritt geht. :freak:


Und falls DLSS wirklich mit einem Onlinezwang verbunden ist, können die es sich sonstwohin schmieren.



greetz
US

Die 2070 kann auch RTX und es ist auf High-End begrenzt da der Chip über 500mm2 hat,die 1080 lag um 300 mm2 und hat auch über 700€ gekostet das war damals die wirkliche Abzocke.

ChaosTM
2018-08-23, 18:02:59
oder wenn gf-experience laufen müsste .. ;)

Es ist einfach ätzend wenn man nach jedem Treiber update zuerst mal den ganzen "telemetrie" Müll ausschalten muss

BigKid
2018-08-23, 18:05:48
Nein, da reale Pixel generiert werden. Es werden nur keine 4K Pixel über "herkömmlichen" Weg erzeugt.
Wo sind eigentlich die Zeiten hin als man sich noch über solche Mogeleien muckiert hat ? Die Auflösung wird nicht mehr nativ gerendert. Punkt ! Beim Hochrechnen versucht eine AO das Bild möglichst gut an ein natives zu approximieren. Egal wie gut sie das tut - für einen Leistungsvergleich verbietet sich das und der Versuch das zu verschleiern ist nicht ok.
(Falls sich das Bewahrheitet).
Das Bild KANN nicht Pixelidentisch zum nativen Bild sein.
Man kann akzeptieren dass die Unterschiede im Normalfall zu vernachlässigen sind. Aber es wird sie mit Sicherheit geben.

Aber nochmal: Wo sind die Zeiten hin als man noch beleuchtet hat ob beim Review die BQ wirklich auf MAX / alle Bild verändernden Optimierungen im Treiber auf aus standen ?!?

Nochmal: Ich bergüße DLSS als Idee und vermutlich auch in der Praxis ... Geniale Idee, vermutlich gut umgesetzt.
Ich verurteile aber wenn verschleiert wird, dass die Balken eben mit Upscaling entstanden - egal wie gut das upscaling seinen Job macht.

Troyan
2018-08-23, 18:07:27
Wo sind eigentlich die Zeiten hin als man sich noch über solche Mogeleien muckiert hat ? Die Auflösung wird nicht mehr nativ gerendert. Beim Hochrechnen approximiert eine AI. Egal wie gut sie das tut - für einen Leistungsvergleich verbietet sich das und der Versuch das zu verschleiern ist nicht ok.
(Falls sich das Bewahrheitet).
Das Bild KANN nicht Pixelidentisch zum nativen Bild sein.
Man kann akzeptieren dass die Unterschiede im normalfall zu vernachlässigen sind. Aber es wird sie mit Sicherheit geben.

Wir reden hier über ein 2D Bild. Natürlich kann das Bild identisch aussehen. Davon abgesehen, reicht es einzig für subjektive Gleichheit. Wenn du den Unterschied nicht wahrnehmen kannst, wieso tangiert es dich so stark?

RoughNeck
2018-08-23, 18:11:57
Wenn Nvidia das DLSS und Ray Traycing nur über die GeForce Experience ermöglicht, bin ich ohnehin raus. Registrieren um ein Feature nutzen zu können, nö danke.

BigKid
2018-08-23, 18:15:08
Wir reden hier über ein 2D Bild. Natürlich kann das Bild identisch aussehen. Davon abgesehen, reicht es einzig für subjektive Gleichheit. Wenn du den Unterschied nicht wahrnehmen kannst, wieso tangiert es dich so stark?
Weil es hier auch darum geht die Leistungsfähigkeit der Karte zu beurteilen.
Weil es hier auch darum gehen wird die Leistungsfähigkeit mit anderen Karten zu vergleichen.

Und es ist gemogelt zu sagen "Wir rendern dieses Spiel in 4K bei 80 fps" wenn es in Wirklichkeit nur WQHD mit Upscaling ist.

Und NEIN das Bild kann nicht identisch aussehen. Es kann oft verdammt nah rann kommen aber es kann gar nicht immer identisch sein... Das "kann nicht" liegt daran wie das Verfahren arbeitet...

Wie gut es ist wissen wir abgesehen davon auch noch gar nicht wirklich...

Schau dir doch mal die Beispiele von NVidia aus der letzten Zeit zum Thema AI an ... Denoising zB... Das Ergebnis sieht oft verdammt gut aus - aber es kann sich (noch) nicht mit einem Foto messen in dem das Rauschen gar nicht erst drinn war... Feine Details gehen halt doch verloren oder entstehen wo sie gar nicht waren... Nun ist es so dass es für Handy-Knippsen zB echt ein cooles Feature wäre denn die Alternative wäre auf jeden Fall ein schlechteres Bild ohne AI... Aber was wäre wenn nun ein DLSR Hersteller auf die Idee käme in seine Voll-Format Kamera einen Handy-Chip einzubauen und das Ergebnis aufzublasen ?!? Nur weil es eine "AI" ist kann es nicht Zaubern und Informationen korrekt erfinden die gar nicht da waren... :rolleyes:

Nochmal: Ich hab nix gegen DLSS - ich finds ne super Idee. Aber ich betrachte es mit gemischten Gefühlen wenn verschleiert wird, dass es ein Upscaling ist bzw. die Balkenlänge eben nicht nativ sondern mit Upscaling entstand !

Ja - bei Konsolen wird das gemacht... Bei Konsolen kann ich aber auch die Graka nicht tauschen... Und es wird SEHRWOHL diskutiert wenn eine Konsole das Spiel nur mit Upscaling in einer Auflösung schafft und eine andere schafft es nativ...

Menace
2018-08-23, 18:17:21
Wenn Nvidia das DLSS und Ray Traycing nur über die GeForce Experience ermöglicht, bin ich ohnehin raus. Registrieren um ein Feature nutzen zu können, nö danke.

Das kommt noch dazu.


@Raff und Kollegen: Könnt ihr mal bei nVidia nachfragen ob die Planen, dass man die AI für die "Allgemeinheit" zur Verfügung stellt (also quasi für nVidia rechnen lässt)? Gab ja so etwas schon bei Browsern die minen. Wenn die Haufenweise ihre AI-Karten verkaufen käme da (auch wenn nur ein geringer Anteil genutzt wird) immense Rechenpower zusammen die nVidia für lau abgreifen könnte.

drdope
2018-08-23, 18:18:42
Ich würde es auch nicht als Mogelei bezeichnen...

im Audiobereich stört es heute niemanden, wenn er statt CD/FLAC ein mp3/aac serviert bekommt. S
Solange Bitrate und Encoder gut genug sind, daß man Original und Lossy-Copy akustisch nicht voneinander unterscheiden kann ist es schlichtweg gut genug.

Mit den aktuellen Lösungen, bekommst du schon bei 2x 4k@60Hz massive Probleme...
Wenn man zeitnah (innerhalb der nächsten Jahre) 8k oder 2x 4k/8k Displays@90Hz (VR/AR) befeuern will, brauch man (imho) eine ähnliche Heransgehensweise auch zur Bilderzeugung.
Ansonsten bekommen wir einfach nicht mehr genug Transistoren/Bandbreite dafür her gezaubert.
Die Herstellungsprozesse geben das zukünftig absehbar nicht mehr her, das Problem "konventionell" zu lösen.

Wozu etwas in max. Quali rendern, was man gar nicht max. Qualität wahr nimmt...?
Der ganze "Eye-Tracking" Kram zielt auch in die selbe Richtung.

crux2005
2018-08-23, 18:20:02
Was sagen die großen Die-Schätzmeister hier?

https://i.imgur.com/i1MRhIe.jpg
Ah, hab das Bild hier noch nicht gesehen. Aber der Thread bewegt sich auch so schnell :D

Das Bild habe ich auch nicht genutzt weil der Winkel schlecht ist.
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-20-august-2018

Dann sind es 24,6 x 22,71 = 558,7 mm2 für TU104 :O

https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11775607#post11775607

unl34shed
2018-08-23, 18:26:28
Wozu etwas in max. Quali rendern, was man gar nicht max. Qualität wahr nimmt...?

Warum verkaufen sie dann nicht auch alle 4k Displays als 8 oder 16k, sieht man ja kein Unterschied?

BigKid
2018-08-23, 18:30:22
Ich würde es auch nicht als Mogelei bezeichnen...

Ich bezeiche es in dem Moment als Mogelei in dem es verschwiegen wird.
Nicht DLSS ist Mogelei...
Sich hinzustellen und zu sagen "4k@60fps" ist es. Und das tut Nvidia aktuell.

Selbst "4k@60fps mit DLSS" ist immernoch gelogen...

Ich versteh nicht was daran so schwer zu verstehen ist...

(Und da der Thread sich schnell bewegt: Unter der Annahme das DLSS das ist was ich annehme / die Redaktionen so langsam auch schreiben...)

ChaosTM
2018-08-23, 18:34:36
Es lässt sich wunderbar missbrauchen, da geb ich dir recht.

Troyan
2018-08-23, 18:35:00
Nein, es ist nicht gelogen. Nochmal, die TensorCores "errechnen" einen Wert für den neuen Pixel. Du bekommst ein reales 4K Bild. es ist am Ende egal, ob der Pixel durch Durchlaufen der kompletten Grafikspipeline oder durch Betrachtung von hunderten von Bildern erzeugt wird. Einzig und alleine das Ergebnis zählt.

BigKid
2018-08-23, 18:39:19
Nein, es ist nicht gelogen. Nochmal, die TensorCores "errechnen" einen Wert für den neuen Pixel. Du bekommst ein reales 4K Bild. es ist am Ende egal, ob der Pixel durch Durchlaufen der kompletten Grafikspipeline oder durch Betrachtung von hunderten von Bildern erzeugt wird. Einzig und alleine das Ergebnis zählt.
Wenn du den Unterschied Zwischen nativ und upscaling nicht verstehst - egal wie intelligent es ist. Wenn du nicht verstehst, dass auch eine noch so Intelligente AI nicht 100% zuverlässig Pixel erfinden kann die nicht da waren, dann hat es keinen Sinn mit dir weiter zu diskutieren - tut mir leid...
Die AI "schätzt" vereinfacht gesagt Aufgrund von Erfahrung (training). Das macht sie vlt. sehr gut aber es ist immernoch schätzen und nicht wissen/berechnen.

Tesseract
2018-08-23, 18:45:21
Die Auflösung wird nicht mehr nativ gerendert.

was soll "nativ generiert" in diesem zusammenhang überhaupt bedeuten? jede form von rendering ist eine approximation und wie nahe die an die ground truth kommt lässt sich objektiv messen. diese nähe ist genau was was bei DLSS trainiert wird. je nach dem wie gut das network ist kann das resultat sichtbar schlechter aber auch ähnlich gut oder sogar sichtbar besser als "native" rasterisierung sein.

basix
2018-08-23, 18:47:17
Ach, wenn man native 4k Berechnung ohne "Schummeleien" haben will, dann lässt man den DLSS Schalter halt auf aus. Wieso darüber streiten? Kann ja jeder für sich entscheiden, was man will.

Aber ja, Nvidias Angaben zur Leistungsteigerung sind ziemlich diffus, da viele Angaben fehlen. Das wird sich bei Launch mit Fachpressen-Artikeln aber vermutlich erledigen.

Troyan
2018-08-23, 18:47:43
Es ist kein Upscaling. Du solltest dir das hier durchlesen: https://developer.nvidia.com/rtx/ngx

Ex3cut3r
2018-08-23, 18:58:00
Ach, wenn man native 4k Berechnung ohne "Schummeleien" haben will, dann lässt man den DLSS Schalter halt auf aus. Wieso darüber streiten? Kann ja jeder für sich entscheiden, was man will.

Aber ja, Nvidias Angaben zur Leistungsteigerung sind ziemlich diffus, da viele Angaben fehlen. Das wird sich bei Launch mit Fachpressen-Artikeln aber vermutlich erledigen.

Ja, genau. Ich verstehe gar nicht wieso man da jetzt das Wort Schummeln benutzt?! DLSS ingame oder im Treiber Global aus, und fertig alles nativ ohne "schummeln"

Einige fantasieren da einiges rein, meine Güte.

drdope
2018-08-23, 19:03:13
Es lässt sich wunderbar missbrauchen, da geb ich dir recht.

Definitiv!

Warum verkaufen sie dann nicht auch alle 4k Displays als 8 oder 16k, sieht man ja kein Unterschied?

Schwieriges Thema., wenn man es auf "Einzeiler" reduziert.
;)
Die Auflösung hat für sich ja per Se keinerlei Aussage über die Bildqualität.
Wenn das Display zu klein oder der Betrachtungsabstand zu groß ist (Stichwort Winkelauflösung des Auges (https://de.wikipedia.org/wiki/Auflösungsvermögen)), kannst du (auf Grund der Funktionsweise deines Auges) die Auflösung nicht vollständig nutzen.
Ebenso nimmt dein Auge bzw. das "datenverabeitende" Gehirn dahinter das gesehene Bild nicht objektiv war.
Dinge im peripheren Sichtfeld haben in der Wahrnehmung eine andere Priorität, als das was das Auge gerade fokussiert.

Die Effekte (und vermutlich noch viel mehr) kann man sich auch zu nutze machen, um Leistung zu sparen.
Bei einer DVD/BD/UDD-BD schert sich doch auch niemand drum, daß er nicht 1:1 das unkomprimierte Original serviert bekommt.
Im Gegenteil -> es freut sich jeder, wenn er bei minimaler Bandbreitennutzung ein Maximum an Qualität bekommt.

dargo
2018-08-23, 19:07:39
Ja, genau. Ich verstehe gar nicht wieso man da jetzt das Wort Schummeln benutzt?! DLSS ingame oder im Treiber Global aus, und fertig alles nativ ohne "schummeln"

Es geht um Vergleichbarkeit zu anderen GPUs in Benchmarks. Solange DLSS optional ist und explizit als solches in Benchmarks ausgewiesen wird habe ich kein Problem damit. Ob einem das auf dem eigenen Bildschirm gefällt oder nicht kann jeder für sich individuell entscheiden. Problematisch wird es erst wenn DLSS als neuer Standard definiert wird.

Ex3cut3r
2018-08-23, 19:13:15
Es geht um Vergleichbarkeit zu anderen GPUs in Benchmarks. Solange DLSS optional ist und explizit als solches in Benchmarks ausgewiesen wird habe ich kein Problem damit. Ob einem das auf dem eigenen Bildschirm gefällt oder nicht kann jeder für sich individuell entscheiden. Problematisch wird es erst wenn DLSS als neuer Standard definiert wird.

Ok verstehe ich. Aber wieso sollte es Standard werden? Ist Downsampling je Standard geworden oder Upscaling? Nö....ich siehe DLSAA ab Bonus bzw. Alternative mehr nicht, vermutlich werde ich 80% weiterhin Nativ benutzen.

Wenn man dafür Expericence braucht, ja dann sowieso nicht. Der Rotz bzw. Bloatware kommt mir nicht auf den Rechner.

Tesseract
2018-08-23, 19:14:59
Wenn du nicht verstehst, dass auch eine noch so Intelligente AI nicht 100% zuverlässig Pixel erfinden kann die nicht da waren

angenommen du renderst einen zaun in 20*20 und das ding flimmert wie die hölle. in 40*40 flimmert es natürlich weniger aber immer noch mehr als es in 20000*20000 flimmern würde. wenn das neural network erkennt, dass es sich auf dem 20*20 bild um einen zaun handelt und "weiß" wie ein zaun in 20000*20000 in etwa aussieht kann es die fehlenden pixel von 20*20 auf 40*40 so "auffüllen", dass das resultat besser aussieht als native 40*40, eher wie ein zaun der in 20000*20000 gerendert und dann auf 40*40 runterskaliert wurde.

das ist natürlich ein extrembeispiel aber DL ist eben nicht nur gutes klassisches upscaling sondern mehr.

dargo
2018-08-23, 19:18:09
Aber wieso sollte es Standard werden? Ist Downsampling je Standard geworden oder Upscaling?
Bei Downsampling per Treiber oder Applikation und Upscaling galt gleiches Recht für alle GPUs. Hierbei war also durchaus faire Vergleichbarkeit gegeben.

BigKid
2018-08-23, 19:27:32
angenommen du renderst einen zaun in 20*20 und das ding flimmert wie die hölle. in 40*40 flimmert es natürlich weniger aber immer noch mehr als es in 20000*20000 flimmern würde. wenn das neural network erkennt, dass es sich auf dem 20*20 bild um einen zaun handelt und "weiß" wie ein zaun in 20000*20000 in etwa aussieht kann es die fehlenden pixel von 20*20 auf 40*40 so "auffüllen", dass das resultat besser aussieht als native 40*40, eher wie ein zaun der in 20000*20000 gerendert und dann auf 40*40 runterskaliert wurde.

das ist natürlich ein extrembeispiel aber DL ist eben nicht nur gutes klassisches upscaling sondern mehr.
Das bestreite ich doch nirgends. Ich werde auch nicht Müde zu sagen, dass es an sich ne tolle Sache ist. Mir gefällt nicht dass nicht drauf hingewiesen wird wie gemessen wurde und genau das tut NVidia gerade. Wenn in niedrigerer Auflösung gerendert und dann hochgerechnet wird dann sollte das auch so ausgewiesen sein
anstatt es zu verschweigen.
Und wenn nicht in 4k gerendert und dann ein AA drauf kommt sondern in niedrigerer Auflösung gerendert und dann (egal wie geil) aufgeblasen wird und das AA Quasi ein Nebenprodukt ist dann sollte das auch so beworben werden...

hilo
2018-08-23, 19:34:23
Kann eigentlich Geforce Experience die Hardwareseriennummer ermitteln?
Ich frage nur, weil Nvidia dann über Geforce Experience eine Account-Bindung
einführen und so den Weiterverkauf der Karte trotz Erschöpfungsgrundsatz ziemlich entwerten könnte.

Langlay
2018-08-23, 19:42:00
Kann eigentlich Geforce Experience die Hardwareseriennummer ermitteln?
Ich frage nur, weil Nvidia dann über Geforce Experience eine Account-Bindung
einführen und so den Weiterverkauf der Karte trotz Erschöpfungsgrundsatz ziemlich entwerten könnte.


Möglich ist es aufjedenfall, aber wenn dann würde ich das als Firma nur regional scharfschalten. Also in Ländern mit eher wenig Käuferschutz.

Das wäre als ob du dein Tesla nicht mehr verkaufen kannst weil er per App an dein Handy gebunden wäre.

Aber ich glaube wenn sowas kommt dann ist PC-Gaming ehh nicht mehr zu retten.

Fragman
2018-08-23, 19:54:44
gibts irgendwo hinweise auf das, was hier jetzt diskutiert wird oder ist das alles nur wildeste spekulation um turing noch mehr zu verreissen? :rolleyes:

hilo
2018-08-23, 19:56:31
Lol, der Vergleich, made my day, danke!

So durcheinander wie sich Elon Musk in letzter Zeit bisweilen präsentiert hat, sollten wir ihn vielleicht nicht auf Ideen bringen...

Ist bestenfalls semi on-topic, gebe ich zu. Vertiefen wir es nicht weiter.

BlacKi
2018-08-23, 20:02:48
Ok verstehe ich. Aber wieso sollte es Standard werden? Ist Downsampling je Standard geworden oder Upscaling? Nö....ich siehe DLSAA ab Bonus bzw. Alternative mehr nicht, vermutlich werde ich 80% weiterhin Nativ benutzen.
ganz ehrlich. wenns besser aussieht mit dlss wirst du es anmachen. wenn nicht dann auslassen.

so wird man das auch benchen. wenn es taugt, sollte man es auch in den vergleich mit einbringen. fake oder nicht. fertig!

Gerade im Heise Forum gelesen..




Ziemlich passend..
nur weil die reflection durch den reflektor durch die texturen geht ist es kein RT? sieht eher nach einem grafikfehler der alpha phase aus von BF.

Rancor
2018-08-23, 20:06:18
Bei Downsampling per Treiber oder Applikation und Upscaling galt gleiches Recht für alle GPUs. Hierbei war also durchaus faire Vergleichbarkeit gegeben.

Achso... Bei RPM und AC wars dir doch auch egal das Pascal es nicht konnte..

Platos
2018-08-23, 20:09:13
Bei Downsampling per Treiber oder Applikation und Upscaling galt gleiches Recht für alle GPUs. Hierbei war also durchaus faire Vergleichbarkeit gegeben.

Wenn eine Seite ein Feature hat, dann ist das nicht unfair. Das ist dann eben ein Feature, ein Vorteil, was das eine Produkt besser machen kann.

Bei HBCC hat dich das ja auch nicht gestört. Dort wird nämlich andere Hardware belastet, als man mit dem Kauf der Grafikkarte bekommt. Nämlich das RAM. Das gehört somit auch nicht zum Produkt selber, man muss den (zusätzlich benötigten) RAM nämlich noch dazu kaufen.

Bei DLSS ist es immer noch die eigene Karte, die rechnet. Die Karte rechnet mit dem Algorithmus, den sie bekommt. Wie schon immer. Und wie auch schon immer, musstest du noch nie mit deiner Karte die Algorithmen selbst berechnen :D

Sweepi
2018-08-23, 20:26:14
Kann eigentlich Geforce Experience die Hardwareseriennummer ermitteln?
Ich frage nur, weil Nvidia dann über Geforce Experience eine Account-Bindung
einführen und so den Weiterverkauf der Karte trotz Erschöpfungsgrundsatz ziemlich entwerten könnte.

Weiß hier jemand genaueres? Ich habe Anfang des Jahres ein wenig in die Richtung gesucht, wollte 2 gleiche Grafikkarten vom PC aus unterscheiden.
Habe jedoch keine Seriennummer oder ähnliches gefunden.

Ex3cut3r
2018-08-23, 20:30:25
Was für eine Hardwarebindung? Wie kommt man auf sowas? Wo hat Nvidia das irgendwo mal erwähnt? Also ein bisschen die Fantasie hier mal zurückstellen, oder was soll das werden? :rolleyes:

Ja, die Preise sind heftig, ich versteh schon, aber deswegen sich solche "Geschichten" aus den Fingern zu saugen, also ich weiß ja nicht.

dargo
2018-08-23, 20:32:56
Achso... Bei RPM und AC wars dir doch auch egal das Pascal es nicht konnte..
Beides ist in Vega gegossen, man bedient sich nicht "fremder" Supercomputer.

btw.
Ich kritisiere bsw. nicht den hohen FP16 Durchsatz von Turing, ist dir wohl nicht aufgefallen.


Bei HBCC hat dich das ja auch nicht gestört. Dort wird nämlich andere Hardware belastet, als man mit dem Kauf der Grafikkarte bekommt. Nämlich das RAM.
Auch an dich... der Arbeitspeicher steckt in meinem Rechner und nicht irgendwo in einem Supercomputer.

Platos
2018-08-23, 20:35:15
Der Supercomputer rechnet nicht für dich das Bild...

Und wo ist denn der Arbeitsspeicher "eingegossen", der für HBCC benötigt wird..? Richtig, nicht in Vega...

Rancor
2018-08-23, 20:37:29
Beides ist in Vega gegossen, man bedient sich nicht "fremder" Supercomputer.

btw.
Ich kritisiere bsw. nicht den hohen FP16 Durchsatz von Turing, ist dir wohl nicht aufgefallen.


Auch an dich... der Arbeitspeicher steckt in meinem Rechner und nicht irgendwo in einem Supercomputer.

Ich glaube du hast nicht verstanden wie DLSS funktioniert. Da rechnet kein Supercomputer etwas für dich. Das macht schon noch die Grafikkarte.
Der Spielentwickler lässt sein Spiel für DLSS bei Nvidia optimieren und baut den Upscaling Algorithmus dann in sein Spiel ein. Die Berechnung macht immer noch die Grafikkarte.

Du beschwerst dich ja auch nicht wenn AMD Entwicklern hilft ihre Spiele für VEGA zu optimieren oder?

dargo
2018-08-23, 20:38:03
Der Supercomputer rechnet nicht für dich das Bild...

Er hilft dabei fehlende Bildinformationen "aufzuhübschen".

Ich glaube du hast nicht verstanden wie DLSS funktioniert. Da rechnet kein Supercomputer etwas für dich. Das macht schon die Grafikkarte.
Und ich glaube du verstehst nicht wovon ich rede. Was glaubst du warum dieses ganze Prozedere von A bis Z nicht in einer RTX Karte drin steckt welches man über DLSS realisiert? Richtig... weil die Karte dafür zu langsam ist.

BlacKi
2018-08-23, 20:38:57
Auch an dich... der Arbeitspeicher steckt in meinem Rechner und nicht irgendwo in einem Supercomputer.
lol, und die informationen für DLAA/DLSS liegen auf der festplatte. so what?

Für DLAA nutzt Nvidia die Tensor-Cores, welche neben den Raytracing-Kernen und den regulären Shader-Einheiten in den Turing-Grafikchips der Geforce RTX integriert sind. Vorab wird auf einem Supercomputer-System ein neuronales Netz mit sehr hochauflösenden und nahezu perfekt geglätteten Bildern trainiert, das dann mithilfe der Tensor-Cores auf die Spielegrafik angewendet wird. Entwickler benötigen dafür das Neural Graphics Framework und müssen DLAA per NGX-API in ihre Titel implementieren. https://www.golem.de/news/geforce-rtx-deep-learning-kantenglaettung-soll-spiele-verschoenern-1808-136117.html

Rancor
2018-08-23, 20:41:21
Er hilft dabei fehlende Bildinformationen "aufzuhübschen".


Und ich glaube du verstehst nicht wovon ich rede. Was glaubst du warum dieses ganze Prozedere von A bis Z nicht in einer RTX Karte drin steckt welches man über DLSS realisiert? Richtig... weil die Karte dafür zu langsam ist.

Ohne Scheiss Dargo. Mach dich bitte nicht lächerlich. Dein krampfhaftes Haar in der Suppe suchen ist einfach viel zu offensichtlich.

Ex3cut3r
2018-08-23, 20:41:27
@Blacki Beste Erklärung von DLSS bisher. :up:

decimad2
2018-08-23, 20:44:18
Und die sichtbare Verschlechterung der Bildqualität auf den Shots von der Messe da, zumal auf dem weiter entfernten Bildschirm, lässt sich wohl am besten dadurch erklären, dass da noch nicht lange genug trainiert wurde?

Ex3cut3r
2018-08-23, 20:44:37
Welche Shots? Die Handy Fotos?

Rancor
2018-08-23, 20:44:46
Und die sichtbare Verschlechterung der Bildqualität auf den Shots von der Messe da, zumal auf dem weiter entfernten Bildschirm, lässt sich wohl am besten dadurch erklären, dass da noch nicht lange genug trainiert wurde?

Oder daran das das Verfahren einfach an sich kacke ist?

Tesseract
2018-08-23, 20:44:50
Und ich glaube du verstehst nicht wovon ich rede.

weil es keinen sinn ergibt. in jeder GPU/treiber stecken tausende stunden menschliche optimierung und supercomputersimulationen um die funktionsweise der graka zu verbessern und nichts davon ist bei dir zu hause passiert. warum ist der datenblob aus dem treiber mit dem die TC initiiert werden etwas völlig anderes? würde die GPU live unterstützung aus der cloud beziehen wär das natürlich was anderes, aber das passiert einfach nicht.

Ex3cut3r
2018-08-23, 20:48:29
Wie sollte so eine Live Unterstützung eines Super Computers überhaupt aussehen bzw. machbar sein? Die Latenz je nach Internet und Entfernung wäre ja gewaltig.

Das wäre ja eindeutig Science Fiction. :biggrin:

basix
2018-08-23, 20:50:06
Oder daran das das Verfahren einfach an sich kacke ist?

Oder dass es einfach ein unscharfes Bild ist? :D

DLSS ist ein Feature. An- und ausschalten schafft ja wohl jeder. Die Berichte dazu sind bis jetzt ja recht positiv. Und es soll keine solche Unschärfe aller bisherigen post-process AA wie FXAA/TXAA/... hinzufügen. Für mich war das immer ein Graus: Bild in maximaler Auflösung rechnen und dann ein Unschärfe-Filter drüber :(

weil es keinen sinn ergibt. in jeder GPU/treiber stecken tausende stunden menschliche optimierung und supercomputersimulationen um die funktionsweise der graka zu verbessern und nichts davon ist bei dir zu hause passiert. warum ist der datenblob aus dem treiber mit dem die TC initiiert werden etwas völlig anderes? würde die GPU live unterstützung aus der cloud beziehen wär das natürlich was anderes, aber das passiert einfach nicht.
Richtig. Das geht für mich von der Art her in Richtung pre-baked lightning. Wurde auch auf einem externen Rechner erzeugt.

drdope
2018-08-23, 20:50:13
Das bestreite ich doch nirgends. Ich werde auch nicht Müde zu sagen, dass es an sich ne tolle Sache ist. Mir gefällt nicht dass nicht drauf hingewiesen wird wie gemessen wurde und genau das tut NVidia gerade. Wenn in niedrigerer Auflösung gerendert und dann hochgerechnet wird dann sollte das auch so ausgewiesen sein
anstatt es zu verschweigen.
Und wenn nicht in 4k gerendert und dann ein AA drauf kommt sondern in niedrigerer Auflösung gerendert und dann (egal wie geil) aufgeblasen wird und das AA Quasi ein Nebenprodukt ist dann sollte das auch so beworben werden...

Das ist nur deine Interpretation deiner subjektiven Realität.
Fakt ist doch --> NV hat iirc heute ein paar Bilder mit Balkendigrammen/Nummern/Namen drauf veröffentlich und sonst nichts, oder?

Die interessierte "Commnuty" hat diese Daten gesichtet und fragt sich nun, wie man selbige Interpretieren soll und streitet gar drüber.

Was wir gerade mache ist auch nur extrapolieren...
;)

angenommen du renderst einen zaun in 20*20 und das ding flimmert wie die hölle. in 40*40 flimmert es natürlich weniger aber immer noch mehr als es in 20000*20000 flimmern würde. wenn das neural network erkennt, dass es sich auf dem 20*20 bild um einen zaun handelt und "weiß" wie ein zaun in 20000*20000 in etwa aussieht kann es die fehlenden pixel von 20*20 auf 40*40 so "auffüllen", dass das resultat besser aussieht als native 40*40, eher wie ein zaun der in 20000*20000 gerendert und dann auf 40*40 runterskaliert wurde.

das ist natürlich ein extrembeispiel aber DL ist eben nicht nur gutes klassisches upscaling sondern mehr.

Das perfide ist an der KI/AI ist imho, daß es? dafür noch nicht mal wissen muß, was ein Zaun ist.
Die KI/AI muß noch nicht mal, auf einem für Menschen rational nachvollziehbaren Weg, zum selben Ergebnis kommen.
Trial and Error (=Lebenserfahrung) ist eine sehr scharfe Waffe...

Ein Radiologe macht tagtäglich auch "nichts anderes" als Bilder interpretieren -> Meta-Informationen daraus zu lesen.
Wie viel Bilder ein Radiologe in 50 Jahren Berufsleben wohl sichten kann?
Ich behaupte mal ganz dreist -> das kann eine KI/AI besser, zuverlässiger und schneller...

decimad2
2018-08-23, 20:52:51
Ich muss gerade darüber nachdenken, dass sich die GPU dann ja eigentlich verhält wie viele Studenten seit Bachelor... Auswendig lernen statt selber denken, und das pro Spiel :D

Edit: Aber man muss dazu sagen, weil es ja auch einen temporalen Anteil besitzt, sind vielleicht viele flackernde Glitches nicht mehr so übel. Wenn ich bei Doom 2016 bspw. mal genau hingeschaut habe, war da schon so einiges unschönes zu erkennen... Aber vielleicht ist das ja auch ein Sonderfall gewesen, spiele kaum noch. Für's Rendering mit Blender verfolge ich das hier aber gerne.

Flusher
2018-08-23, 21:11:32
Wie sollte so eine Live Unterstützung eines Super Computers überhaupt aussehen bzw. machbar sein? Die Latenz je nach Internet und Entfernung wäre ja gewaltig.

Das wäre ja eindeutig Science Fiction. :biggrin:

Öhm...es gab doch bereits Spiele die genau das als Grund vorgeschoben haben, warum man immer Online sein muss...afair war das AC3 und ein paar andere Titel (Siedler?)

basix
2018-08-23, 21:12:13
Edit: Aber man muss dazu sagen, weil es ja auch einen temporalen Anteil besitzt, sind vielleicht viele flackernde Glitches nicht mehr so übel..

Hat es das? Oder habe ich das verpasst? Ich dachte dass jedes Bild separat berechnet wird. Also ohne temporale Komponente auskommt. Sonst gäbe es ja wieder so Unschönheiten wie mit TAA, wo es bei schnell bewegenden Objekten zu Verschiebungen kommt.

Ex3cut3r
2018-08-23, 21:18:18
Öhm...es gab doch bereits Spiele die genau das als Grund vorgeschoben haben, warum man immer Online sein muss...afair war das AC3 und ein paar andere Titel (Siedler?)

Das war doch wegen dem Kopierschutz, und nicht um Leistung für deine Grafikkarte aus einem Supercomputer on demand zu ziehen.

Darkman.X
2018-08-23, 21:20:34
1. also gut möglich, dass hier propietäres Zeug, exklusiv für Karten oberhalb der 2070 gehyped wird? Exklusiv für ein paar % der Spieler? Das bedeutet der Spielehersteller nimmt in Kauf, dass sein Spiel bei 95% der Gamer nicht so gut ausschaut wie technisch möglich? Weil NV das so will?

Ich weiß nicht ob du es falsch verstanden hast, aber RTX ist kein Software-Feature, sondern Hardware (Raytracing-Einheiten). Und erst die 2070 und größer haben diese Einheiten.

Und ja, es ist erstmal verrückt ein Feature einzubauen, was 95% aller User nicht nutzen können wegen fehlender Raytracing-Einheiten. Aber solange Nvidia zahlt....warum nicht? Und ich weiß noch nicht mal ob das wirklich proprietär ist oder ganz normal über DXR genutzt wird?!

Timbaloo
2018-08-23, 21:25:57
Und ich glaube du verstehst nicht wovon ich rede. Was glaubst du warum dieses ganze Prozedere von A bis Z nicht in einer RTX Karte drin steckt welches man über DLSS realisiert? Richtig... weil die Karte dafür zu langsam ist.
Das Training des Modells läuft auf den Supercomputern, die Rekonstruktion von Bilddaten durch dieses Modell läuft auf der Graka. Soweit klar? Wenn ja, dann können wir dir als nächstes versuchen zu erklären warum es vollkommen schwachsinnig wäre das Training des Modells auf der Graka im Rechner des Users rechnen zu lassen.

drdope
2018-08-23, 21:26:57
Ich muss gerade darüber nachdenken, dass sich die GPU dann ja eigentlich verhält wie viele Studenten seit Bachelor... Auswendig lernen statt selber denken, und das pro Spiel :D.

Wenn das zu einem guten Ergebnis führt (Grad der Zielerreichung = 2), ist das eine passable Strategie, um den Level zu schaffen...

Armaq
2018-08-23, 21:59:51
Es ist ja auch total clever ein Spiel "durchzurechnen", um aus diesem Lerneffekt 1 Mio. Spieler mit mehr Frames / besserem Bild zu versorgen. Dagegen kann man ja gar nichts haben, aber man kann es scheiße finden, dass das ggf. von nvidia nicht ganz so gemeinnützig eingesetzt wird.

Ich frag mich halt wirklich, was ist davon wirklich ein Fortschritt und was ist konstruiert, um besser verkaufen zu können.

Fragman
2018-08-23, 22:16:59
nvidia (und nicht nur die) testet ai schon seit einiger zeit im renderingbereich, einfach um leistung zu gewinnen und rechenpower zu sparen. das ganze kommt jetzt fuer gamer. warum? weil nvidia hardware verkaufen will, deshalb investieren sie soviel in r&d. hardware verkauft man eben am besten, wenn man gleich die software mitliefert. deren ai gamingzeugs ist doch auch die beste werbung fuer deren professionellen bereich, so liefert man gleich anwendungsbeispiele. die profis kaufen die quadros und schon weiss man, warum nvidia das macht. fuer die gamer faellt nebenher noch was brauchbares ab, das zu besserer performance und oder qualitaet fuehrt. amd wird da nachziehen muessen (oder macht es intern schon) und dann haben alle gamer ueber kurz oder lang etwas davon.

Fliwatut
2018-08-23, 22:25:45
Nvidia lagert hier praktisch rechenintensive Sachen in der eigenen Cloud aus.
Nein. Nvidia trainiert auf ihrem Supercomputer ein neuronales Netz, Kanten zu finden und sie zu glätten, weiter kann dieses neuronale Netz Bilder von einer kleinen Auflösung so gut wie ohne Qualitätsverlust auf eine hohe Auflösung hoch skalieren. Dieses neuronale Netz kannst du dir dann von Nividia herunter laden und mit den Tensor Cores deiner RTX ausführen lassen.
Den Download könnte sich Nvidia natürlich irgendwann mal bezahlen lassen oder es auch als Abo anbieten.

Fliwatut
2018-08-23, 22:26:54
Was bedeutet denn DLSS 2x? Ich rendere zunächst das Bild in der halben Ziel-Auflösung und lasse das eintrainierte, neuronale Netz das Upsampling auf Zielauflösung inkl. AA durchführen?
Genau so verstehe ich das auch.

Locuza
2018-08-23, 22:28:23
https://abload.de/img/nvidia-turing-l1-l2-cf3fps.jpg
https://videocardz.com/newz/nvidia-upgrades-l1-and-l2-caches-for-turing

Etwas weniger unified Cache (96KB vs. 128KB) im Vergleich zu Volta, aber nach wie ein mächtiges Upgrade im Vergleich zu Pascal.
AMD sollte indem Zug auch dringend ihre Cache-Struktur verbessern.
Deren L1$ ist gerade mal 16KB groß und hat über 110 Zyklen Latenz, Pascal liegt bei 82 und Volta bei gerade mal 28, Turing wird wohl ähnlich niedrige Latenzen wie Volta haben.

Sunrise
2018-08-23, 22:30:09
Mich würde wirklich mal interessieren, wie lange man, bzw. wieviele TFLOPS man benötigt, um ein 2D-Spiel oder Video antrainieren zu können, sodass das Ergebnis passabel (sprich: deutlich besser als Bilinear, bzw. Bicubic) ist.

Evtl. öffnet NV das ja auf den Quadros, während die Gaming-Turings lediglich vortrainierte Spiele-NNs bekommen. Das wäre zum Beispiel ein Punkt, um die Segmente zu differenzieren.

drdope
2018-08-23, 22:33:43
Ich frag mich halt wirklich, was ist davon wirklich ein Fortschritt und was ist konstruiert, um besser verkaufen zu können.

Tue mich auch schwer, daß ganze für mich subjektiv einzuordnen.


Hab einem WHQD/2560x1440/144Hz Eizo-Monitor; der realistisch betrachtet auch 11 Jahre alter Kram ist und befeuere selbigen mit einer 1080Ti...

QHD (Quad HD), WQHD (Wide Quad HD),[7] or 1440p,[8] is a display resolution of 2560 × 1440 pixels in a 16:9 aspect ratio. The name QHD reflects the fact that it has four times as many pixels as HD (720p). It is also commonly called WQHD, to emphasize it being a wide resolution, although that is technically unnecessary, since the HD resolutions are all wide. One advantage of using "WQHD" is avoiding confusion with qHD with a small q (960 × 540).

This resolution was under consideration by the ATSC in the late 1980s to become the standard HDTV format, because it is exactly 4 times the width and 3 times the height of VGA, which has the same number of lines as NTSC signals at the SDTV 4:3 aspect ratio. Pragmatic technical constraints made them choose the now well-known 16:9 formats with twice (HD) and thrice (FHD) the VGA width instead.

In October 2006, Chi Mei Optoelectronics (CMO) announced a 47-inch 1440p LCD panel to be released in Q2 2007;[9] the panel was planned to finally debut at FPD International 2008 in a form of autostereoscopic 3D display.[10] As of the end of 2013, monitors with this resolution are becoming more common. A list of monitors with QHD resolution is available.

--> Quelle (https://en.wikipedia.org/wiki/Graphics_display_resolution#2560_×_1440_(QHD,_WQHD))

Wenn man immer höhere Auflösungen mit möglichst konstant hohen FPS befeuern will, braucht man für 4k/8k und evtl. VR/AR einfach pervers viel mehr Leistung in Hardware...
Wie würdest du ein Produkt bewerben, daß dies zwar subjektiv schafft, aber an "veralteten" Benchmarks scheitert?

Das ist imho die Krux von KI/AI (die /s zig theoretische tausende Erfahrungen sammeln/machen kann) -> wenn wir Schnittstellen einbauen, die uns Menschen erlauben nachzuvollziehen, warum die KI/AI sich entscheidet, bauen wir selbst krasse Bremsen in die KI/AI.

Actionhank
2018-08-23, 22:34:24
Es ist ja auch total clever ein Spiel "durchzurechnen", um aus diesem Lerneffekt 1 Mio. Spieler mit mehr Frames / besserem Bild zu versorgen. Dagegen kann man ja gar nichts haben, aber man kann es scheiße finden, dass das ggf. von nvidia nicht ganz so gemeinnützig eingesetzt wird.

Ich frag mich halt wirklich, was ist davon wirklich ein Fortschritt und was ist konstruiert, um besser verkaufen zu können.
Ich frage mich, ob es ein trainiertes Netz pro Spiel geben muss oder wie stark das Netz generalsieren kann. Kann mir zumindest vorstellen, dass ein Netz für eine SpaceSim und World of Warcraft schwer ist. Aber kenne mich zu wenig mit Computergrafik aus.

Platos
2018-08-23, 22:39:29
Ich frage mich, ob es ein trainiertes Netz pro Spiel geben muss oder wie stark das Netz generalsieren kann. Kann mir zumindest vorstellen, dass ein Netz für eine SpaceSim und World of Warcraft schwer ist. Aber kenne mich zu wenig mit Computergrafik aus.

Vlt. pro Engine

Armaq
2018-08-23, 22:44:07
Hm, ich hab auch zu wenig Ahnung, um zu beurteilen wieviel nvidia im Rechenzentrum machen muss.

Habe über die Arbeit mitbekommen, wie mühsam es ist einem Auto beizubringen was Verkehrsschilder, Passanten und Bürgersteige sind und dass die Fehler manuell durch Menschen korrigiert werden (Fehler in Simulationen wohlgemerkt). Das Ganze sind von Hand aufgenommen Fahrvideos und da wird jeder fucking frame markiert ... Die QA ist abartig aufwendig, wenn nvidia genau das auch für ein Spiel machen muss, dann wundert mich der Preis der Karten überhaupt nicht.

Einer spielt (alle) Szenen eines Spiels, der Algo checkt es und Fehler werden dann manuell korrigiert. Sounds like hell.

Dural
2018-08-23, 22:49:10
https://cdn.videocardz.com/1/2018/08/NVIDIA-Turing-L1-L2-Cache.jpg
https://videocardz.com/newz/nvidia-upgrades-l1-and-l2-caches-for-turing

Etwas weniger unified Cache (96KB vs. 128KB) im Vergleich zu Volta, aber nach wie ein mächtiges Upgrade im Vergleich zu Pascal.
AMD sollte indem Zug auch dringend ihre Cache-Struktur verbessern.
Deren L1$ ist gerade mal 16KB groß und hat über 110 Zyklen Latenz, Pascal liegt bei 82 und Volta bei gerade mal 28, Turing wird wohl ähnlich niedrige Latenzen wie Volta haben.

Cache ist amd lieblings thema, auch bei den cpus. Das liegt ihnen... nicht ;)

Troyan
2018-08-23, 23:09:59
Hm, ich hab auch zu wenig Ahnung, um zu beurteilen wieviel nvidia im Rechenzentrum machen muss.

Habe über die Arbeit mitbekommen, wie mühsam es ist einem Auto beizubringen was Verkehrsschilder, Passanten und Bürgersteige sind und dass die Fehler manuell durch Menschen korrigiert werden (Fehler in Simulationen wohlgemerkt). Das Ganze sind von Hand aufgenommen Fahrvideos und da wird jeder fucking frame markiert ... Die QA ist abartig aufwendig, wenn nvidia genau das auch für ein Spiel machen muss, dann wundert mich der Preis der Karten überhaupt nicht.

Einer spielt (alle) Szenen eines Spiels, der Algo checkt es und Fehler werden dann manuell korrigiert. Sounds like hell.

Naja, benutzt ihr einen Rechner mit Petaflops? ;D
nVidia hat einen 10 Petaflop Supercomputer im Keller stehen. Das macht es DLSS ein bisschen einfacher.

Locuza
2018-08-23, 23:27:40
Cache ist amd lieblings thema, auch bei den cpus. Das liegt ihnen... nicht ;)
Zen hat gute L1/L2-Cache-Größen und Latenzen, der L3$ läuft auch schnell, aber da hat sich eben AMD für ihre Kompromisslösung entschieden mit guten lokalen Latenzen, die abfallen wenn mehr als 4 Kerne Daten austauschen möchten.
Bei GCN sind die Caches im Vergleich zu Pascal auch nicht schlecht, der L1$ scheint etwas langsamer zu sein und die Größe ist etwas kleiner, aber es ist nicht dramatisch.
Die L2$-Latenz ist ähnlich.
https://abload.de/img/cachehitf3euj.jpg
Engine Optimization Hot Lap:
https://gpuopen.com/gdc-2018-presentation-links/
https://abload.de/img/cachehit2madds.jpg
https://arxiv.org/pdf/1804.06826.pdf

Nur Volta/Turing machen einen massiven Sprung nach vorne, was mögliche L1$-Größe, Bandbreite und Latenz betrifft.

AMD muss sich da auch etwas einfallen lassen.
Ich fürchte aber Navi wird wieder das typische GCN-Design aufweisen.

Skysnake
2018-08-23, 23:31:28
Also bei Grafik ist es doch total simpel die Referenz Daten zu bekommen. Einfach mit hoher Auflösung die frames Rendern und gut ist da ist genau 0 Interaktion oder Aufwand nötig für die Generierung der Trainingsdaten.

Man muss nur genug unterschiedlichen content haben damit man nicht in die falsche Richtung trainiert. Und man braucht eben auch erstmal ein Netz das für die Aufgabe geeignet ist. In diesem Fall wohl die größte Herausforderung

Raff
2018-08-23, 23:31:30
Zen hat gute L1/L2-Cache-Größen und Latenzen, der L3$ läuft auch schnell, aber da hat sich eben AMD für ihre Kompromisslösung entschieden mit guten lokalen Latenzen, die abfallen wenn mehr als 4 Kerne Daten austauschen möchten.
Bei GCN sind die Caches im Vergleich zu Pascal auch nicht schlecht, der L1$ scheint etwas langsamer zu sein und die Größe ist etwas kleiner, aber es ist nicht dramatisch.
Die L2$-Latenz ist ähnlich.
https://abload.de/img/cachehitf3euj.jpg
https://abload.de/img/cachehit2madds.jpg

Nur Volta/Turing machen einen massiven Sprung nach vorne, was mögliche L1$-Größe, Bandbreite und Latenz betrifft.

AMD muss sich da auch etwas einfallen lassen.
Ich fürchte aber Navi wird wieder das typische GCN-Design aufweisen.

Schick, aus welchem Paper ist das untere Bild? :) Kommt mir nicht bekannt vor. €dit zum Edit: Danke! :up:

Navi soll doch der GCN-Nachfolger sein. Da erwarte ich mehr als das alte Schema. Turing wendet sehr viel Fläche für die Verbesserungen auf, die fetten Caches und Logik drumherum gibt's ja nicht umsonst. Könnte AMD auch machen.

MfG,
Raff

pixeljetstream
2018-08-23, 23:38:12
Wer wissen will was die AI Algorithmen so leisten:
https://m.youtube.com/user/keeroyz
Ist ein sehr guter Kanal zu papern rund um Grafik.

Klasse Fund, Locuza. Wer sich schon immer fragte wo die Die Size von Volta so hinging. Fehlt nur dass er die Gesamtgröße des Registerfiles angibt. Damit man ne Vorstellung bekommt wieviel general purpose Speicher so ne GPU hat.

Locuza
2018-08-23, 23:44:17
[...]
Navi soll doch der GCN-Nachfolger sein. Da erwarte ich mehr als das alte Schema. Turing wendet sehr viel Fläche für die Verbesserungen auf, die fetten Caches und Logik drumherum gibt's ja nicht umsonst. Könnte AMD auch machen.

Bezogen auf Navi haben wir ja nichts Verwertbares, nur Gerüchte von dubiosen Quellen, dass Navi schon einen GCN-Nachfolger darstellt, zum anderem das Post-GCN erst 2020 kommt, was AMD eben selber als "Next-Gen" auf ihren Folien bezeichnet und laut WCCFTech den Codenamen KUMA hat(te).
Die Gerüchte von der Computex scheinen darauf zu deuten das Navi10 nur ein Mainstreamprodukt wird und ich glaube AMD würde mehr Ressourcen in ein breiteres Portfolio stecken, wenn sie was Geiles im Köcher hätten.
Entsprechend denke ich das Navi relativ klassische GCN Evolution darstellen wird und ähnlich wie im Jahr 2016 AMD nur einen Teil der Marktsegmente abdecken wird, während Turing den Rest für sich alleine haben wird.

Armaq
2018-08-23, 23:47:09
Naja, benutzt ihr einen Rechner mit Petaflops? ;D
nVidia hat einen 10 Petaflop Supercomputer im Keller stehen. Das macht es DLSS ein bisschen einfacher.
Und du denkst die Automotive Industrie hat keinen Zugriff auf sowas? Die Rohdatenmenge war einfach gewaltig und das auch nach modernen Standards. Ich hab davon nicht wirklich Ahnung, aber das sind mir bekannte Probleme bei KI/AI/Deep Learning. Ein Radfahrer mit Warnweste macht lustige Sachen mit einem autonomen Auto...

basix
2018-08-23, 23:51:16
Wer wissen will was die AI Algorithmen so leisten:
https://m.youtube.com/user/keeroyz
Ist ein sehr guter Kanal zu papern rund um Grafik.

Danke für den Link. Interessante Sachen dabei. Das ist auch geil: Rauch und Wasser-Simulation :) Ich denke AI wird ab nun immer in GPUs dabei sein. Zu gross sind die Möglichkeiten. Und für Games ist es auch egal, wenn so physikalische Dinge nicht zu 100% korrekt gerechnet sind, aber zu 98% nahe dran.
https://www.youtube.com/watch?v=iOWamCtnwTc

Troyan
2018-08-23, 23:51:22
Und du denkst die Automotive Industrie hat keinen Zugriff auf sowas? Die Rohdatenmenge war einfach gewaltig und das auch nach modernen Standards. Ich hab davon nicht wirklich Ahnung, aber das sind mir bekannte Probleme bei KI/AI/Deep Learning. Ein Radfahrer mit Warnweste macht lustige Sachen mit einem autonomen Auto...

Keine Ahnung. nVidia erlernt ihre KI in ihrer eigenen Simulation, wo man eben keinen wirklichen Menschen mehr braucht. Verstehe ich auch nicht: Fährt das Auto gegen eine Mauer, sollte die Simulation wieder von vorne beginnen...

Armaq
2018-08-23, 23:52:38
Keine Ahnung. nVidia erlernt ihre KI in ihrer eigenen Simulation, wo man eben keinen wirklichen Menschen mehr braucht. Verstehe ich auch nicht: Fährt das Auto gegen eine Mauer, sollte die Simulation wieder von vorne beginnen...
Nein, dann wird manuell eingegriffen. Zumindest beim "Fahrtraining".

mczak
2018-08-24, 00:07:59
Turing wendet sehr viel Fläche für die Verbesserungen auf, die fetten Caches und Logik drumherum gibt's ja nicht umsonst.
Würde mich schon interessieren wieviel das "sehr viel Fläche" ist. Leider gibt's keine Turing (bzw. Volta, scheint ja quasi identisch zu sein) Chips die man gut direkt mit Pascal vergleichen kann (wegen dem zusätzlichen Kram).

Locuza
2018-08-24, 00:08:02
[...]
Klasse Fund, Locuza. Wer sich schon immer fragte wo die Die Size von Volta so hinging. Fehlt nur dass er die Gesamtgröße des Registerfiles angibt. Damit man ne Vorstellung bekommt wieviel general purpose Speicher so ne GPU hat.
256KB pro 64 ALUs, 5120 ALUs insgesamt, 80 x 256KB = 20,48MB?

PHuV
2018-08-24, 00:09:38
Und du denkst die Automotive Industrie hat keinen Zugriff auf sowas? Die Rohdatenmenge war einfach gewaltig und das auch nach modernen Standards. Ich hab davon nicht wirklich Ahnung, aber das sind mir bekannte Probleme bei KI/AI/Deep Learning. Ein Radfahrer mit Warnweste macht lustige Sachen mit einem autonomen Auto...
Ihr werdet es nicht glauben, viele aktive KI-Anwendungen mit DeepLearing findet man aktuell bei Handel und Co. Ich darf hier aber nicht mehr erzählen, Ihr würdet Euch wundern, wofür. Und die Rohdatenmenge ist enorm. Wir sprechen von RAM im mehrfachen 10er TB-Bereich und entsprechende Daten mit 100er PB Bereich.

Outsider82
2018-08-24, 00:11:25
Costum PCB´s Innerhalb der ersten 1 - 3 Monate nach dem 20.9 ? Vorher wohl nur Standart PCB´s mit Costum Kühler.

https://www.youtube.com/watch?v=fRk2ItughHI&t=1s Min 4:57

Armaq
2018-08-24, 00:12:33
Ihr werdet es nicht glauben, viele aktive KI-Anwendungen mit DeepLearing findet man aktuell bei Handel und Co. Ich darf hier aber nicht mehr erzählen, Ihr würdet Euch wundern, wofür. Und die Rohdatenmenge ist enorm. Wir sprechen von RAM im mehrfachen 10er TB-Bereich und entsprechende Daten mit 100er PB Bereich.
Das ist mir klar. Otto Gruppe also. ;)

Troyan
2018-08-24, 00:13:34
Laut nVidia kommen die Custom-Karten ebenfalls am 20.09. Und die FE gibt es nur von nVidia.

PHuV
2018-08-24, 00:26:20
Das ist mir klar. Otto Gruppe also. ;)
Ich weiß von nix. :whistle: Nur mal so hypothetisch: Die verkaufen doch mittlerweile auch PC-Zubehör. Da könnten sie ja theoretisch gleich ein paar Turing-Karten für DL für sich abzweigen? :tongue:

Outsider82
2018-08-24, 00:27:49
Costums ja .. nämlich mit Costum Kühler aber Standart PCB´s .. Costum PCBs wohl wie gesagt erst 1 - 3 Monate nach Launch. Sagt er ja auch im Video.
Es war zwar bei Pascale auch so das zb meine 1080 Xtream Später kamm als die Standart Costums wie zb die Gigabyte 1080 G1 Gaming. Aber ich mein da ging es nur um ein paar Wochen verzögerung nicht aber über Monate. Damals kamm nur die Galax HOF und die EVGA recht spät und eventuell noch die eine oder andere. Bei EVGA war erst die FTW da dann einige Wochen Später erst die Classified

DoomGuy
2018-08-24, 00:34:46
Ich weiß von nix. :whistle: Nur mal so hypothetisch: Die verkaufen doch mittlerweile auch PC-Zubehör. Da könnten sie ja theoretisch gleich ein paar Turing-Karten für DL für sich abzweigen? :tongue:

Du wirst von nichts kritischem wissen, was von Belang ist, da sich dein Arbeitgeber garantiert so dermaßen für dein Gepfeife interessien würde - wenn es so wäre, dass du etwas weißt :cool:

just kiddin :D

pixeljetstream
2018-08-24, 01:25:27
256KB pro 64 ALUs, 5120 ALUs insgesamt, 80 x 256KB = 20,48MB?

Ja wobei der volle Volta Chip ja 84 SMs hat. pro SM 256 KB register file und 128 KB L1/Smem... Also allein 32 MB für SMs + 6 MB L2. Wobei ich nicht weiß wie viel Fläche sowas schluckt.

][immy
2018-08-24, 01:28:52
Mhh hat die neue aa technik jetzt einzug erhalten weil das ray tracing aktuell noch zu lahm für hohe auflösungen ist?

Die battlefield demo ist aber leicht irreführend, die mit dem feuerstrahl. Die spieglung und das licht vom strahl hätte man doch voher gefakt. In der demo fehlt ohne das ray tracing einfach der effekt, als hätte man den vergleich fake vs einigermaßen korrekt berechnet scheuen wollen.

Troyan
2018-08-24, 01:32:04
Ja, die haben den Feuerstrahl nicht auf die Fenster geklebt...

Da ist nichts gefakt, da die Lichtquelle nicht im Bild ist. Wie man am Auto sieht, spiegelt sie, sobald der Bereich entsprechend sichtbar wird: https://youtu.be/WoQr0k2IA9A?t=118

Screemer
2018-08-24, 01:37:48
Die spiegelt sich im Auto sogar an Stellen an denen sie sich eigentlich gar nicht spiegeln kann. Scheinwerfer vorne als bsp.

Freestaler
2018-08-24, 01:43:52
[immy;11779763']Mhh hat die neue aa technik jetzt einzug erhalten weil das ray tracing aktuell noch zu lahm für hohe auflösungen ist?

Die battlefield demo ist aber leicht irreführend, die mit dem feuerstrahl. Die spieglung und das licht vom strahl hätte man doch voher gefakt. In der demo fehlt ohne das ray tracing einfach der effekt, als hätte man den vergleich fake vs einigermaßen korrekt berechnet scheuen wollen.

Genau auf das warte ich auch. Vergleich übliche Spiehelung/Beleuchtung gegen Raytracing. Nicht kacke ohne gegen raytracing.

Ps: ich denke mit Fakes meint ][immy die heutigen übliche fake zur darstellung nicht korrekter reflektionen. Gibt schon jetzt reflektionen.

][immy
2018-08-24, 01:46:11
Ja, die haben den Feuerstrahl nicht auf die Fenster geklebt...

Da ist nichts gefakt, da die Lichtquelle nicht im Bild ist. Wie man am Auto sieht, spiegelt sie, sobald der Bereich entsprechend sichtbar wird: <a href="https://youtu.be/WoQr0k2IA9A?t=118" target="_blank">https://youtu.be/WoQr0k2IA9A?t=118</a><br />
Mir ist klar das man das mit ray tracing nicht faken müsste (wenn man zumindest nicht optimiert) mir ging es aber darum das der effekt in der szene ohne rtx nicht mal gefaket wurde. Soweit ich mich erinnere haben in den letzten Jahren auch explosionen etc lichtspuren hinterlassen die nicht im direkt bild waren. Klar war das voher gefaked, aber mir geht es darum das hier sogar der fake weggelassen wurde wenn rtx nicht genutzt wurde. Das schönt natürlich das gezeigte endergebnis.

Screemer
2018-08-24, 02:16:24
Diskutiere bitte nicht mit ihm darüber, das hat den thread schon einmal um locker 20-30 Seiten verlängert.

Rampage 2
2018-08-24, 02:19:59
2080 Ti from $999
2080 from $699
2070 from $499


Danke AMD!!! :mad:


Zur GTX 2080:

Es ist das allererste Mal bei Nvidia, dass nicht nur der Big-Chip (GT102), sondern auch der MidRange-Chip (GT104) teildeaktiviert veröffentlicht wird - 2944 SPs (GTX 2080) statt 3072 SPs (GT104-Vollausbau) !

Ist dieser Umstand dem riesigen Die-Space (~ 550mm^2) geschuldet?


Und noch wichtiger: wie wahrscheinlich ist es, dass Nvidia den GT104 später doch noch im Vollausbau veröffentlichen wird (etwa eine "GTX 2085") ? So wie damals bei Fermi... (GTX 480 -> GTX 580)


Zu den Turing-Chips allgemein:

Lässt sich schon irgendwas zur Taktbarkeit/OC-Potential von Turing sagen? Ist immerhin im verbesserten 12nm-Prozess gefertigt - da sollten 5-10% höhere Taktraten (bis zu 2.3 GHz OC) eigentlich nicht so unrealistisch sein, zumal die Zahl der Recheneinheiten nur wenig erhöht wurde...

R2

Godmode
2018-08-24, 02:22:45
Ja das liegt ziemlich sicher am großen Die. Eventuell sehen wir noch eine Titan, aber eigentlich müsste diese ja früher kommen, weil je weiter die Zeit fortschreitet, desto eher warten die Kunden auf die nächste Generation.

Rampage 2
2018-08-24, 02:24:09
Ja das liegt ziemlich sicher am großen Die. Eventuell sehen wir noch eine Titan, aber eigentlich müsste diese ja früher kommen, weil je weiter die Zeit fortschreitet, desto eher warten die Kunden auf die nächste Generation.

Die Titan ist GT102, nicht GT104 - ich meinte GT104;)

R2

=Floi=
2018-08-24, 04:36:03
Die geschichte, um volta und turing wäre mal interessant.
Warum man sich so und so entschieden hat. Warum hat man noch volta so gebracht und nicht gleich turing. Das ginge auch umgedreht.
Hat man hier echt einfach zu viel geld für solche spässe?!

Ging es bei volta nur um maximale rechenleistung?

Kriegsgeier
2018-08-24, 06:18:55
Der Igor hat sich gemeldet:

Exakt so sieht es aus.

Ich habe Nvidia auch explizit nach dem gefragt, was raufgeladen wird. Es werden jedenfalls keine Bilder oder Screenshots raufgeladen (falls überhaupt) und fast alles passiert eh über den Treiber und die Spieledateien. Der Rest kommt irgendwann im Detail als Whitepaper. DLSS funktioniert beim Spielen auch offline.

Die Präse war sehr selektiv, das schrieb ich ja selbst. Aber rein bei der Summe der Steigerung von Shader- und Speicher-Performace sind 40 bis 50% in der Theorie sicher drin. Zu den Taktraten darf ich noch nichts schreiben, aber ich bin mir sicher, da geht so einiges. ;)


Quelle: https://www.tomshw.de/community/threads/nvidia-%C3%A4u%C3%9Fert-sich-erstmals-selbst-zur-performance-der-geforce-rtx-2080.257/page-2#post-1834

Kriegsgeier
2018-08-24, 06:24:32
Und weiter vom Igor:

"Ich denke mal, Du wirst damit leben können. Ich darf noch nichts sagen, aber mein SLI fliegt aus dem Gaming Table, Wasserblock ist bestellt. Wird kein Verlust"

Jetzt müsste mal wissen was der Igor für ein SLI-Gespann hat ;)

Godmode
2018-08-24, 06:25:54
Die geschichte, um volta und turing wäre mal interessant.
Warum man sich so und so entschieden hat. Warum hat man noch volta so gebracht und nicht gleich turing. Das ginge auch umgedreht.
Hat man hier echt einfach zu viel geld für solche spässe?!

Ging es bei volta nur um maximale rechenleistung?

Eventuell hängt das ja mit den Supercomputing-Deals zusammen.

Kriegsgeier
2018-08-24, 06:30:43
Neues zum Cash vom Turing
https://videocardz.com/newz/nvidia-upgrades-l1-and-l2-caches-for-turing

Und manche fragen sich woher die Architekturverbesserungen her kommen:
„For Turing NVIDIA doubled the bandwidth for the L1 cache. Architectural design changes improved the latency and capacity of L1 cache, which is now 2.7 times as big as Pascal’s.

The L2 cache has been upgraded to 6MB, which is 3MB more than Pascal.

This slide was presented at Editors’ Day yesterday in Cologne. You are not supposed to see it till September 14, so don’t tell anyone.“

GSXR-1000
2018-08-24, 07:58:32
Die spiegelt sich im Auto sogar an Stellen an denen sie sich eigentlich gar nicht spiegeln kann. Scheinwerfer vorne als bsp.
Wie Heise schon eindeutig aufgezeigt hatte (seltsamerweise eine der NDA verweigerer... ein Schelm der böses dabei denkt).
Offensichtlich ist es so, das zwar bestimmte Effekte gezeigt werden, diese aber eben nicht (alle) über RT "korrekt" berechnet werden, sondern eben teilweise auch gefaked sind, wie es bisher auch war. Nachweise hat Heise gebracht (Geometrie kann so einfach sein). Leute wie Troyan nur werden solche simplen Fakten immer ignorieren und weiter vom "next big thing" reden.
Im übrigen würde das auch den tatsächlichen Performance einbruch bei RT on erklären, wenn nämlich der tatsächlich RT berechnete Anteil in wirklichkeit deutlich niedriger ist als suggeriert.

y33H@
2018-08-24, 08:05:10
Du meinst jemand im Heise Forum hat das behauptet ...

Timbaloo
2018-08-24, 08:32:15
Du meinst jemand im Heise Forum hat das behauptet ...
Sei still du von NVidia kontrollierter NDA-Unterschreiber!

Spasstiger
2018-08-24, 08:33:01
Es zeichnet sich ab, dass die RTX 2080 FE mit konventionellem Rasterizing ca. so schnell wie eine GTX 1080 Ti bis in Einzelfällen max. 15% schneller sein wird bei höherem Preispunkt und weniger Grafikspeicher.

Die RTX 2080 Ti FE kommt wohl 35% bis in Einzelfällen 55% oberhalb der GTX 1080 Ti raus.

Und die RTX 2070 wird wohl 15% langsamer bis in Einzelfällen gleich schnell wie die GTX 1080 Ti bei etwas niedrigerem Preispunkt, aber weniger Grafikspeicher sein.

Imo können sich 1080-Ti-Besitzer entspannt zurücklehnen und die Entwicklung des Marktes und der Spiele hinsichtlich Raytracing beobachten.

MadManniMan
2018-08-24, 08:37:00
Wie Heise schon eindeutig aufgezeigt hatte (seltsamerweise eine der NDA verweigerer... ein Schelm der böses dabei denkt).


Link please?

dargo
2018-08-24, 08:43:30
Es zeichnet sich ab, dass die RTX 2080 FE mit konventionellem Rasterizing ca. so schnell wie eine GTX 1080 Ti bis in Einzelfällen max. 15% schneller sein wird bei höherem Preispunkt und weniger Grafikspeicher.

Die RTX 2080 Ti FE kommt wohl 35% bis in Einzelfällen 55% oberhalb der GTX 1080 Ti raus.

Bitte dabei nicht vergessen, dass die FE RTX Karten einen besseren Kühler haben und auch noch overclocked sind inkl. leicht höherem PT-Limit. Ergo sollten die zumindest nicht ins TT laufen, geschicktes Marketing. :wink:

GSXR-1000
2018-08-24, 08:52:10
Du meinst jemand im Heise Forum hat das behauptet ...

Yo. Dort wo sich die NDA Anarchisten tummeln.
Nur sehr schoen und valide determiniert.
Egal wie sich ein Magazin schimpft: die mathematik luegt nicht. Es gibt bei der schattendarstellung geometrisch nur ein richtig oder falsch.
Ein bisschen richtig oder bisschen falsch gibts nicht.
Schwarz oder weiss. Ebensolches gilt fuer spiegelungen. Gerade in diesem fall ist die zugrundeliegende mathematik sogar noch sehr simpel.
Und genau dieses argument wird ja immer wieder gebracht um das "next big thing" zu hypen: uns wird erzaehlt, das es uns "umhauen" werde, wenn wir das erste mal dann "echte korrekte" schatten und spiegelungen saehen, vergleichbar mit dem ersten erlebnis mit echten 3d beschleunigern.
Das mag ja sogar sein, ich kann das nicht beurteilen, da ich nun nie der schattenfetischist war und diese option immer als erstes heruntergeschaltet habe, wenn es performance engpaesse gab, einfach weil mir das im spiel eh kaum auffaellt, aber dieses aha erlebnis, mathematisch korrekter schatten und spiegelungen wird uns diese nv generation offensichtlich nicht liefern.
Was nicht schlimm waere, weil andere das auch nicht tun, nur versprechen die es eben auch nicht explizit...

SKYNET
2018-08-24, 09:12:28
Und weiter vom Igor:

"Ich denke mal, Du wirst damit leben können. Ich darf noch nichts sagen, aber mein SLI fliegt aus dem Gaming Table, Wasserblock ist bestellt. Wird kein Verlust"

Jetzt müsste mal wissen was der Igor für ein SLI-Gespann hat ;)

2x 1080

MadManniMan
2018-08-24, 09:17:18
Yo. Dort wo sich die NDA Anarchisten tummeln.
Nur sehr schoen und valide determiniert.
Egal wie sich ein Magazin schimpft: die mathematik luegt nicht. Es gibt bei der schattendarstellung geometrisch nur ein richtig oder falsch.
Ein bisschen richtig oder bisschen falsch gibts nicht.
Schwarz oder weiss. Ebensolches gilt fuer spiegelungen. Gerade in diesem fall ist die zugrundeliegende mathematik sogar noch sehr simpel.
Und genau dieses argument wird ja immer wieder gebracht um das "next big thing" zu hypen: uns wird erzaehlt, das es uns "umhauen" werde, wenn wir das erste mal dann "echte korrekte" schatten und spiegelungen saehen, vergleichbar mit dem ersten erlebnis mit echten 3d beschleunigern.
Das mag ja sogar sein, ich kann das nicht beurteilen, da ich nun nie der schattenfetischist war und diese option immer als erstes heruntergeschaltet habe, wenn es performance engpaesse gab, einfach weil mir das im spiel eh kaum auffaellt, aber dieses aha erlebnis, mathematisch korrekter schatten und spiegelungen wird uns diese nv generation offensichtlich nicht liefern.
Was nicht schlimm waere, weil andere das auch nicht tun, nur versprechen die es eben auch nicht explizit...

Nochmal: Link?

Ich hab jetzt zumindest die Bilder gefunden und kann es zum Teil nachvollziehen. Aber von Fake würde ich nicht sprechen, sondern von fehlender Sichtbarkeitsprüfung für "Eigengeometrie" - wenn man den Scheinwerfer als einzelnes Objekt betrachtet.

Könnte sein, dass das Leistung spart.

Rancor
2018-08-24, 09:23:06
https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-offizieller-vergleich-mit-der-geforce-gtx-1080,3333813.html

Sollte das stimmen, dann kann man die Generation getrost überspringen. Wer will denn sowas?

Screemer
2018-08-24, 09:25:33
@gsrx: auch wenn immer noch gefaked werden sollte, dann ist rt und ai auf jeden Fall das next big thing. Ob das nun unterstützend oder pur eingesetzt wird ist mir ziemlich Latte. Wichtig ist, dass spielbare frameraten dabei rum kommen und keine idiotischen vergleiche gezogen werde a la RT ON "wir haben RT Spiegelungen und Schatten" und RT OFF "wir haben gar keine Spiegelungen und Schatten auch wenn wir die seit über nen Jahrzehnt mit anderen Renderverfahren dargestellt haben". Ich bin davon überzeugt, dass sich vor allem ai in so vielen Feldern in Games einsetzen lässt und wir da verblüffende Ergebnisse sehen werde. Von Rauch über Flüssigkeiten hin zu Gegnerverhalten und Gameplayphysik ist da das Feld riesig. Die Sachen wären mir auch wichtiger als korrekte Schatten/spiegelungen.

https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-offizieller-vergleich-mit-der-geforce-gtx-1080,3333813.html

Sollte das stimmen, dann kann man die Generation getrost überspringen. Wer will denn sowas?
Ich glaube, dass das sehr darauf ankommt wofür man es einsetzt. Für geiles AO könnte es ja reichen, kommen dann aber Schatten und Spiegelungen dazu, dann reicht's vielleicht nicht mehr oder man muss da auf Qualität verzichten.

pilzsammler2002
2018-08-24, 09:27:46
Sollte das stimmen, dann kann man die Generation getrost überspringen. Wer will denn sowas?
Kann man eigentlich eh da 7nm vor der Tür steht und das wird je nach Erfolg von Turing auch nicht billig :freak:

dildo4u
2018-08-24, 09:27:50
https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-offizieller-vergleich-mit-der-geforce-gtx-1080,3333813.html

Sollte das stimmen, dann kann man die Generation getrost überspringen. Wer will denn sowas?
Kommt drauf an wie Potent DLSS ist es gibt kein Grund das Beides nicht zu Kombinieren.

Cubitus
2018-08-24, 09:34:26
Nochmal: Link?

Ich hab jetzt zumindest die Bilder gefunden und kann es zum Teil nachvollziehen. Aber von Fake würde ich nicht sprechen, sondern von fehlender Sichtbarkeitsprüfung für "Eigengeometrie" - wenn man den Scheinwerfer als einzelnes Objekt betrachtet.

Könnte sein, dass das Leistung spart.


Darf nochmal an die 970er Affäre erinnern, gar nicht solange her ;)
Ich bin zwar selbst seit Jahren Nvidia User, aber bei deren Aussagen kann man ruhig skeptisch sein...

Armaq
2018-08-24, 09:36:16
Ich werde mit mehr Info skeptisch. Scheint gameworks Niveau zu erreichen. Echte Vorteile iS. von einfach und easy werden kolportiert, aber wenn Spiele sowas wie Autofenster in transparent nur noch mit RTX darstellen, ist es ein Verlust. Proprietär ist es eh.

BigKid
2018-08-24, 09:36:17
Wenn ich da jetzt so drüber Nachdenke... Mit DLSS machen auch die niedrigeren Speichermengen SINN ! Das DLSS in einer niedrigeren Auflösung rendert werden wird auch gleich der Speicher entlastet. Wenn DLSS seinen Job gut macht brauche ich auch keine Ultra-Hochauflösenden Texturen - auch das kann DLSS grad mit erledigen...

Und zum Thema ich würde hier nur wild rummraten: Jensen sagt selbst das zumindest für DLAA dass es NIEDRIGERER Auflösung rechnet...
Nach ziemlich genau einer Stunde - 2 mal sogar... Soweit ich das bisher gelesen habe ist DLSS und DLAA so ziemlich das gleiche...
https://youtu.be/jY28N0kv7Pk?t=3644

BigKid
2018-08-24, 09:38:29
https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-offizieller-vergleich-mit-der-geforce-gtx-1080,3333813.html

Sollte das stimmen, dann kann man die Generation getrost überspringen. Wer will denn sowas?
DLSS wirds dann richten - was glaubst du warum der Leistungssrpung mit DLSS mit Raytracing gegen Raytracing ohne DLSS so hoch ausfällt...