Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 [37] 38 39 40 41 42 43 44 45 46 47 48

BigKid
2018-09-14, 23:35:03
Leute macht euch doch nicht so fertig.
Hab kein Problem die flotte Variante als intelligentes upscaling zu bezeichnen. Genauso würde ich auch sagen dass es "schätzt", aber Spock-like halt ;)
So würde ich das auch sofort unterschreiben.
Aber genau da wo mit jemand erzählt dlss wüsste genau wie das Zielbild aussehen muss und würde das genau berechnen klappen mit die Zehnägel hoch.
Das kann man doch so nicht stehen lassen.

Digidi
2018-09-14, 23:40:06
2Laut AMD können die schon Cullen wenn nur die Eckpunkte des Dereicks bekannt sind.


Wie ist das bei Turing?

Hmmm.. Hat keiner einen Hinweis?

Megatron
2018-09-14, 23:41:26
So würde ich das auch sofort unterschreiben.
Aber genau da wo mit jemand erzählt dlss wüsste genau wie das Zielbild aussehen muss und würde das genau berechnen klappen mit die Zehnägel hoch.
Das kann man doch so nicht stehen lassen.

+1
Es sagt ja keiner,dass das Ergebnis schlecht sein muss. Spocks Schätzungen waren ja auch immer Recht genau ;)
Aber nur weil da KI dran steht, sollte man hier keine magische Wunderkiste erwarten.

Für mich sind da die RT Cores viel näher dran in Zukunft noch für das ein oder andere Aha Erlebnis zu sorgen.

iamthebear
2018-09-14, 23:45:34
Nicht vom Namen täuschen lassen. Die 2070 kostet fast so viel wie die 1080 Ti, ist fast so groß und hat fast so viele Transistoren und dass sie die 1080 Ti schlägt das ist denke ich ziemliches Wunschdenken. Nach bisherigen Leaks ist die 2080 mit einem Drittel mehr Recheneinheiten leicht über der 2080.

Was Features wie DLSS angeht so warte ich auf unabhängige Tests. Nvidia glaube ich da kein Wort. Gerade bei dem Katzenbild sieht man, dass das nicht ganz mit rechten Dingen zugehen kann.

Troyan
2018-09-14, 23:46:18
Katzenbild?

/edit: Ah, das Katzenbild. Warum nicht? Das ist DL.

MasterElwood
2018-09-14, 23:47:05
achja, was ist es dann wenn man aus einer kleiner auflösung eine grosse macht? :rolleyes:

Genau mein Punkt: wir brauchen dafür einen neuen Begriff.

Upscaling = nur ein Bild nehmen und hochskaliert (mit welchen Filtern oder Methoden auch immer - aber Ausgangsmaterial ist NUR das Bild alleine)

Superscaling (Beispiel): aus einem low res Bild UND anderen Vorgaben (Trainingsdaten, motion Vectoren und was auch immer) ein hochauflösendes Bild KOMPLETT NEU BERECHNEN.

GSXR-1000
2018-09-14, 23:48:10
DLSS schätzt nicht. DLSS weiß, wie das deutlich bessere Endresultat aussieht. DLSS erstellt dann basierend auf dem trainieren Netzwerk das Bild.
Deine Aussage revolutioniert sowohl die Mathematik, als auch die Lebenswelt jedes einzelnen.
Denn letztlich behauptest du, das eine Extrapolation (also eine statistische Hochrechnung) im Ergebnis besser und genauer sei, als die Wirklichkeit. Diese Aussage ist in jeder Hinsicht spektakulaer. Leider jedoch vollkommen absurd.

Ein mit vollkommener Genauigkeit berechnetes Bild kann (was man als "Original" bezeichnen könnte, kann niemals ungenauer oder "schlechter" sein, als eines, welches auf weniger genau berechneten Informationen in Kombination mit Extrapolation ermittelten Werten beruht.
Und zu behaupten, Extrapolation sei keine näherungsweise Schätzung, sondern die wahre Wirklichkeit, würde vielleicht einigen Politikern wie Trump gefallen, hat aber leider mit der Realität wenig zu tun.
Was DLSS tut ist eigentlich ein sehr simpler Vorgang: Man reduziert die Rechenlast indem man weniger Informationen genau berechnen laesst, und diese dann mit hochgerechneten Schätzwerten ergänzt. Was hier hochtrabend mit dem Buzzword "deep learning" bezeichnet wird, ist nichts weiter als schnöde statistik. Die Erkenntnis, das eine Hochrechnung mit steigender Datenbasis besser und genauer wird, ist nun wirklich nicht neu und hat auch eigentlich wenig mit irgendeinem spektakulären "Deep learning" prozess zu tun.
Trotzdem bleibt eine Hochrechnung das, was sie ist: Eine näherungsweise Schätzung und spekulation der Wirklichkeit. Nicht die wirklichkeit selbst.
Sollte deine obige Aussage richtig sein, ist dir der nächste Nobelpreis fuer Mathematik sicher.
Dann hast du den heiligen Gral der Mathematik gefunden. Die Möglichkeit, mit weniger verifizierter/berechneter Information die Wirklichkeit besser abzubilden, als die Wirklichkeit selbst.
Glückwunsch, der feuchte Traum jedes Mathematikers wird wahr.

-=Popeye=-
2018-09-14, 23:49:56
Wenn ich sehe was TobiWahnKenobi (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11799241#post11799241) mit einer Titan V schon im neuen Tomb Raider aufs Brett scheisst, kann man ungefähr abschätzen was Turing so leistet.

Troyan
2018-09-15, 00:02:55
Deine Aussage revolutioniert sowohl die Mathematik, als auch die Lebenswelt jedes einzelnen.
Denn letztlich behauptest du, das eine Extrapolation (also eine statistische Hochrechnung) im Ergebnis besser und genauer sei, als die Wirklichkeit. Diese Aussage ist in jeder Hinsicht spektakulaer. Leider jedoch vollkommen absurd.

Da ein Monitorbild nicht die Wirklichkeit darstellt, hast du gerade behauptet, dass ein 4K Bild nicht die Wirklichkeit sei.


Ein mit vollkommener Genauigkeit berechnetes Bild kann (was man als "Original" bezeichnen könnte, kann niemals ungenauer oder "schlechter" sein, als eines, welches auf weniger genau berechneten Informationen in Kombination mit Extrapolation ermittelten Werten beruht.

Da ein 4K Monitorbild kein "vollkommener Genauigkeit berechnetes Bild" darstelle, hast du gerade behauptet, dass ein 4K Bild kein "vollkommener Genauigkeit berechnetes Bild" sei.


Und zu behaupten, Extrapolation sei keine näherungsweise Schätzung, sondern die wahre Wirklichkeit, würde vielleicht einigen Politikern wie Trump gefallen, hat aber leider mit der Realität wenig zu tun.

Behauptet hier niemand. Im Gegensatz zu einem 4K Bild mit einem Sample pro Pixel, weiß jedoch DLSS wie ein natives 4K Bild mit 64 Samples und weiteren Informationen aussieht.


Was DLSS tut ist eigentlich ein sehr simpler Vorgang: Man reduziert die Rechenlast indem man weniger Informationen genau berechnen laesst, und diese dann mit hochgerechneten Schätzwerten ergänzt. Was hier hochtrabend mit dem Buzzword "deep learning" bezeichnet wird, ist nichts weiter als schnöde statistik. Die Erkenntnis, das eine Hochrechnung mit steigender Datenbasis besser und genauer wird, ist nun wirklich nicht neu und hat auch eigentlich wenig mit irgendeinem spektakulären "Deep learning" prozess zu tun.
Trotzdem bleibt eine Hochrechnung das, was sie ist: Eine näherungsweise Schätzung und spekulation der Wirklichkeit. Nicht die wirklichkeit selbst.
Sollte deine obige Aussage richtig sein, ist dir der nächste Nobelpreis fuer Mathematik sicher.

Da ein 4K Bild weder die Wirklichkeit wiedergibt, noch der Standard für "vollkommende" Bildqualität darstelle, ist deine Ausführung unsinnig.


Dann hast du den heiligen Gral der Mathematik gefunden. Die Möglichkeit, mit weniger verifizierter/berechneter Information die Wirklichkeit besser abzubilden, als die Wirklichkeit selbst.
Glückwunsch, der feuchte Traum jedes Mathematikers wird wahr.

So, all die Ergebnisse in Bereich DL sind fake und existieren nicht?

Naja, ich stell dich auch auf meine Ignore. So ein kompletter Unsinn, ist eigentlich reine Hetze.

Monsta
2018-09-15, 00:12:41
Was bei passiert bei DLSS wenn ich einen nicht eingelernten Kameralwinkel finde?

Wie groß werden die Trainingsdaten sein wenn da ein komplettes Spiel mit allen Variationen enthalten sein soll. Ich kann mir das schwer vorstellen.

Troyan
2018-09-15, 00:16:34
Troyan, wieviele müssen dir noch sagen das du falsch liegts und die Aussage "Dlss weiss es genau" einfach nicht stimmt?

Es ist vollkommen egal. Die, die es sagen, haben doch auch nicht verstanden, dass ein 4K Bild ebenfalls falsch ist. Nur weil viele es behaupten, macht es die Aussage nicht richtig.

Die Absurdität entsteht dann dadurch, dass Personen Dinge nicht akzeptieren können, die das Weltbild verändern. Also könnte DLSS nicht besser aussehen, weil... Ja, warum eigentlich nicht? Es gibt keine Erklärung außer "geht nicht, kann nicht möglich sein, ist ja nicht nativ 4K".

Lies dir durch, was nVidia zu DLSS schreibt. Dann versteht man, dass DLSS eben nicht gegen 4K trainiert wird. Und dann versteht man auch, dass DLSS besser aussehen kann als ein "natives" 4K Bild.

/edit: Hier ist die Präsentation von der Siggraph über DLSS - ab 12:30: http://on-demand.gputechconf.com/siggraph/2018/video/sig1814-1-aaron-lefohn-andrew-edelsten-deep-learning-rendering.html

Dort sieht man auch den Vergleich zwischen DLSS und NoAA.

Ex3cut3r
2018-09-15, 01:39:31
Troyan lasst stecken, diese Leute sind nicht gewillt etwas neues zu verstehen, oder stellen sich plötzlich vollkommen blöd, meistens sind es Leute mit einer Vega GPU oder es sind Leute mit einer Pascal GPU deren Turing zu teuer ist.

Hier zwei Beispiele, wie zwei Trolls versuchen mich dumm darzustellen:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11799783&postcount=8826
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11799786&postcount=8829

Kann kaum erwarten wenn Vega in 7nm ende 2019 kommt, ich werde da so trollen, da können sich die AMD Fans sich jetzt drauf freuen. Ansonsten können AMD User jetzt ja ihre 1070Ti Leistung mit 250W aka. Vega 64 (5,0 Sone) mit Undervolting für 1,5 Jahre weiterhin abfeiern, hat ja auch etwas =D

-=Popeye=-
2018-09-15, 01:52:35
Warum lässt du dich trollen? AMD hat zZ nichts entgegenzusetzen.

VEGA hat nachwievor mit Pascal zukämpfen.

prinz_valium
2018-09-15, 01:54:46
Ich freu mich schon auf die 21X0 oder 30X0 Serie in 7nm.
Die wird richtig reinhauen^^

Sollten die dank hoffentlich erstarktem AMD zu vernünftigen Preisen zu haben sein, werde ich da zuschlagen. Die Technik und Architektur Änderungen sind wirklich sehr zukunftsweisend und so schon lange nicht mehr da gewesen.


PCIe4, knapp 1TB Bandbreite, und noch mal 100% mehr Rechenleistung zu Turing.
Vielleicht wird es ja was :)

Ex3cut3r
2018-09-15, 01:55:47
Warum lässt du dich trollen? AMD hat zZ nichts entgegenzusetzen.

VEGA hat nachwievor mit Pascal zukämpfen.
Sag das denen, in deren Welt ist Vega 64 immer Kopf an Kopf mit einer 1080Ti, frag mich nicht wie die das sehen, aber das sagen Sie alle. Da muss irgendwie eine Realitätswahrnehmungs Störung vorhanden sein, anders kann ich mir das auch nicht erklären. :freak:

Ansonsten wird auf den Horn Wundertreiber mit nicht zivilisierten Shadern gewartet.

prinz_valium
2018-09-15, 02:34:49
https://www.youtube.com/watch?v=3C9GuizA5ks
Teardown der Founders Edition^^

https://i.imgur.com/PCHu8UH.jpg

Digidi
2018-09-15, 03:47:42
Nein. Das Eine (NVIDIA) funktioniert, das Andere (AMD) nicht. Oder wo ist die PS-API für Vega?

Die Patente auf PS hält aber AMD. Sie hatten die Idee.

@gravitationsfeld
Ist das immer noch bullshit was ich gesagt habe das Nvidia mit AI praktisch ein Upscaling des Bildes aus einer geringen Auflösung macht?

War mein Beitrag immer noch bullshit?

Reaping_Ant
2018-09-15, 03:48:17
Bevor das Halbwissen ueber Deep Learning noch mehr in persoenliche Anfeindungen ausartet, versuche ich mal ein bisschen zur Klaerung beizutragen. Vorweg, ich bin kein Experte fuer Machine Learning; habe aber schon mal eigenen ML-Code geschrieben und kenne mich sehr gut mit Statistik und Informationstheorie aus. Ich kenne die genaue Implementierung von DLSS nicht, kann mir aber vorstellen wie es in etwa funktioniert. Wenn sich jemand besser mit Machine Learning (oder DLSS im Speziellen) auskennt, moege er mich korrigieren, falls ich etwas falsches schreibe.

Kurzfassung: DLSS ist ein extrem spezialisierter (und temporaler) Upsampling-Filter. Das Resultat kann besser aussehen als ein in nativer Aufloesung berechnetes Bild, kann allerdings nie die urspruenglichen Trainingsdaten uebertreffen. Der Algorithmus "weiss" nicht, wie das hochaufloesende Bild aussehen muss, kann es allerdings in guter Naeherung rekonstruieren. Ob man das jetzt als Upsampling, Super-Upsampling, intelligentes Upsampling oder was auch immer bezeichnet ist letztlich Semantik.

Lange Version:

Im Prinzip hat GSXR-1000 schon recht, von der grundlegenden Mathematik her ist das, was als "Deep Learning" bezeichnet wird, absolut nichts Neues, sondern wendet "nur" die Grundlagen der Bayesschen Statistik an.
Allerdings, und deshalb "nur", ist es alles andere als einfach die fundamentale Mathematik in einen praktischen Algorithmus, der zuverlaessig, schnell und effizient arbeitet, umzusetzen. Das Entwickeln dieser Algorithmen, zusammen mit der gestiegenen Rechenleistung, ist der eigentliche Fortschritt, der das Feld Machine Learning (und als Unterkategorie Deep Learning) in den letzten Jahren so prominent gemacht hat.

Stellen wir uns den DLSS-Algorithmus einmal als Black Box mit zwei Eingaengen und einem Ausgang vor. In einen der Eingaenge gibt man die Eingabedaten, also das Bild in der niedrigen Aufloesung. Ohne Training kommt aus dem Ausgang dann erst mal Irgendwas raus - idealerweise hat man den Anfangszustand der Black Box schon so gewaehlt, dass dieses Irgendwas zumindest ansatzweise dem Endresultat entspricht. Nun vergleicht man das, was aus dem Ausgang kommt, mit dem gewuenschten Resultat, also dem hochaufloesenden Bild. Die Differenz aus beiden fuettert man nun in den zweiten Eingang, was dazu fuehrt, dass sich der Inhalt der Black Box aendert.

Die Kunst des Trainings liegt jetzt darin, die Aenderung der Black Box so durchzufuehren, dass die Differenz nach einem zweiten Durchlauf kleiner ausfaellt. Schafft man das, so kann man den Prozess beliebig oft wiederholen, bis die Differenz zwischen Ausgabe und gewuenschtem Resultat klein genug ist. Diesen Prozess wiederholt man jetzt mit anderen Eingabedaten und verfeinert auf diese Weise die Funktionsweise des Algorithmus immer mehr. Jetzt kann man das noch beliebig komplexer machen, indem man anstatt einzelner Bilder Sequenzen aus mehreren Bildern nimmt, die Bilder in Teilbereiche unterteilt, dem Algorithmus zusaetzlich Bewegungsdaten zur Verfuegung stellt etc. Auch die Groesse der Black Box (also des neuronalen Netzwerks) spielt natuerlich eine wichtige Rolle.

Am Ende des Trainings erhaelt man also eine Black Box, die aus einer Sequenz von Bildern mit niedriger Aufloesung eine (angenaeherte) Sequenz von Bildern mit hoeherer Aufloesung machen kann. Die Trainingsdaten (also die hochaufloesenden Bilder) sind nicht in der Black Box gespeichert, insofern "weiss" der Algorithmus nicht, wie das hochaufloesende Bild auszusehen hat. Im Endeffekt ist der DLSS Algorithmus also ein hochspezialisierter (und temporaler) Upsampling-Filter.

Das Resultat entspricht natuerlich nicht zu 100% den Bildern in der hoehren Aufloesung, dafuer muesste die Black Box unendlich gross sein und man muesste sie mit allen moeglichen Kombinationen aus hochaufloesenden Bildern trainiert haben. Man wird also im Vergleich zu den Trainingsdaten immer irgendwelche Artefakte und Ungenauigkeiten haben.
Trotzdem kann z.B. ein auf 4K hochgerechnetes 2K Bild besser aussehen als ein nativ berechnetes 4K Bild, sofern die Trainingsdaten eine noch hoehere Aufloesung hatten (also z.B. 8K oder 4K mit viel Supersampling). In wiefern das in der Praxis zutrifft, muss man abwarten.

robbitop
2018-09-15, 06:03:01
Somit dürfte eine 2070 oc 1080ti fe leistung haben.

Einfach nur krass wie nv im praktisch selben herstellungsprozess gezaubert hat.
Naja so krass ist das nicht. Sind halt riesen dice. Maxwell beachte deutlich mehr Leistung ggü Kepler bei gleichem Prozess. Laut Leaks ist die tu102 nur in etw 40-50% schneller als gp102.

Edgecrusher86
2018-09-15, 07:37:59
NVIDIA Reviewer's Guide - Benchmarks 4K SDR (https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled) - X299 Rampage VI Apex, Core i9-7900X 3.3 GHz, Corsair 16GB DDR4 (no frequency specified), Windows 10 (v1803), NVIDIA 411.38 drivers.


BATTLEFIELD 1
RTX 2080 Ti - 89 fps AVG
GTX 1080 Ti - 60 fps AVG
+48,3%
--------------------
RTX 2080 - 72 fps AVG
GTX 1080 - 52 fps AVG
+ 38,5%
--------------------
RTX 2080 Ti - 89 fps AVG
RTX 2080 - 72 fps AVG
+ 23,6%


F1 2018
RTX 2080 Ti - 91 fps AVG
GTX 1080 Ti - 63 fps AVG
+ 44%
--------------------
RTX 2080 - 72 fps AVG
GTX 1080 - 52 fps AVG
+ 38,5%
--------------------
RTX 2080 Ti - 91 fps AVG
RTX 2080 - 72 fps AVG
+ 26,4%




Call OF DUTY WWII
RTX 2080 Ti - 139 fps AVG
GTX 1080 Ti - 91 fps AVG
+ 52,7%
--------------------
RTX 2080 - 104 fps AVG
GTX 1080 - 66 fps AVG
+ 57,6%
--------------------
RTX 2080 Ti - 139 fps AVG
RTX 2080 - 104 fps AVG
+ 33,7%



HITMAN
RTX 2080 Ti - 91 fps AVG
GTX 1080 Ti - 72 fps AVG
+ 26,4%
--------------------
RTX 2080 - 78 fps AVG
GTX 1080 - 56 fps AVG
+ 39,3%
--------------------
RTX 2080 Ti - 91 fps AVG
RTX 2080 - 78 fps AVG
+ 16,7%



MASS EFFECT: ANDROMEDA
RTX 2080 Ti - 61 fps AVG
GTX 1080 Ti - 43 fps AVG
+ 41,9%
--------------------
RTX 2080 - 51 fps AVG
GTX 1080 - 36 fps AVG
+ 41,7%
--------------------
RTX 2080 Ti - 61 fps AVG
RTX 2080 - 51 fps AVG
+ 19,6%



MIDDLE-EARTH: SHADOW OF WAR
RTX 2080 Ti - 67 fps AVG
GTX 1080 Ti - 47 fps AVG
+ 42,6%
--------------------
RTX 2080 - 53 fps AVG
GTX 1080 - 37 fps AVG
+ 43,2%
--------------------
RTX 2080 Ti - 67 fps AVG
RTX 2080 - 53 fps AVG
+ 26,4%



STAR WARS: BATTLEFRONT II
RTX 2080 Ti - 86 fps AVG
GTX 1080 Ti - 60 fps AVG
+ 43,3%
--------------------
RTX 2080 - 66 fps AVG
GTX 1080 - 52 fps AVG
+ 26,9%
--------------------
RTX 2080 Ti - 86 fps AVG
RTX 2080 - 66 fps AVG
+ 30,3%




PLAYERUNKNOWN'S BATTLEGROUND
RTX 2080 Ti - 79 fps AVG
GTX 1080 Ti - 58 fps AVG
+ 36,2%
--------------------
RTX 2080 - 62 fps AVG
GTX 1080 - 46 fps AVG
+ 34,8%
--------------------
RTX 2080 Ti - 79 fps AVG
RTX 2080 - 62 fps AVG
+ 27,4%



RAINBOW SIX SIEGE
RTX 2080 Ti - 154 fps AVG
GTX 1080 Ti - 103 fps AVG
+ 48,5%
--------------------
RTX 2080 - 123 fps AVG
GTX 1080 - 79 fps AVG
+ 55,7%
--------------------
RTX 2080 Ti - 154 fps AVG
RTX 2080 - 123 fps AVG
+ 25,2%



SHADOW OF THE TOMB RAIDER
RTX 2080 Ti - 59 fps AVG
GTX 1080 Ti - 43 fps AVG
+ 37,2%
--------------------
RTX 2080 - 47 fps AVG
GTX 1080 - 32 fps AVG
+ 46,9%
--------------------
RTX 2080 Ti - 59 fps AVG
RTX 2080 - 47 fps AVG
+ 25,5%



THE WITCHER III
RTX 2080 Ti - 78 fps AVG
GTX 1080 Ti - 57 fps AVG
+ 36,8%
--------------------
RTX 2080 - 62 fps AVG
GTX 1080 - 43 fps AVG
+ 44,2%
--------------------
RTX 2080 Ti - 78 fps AVG
RTX 2080 - 62 fps AVG
+ 25,8%



WOLFENSTEIN II:THE NEW COLOSSUS
RTX 2080 Ti - 108 fps AVG
GTX 1080 Ti - 72 fps AVG
+ 50%
--------------------
RTX 2080 - 84 fps AVG
GTX 1080 - 54 fps AVG
+ 55,6%
--------------------
RTX 2080 Ti - 108 fps AVG
RTX 2080 - 84 fps AVG
+ 28,6%



VRMARK CYAN ROOM
RTX 2080 Ti - 135 fps
GTX 1080 Ti - 80 fps
+ 68,9%
--------------------
RTX 2080 - 105 fps AVG
GTX 1080 - 63 fps AVG
+ 66,7%
--------------------
RTX 2080 Ti - 135 fps AVG
RTX 2080 - 105 fps AVG
+ 28,6%



3DMARK TIMESPY EXTREME
RTX 2080 Ti - 6480 Score
GTX 1080 Ti - 4410 Score
+ 46,9%
--------------------
RTX 2080 - 4960 Score
GTX 1080 - 3260 Score
+ 52,1%
--------------------
RTX 2080 Ti - 6480 Score
RTX 2080 - 4960 Score
+ 30,6%



Settings


DirectX 12 Games

Battlefield 1 – Ultra Preset
Hitman – Highest Settings
Shadow of the Tomb Raider – Very High Preset, TAA
Star Wars: Battlefront II – Ultra Preset

DirectX 11 Games

Call of Duty: WWII – Render Resolution: Native, Pre-T2X Resolution: Native, Post Process AA: Filmic SMAA T2x, Texture Resolution: Extra, Normal Map Resolution: Extra, Specular Map Resolution: Extra, Sky Resolution: Normal, Shader Preload: On, Anisotropic Filtering: High, Shadows: On, Shadow Map Resolution: Extra, Shadow Depth: High, Screen Space Shadows: Always On, Screen Space Reflections: High, Cache Sun Shadow Maps: On, Depth of Field: High, Motion Blur: High Quality, Screen Space Ambient Occlusion: Hemo AO, Medium Distance Ambient Occlusion: On, Surface Scattering: On
F1 2018 – Ultra Preset, TAA, AF: 16x
Mass Effect: Andromeda – Ultra Preset
Middle-earth: Shadow of War – Ultra Preset
PlayerUknown’s Battlegrounds – Ultra Preset
Rainbow Six Siege – Ultra Preset
The Witcher 3 – Ultra Preset

Vulkan Games

Wolfenstein 2: The New Colossus – Mein leben Preset

DirectX 12 Synthetic Benchmarks

3DMark – Timespy Extreme
VRMark – Cyan Room

Godmode
2018-09-15, 07:38:04
Bevor das Halbwissen ueber Deep Learning noch mehr in persoenliche Anfeindungen ausartet, versuche ich mal ein bisschen zur Klaerung beizutragen. Vorweg, ich bin kein Experte fuer Machine Learning; habe aber schon mal eigenen ML-Code geschrieben und kenne mich sehr gut mit Statistik und Informationstheorie aus. Ich kenne die genaue Implementierung von DLSS nicht, kann mir aber vorstellen wie es in etwa funktioniert. Wenn sich jemand besser mit Machine Learning (oder DLSS im Speziellen) auskennt, moege er mich korrigieren, falls ich etwas falsches schreibe.

Kurzfassung: DLSS ist ein extrem spezialisierter (und temporaler) Upsampling-Filter. Das Resultat kann besser aussehen als ein in nativer Aufloesung berechnetes Bild, kann allerdings nie die urspruenglichen Trainingsdaten uebertreffen. Der Algorithmus "weiss" nicht, wie das hochaufloesende Bild aussehen muss, kann es allerdings in guter Naeherung rekonstruieren. Ob man das jetzt als Upsampling, Super-Upsampling, intelligentes Upsampling oder was auch immer bezeichnet ist letztlich Semantik.

Lange Version:

Im Prinzip hat GSXR-1000 schon recht, von der grundlegenden Mathematik her ist das, was als "Deep Learning" bezeichnet wird, absolut nichts Neues, sondern wendet "nur" die Grundlagen der Bayesschen Statistik an.
Allerdings, und deshalb "nur", ist es alles andere als einfach die fundamentale Mathematik in einen praktischen Algorithmus, der zuverlaessig, schnell und effizient arbeitet, umzusetzen. Das Entwickeln dieser Algorithmen, zusammen mit der gestiegenen Rechenleistung, ist der eigentliche Fortschritt, der das Feld Machine Learning (und als Unterkategorie Deep Learning) in den letzten Jahren so prominent gemacht hat.

Stellen wir uns den DLSS-Algorithmus einmal als Black Box mit zwei Eingaengen und einem Ausgang vor. In einen der Eingaenge gibt man die Eingabedaten, also das Bild in der niedrigen Aufloesung. Ohne Training kommt aus dem Ausgang dann erst mal Irgendwas raus - idealerweise hat man den Anfangszustand der Black Box schon so gewaehlt, dass dieses Irgendwas zumindest ansatzweise dem Endresultat entspricht. Nun vergleicht man das, was aus dem Ausgang kommt, mit dem gewuenschten Resultat, also dem hochaufloesenden Bild. Die Differenz aus beiden fuettert man nun in den zweiten Eingang, was dazu fuehrt, dass sich der Inhalt der Black Box aendert.

Die Kunst des Trainings liegt jetzt darin, die Aenderung der Black Box so durchzufuehren, dass die Differenz nach einem zweiten Durchlauf kleiner ausfaellt. Schafft man das, so kann man den Prozess beliebig oft wiederholen, bis die Differenz zwischen Ausgabe und gewuenschtem Resultat klein genug ist. Diesen Prozess wiederholt man jetzt mit anderen Eingabedaten und verfeinert auf diese Weise die Funktionsweise des Algorithmus immer mehr. Jetzt kann man das noch beliebig komplexer machen, indem man anstatt einzelner Bilder Sequenzen aus mehreren Bildern nimmt, die Bilder in Teilbereiche unterteilt, dem Algorithmus zusaetzlich Bewegungsdaten zur Verfuegung stellt etc. Auch die Groesse der Black Box (also des neuronalen Netzwerks) spielt natuerlich eine wichtige Rolle.

Am Ende des Trainings erhaelt man also eine Black Box, die aus einer Sequenz von Bildern mit niedriger Aufloesung eine (angenaeherte) Sequenz von Bildern mit hoeherer Aufloesung machen kann. Die Trainingsdaten (also die hochaufloesenden Bilder) sind nicht in der Black Box gespeichert, insofern "weiss" der Algorithmus nicht, wie das hochaufloesende Bild auszusehen hat. Im Endeffekt ist der DLSS Algorithmus also ein hochspezialisierter (und temporaler) Upsampling-Filter.

Das Resultat entspricht natuerlich nicht zu 100% den Bildern in der hoehren Aufloesung, dafuer muesste die Black Box unendlich gross sein und man muesste sie mit allen moeglichen Kombinationen aus hochaufloesenden Bildern trainiert haben. Man wird also im Vergleich zu den Trainingsdaten immer irgendwelche Artefakte und Ungenauigkeiten haben.
Trotzdem kann z.B. ein auf 4K hochgerechnetes 2K Bild besser aussehen als ein nativ berechnetes 4K Bild, sofern die Trainingsdaten eine noch hoehere Aufloesung hatten (also z.B. 8K oder 4K mit viel Supersampling). In wiefern das in der Praxis zutrifft, muss man abwarten.

Danke, einer der wenigen guten Beiträge der letzten seiten. :up:

rentex
2018-09-15, 08:10:38
Mehrleistung durch Up Sampling...verstehe ich das richtig?

woodsdog
2018-09-15, 08:13:54
Mehrleistung durch Up Sampling...verstehe ich das richtig?

Mehrleistung durch ggf. inteligentes Raten von Pixeln.

horn 12
2018-09-15, 08:27:40
Wenn es so kommt nicht schlecht der Specht NV
Hat mehr als Ihre Hausaufgaben gemacht.
Da steht die Konkurrenz aber komplett hinten an

HOT
2018-09-15, 08:44:40
Mehrleistung durch Up Sampling...verstehe ich das richtig?
Das sehe ich auch so. Wie bei der PS4. Nur, dass sich der Spielehersteller nur indirekt darum kümmert und NV die Profile dafür über eine eigene Cloud anbietet. Berechnet wird da überhaupt nix in der Cloud, totaler BS. Simcity anyone? Hab ich mir gleich gedacht, dass sowas so nicht gelöst wird. Und das 2x ist halt ein 8k-Upscalefilter (dann wieder downgesampled?). Entsprechend wird i.Ü. bei DLSS die BQ sein. So richtig Begeisterung löst das jetzt bei mir nicht aus. Ist natürlich arsch schnell, wenn man FullHD auf 4k upscaled. Macht nur niemand, weil ein 4k-Nutzer doch gerne die Vorteile seines Monitors auch ausnutzt.

horn 12
2018-09-15, 08:46:10
https://www.tomshw.de/2018/09/15/nvidia-selektiert-vor-binning-mit-3-qualitaetsstufen-fuer-die-rtx-2080-und-rtx-2080-ti/

Dies schlägt derbe auf den Magen

FE also sicherlich TOP und die Billighersteller bekommen den Ramsch...
Da ist alles ausser FE nun Glücksache und auch das OC schlägt ins Ungewisse!

MasterElwood
2018-09-15, 08:53:06
https://www.tomshw.de/2018/09/15/nvidia-selektiert-vor-binning-mit-3-qualitaetsstufen-fuer-die-rtx-2080-und-rtx-2080-ti/

Dies schlägt derbe auf den Magen

FE also sicherlich TOP und die Billighersteller bekommen den Ramsch...
Da ist alles ausser FE nun Glücksache und auch das OC schlägt ins Ungewisse!

Du bezahlst auch ned für OC Fähigkeit - sondern für die Taktraten die dir der Graka Hersteller garantiert.

robbitop
2018-09-15, 08:54:04
Das sehe ich auch so. Wie bei der PS4. Nur, dass sich der Spielehersteller nur indirekt darum kümmert und NV die Profile dafür über eine eigene Cloud anbietet. Berechnet wird da überhaupt nix in der Cloud, totaler BS. Simcity anyone? Hab ich mir gleich gedacht, dass sowas so nicht gelöst wird. Und das 2x ist halt ein 8k-Upscalefilter (dann wieder downgesampled?). Entsprechend wird i.Ü. bei DLSS die BQ sein. So richtig Begeisterung löst das jetzt bei mir nicht aus. Ist natürlich arsch schnell, wenn man FullHD auf 4k upscaled. Macht nur niemand, weil ein 4k-Nutzer doch gerne die Vorteile seines Monitors auch ausnutzt.

Das inferencing training geschieht in der Cloud. Ohne das könnte man das in Echtzeit vergessen.

HOT
2018-09-15, 09:11:08
Das inferencing geschieht in der Cloud. Ohne das könnte man das in Echtzeit vergessen.
Wir werden es in Praxis sehen. Das gibt noch Überraschungen. Und Echtzeit und Cloud passen eh nicht zusammen.

Troyan
2018-09-15, 09:13:53
Das inferencing geschieht in der Cloud. Ohne das könnte man das in Echtzeit vergessen.

Training. Inference geschieht auf der Karte.

Kriton
2018-09-15, 09:20:58
Bevor das Halbwissen ueber Deep Learning noch mehr in persoenliche Anfeindungen ausartet, versuche ich mal ein bisschen zur Klaerung beizutragen. Vorweg, ich bin kein Experte fuer Machine Learning; habe aber schon mal eigenen ML-Code geschrieben und kenne mich sehr gut mit Statistik und Informationstheorie aus. Ich kenne die genaue Implementierung von DLSS nicht, kann mir aber vorstellen wie es in etwa funktioniert. Wenn sich jemand besser mit Machine Learning (oder DLSS im Speziellen) auskennt, moege er mich korrigieren, falls ich etwas falsches schreibe.

Kurzfassung: DLSS ist ein extrem spezialisierter (und temporaler) Upsampling-Filter. Das Resultat kann besser aussehen als ein in nativer Aufloesung berechnetes Bild, kann allerdings nie die urspruenglichen Trainingsdaten uebertreffen. Der Algorithmus "weiss" nicht, wie das hochaufloesende Bild aussehen muss, kann es allerdings in guter Naeherung rekonstruieren. Ob man das jetzt als Upsampling, Super-Upsampling, intelligentes Upsampling oder was auch immer bezeichnet ist letztlich Semantik.

Lange Version:

(...)

Danke.

Klevapalis
2018-09-15, 09:23:52
Du sprichst (jetzt plötzlich) von "normalem Upscaling um demgegenüber "eine neue Form von Upscaling" entgegensetzen zu können. Bigkid sprach nur von Upscaling.
BigKid hat mit viel Gebrüll DLSS als normales Upscaling bezeichnet und behauptet, PCGH sähe das genauso. Dem stimmt aber schlicht nicht.

DLSS als Upscaling zu bezeichnen bist ungefähr so, wie ein Auto als Kutsche. Mag Mal früher gemacht worden sein, weil beides dazu dient Dinge von A nach B zu transportieren und die Leute zu dumm waren, den Unterschied zu verstehen.

Aber hier im Forum kann man doch wohl etwas mehr technisches Verständnis erwarten, als das man plump vom Upscaling spricht.

Dachte ich zumindest. Aber manche können sich ja echt extrem dumm stellen, wenn es darum geht NVIDIA ans Bein pinkeln zu können.

Seltsam. Andere des Trollierens bezichtigen und hier im RTX 20xx Thread staendig von VEGA reden, obwohl ich beispielsweise den Begriff im gesamten Thread nie in den Mund genommen habe.
Wolltest du uns nicht noch nachweisen, wie seit 10 Jahren bei jedem Launch die OC-Fähigkeit von NVIDIA beworben wurde? Kommt da nix mehr? Dann war es wohl wirklich Trolling von dir :up:

rentex
2018-09-15, 09:25:40
Kann es sein, das NV ein Problem mit der Leistungssteigerung per GPU Generation hat? Wenn se schon zu solchen Mitteln greifen müssen? Oder wollen sie sich bei dieser Gen. den Entwicklungsaufwand sparen?
Ich besitze übrigens selber ne ASUS 1080 Ti...nicht das hier einer ans trollen denkt ;-)

Raff
2018-09-15, 09:33:20
Kann es sein, das NV ein Problem mit der Leistungssteigerung per GPU Generation hat? Wenn se schon zu solchen Mitteln greifen müssen? Oder wollen sie sich bei dieser Gen. den Entwicklungsaufwand sparen?
Ich besitze übrigens selber ne ASUS 1080 Ti...nicht das hier einer ans trollen denkt ;-)

Innovationen, um Leistung zu sparen und dennoch ein hübsches Ergebnis zu erhalten, sind doch immer gern gesehen. Oder nicht? In diesem Fall ist die Fertigung stehengeblieben, sodass man das Beste daraus machen muss. Die Zeiten des schnellen Schrumpfens und somit "automatischer" Leistungssteigerung sind vorbei.

Beste Grüße aus dem Büro,
Raff

Kriton
2018-09-15, 09:35:20
BigKid hat mit viel Gebrüll DLSS als normales Upscaling bezeichnet (...)

Das stimmt nicht. Er hat nur von Upscaling gesprochen. Das "normal" kommt von Dir (wie ich bereits im letzten Post geschrieben habe und was Du bewusst ignorierst), damit Du behaupten kannst, er läge falsch. Also Zitat mit Link von ihm oder das trollen einfach mal sein lassen.

Beste Grüße aus dem Büro,
Raff

Da hat jemand einen Treiber. :biggrin:

AffenJack
2018-09-15, 09:37:21
...
Trotzdem kann z.B. ein auf 4K hochgerechnetes 2K Bild besser aussehen als ein nativ berechnetes 4K Bild, sofern die Trainingsdaten eine noch hoehere Aufloesung hatten (also z.B. 8K oder 4K mit viel Supersampling). In wiefern das in der Praxis zutrifft, muss man abwarten.

Danke, schöne Erklärung. Das Ende deines Posts ist mir dabei auch am wichtigsten. Mir ist schlussendlich egal, wie etwas berechnet wird. Wenn das Zeug es schafft die Bildqualität trotz geringerer auflösung zu steigern oder wenigstens gleichwertig zu halten, dann wird das für mich die einstellung der Wahl. Ob es das wirklich kann, müssen wir mit den Spielen in Zukunft sehen. Infiltrator als kurze Demo ist mir da nicht genug, da Spiele viel größere Vielfalt aufweisen und viel länger sind.

Klevapalis
2018-09-15, 09:38:42
Das stimmt nicht. Er hat nur von Upscaling gesprochen. Das "normal" kommt von Dir
Das normal kam von ihm. Er hat ja häufig genug normales Upscaling also identisch bezeichnet, z.B. von Samsung auf 8k.

Troll doch woanders.

Innovationen, um Leistung zu sparen und dennoch ein hübsches Ergebnis zu erhalten, sind doch immer gern gesehen. Oder nicht?
Eigentlich ja und käme es von AMD, wäre es für die gleichen Leute die Innovation des Jahrtausend ;)

cR@b
2018-09-15, 09:40:23
@Edgecrusher
Wenn das stimmt, ist der Performancezuwachs doch ganz nett. Selbst eine 2080 schlägt die 1080 Ti. Der Preis lässt mich aber nach wie vor kalt. Ne 2080 wäre für mich als 1080 Ti Besitzer von der P/L zu wenig und die 2080 Ti einfach noch immer deutlich zu teuer. Ich kann nur darauf hoffen, dass die Karten Laden/Lagerhüter bleiben und dann im Preis fallen. Es sieht aber im Moment nicht danach aus. Der Hype steigt zunehmend, vorallem nach der technischen Vorstellung. :ugly:

unl34shed
2018-09-15, 09:41:00
BigKid hat mit viel Gebrüll DLSS als normales Upscaling bezeichnet und behauptet, PCGH sähe das genauso. Dem stimmt aber schlicht nicht.

DLSS als Upscaling zu bezeichnen bist ungefähr so, wie ein Auto als Kutsche. Mag Mal früher gemacht worden sein, weil beides dazu dient Dinge von A nach B zu transportieren und die Leute zu dumm waren, den Unterschied zu verstehen.

Aber es ist doch upscaling. Aus einer niedrig aufgelösten Bild wird ein besser aufgelöstes generiert. Das man Deep Learning oder AI drauf schreibt ist Buzzword Bingo.

Ja, der Algorithmus dahinter ist keine simple Mittelwertberechnung der Nachbarpixel (einfachste Form des Upscalings), sondern wurde auf die Farbverläufe des Spiels trainiert, erhält zusätzlich einen Vektor und das vorherige Bild als Input um flackern zu vermeiden.

Klevapalis
2018-09-15, 09:42:52
Aber es ist doch upscaling.
In dem Sinne, in dem ein Auto eine Kutsche ist.

Mit normalen Upscaling hat es fast gar nix zu tun.

Troyan
2018-09-15, 09:43:23
Kurzfassung: DLSS ist ein extrem spezialisierter (und temporaler) Upsampling-Filter. Das Resultat kann besser aussehen als ein in nativer Aufloesung berechnetes Bild, kann allerdings nie die urspruenglichen Trainingsdaten uebertreffen. Der Algorithmus "weiss" nicht, wie das hochaufloesende Bild aussehen muss, kann es allerdings in guter Naeherung rekonstruieren. Ob man das jetzt als Upsampling, Super-Upsampling, intelligentes Upsampling oder was auch immer bezeichnet ist letztlich Semantik.


Genau darum geht es. Hier wird immer von "nativ" gesprochen, aber DLSS weiß nicht, wie ein natives 4K Bild aussieht. Es kann daher nicht die Qualität von einem "nativen" 4K Bild erreichen.

Nativ für DLSS ist ein Bild mit viel mehr Informationen pro Pixel - z.B. 4K mit 64xSSAA. Und diese Bildqualität versucht DLSS zu erreichen.

Was nVidia nun mit dem Standard DLSS macht, ist einfach: Die Input-Variablen werden so lange optimiert, bis ein Bildeindruck entsteht, der +- 4K mit TAA entspricht. Und daher kommt eben auch die Leistungssteigerung.

dargo
2018-09-15, 09:57:21
NVIDIA Reviewer's Guide - Benchmarks 4K SDR (https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled) - X299 Rampage VI Apex, Core i9-7900X 3.3 GHz, Corsair 16GB DDR4 (no frequency specified), Windows 10 (v1803), NVIDIA 411.38 drivers.


BATTLEFIELD 1
RTX 2080 Ti - 89 fps AVG
GTX 1080 Ti - 60 fps AVG
+48,3%
--------------------
RTX 2080 - 72 fps AVG
GTX 1080 - 52 fps AVG
+ 38,5%
--------------------
RTX 2080 Ti - 89 fps AVG
RTX 2080 - 72 fps AVG
+ 23,6%


F1 2018
RTX 2080 Ti - 91 fps AVG
GTX 1080 Ti - 63 fps AVG
+ 44%
--------------------
RTX 2080 - 72 fps AVG
GTX 1080 - 52 fps AVG
+ 38,5%
--------------------
RTX 2080 Ti - 91 fps AVG
RTX 2080 - 72 fps AVG
+ 26,4%




Call OF DUTY WWII
RTX 2080 Ti - 139 fps AVG
GTX 1080 Ti - 91 fps AVG
+ 52,7%
--------------------
RTX 2080 - 104 fps AVG
GTX 1080 - 66 fps AVG
+ 57,6%
--------------------
RTX 2080 Ti - 139 fps AVG
RTX 2080 - 104 fps AVG
+ 33,7%



HITMAN
RTX 2080 Ti - 91 fps AVG
GTX 1080 Ti - 72 fps AVG
+ 26,4%
--------------------
RTX 2080 - 78 fps AVG
GTX 1080 - 56 fps AVG
+ 39,3%
--------------------
RTX 2080 Ti - 91 fps AVG
RTX 2080 - 78 fps AVG
+ 16,7%



MASS EFFECT: ANDROMEDA
RTX 2080 Ti - 61 fps AVG
GTX 1080 Ti - 43 fps AVG
+ 41,9%
--------------------
RTX 2080 - 51 fps AVG
GTX 1080 - 36 fps AVG
+ 41,7%
--------------------
RTX 2080 Ti - 61 fps AVG
RTX 2080 - 51 fps AVG
+ 19,6%



MIDDLE-EARTH: SHADOW OF WAR
RTX 2080 Ti - 67 fps AVG
GTX 1080 Ti - 47 fps AVG
+ 42,6%
--------------------
RTX 2080 - 53 fps AVG
GTX 1080 - 37 fps AVG
+ 43,2%
--------------------
RTX 2080 Ti - 67 fps AVG
RTX 2080 - 53 fps AVG
+ 26,4%



STAR WARS: BATTLEFRONT II
RTX 2080 Ti - 86 fps AVG
GTX 1080 Ti - 60 fps AVG
+ 43,3%
--------------------
RTX 2080 - 66 fps AVG
GTX 1080 - 52 fps AVG
+ 26,9%
--------------------
RTX 2080 Ti - 86 fps AVG
RTX 2080 - 66 fps AVG
+ 30,3%




PLAYERUNKNOWN'S BATTLEGROUND
RTX 2080 Ti - 79 fps AVG
GTX 1080 Ti - 58 fps AVG
+ 36,2%
--------------------
RTX 2080 - 62 fps AVG
GTX 1080 - 46 fps AVG
+ 34,8%
--------------------
RTX 2080 Ti - 79 fps AVG
RTX 2080 - 62 fps AVG
+ 27,4%



RAINBOW SIX SIEGE
RTX 2080 Ti - 154 fps AVG
GTX 1080 Ti - 103 fps AVG
+ 48,5%
--------------------
RTX 2080 - 123 fps AVG
GTX 1080 - 79 fps AVG
+ 55,7%
--------------------
RTX 2080 Ti - 154 fps AVG
RTX 2080 - 123 fps AVG
+ 25,2%



SHADOW OF THE TOMB RAIDER
RTX 2080 Ti - 59 fps AVG
GTX 1080 Ti - 43 fps AVG
+ 37,2%
--------------------
RTX 2080 - 47 fps AVG
GTX 1080 - 32 fps AVG
+ 46,9%
--------------------
RTX 2080 Ti - 59 fps AVG
RTX 2080 - 47 fps AVG
+ 25,5%



THE WITCHER III
RTX 2080 Ti - 78 fps AVG
GTX 1080 Ti - 57 fps AVG
+ 36,8%
--------------------
RTX 2080 - 62 fps AVG
GTX 1080 - 43 fps AVG
+ 44,2%
--------------------
RTX 2080 Ti - 78 fps AVG
RTX 2080 - 62 fps AVG
+ 25,8%



WOLFENSTEIN II:THE NEW COLOSSUS
RTX 2080 Ti - 108 fps AVG
GTX 1080 Ti - 72 fps AVG
+ 50%
--------------------
RTX 2080 - 84 fps AVG
GTX 1080 - 54 fps AVG
+ 55,6%
--------------------
RTX 2080 Ti - 108 fps AVG
RTX 2080 - 84 fps AVG
+ 28,6%


Im Schnitt der 12 Spiele also +42,3% für die 2080TI. Rechnet man noch die ~10% wegen dem Kühler ab kommt genau das raus was zu erwarten war.

dildo4u
2018-09-15, 10:00:21
Da ist einfach massig CPU Limit dabei alle 60fps Shooter zeigen gute Gewinne unabhängig von der Engine.(BF1,COD,Wolf2) Der Test mit einem 9900K wäre interessant.

unl34shed
2018-09-15, 10:00:22
Genau darum geht es. Hier wird immer von "nativ" gesprochen, aber DLSS weiß nicht, wie ein natives 4K Bild aussieht. Es kann daher nicht die Qualität von einem "nativen" 4K Bild erreichen.

Nativ für DLSS ist ein Bild mit viel mehr Informationen pro Pixel - z.B. 4K mit 64xSSAA. Und diese Bildqualität versucht DLSS zu erreichen.

Es ist nur eine Auswahl an Bildern, die man erfolgreich upscalen kann (Training). Und das trainierte Verfahren wird dann auf den Rest des Spiels losgelassen.

Was nVidia nun mit dem Standard DLSS macht, ist einfach: Die Input-Variablen werden so lange optimiert, bis ein Bildeindruck entsteht, der +- 4K mit TAA entspricht. Und daher kommt eben auch die Leistungssteigerung.

Nein, die Leistungssteigerung kommt daher, dass in niedriger Auflösung gerechnet wird.

Mancko
2018-09-15, 10:01:49
Die Patente auf PS hält aber AMD. Sie hatten die Idee.


Wen interessiert das bitte wer das Patent auf was von den beiden hat.

1) kannst Du eine gleiche Technik in den USA mit etwas anderer technischer Lösung nochmal patentieren. Es gibt genügend Beispiele wo es für gleiche Themen mehrere Patente gibt

2) Interessiert den Kunden nur ob was funktioniert oder nicht und nicht wer nun das Patent hat

3) ist das bei den beiden eh nicht von Belang da beide die Patente des anderen vollumfänglich nutzen können. Dafür gibt es das entsprechende Patentaustauschabkommen.

Megatron
2018-09-15, 10:05:42
Das normal kam von ihm. Er hat ja häufig genug normales Upscaling also identisch bezeichnet, z.B. von Samsung auf 8k.
Es arbeitet im Kern genauso wie Samsungs upscaling auf 8k.
Da steht genauso ein neuronales Netz dahinter wie bei DLSS.
Die Komplexität des Verfahrens dürfe sich sicher unterscheiden, aber Gerade hier solltest du dich Mal informieren, worüber du so reißerisch hetzt ;)

Troyan
2018-09-15, 10:11:59
Jap, Samsung macht das selbe mit 8K.

Denoising bei Raytracing mit wenigen Samples per Pixel ist genau das selbe. Dort wird auch versucht mit weniger Samples als nativ eine ähnliche Qualität zu erreichen.

SKYNET
2018-09-15, 10:14:12
https://www.tomshw.de/2018/09/15/nvidia-selektiert-vor-binning-mit-3-qualitaetsstufen-fuer-die-rtx-2080-und-rtx-2080-ti/

Dies schlägt derbe auf den Magen

FE also sicherlich TOP und die Billighersteller bekommen den Ramsch...
Da ist alles ausser FE nun Glücksache und auch das OC schlägt ins Ungewisse!

u get where u paid for :cool:

SKYNET
2018-09-15, 10:16:20
Jap, Samsung macht das selbe mit 8K.

Denoising bei Raytracing mit wenigen Samples per Pixel ist genau das selbe. Dort wird auch versucht mit weniger Samples als nativ eine ähnliche Qualität zu erreichen.

bei samsung brauche ich aber keine spezielle software dafür, das funzt out-of-the-box mit jedem 4k material das kommt... also ein wenig weiter entwickelt als NVs geschichte und somit nicht ansatzweise vergleichbar.


btw. HWL(fixed auf 1800MHz) und igor(keine ahnung welchen takt) testen alle karten auch mit gleichem takt, somit werden wir dann sehen wieviel % die karten bei gleichem takt zulegen konnten. :)

Mancko
2018-09-15, 10:18:23
Troyan lasst stecken, diese Leute sind nicht gewillt etwas neues zu verstehen, oder stellen sich plötzlich vollkommen blöd, meistens sind es Leute mit einer Vega GPU oder es sind Leute mit einer Pascal GPU deren Turing zu teuer ist.

Hier zwei Beispiele, wie zwei Trolls versuchen mich dumm darzustellen:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11799783&postcount=8826
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11799786&postcount=8829

Kann kaum erwarten wenn Vega in 7nm ende 2019 kommt, ich werde da so trollen, da können sich die AMD Fans sich jetzt drauf freuen. Ansonsten können AMD User jetzt ja ihre 1070Ti Leistung mit 250W aka. Vega 64 (5,0 Sone) mit Undervolting für 1,5 Jahre weiterhin abfeiern, hat ja auch etwas =D

Ich glaube manche sind da vermutlich eher ein wenig im Panick Mode. Hardwareseitig ist es ja so, dass beide Hersteller im Grunde die Dinge des anderen nachbauen können sofern sie es eingeplant haben. Was eben aber nicht so einfach aufgeholt wird ist eben der extrem große Vorsprung den Nvidia im Bereich Softwarestack und DeepLearning hat. Nvidia ist halt mittlerweile locker zu 40% eine Softwarecompany. Und AI ist natürlich für klassische reine Hardwareseitige Lösungsansätze schon eine große Bedrohung.

Heute heißt es erster Versuchmit DLSS und irgendwann im weiteren Verlauf wird es für zunehmend mehr BEreiche genutzt werden um Vorhersagen zu treffen. Natürlich wird man nicht alles zu 100% exakt vorhersagen können. Das muss man aber auch nicht. Im Grunde spart man ja dadurch ordentich an klassischem bewährten Berechnungsaufwand bzw. Hardwareresourcen Hunger der dann für andere Dinge frei wird oder zu mehr Performance führt.

Wenn man nun den Fokus auf sagen wir 80 bis 90% der wichtigen Informationen eines Bildes legt und diese Dinge dadurch extrem an Qualität und Performance gegenüber herkömmlicher Methodik gewinnen dann fallen die anderen 10% natürlich gar nicht mehr auf und stören auch niemanden. Und genau deswegen schieben einige hier den Panick Mode. Derjenige der hier die celversten Lösungen bringt und forciert, wird in Zukunft noch mehr mit gleicher Chip Größe sich gegenüber dem Konkurrenten absetzen können. Im Bereich DeepLEarning und AI ist Nvidia AMD derzeit extrem vorraus. Sie haben sich halt auch generell im Markt verglichen mit anderen Unternehmen extrem frühzeitig damit beschäftigt und das Thema forciert. Ursprünglich zwar in anderen Bereichen aber die fangen jetzt damit an die Früchte auch im Gaming zu ernten.

Ich gehe fest davon aus, dass dies erst der Anfang ist. Hardwareseitig ist man mit den Tensor Cores fürs Inferencing gut aufgestellt. Jetzt kann man sich auf die Softwareseite und entsprechende Algorythmen konzentrien. Das spannende an dem ganzen AI Ansatz ist ja auch, dass "alte" bestehende Hardware weiter aufgewertet werden kann. Das skaliert einfach von den Möglichkeiten extrem gut. Über GeForce Experience kann Nvidia im Prinzip das Ganze recht einfach aus der eigenen DeepLearning Cloud pushen. Ich könnte mir sogar vorstellen, dass man irgendwann eine Kombination aus Streaming und lokaler Berechnung hinbekommen könnte. Das wäre doch auch was, wenn bestimmte Hardwareintensive Stellen komplett vorberechnet als Stream in der Cloud vorliegen und das Ganze lokale am Rechner mit den Ergebnissen der GPU abgemischt wird. Ist sicherlich ein extrem schwieriges Unterfangen. Wäre aber auch spannend. Am Ende zeigt das Thema primär, dass wir auch beim Gaming analog Google, Apple & Co immer mehr den Plattformgedanken bekommen. Sprich Nvidia bastelt sich Schritt für Schritt ein eigenes Ökosystem fürs Gaming wo man eben mit Patentaustausch nicht herankommt. Das ist einfach clever und auch extrem visonär.

BigKid
2018-09-15, 10:19:25
Wir werden es in Praxis sehen. Das gibt noch Überraschungen. Und Echtzeit und Cloud passen eh nicht zusammen.
DLSS ist ein Deep Learning Ansatz. Da wird ein neuronales Netz darauf trainiert ein Bild hochzuskalieren und zwar für jedes Spiel neu (ich vereinfache das jetzt weil es von verschiedenen Leuten mich eingeschlossen schon x mal ausführlicher Beschrieben wurde). Für das Training brauchst du nen Supercomputer um das in vertretbarer Zeit zu schaffen. Das trainierte Netz wird dann zum Spiel dazu gepackt oder per GFE verteilt. Dieses Trainierte Netz kann dann eine RTX Karte durch die Tensor Cores quasi in Echtzeit ausführen. Und da dies ein eigener Teil der GPU ist kostet es so gesehen keine “herkömmliche” Rechenzeit.


bei samsung brauche ich aber keine spezielle software dafür, das funzt out-of-the-box mit jedem 4k material das kommt... also ein wenig weiter entwickelt als NVs geschichte und somit nicht vergleichbar.
Das wiederum sehe ich nicht so. NV trainiert pro Spiel daher dürften die Ergebnisse auch besser sein als als bei dem eher generischen Ansatz von Samsung denn deren Netz musste einen weiteren Bereich an Inhalten lernen und daher mehr Kompromisse mache - vergleichbare Leistung bei der Hardware vorausgesetzt.

Kriton
2018-09-15, 10:19:36
Das normal kam von ihm. Er hat ja häufig genug normales Upscaling also identisch bezeichnet, z.B. von Samsung auf 8k.

Troll doch woanders.


Da ich jetzt zum 3. Mal darauf eingehe(n muss) bezeichne ich es mal als was es ist: Eine dreist Lüge Deinerseits (daher auch kein Link zu der angeblich von ihm getroffenen Aussage, wie von mir gefordert).

Ich habe alle (!) seine Posts zu dem Thema durchforstet. Wie ich schon ursprünglich schrieb: Das "normal" kommt von Dir als Nebelkerze. Ursprünglich hast Du noch Upscaling als solches bestritten. Und das war dann wohl der Rettungsversuch. Manche Verhaltensweisen sind schon (fast) unglaublich.

Weil Du diesen Post explizit erwähnst mal das Zitat von mir:

Ok... Alles Geisterfahrer ausser dir ? Upscaling ist Upscaling...
Selbst Samsung ist nicht so dreist das AI Upscaling ihrer neuen 8k TVs als etwas anderes als Upscaling zu bezeichnen... Wenigstens muss ich mir bei deinen unterschwelligen Beleidigungen nix mehr denken - ich weiss ja jetzt wo es herkommt...

Fragman
2018-09-15, 10:22:24
Jap, Samsung macht das selbe mit 8K.

Denoising bei Raytracing mit wenigen Samples per Pixel ist genau das selbe. Dort wird auch versucht mit weniger Samples als nativ eine ähnliche Qualität zu erreichen.

Wobei man beim Denoising schon recht genau "weiss", wie die Sample aussehen muessen. Deshalb sind ja besonders die "letzten 10%", die dann nochmal 200%, oder mehr Rechenleistung brauchen, schon fast ohne Unterschied zu filtern.

Troyan
2018-09-15, 10:33:20
Wobei man beim Denoising schon recht genau "weiss", wie die Sample aussehen muessen. Deshalb sind ja besonders die "letzten 10%", die dann nochmal 200%, oder mehr Rechenleistung brauchen, schon fast ohne Unterschied zu filtern.

Was die Leute mit Denoising zeigen, ist eher 10% Aufwand für 90% Qualität. :eek:

Hier ab 17:45: http://on-demand.gputechconf.com/siggraph/2018/video/sig1813-1-chris-wyman-morgan-mcguire-real-time-ray-tracing.html

Bösewicht
2018-09-15, 10:35:35
performance, tja wie erwartet und noch etwas mehr aber leider werde ich mir wohl nicht mal eine 2060 leisten können :(

ich hab mal paar minuten bei Gronkh reingeschaut.
https://youtu.be/wyH8LhnqWRs?t=11m28s
1080p, dichter jungle und nichts aber wirklich nichts flimmert.
Es schaut etwas unscharf aus könnte aber auch youtube quali sein aber davon abgesehen sehe ich selbst hier im Hemkino auf Großbild Leinwand wirklich fast nichts das Flimmert, das erstaunt mich schon etwas.

https://www.youtube.com/watch?v=AGMmxnPU0cU
in 4k schaut es gleich schärfer aus aber ja immer noch etwas unscharf aber wow endlich mal nichts was stört außer die leichte unschärfe.

Wenn nvidia seine neue technik das noch in scharf hin bekommt dann alles supi

Fragman
2018-09-15, 10:35:39
Was die Leute mit Denoising zeigen, ist eher 10% Aufwand für 90% Qualität. :eek:

Hier ab 17:45: http://on-demand.gputechconf.com/siggraph/2018/video/sig1813-1-chris-wyman-morgan-mcguire-real-time-ray-tracing.html


Jup, fuer Realtime ist es genau anders herum.

SKYNET
2018-09-15, 10:35:42
Troyan lasst stecken, diese Leute sind nicht gewillt etwas neues zu verstehen, oder stellen sich plötzlich vollkommen blöd, meistens sind es Leute mit einer Vega GPU oder es sind Leute mit einer Pascal GPU deren Turing zu teuer ist.

Hier zwei Beispiele, wie zwei Trolls versuchen mich dumm darzustellen:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11799783&postcount=8826
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11799786&postcount=8829

Kann kaum erwarten wenn Vega in 7nm ende 2019 kommt, ich werde da so trollen, da können sich die AMD Fans sich jetzt drauf freuen. Ansonsten können AMD User jetzt ja ihre 1070Ti Leistung mit 250W aka. Vega 64 (5,0 Sone) mit Undervolting für 1,5 Jahre weiterhin abfeiern, hat ja auch etwas =D

vega64 1070Ti leistung? O_o also die 64 ist im schnitt schon 5% vor ner 1080... also mal keine halbwahrheiten erzählen :smile:

und 7nm kommt ende dieses jahr, und wir werden sicherlich auch ein paar benches dazu sehen, dann schauen wir mal wie sich das gute stück schlagen wird... ob und wann dann desktop versionen folgen, ist natürlich ein anderes blatt in dem buch.

Troyan
2018-09-15, 10:42:39
Jup, fuer Realtime ist es genau anders herum.

DLSS macht es ja genauso. Es rekonstruiert aus vorhanden Informationen eben eine viel besser Qualität als "nativ" möglich wäre. 1080p mit 64xSSAA ist, nunja, sportlich. Aber DLSS 2x kann bei 1080p anhand des Trainings eine Qualität erreichen, die nicht möglich ist.

Deswegen ist die Diskussion hier auch so sinnlos. Genauso wie es bei der komischen Raytracing Diskussion war. Haar in der Suppe und so.

Fragman
2018-09-15, 10:48:12
Deswegen ist die Diskussion hier auch so sinnlos.

Da halte ich mich raus. :D

Man wird es an den Ergebnissen sehen und dann wird das auch aufhoeren.
Aus dem Renderingbereich kann ich nur sagen, das nv nichts integriert, von dem sie nicht ueberzeugt sind und das nicht auch relativ problemlos laeuft.

Kriton
2018-09-15, 11:07:23
Da halte ich mich raus. :D

Man wird es an den Ergebnissen sehen und dann wird das auch aufhoeren.
Aus dem Renderingbereich kann ich nur sagen, das nv nichts integriert, von dem sie nicht ueberzeugt sind und das nicht auch relativ problemlos laeuft.

Im professionellem Umfeld ist die Korrektheit aber auch wichtiger. Nvidia würde dort für Renderfehler massiv abgestraft.

Leonidas
2018-09-15, 11:08:32
und wenn man sich die Bilder mal anschaut, sieht man deutliche Mängel bei der "NV optimierten Variante"
Vor kurzem nannte man das noch "cheating". :rolleyes:


Einzurechnen ist, das Variable Rate Shading und Content Adaptive Shading Features sind, die vom Spieleentwickler eingeschaltet werden müssen. Natürlich steht trotzdem in Frage, ob es nicht generell einen Cheat darstellt, so etwas anzubieten. Aber wenn der Spieleentwickler meint, das wäre gut, was dann? Kann die Frage derzeit selber nicht beantworten.





Es wird also nicht einfach was gestreckt oder vergrößert - es werden kleines Bild, Trainingsdaten und Motionvectoren hergekommen - und daraus wird ein neues Bild BERECHNET!
Das ist KEIN Upscaling!


Das würde ich nicht so sehen. Natürlich ist das Upscaling - auf Basis einer sehr cleveren Idee mit mehr Daten, als im Ursprungsbild vorliegen. Aber Upscaling sagt ja erst einmal nicht aus, mit welcher Technik dies passiert.

Und nebenbei: Der Anfang dieses Vorgangs dürfte immer darin liegen, das native Bild erst einmal ohne jede Trainingsdaten und Motionvectoren auf die native Auflösung hochzuskalieren. Trainingsdaten und Motionvectoren dürften nachher zu Verbesserung dieses Zwischenschritts verwendet werden. Eine regelrechte Bildberechnung dürfte es kaum geben, das würde viel zu sehr auf die Latenz gehen. Das ganze passiert ja, nachdem die Rendering-Pipe schon fertig ist und der Spieler aufs fertige Bild wartet. Da darf man dann keine komplizierten Berechnungen mehr ansetzen.




Dein Beispiel mit "hochskalierter DVD" ist einfach falsch. Das Beispiel ist viel mehr, dass das Netzwerk ein 16K Film hat und dann aus 720p Input ein 4K Bild macht, weil es weiß, wie das Zielbild aussehen muss.


Gutes Beispiel. Vielleicht weiss jemand, wie gut die Qualität dieser Interpolation letztlich würde? Kann man ja auch kleiner aufgelöst selber machen: Ausgangsmaterial 4K, Input HD, hochskalierung auf FullHD.

Screemer
2018-09-15, 11:33:00
Einzurechnen ist, das Variable Rate Shading und Content Adaptive Shading Features sind, die vom Spieleentwickler eingeschaltet werden müssen. Natürlich steht trotzdem in Frage, ob es nicht generell einen Cheat darstellt, so etwas anzubieten. Aber wenn der Spieleentwickler meint, das wäre gut, was dann? Kann die Frage derzeit selber nicht beantworten.

Wenn Entwickler etwas einbauen um die Performance zu steigern ohne dabei das in ihren Augen gewünschte Ziel zu verfehlen, dann kann man das imho nicht als cheating bezeichnen. Gibt ja heute genügend Beispiele bei denen sich Entwickler bedienen können um die Komplexität einer Szene zu verändern ohne viel an Rechenzeit investieren zu müssen. Den umgekehrten weg zu gehen und mit nicht ins Auge springenden Einsparungen die Performance zu steigern ist doch völlig legiti.

Zu Thema dlss solltest du dich besser nicht äußern, denn sonst wird dich einer der folgenden User als naysayer hinstellen oder als Troll bezeichnen: Mancko, troyan, klevapalis, executer, master Elwood, popeye. Dem kannst du auch nicht entkommen, wenn sogar ein Mitarbeit von NV deiner Meinung ist.

Tobalt
2018-09-15, 11:40:10
ich sehe nicht wieso dlss die latenz erhöhen sollte.. eher verringert es sie:

die latenz beginnt nicht erst nach Ende der normalen render pipe, sondern an ihrem Beginn.
wenn die normale render pipe also 20 ms dauert, dann ist das zb mehr als 15ms reduzierte Auflösung + 2 ms upscaling unter dlss..

in dem Zusammenhang sehe ich den Sinn von DLSS bei ohnehin sehr hohen frameraten Schwinden, da das upscaling sicher immer ähnlich lange benötigt. damit kann bei hohen fps das volle rendern schneller werden als reduziertes rendern + upscaling

robbitop
2018-09-15, 11:44:15
Wir werden es in Praxis sehen. Das gibt noch Überraschungen. Und Echtzeit und Cloud passen eh nicht zusammen.

Das Training passiert offline und schickt die Datensätze an den Treiber.
Ohne Training ginge das nicht

SKYNET
2018-09-15, 12:22:38
Wenn Entwickler etwas einbauen um die Performance zu steigern ohne dabei das in ihren Augen gewünschte Ziel zu verfehlen, dann kann man das imho nicht als cheating bezeichnen

ehm, würd ich so nicht sagen, weil wenn beim start von game auf einmal "nvidia" steht, sind gelder geflossen, also kann man das nur dann so stehen lassen wie du sagst, wenn der spieleentwickler KEINERLEI!! zuschüsse seitens NV bekommen hat.

Troyan
2018-09-15, 12:41:17
ich sehe nicht wieso dlss die latenz erhöhen sollte.. eher verringert es sie:

die latenz beginnt nicht erst nach Ende der normalen render pipe, sondern an ihrem Beginn.
wenn die normale render pipe also 20 ms dauert, dann ist das zb mehr als 15ms reduzierte Auflösung + 2 ms upscaling unter dlss..

in dem Zusammenhang sehe ich den Sinn von DLSS bei ohnehin sehr hohen frameraten Schwinden, da das upscaling sicher immer ähnlich lange benötigt. damit kann bei hohen fps das volle rendern schneller werden als reduziertes rendern + upscaling

Dafür gibt es den DLSS 2x Modus. Statt mit 120FPS spielt man dann mit 100FPS und erhält eine Qualität, die einmalig ist.

/edit: Hardwareluxx hat ein Video zu Adative Shading: https://www.youtube.com/watch?v=LCT7pF6HrIg

Hübie
2018-09-15, 13:20:34
Bitte im (P)review-Thread sämtliche Links rein knallen. Danke! :up:

RTX 2080 (Ti) (P)review Thread (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11800748#POST11800748)

mironicus
2018-09-15, 15:17:15
https://www.designbyhumans.com/shop/t-shirt/men/rtx-on-tee-shirt/1007244/

pixeljetstream
2018-09-15, 15:50:10
Wenn Entwickler etwas einbauen um die Performance zu steigern ohne dabei das in ihren Augen gewünschte Ziel zu verfehlen, dann kann man das imho nicht als cheating bezeichnen. Gibt ja heute genügend Beispiele bei denen sich Entwickler bedienen können um die Komplexität einer Szene zu verändern ohne viel an Rechenzeit investieren zu müssen. Den umgekehrten weg zu gehen und mit nicht ins Auge springenden Einsparungen die Performance zu steigern ist doch völlig legitim.

Genau, das ist ja gerade die Optimierungskunst der Entwickler. Es wäre schön wenn sich mehr Leute ernsthaft Mal anschauen was für Techniken es gibt welche coolen Optimierungen etc. Das nun pauschal als Betrug zu bezeichnen ist schon merkwürdig, Betrug an was? Den einzig wahren Pixel gibt es eh nicht ;)

Die Entwickler sind doch von sich aus interessiert flotte Lösungen zu finden.

Das einzige was wir im Moment haben ist das ein Hersteller nun deutlich mehr Möglichkeiten den Entwicklern bietet. Aber das was gut ankommt wird sich auch verbreiten (das war bei aller Technik vorher auch so, nur es ist schon länger her).

Den qualitativen Vergleich macht praktisch ja eh jeder, wenn wir die settings im Spiel wählen die für uns der beste Kompromiss aus Optik und Performance sind.

Daredevil
2018-09-15, 16:17:28
NVIDIA told us that we couldn't take apart the new RTX 2080 Ti at the last minute, but then others posted tear-downs and that eliminated the requirement to adhere to this weird rule.
;D
3C9GuizA5ks

aufkrawall
2018-09-15, 16:29:44
Ich frag mich, ob die Architektur überhaupt irgendeine erwähnenswerte Schwäche haben wird? Es zeichnet sich ja jetzt schon ab, dass bei Compute- und LL-APIs gegenüber Pascal mächtig aufgedreht wird. Da bräuchte es dann gar nicht mal RT/DL, um AMD völlig fertig zu machen. :freak:

Dural
2018-09-15, 16:31:26
Der Die ist einfach gross ;)

Hat eigentlich schon jemand versucht den speicher baustein der fehlt drauf zu löten? Bei zb. 1080ti.

dildo4u
2018-09-15, 16:31:58
Wenn man es negativ sieht erbt sie einiges von Vega für volle Auslastung braucht man vermutlich Async Compute und FP 16.

Raff
2018-09-15, 16:33:42
Ich frag mich, ob die Architektur überhaupt irgendeine erwähnenswerte Schwäche haben wird? Es zeichnet sich ja jetzt schon ab, dass bei Compute- und LL-APIs gegenüber Pascal mächtig aufgedreht wird. Da bräuchte es dann gar nicht mal RT/DL, um AMD völlig fertig zu machen. :freak:

Das Hauptproblem dürfte sein, dass man nicht so stark von GP102 wegkommt, wie sich das manche wünschen (Vergleich GM200 -> GP102). Und FP64-Performance ist recht sucky – dieses Schicksal teilen sich aber alle aktuellen GPUs, wenn man von GV100 und Vega 20 absieht. Der Rest ist in der Tat übermächtig, weil überall aufgemotzt.

MfG,
Raff

Dural
2018-09-15, 16:41:02
FP64 dürfte der kundengruppe von turing ziemlich egal sein.

Unter der berücksichtigung das keine neue fertigung zur verfügung stand, ist schlicht auch nicht mehr möglich.

JaniC
2018-09-15, 16:44:06
Upgrade auf 2080 Ti von einer 1080 würde man schon spüren, aber der Preis ist einfach abartig.
Was mach ich bloss? 2080 ist mir das Upgrade irgendwie nicht genug für den Preis.

Naja, mal die richtigen, unabhängigen Benches abwarten. Aber jetzt haben wir immerhin einen Anhaltspunkt (beziehe mich auf diese Leaks (https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled#disqus_thread) von Videocardz).

Schnäppchenjäger
2018-09-15, 16:59:15
Upgrade auf 2080 Ti von einer 1080 würde man schon spüren, aber der Preis ist einfach abartig.
Was mach ich bloss? 2080 ist mir das Upgrade irgendwie nicht genug für den Preis.

Naja, mal die richtigen, unabhängigen Benches abwarten. Aber jetzt haben wir immerhin einen Anhaltspunkt (beziehe mich auf diese Leaks (https://videocardz.com/77983/nvidia-geforce-rtx-2080-ti-and-rtx-2080-official-performance-unveiled#disqus_thread) von Videocardz).Stark bleiben und abwarten ;)
Die nächste Generation wird's für dich richten. Für 1440p reicht deine 1080 doch noch locker. Ich bezweifle, dass du auf 4K zockst.

gravitationsfeld
2018-09-15, 17:04:04
Ich frag mich, ob die Architektur überhaupt irgendeine erwähnenswerte Schwäche haben wird? Es zeichnet sich ja jetzt schon ab, dass bei Compute- und LL-APIs gegenüber Pascal mächtig aufgedreht wird. Da bräuchte es dann gar nicht mal RT/DL, um AMD völlig fertig zu machen. :freak:
Vega in 7nm sollte schnell genug sein bis Navi um zumindest nicht voellig unterzugehen.

JaniC
2018-09-15, 17:20:28
Für 1440p reicht deine 1080 doch noch locker. Ich bezweifle, dass du auf 4K zockst.

Korrekt, 1440p. 60fps sind auch weitestgehend kein Problem, aber dank 144hz G-Sync will man natürlich immer soviele fps wie möglich.
Was aber eigentlich albern ist; Spiele wie The Witcher 3 oder AssCreed Origins fühlen sich mit 60-80fps absolut flüssig an.
Bei PUBG z.b. sind 60fps mies, aber da habe ich ja auch 120-140fps.
Eigentlich ist kein Upgrade notwendig, aber darum geht's ja nicht. ;) MOAR!

woodsdog
2018-09-15, 17:39:11
Genau, das ist ja gerade die Optimierungskunst der Entwickler. Es wäre schön wenn sich mehr Leute ernsthaft Mal anschauen was für Techniken es gibt welche coolen Optimierungen etc. Das nun pauschal als Betrug zu bezeichnen ist schon merkwürdig, Betrug an was? Den einzig wahren Pixel gibt es eh nicht ;)

Die Entwickler sind doch von sich aus interessiert flotte Lösungen zu finden.

Das einzige was wir im Moment haben ist das ein Hersteller nun deutlich mehr Möglichkeiten den Entwicklern bietet. Aber das was gut ankommt wird sich auch verbreiten (das war bei aller Technik vorher auch so, nur es ist schon länger her).

Den qualitativen Vergleich macht praktisch ja eh jeder, wenn wir die settings im Spiel wählen die für uns der beste Kompromiss aus Optik und Performance sind.

Ich beziehe mich bei der Kritik an den Schatten auf die Vergleichsbilder welche direkt von NV kamen. Das Originalbild sieht objektiv hochwertiger aus.
Wenn der "optimierte" variante dazu führt, dass die quali - wie dort zu sehen - wie eine Schatten-Stufe weiter unten im Setting aussieht, ist die Sache komplett sinnbefreit.
Dann greift eben irgendwie schon das wort "cheat" wenn 2 Karten auf "Ultra" verglichen werden und ein IHV schatten so weit "optimiert" das die Qualität sichtbar leidet.
Ich behaupte nicht, dass sie cheaten. Im moment sieht das Ergebniss - wie schlau es auch entstanden sein mag - aber leider genau so aus als würden sie. Das Feature ist an der Stelle schlicht mangelhaft.

fondness
2018-09-15, 17:50:52
Ich frag mich, ob die Architektur überhaupt irgendeine erwähnenswerte Schwäche haben wird? Es zeichnet sich ja jetzt schon ab, dass bei Compute- und LL-APIs gegenüber Pascal mächtig aufgedreht wird. Da bräuchte es dann gar nicht mal RT/DL, um AMD völlig fertig zu machen. :freak:

Solange NV die Preise nicht deutlich anpasst, dürfte das AMD relativ egal sein. Der GPU-Markt >500USD ist überschaubar. Ich bin gespannt, wo TU106 mit seinen 445mm²@12nm Preis und Performacemäßig landet. Immerhin ist das Ding nur minimal kleiner als GP102@16nm.

pixeljetstream
2018-09-15, 17:59:13
@woodsdog. Was wie eingesetzt unter welchen settings liegt am Software Hersteller nicht am IHV. Das passiert nicht im Hintergrund. Wenn die Features den Entwicklern gefallen und sie sich bewähren, erzeugen sie Druck dass andere Hersteller sowas auch können.
Standbilder können nicht wiedergeben wie die Qualität wirkt, ob Du lieber mehr framerate hast oder nicht liegt dann ja an Dir/bzw. den settings die der sw Hersteller zur Verfügung stellt.

woodsdog
2018-09-15, 18:02:51
@woodsdog. Was wie eingesetzt unter welchen settings liegt am Software Hersteller nicht am IHV. Das passiert nicht im Hintergrund. Wenn die Features den Entwicklern gefallen und sie sich bewähren, erzeugen sie Druck dass andere Hersteller sowas auch können.
Standbilder können nicht wiedergeben wie die Qualität wirkt.

Ja, versteh ich. Für mich als Endverbraucher ist es aber schlicht doof - egal wer den Unsinn letztlich verbrochen hat. ;)
Ich brauche keine "Optimierungen" welche mir qualität sichtbar wegoptimieren und auch noch die Vergleichbarkeit zerstören. ;( DAS ist mein Problem damit.

Edit:
So lange optinonal mit extra Schalter im Optionsmenü bleibt, ists natürlich OK. Kann dann jeder selbst entscheiden ob die FPS die schlechteren Schatten wert sind.

w0mbat
2018-09-15, 18:24:23
Solange NV die Preise nicht deutlich anpasst, dürfte das AMD relativ egal sein. Der GPU-Markt >500USD ist überschaubar. Ich bin gespannt, wo TU106 mit seinen 445mm²@12nm Preis und Performacemäßig landet. Immerhin ist das Ding nur minimal kleiner als GP102@16nm.

Da die 2070 preislich im Bereich einer 1080Ti liegt, muss sie schneller sein.

woodsdog
2018-09-15, 18:28:11
Da die 2070 preislich im Bereich einer 1080Ti liegt, muss sie schneller sein.

Muss sie nicht zwangsläufig. die 2070 hat schließlich den ganzen neuen shizzle mit on board.
auserdem ist die Nummer größer ;)

Spasstiger
2018-09-15, 18:34:02
Die RTX 2070 und die GTX 1080 Ti werden sich vermutlich auf ähnlichem PL einpendeln.

Raff
2018-09-15, 18:38:59
Lest mal das Whitepaper. Die RTX 2070 rechnet mit gut halb so vielen ALUs wie die RTX 2080 Ti. Wie soll die damit wirklich schnell werden? ;) Der Chip hat viel Cache & Stuff, aber zaubern kann das Ding nicht.

MfG,
Raff

dargo
2018-09-15, 18:41:23
Da die 2070 preislich im Bereich einer 1080Ti liegt, muss sie schneller sein.
Wie soll das funktionieren wenn schon laut dem ersten Leak die 2080 nur 13% schneller als die 1080TI ist?
https://www.3dcenter.org/news/nvidia-verspricht-mittels-offizieller-benchmarks-43-mehrperformance-von-pascal-zu-turing

Wenn du zudem ne Custom 1080TI für einen fairen Vergleich nimmst bleibt von den 13% fast nichts mehr übrig.

fondness
2018-09-15, 18:45:14
Wie soll das funktionieren wenn schon laut dem ersten Leak die 2080 nur 13% schneller als die 1080TI ist?
https://www.3dcenter.org/news/nvidia-verspricht-mittels-offizieller-benchmarks-43-mehrperformance-von-pascal-zu-turing

Wenn du zudem ne Custom 1080TI für einen fairen Vergleich nimmst bleibt von den 13% fast nichts mehr übrig.

Das sind noch dazu NV Angaben, die das neue Produkt wohl kaum in schlechtes Licht rücken.

Fragman
2018-09-15, 18:45:43
Solange NV die Preise nicht deutlich anpasst, dürfte das AMD relativ egal sein.

Ich seh da eher das Problem, das viele Devs wohl die nv Hardware kaufen und darauf entwickeln werden. Dieser Vorsprung koennte Probleme machen, wenn Navi mit aehnlichen Features in 12-16 Monaten aufschlaegt.

Menace
2018-09-15, 18:53:00
Lest mal das Whitepaper. Die RTX 2070 rechnet mit gut halb so vielen ALUs wie die RTX 2080 Ti. Wie soll die damit wirklich schnell werden? ;) Der Chip hat viel Cache & Stuff, aber zaubern kann das Ding nicht.


Während "Upsampling"/DLSS da durchaus etwas bringt, bin ich gespannt ob eine schmalbrüstigere RTX 2070 dann das RT-On wirklich umsetzen kann.

Kann man schon sagen, ob es da in Zukunft je nach erkannter Grafikkarte dann semi-RT und sonstige Unterscheidungen zwischen RT kommt?

dargo
2018-09-15, 19:17:55
Das sind noch dazu NV Angaben, die das neue Produkt wohl kaum in schlechtes Licht rücken.
Naja... nur Rosinen scheint man sich nicht dabei ausgesucht zu haben, siehe bsw. Hitman.

Für mich sieht das immer mehr danach aus... die 2070 ist die neue 1080 Custom. Die 2080 die neue 1080TI Custom mit 3GB weniger Vram und die 2080TI mit etwa +30-35% die schnellste Karte vor der 1080TI Custom. Letzteres ist fette 60% größer. Bei der Mehrleistung eigentlich enttäuschend. Da gibts aber noch diverse neue Features die erstmal zünden müssen. ;)

blaidd
2018-09-15, 21:40:31
Da die 2070 preislich im Bereich einer 1080Ti liegt, muss sie schneller sein.

[EDIT:] (Abzüglich Raytracing) Keine Chance.

Digidi
2018-09-15, 21:47:02
lol und es geht wieder los:

https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-ti-verwirrende-angaben-auf-offiziellen-folien,3334678.html

Troyan
2018-09-15, 21:48:38
Naja, der Preis der FE liegt bei 639€. Das ist günstiger als die billigsten Custom-Karten der GTX1080TI vor dem Abverkauf. Sind die AIBs rund 50€ günstiger, ist der Abstand viel größer und damit eher die GTX1080 als "Gegner".

Digidi
2018-09-16, 01:18:22
Hmm, weil,ja wieder die Streaming Sache bei Konsolen hochkocht. Kann es sein das NVIDIA die Preise deshalb so hoch ansetzt weil sie die Leute ins Streaming oder Leasing treiben wollen?

Würde mich nicht wundern wenn in 1-2 Monaten man real-time Raytracing stream macht.

Rampage 2
2018-09-16, 02:02:50
Alle RTX-Karten sind zu teuer - die 2070 & 2080 jeweils mindestens 100€ und die 2080 Ti sogar (mindestens) 200€ zuviel!

Ich bin echt gespannt, ob NV auch diesmal damit durchkommt - aber mein Gefühl sagt mir, dass sie diesmal die Grenze endgültig überschritten haben... hoffen wir, dass diese Politik der Dreistigkeit endlich nach hinten losgeht und nur Wenige diese Karten kaufen! Denn dann besteht die Chance, dass NV reagieren muss und die Preise korrigiert...

Aber ansonsten sind die RTX-Karten ganz tolle Karten und auch technisch höchst interessant (neue Architektur, TCs, RTCs, DLSSAA) - nur die Preisgestaltung ist einfach völlig überzogen! 700$ für einen MidRange-/Performance-Chip, der dann auch noch eine Salvage ist:crazy2:

R2

BiZiNiZz
2018-09-16, 03:15:47
Könntet ihr endlich euch scheiß Preis Diskussion in einem neuen Thread machen.

Die Preise stehen fest, also lebt damit.....

Hier geht es um Infos und nicht um Preis Diskussionen................

Adam D.
2018-09-16, 08:20:57
2080Ti wohl um eine Woche verschoben.

https://www.anandtech.com/show/13370/nvidia-delays-rtx-2080ti-general-availability-by-week-to-sept-27

HOT
2018-09-16, 10:05:33
Wenn die 2070 die Leistung einer 1080/V64 bietet wird sich der Preis eh um die 500€ einpendeln, Preisdiskussionen sind eh lächerlich, vor allem vor dem Launch.

Adam D.
2018-09-16, 10:14:16
Wenn die 2070 die Leistung einer 1080/V64 bietet wird sich der Preis eh um die 500€ einpendeln, Preisdiskussionen sind eh lächerlich, vor allem vor dem Launch.
Die offensichtlichste Lösung ist doch zwischen 1080 und Ti, mit einem Preis zwischen, Überraschung, 1080 und Ti. Dazu muss sie ca 30% zum Vorgänger zulegen, das wird mit 450mm2 wohl kein riesiges Problem darstellen.

Godmode
2018-09-16, 10:14:47
Wenn die 2070 die Leistung einer 1080/V64 bietet wird sich der Preis eh um die 500€ einpendeln, Preisdiskussionen sind eh lächerlich, vor allem vor dem Launch.

Sehe ich auch so. Vor allem bringt das Aufregen nichts. Das einzige was etwas bringt, ist die Karten nicht zu kaufen.

Ich ging ja bisher immer davon aus, dass Nvidia die Preise jetzt absichtlich sehr hoch ansetzt, um die großen Pascal Karten noch los zu werden. Wenn ich mir dann aber den fetten Kühler und die riesigen Dies ansehe, könnte das preislich schon so kalkuliert sein, dass die Marge nicht schlechter ist als bei Pascal.

Man kann noch auf eine Preissenkung hoffen, z.B. vor Weihnachten oder danach.

=Floi=
2018-09-16, 10:20:32
ein geringerer preis macht auch deswegen keinen sinn, weil man die stückzahl wohl gar nicht liefern könnte. Eine 280ti für 500€ würde sich wohl zigmal besser verkaufen. Das könnte man wohl eh nicht herstellen und noch dazu würde man den profi karten die chips nehmen.

=Floi=
2018-09-16, 10:30:59
https://www.tomshw.de/2018/09/15/nvidia-selektiert-vor-binning-mit-3-qualitaetsstufen-fuer-die-rtx-2080-und-rtx-2080-ti/

Dies schlägt derbe auf den Magen

FE also sicherlich TOP und die Billighersteller bekommen den Ramsch...
Da ist alles ausser FE nun Glücksache und auch das OC schlägt ins Ungewisse!


da hat igor aber nicht wirklich viel geschrieben und bei pascal war es auch mehr egal. die 100mhz sind das geld nicht wert.
Unterm strich fahren die OC karten einfach mit mehr vcore und höherem power budget.

Dural
2018-09-16, 10:43:56
Pures marketing!

Da wird überhaupt nichts ausgetestet, da wird geschaut ob der chip/karte den ziel-takt mit macht, jedes mhz mehr ist danach reines glück.

Und ja ich weis das genau, ich habe in meinem leben schon hunderte grafkkarten übertaktet. Ich hatte mal eine ultra super gute oc karte, die sagen und schreibe kein einziges mhz mehr stabil schafte. Im schnitt liefen die ganz normalen stock karten höher! Und das ist ein beispiel von vielen.

Hübie
2018-09-16, 13:03:39
Ja und dass sich etwas am binning verändert ist dir nicht aufgefallen (die Kurve aus Takt- und Spannungzugabe wird immer flacher)? Es wird immer mehr gebinned und ab Turing übernimmt NVIDIA sogar das Zepter für die, ohnehin angepissten, AIBs. Wie Floi sagt wird zur Not einfach das (restriktive*) Powerbudget und / oder Spannung angehoben...

*1070 Ti anyone? :uponder:

=Floi=
2018-09-16, 13:38:09
die 2080Ti founders hat 10 watt mehr power budget :rolleyes:
Auch eine blöde differenzierung.

Vergleicht man die alten karten, so hatten auch die ultras/topmodelle mehr watt
Dann wird einem auch klar, warum manche karten so gut taktbar waren bzw. man mit den normalen karten da nicht hinkam ohne voltmod.

Tamagothi
2018-09-16, 14:10:14
https://www.tomshw.de/2018/09/15/nvidia-selektiert-vor-binning-mit-3-qualitaetsstufen-fuer-die-rtx-2080-und-rtx-2080-ti/

Dies schlägt derbe auf den Magen

FE also sicherlich TOP und die Billighersteller bekommen den Ramsch...
Da ist alles ausser FE nun Glücksache und auch das OC schlägt ins Ungewisse!


Vorher wahren alle Chips gleich wert. Jetzt will man die besseren mit z.B. 20% mehr verkaufen :freak:

Anders gesagt. Die kosten die vorher Boardpartner getragen hatten und evtl. Gewinn damit gemacht haben will jetzt Nvidia sehen^^

Screemer
2018-09-16, 14:46:41
Der nächste Schritt wäre dann die aibs komplett zu kicken und alles selbst zu vermarkten. Würde mich ehrlich gesagt nicht wundern. Müssen die aibs heute schon gpu+RAM im bundle kaufen, kommen jetzt noch mehr binnings dazu und als nächstes gibt's Karten nur noch direkt von NV.

Komische Vorstellung.

Spasstiger
2018-09-16, 14:51:27
Eher wird NV den einen oder anderen AiB übernehmen als dass sich NV entsprechende Vertriebs-, Lager- und Produktionskapazitäten selbst aufbaut.

Effe
2018-09-16, 14:52:45
NV wird immer mehr zu Apple. Eigentlich müsste Apple sie aufgrund Copyright verklagen.

Raff
2018-09-16, 14:53:55
Eher wird NV den einen oder anderen AiB übernehmen als dass sich NV entsprechende Vertriebs-, Lager- und Produktionskapazitäten selbst aufbaut.

PNY könnte dafür herhalten.

NV wird immer mehr zu Apple. Eigentlich müsste Apple sie aufgrund Copyright verklagen.

:ulol: :uup:

MfG,
Raff

Mancko
2018-09-16, 14:54:47
Der nächste Schritt wäre dann die aibs komplett zu kicken und alles selbst zu vermarkten. Würde mich ehrlich gesagt nicht wundern. Müssen die aibs heute schon gpu+RAM im bundle kaufen, kommen jetzt noch mehr binnings dazu und als nächstes gibt's Karten nur noch direkt von NV.

Komische Vorstellung.

Schau Dir mal Samsung, Apple, Autohersteller & Co an. Über all das gleiche Prinzip. Mehr Kontrolle, Plattform und Outsourcing der Produktionsrisiken. Ehrlich gesagt ist das nicht komisch sondern konsequente Ausweitung der eigenen Wertschöpfung.

Ja irgendwann wird es einige AIBs zerbröseln. Das ist definitiv fakt. Viele von denen braucht es auch einfach nicht.

Screemer
2018-09-16, 14:55:56
Eher wird NV den einen oder anderen AiB übernehmen als dass sich NV entsprechende Vertriebs-, Lager- und Produktionskapazitäten selbst aufbaut.
Das ist ja eh klar. Ging eigentlich davon aus, dass das klar ist. Niemand stampft das heute noch aus dem Boden, wenn man einfach evga oder pny, die bauen eh schon alle quadros, kaufen könnte. Natürlich auch irgendwen anders.

Mancko
2018-09-16, 14:58:13
Eher wird NV den einen oder anderen AiB übernehmen als dass sich NV entsprechende Vertriebs-, Lager- und Produktionskapazitäten selbst aufbaut.

Die brauchen keinen AIB übernehmen. Die brauchen im Grunde nur Fläche in den Stores, Präsenz bei Online Shops wie Amazon und am Ende ihren eigenen Online Shop. Produktion lagert man lieber aus. Wozu selber produzieren? Die Top Konzerne in der westlichen Welt wälzen das Produktionsrisiko auf Zulieferer ab die sich gegenseitig unterbieten dürfen. Bestes Beispiel Apple. Aber auch die deutsche Autoindustrie produziert nicht mehr so viel selber. Sie schraubt halt am Ende noch selber zusammen bzw. finalisiert und das auch nur wegen der Komplexität. Aber ansonsten haben die auch schon vor 20 Jahren angefangen immer mehr abzuwälzen.

Am Ende ist das meißte Kapital halt die Entwicklung, die Software bzw. das Ökosystem drum herum und last but not least die Marke. Alles andere ist austauschbar. Daher haben m.E. viele der AIBs langfristig keine Perspektive mehr. Mit jeder neuen Generation wird m.E. Nvidia wieder einen kleinen Teil des Kuchens übernehmen.

Digidi
2018-09-16, 15:25:34
Die brauchen keinen AIB übernehmen. Die brauchen im Grunde nur Fläche in den Stores, Präsenz bei Online Shops wie Amazon und am Ende ihren eigenen Online Shop. Produktion lagert man lieber aus. Wozu selber produzieren? Die Top Konzerne in der westlichen Welt wälzen das Produktionsrisiko auf Zulieferer ab die sich gegenseitig unterbieten dürfen. Bestes Beispiel Apple. Aber auch die deutsche Autoindustrie produziert nicht mehr so viel selber. Sie schraubt halt am Ende noch selber zusammen bzw. finalisiert und das auch nur wegen der Komplexität. Aber ansonsten haben die auch schon vor 20 Jahren angefangen immer mehr abzuwälzen.

Am Ende ist das meißte Kapital halt die Entwicklung, die Software bzw. das Ökosystem drum herum und last but not least die Marke. Alles andere ist austauschbar. Daher haben m.E. viele der AIBs langfristig keine Perspektive mehr. Mit jeder neuen Generation wird m.E. Nvidia wieder einen kleinen Teil des Kuchens übernehmen.

Auch wenn ich jetzt grüner Fanboy wäre würde ich gerade aus diesem Grund auf die Partnerkarten warten.

Korvaun
2018-09-16, 15:55:05
Nächste Generation dann von nV: komplette Karten ohne Kühler (verschiedene Preise für bessere OC-Modelle) und die üblichen Klitschen dürfen dann noch gnädigerweise einen eigenen Kühler montieren...

=Floi=
2018-09-16, 15:58:39
So wie es läuft hat man doch die kontrolle und schöpft das meiste vom gewinn ab. Man ist sehr schlank aufgestellt und geht auch immer mehr in richtung software. Die ganze produktion kostet doch nur unmengen an geld.

hasebaer
2018-09-16, 15:59:27
Was mich bei der RTX 2080 TI FE interessiert ist, die Frage ob der NV Link hier microruckler entgültig beseitigen kann? Man hat ja jetzt ~ 10fache der Bandbreite, ggü einer SLI HB Bridge.

aufkrawall
2018-09-16, 16:02:12
Was mich bei der RTX 2080 TI FE interessiert ist, die Frage ob der NV Link hier microruckler entgültig beseitigen kann? Man hat ja jetzt ~ 10fache der Bandbreite, ggü einer SLI HB Bridge.
Die Mikroruckler ergeben sich aus AFR allgemein und nicht der mangelnden Bandbreite des Interconnects. Allerdings neigen vernünftige DX12-Implementierungen wohl eh nicht mehr dazu. Bleibt noch der erhöhte Input Lag, AFR ist und bleibt ugly.

TurricanM3
2018-09-16, 16:49:49
Ich kann immer wieder nur sagen, eine Karte ohne G-Sync fühlt sich deutlich microruckeliger an als zwei im SLI mit G-Sync. Oder ich hab die falschen Spiele damit getestet.

Hübie
2018-09-16, 16:55:17
Die Mikroruckler ergeben sich aus AFR allgemein und nicht der mangelnden Bandbreite des Interconnects. Allerdings neigen vernünftige DX12-Implementierungen wohl eh nicht mehr dazu. Bleibt noch der erhöhte Input Lag, AFR ist und bleibt ugly.

Sehe ich genauso. Es ist einfach eine Lösung voller Kompromisse und in heutigen Zeiten hat, meiner Wahrnehmung nach, kein Entwickler mGPU auf der Agenda des Projektmanagements.

robbitop
2018-09-16, 16:58:45
mGPU ist praktisch eh tot. Die Verbreitung von sinnvoll funktionierenden Implementierungen sinkt immer weiter.

Hübie
2018-09-16, 17:02:38
Zu Recht. Nach Kepler bin ich davon abgesprungen. Wir werden (möglicherweise) mGPU in anderer Form einmal wiedersehen, aber weder mit zwei Karten, noch AFR.

TGKlaus
2018-09-16, 17:16:21
Zu Recht.

Der Aussage kann ich nur mitgehen, wenn sie direkt AFR betrifft.

Industriell werden auch andere (seit mehr als 10 Jahre lang bekannte) Verfahren genutzt.

Warum das im Gamingbereich nicht so ist, ist mir absolut unklar.

mironicus
2018-09-16, 17:59:27
mGPU ist praktisch eh tot. Die Verbreitung von sinnvoll funktionierenden Implementierungen sinkt immer weiter.

MultiGPU macht momentan auch nur Sinn in Laptops. Stromsparende Intel-GPU bei 6-10 Watt, bei Games dann die Hochleistungs-GPU von NVidia/AMD. Es gibt auch Anwendungen, bei denen man beide GPUs gleichzeitig nutzen kann, wie z.B. bei Videoschnittprogrammen.

Es liegt doch auch am Betriebssystem wie man die Resouren nützlich verteilen könnte. Perfekt wäre ja wenn man einfach xbeliebige Karten in ein System stecken könnte, und dann proportional die Gaming-Leistung steigen würde, so wie z.B. beim Mining.

Stellt euch mal vor folgende Situation wäre möglich:
Du hast eine 1080 Ti und spielst Witcher in 4K und ärgerst dich darüber, das du nicht konstant 60 FPS erreichst.

Lösung: Du hast noch eine alte Radeon 7970 und steckst sie in einen freien Slot, und schon läuft Witcher 3 in 4K konstant über 60 FPS, die Leistung der 7970 wird zu 100% auf die Leistung der 1080Ti addiert. :freak:

Hübie
2018-09-16, 19:02:37
Der Aussage kann ich nur mitgehen, wenn sie direkt AFR betrifft.

Industriell werden auch andere (seit mehr als 10 Jahre lang bekannte) Verfahren genutzt.

Warum das im Gamingbereich nicht so ist, ist mir absolut unklar.

Vermutlich liegt es am Unterschied zwischen dynamischen und statischen Inhalten. Aber das ist reine Spekulation meinerseits.

PHuV
2018-09-16, 19:09:52
Am Ende ist das meißte Kapital halt die Entwicklung, die Software bzw. das Ökosystem drum herum und last but not least die Marke. Alles andere ist austauschbar. Daher haben m.E. viele der AIBs langfristig keine Perspektive mehr. Mit jeder neuen Generation wird m.E. Nvidia wieder einen kleinen Teil des Kuchens übernehmen.
Einen kleinen Vorteil für den Verbraucher hat es aber. Man wird nicht mehr zwischen Händler und Hersteller hin und her zerrieben, wenn man Garantie- und Gewährleistungsansprüche in Schadensfall hat. Mal sehen, wie sich hier Nvidia machen wird.

woodsdog
2018-09-16, 19:25:50
Einen kleinen Vorteil für den Verbraucher hat es aber. Man wird nicht mehr zwischen Händler und Hersteller hin und her zerrieben, wenn man Garantie- und Gewährleistungsansprüche in Schadensfall hat. Mal sehen, wie sich hier Nvidia machen wird.

Es wird minimal-intensiev damit umgegangen - was denn bitte sonst?
Warum sollte man auch mehr als das absolut Notwendige tun ohne wirkliche Mitbewerber?

Ich kann keinen Vorteil für mich als Verbraucher erkennen. :(

TobiWahnKenobi
2018-09-16, 19:28:56
ich spekuliere darauf - auch wenn mir die erfahrungen mit sämtlichen vorgängern, sowie mein bauchgefühl etwas anderes suggerieren - dass SLi nicht tot ist. nur wenn SLi nicht tot ist, macht meine (vor)bestellung sinn. mit einer einzelnen TI kann ich nicht viel anfangen. da fehlt für die investition eine steigerung. und das ist der punkt an der geschichte, wo freude hochkommt. denn wenn mGPU in den schönen neuen titeln nicht sklaliert, geht der ganz strunz zurück und dann habe ich richtig geld gespart. oder sie gehen für mächtig profit in die bucht, damit die hochgekommene freude übersprudelt. *gg*


(..)

mfg
tobi

woodsdog
2018-09-16, 19:31:38
nur wenn SLi nicht tot ist, macht meine (vor)bestellung sinn. mit einer einzelnen TI kann ich nicht viel anfangen.

Gute Nachricht: Es wird dich überraschen, aber die Welt dreht sich nicht ausschließlich um dich. :confused:

SLI ist tot. Gut so.
Und das wusstest du natürlich auch schon wie geschrieben.

Warum legst du so viel Wert darauf, wieder besseren Wissens den Längsten haben zu wollen?

Kriton
2018-09-16, 19:34:36
Einen kleinen Vorteil für den Verbraucher hat es aber. Man wird nicht mehr zwischen Händler und Hersteller hin und her zerrieben, wenn man Garantie- und Gewährleistungsansprüche in Schadensfall hat. Mal sehen, wie sich hier Nvidia machen wird.

Nur wenn Du direkt von Nvidia kaufst. Sobald Du über einen Retail-Händler gehst, hat sich das erledigt. Im Übrigen kannst Du das für die FE ja jetzt schon. Wo ist also der Vorteil?

Godmode
2018-09-16, 19:51:31
ich spekuliere darauf - auch wenn mir die erfahrungen mit sämtlichen vorgängern, sowie mein bauchgefühl etwas anderes suggerieren - dass SLi nicht tot ist. nur wenn SLi nicht tot ist, macht meine (vor)bestellung sinn. mit einer einzelnen TI kann ich nicht viel anfangen. da fehlt für die investition eine steigerung. und das ist der punkt an der geschichte, wo freude hochkommt. denn wenn mGPU in den schönen neuen titeln nicht sklaliert, geht der ganz strunz zurück und dann habe ich richtig geld gespart. oder sie gehen für mächtig profit in die bucht, damit die hochgekommene freude übersprudelt. *gg*


(..)

mfg
tobi

Verkaufst du halt die V wieder und hast dann trotzdem etwas mehr Leistung mit der 2080 Ti. Vielleicht kommt ja noch eine Titan RTX, dann kannst nochmal Geld rausballern. :wink:

Gute Nachricht: Es wird dich überraschen, aber die Welt dreht sich nicht ausschließlich um dich. :confused:

SLI ist tot. Gut so.
Und das wusstest du natürlich auch schon wie geschrieben.

Warum legst du so viel Wert darauf, wieder besseren Wissens den Längsten haben zu wollen?

Warum ist es gut das SLI tot ist? Wäre doch schön wenn man mit 2 Karten die doppelte Leistung hätte, sie wie das früher mal war.

TobiWahnKenobi
2018-09-16, 19:52:46
Gute Nachricht: Es wird dich überraschen, aber die Welt dreht sich nicht ausschließlich um dich. :confused:

SLI ist tot. Gut so.
Und das wusstest du natürlich auch schon wie geschrieben.

Warum legst du so viel Wert darauf, wieder besseren Wissens den Längsten haben zu wollen?

wider.

die antwort auf deine frage steht doch schon in dem posting, aus dem du einen satz herausgerissen hast.

was den längsten rein polemisch angeht -> ich habe lieber einen dicken als einen langen. einen langen brauchst du doch nur, wenn deine docking-station einen fetten arsch hat ;)


(..)

mfg
tobi

Hübie
2018-09-16, 20:12:51
Es steht euch frei Pimmel-Pics auszutauschen, aber hat hier nix zu suchen.
@Tobi: Der Vollausbau dürfte sich in 95% der Fälle bei leicht höheren Taktraten etwa auf Augenhöhe mit der TV befinden. Ich sehe für dich da auch keine Notwendigkeit. SLi wird wohl bei den AAA Titeln mehr oder weniger gut laufen, aber sobald es Abseits geht ist essig mit hohen Framerates etc.
Von der Technikaffinität die du hast macht ein Umrüsten Sinn, aber sonst bezweifle ich dass du noch gutes Geld für die TV bekommst um quasi 1:1 ein TU102-SLi-Gespann zu erhalten. Wobei es natürlich nice wäre. Was schätzt du, bekommst du für TV aktuell noch? :uponder:

Raff
2018-09-16, 20:20:50
Glaubt hier jemand, dass die Titan V der RTX 2080 Ti unterliegt? Oder, genauer, glaubt jemand, dass Turing pro Takt besser rasterisiert als Volta? Dafür gibt es im Whitepaper keinen Anlass. Vielleicht habe ich auch etwas übersehen.

Die Titan V ist stark, sehr stark. Ab Werk wird sie jedoch von ihrem schwachen Kühler ausgebremst, das Potenzial wird geradezu maskiert. Dieses Problem hat Tobi bereits beseitigt. Fast 2 GHz, 5.120 FP32-ALUs plus INT32-Kollegen: Was will man mehr? Raytracing, ja, aber sonst? Die Kiste hat ja sogar mehr Tensorkerne als Turing; nur die Fähigkeit für schnellere Integerformate fehlt.

MfG,
Raff

woodsdog
2018-09-16, 20:20:52
Verkaufst du halt die V wieder und hast dann trotzdem etwas mehr Leistung mit der 2080 Ti. Vielleicht kommt ja noch eine Titan RTX, dann kannst nochmal Geld rausballern. :wink:

Warum ist es gut das SLI tot ist? Wäre doch schön wenn man mit 2 Karten die doppelte Leistung hätte, sie wie das früher mal war.

ja, wäre auch toll wenn ich - wie von mironicus gepostet - einfach ne 7970 zu einer Titan <wasauchimmer> dazu stecke und plötzlich hab ich stable 60 FPS.
Ist halt nun mal leider mit der aktuellen Technik nicht drin. Beides.

Wäre auch toll wenn ich 500 Jahre alt werde oder Schweine fliegen könnten.
Um was genau geht es hier?

woodsdog
2018-09-16, 20:23:04
Was will man mehr?

den Längsten/Dicksten wie ja von Tobiwanwursd schon gesagt. Sinn ist zweitrangig. Jeder wie Er/Sie/Es mag. v0v

Godmode
2018-09-16, 20:31:34
Glaubt hier jemand, dass die Titan V der RTX 2080 Ti unterliegt? Oder, genauer, glaubt jemand, dass Turing pro Takt besser rasterisiert als Volta? Dafür gibt es im Whitepaper keinen Anlass. Vielleicht habe ich auch etwas übersehen.

Die Titan V ist stark, sehr stark. Ab Werk wird sie jedoch von ihrem schwachen Kühler ausgebremst, das Potenzial wird geradezu maskiert. Dieses Problem hat Tobi bereits beseitigt. Fast 2 GHz, 5.120 FP32-ALUs plus INT32-Kollegen: Was will man mehr? Raytracing, ja, aber sonst? Die Kiste hat ja sogar mehr Tensorkerne als Turing; nur die Fähigkeit für schnellere Integerformate fehlt.

MfG,
Raff

Da die INT32 Einheiten jetzt parallel mit den FP32 Einheiten rechnen können, sollte die Auslastung noch etwas besser sein als noch bei Volta. Oder kann Volta das auch schon?

Edit: Ok Volta kann das ja auch schon. Hmm dann ists wirklich nur mehr der bessere Kühler und die RT-Cores. Das wäre es mir dann an seiner Stelle auch nicht wert, weil auf FullHD Raytracing habe ich keine Lust.

robbitop
2018-09-16, 20:32:07
MultiGPU macht momentan auch nur Sinn in Laptops. Stromsparende Intel-GPU bei 6-10 Watt, bei Games dann die Hochleistungs-GPU von NVidia/AMD. Es gibt auch Anwendungen, bei denen man beide GPUs gleichzeitig nutzen kann, wie z.B. bei Videoschnittprogrammen.

Es liegt doch auch am Betriebssystem wie man die Resouren nützlich verteilen könnte. Perfekt wäre ja wenn man einfach xbeliebige Karten in ein System stecken könnte, und dann proportional die Gaming-Leistung steigen würde, so wie z.B. beim Mining.

Stellt euch mal vor folgende Situation wäre möglich:
Du hast eine 1080 Ti und spielst Witcher in 4K und ärgerst dich darüber, das du nicht konstant 60 FPS erreichst.

Lösung: Du hast noch eine alte Radeon 7970 und steckst sie in einen freien Slot, und schon läuft Witcher 3 in 4K konstant über 60 FPS, die Leistung der 7970 wird zu 100% auf die Leistung der 1080Ti addiert. :freak:Dafür gibts VRR ;)

Damit das funktioniert was du sagst, muss mgpu wohl sehr tief im Spiel berücksichtigt werden - sicherlich nicht wenig Aufwand, weil man dafür AFR vergessen kann.
Wird kaum ein Studio machen da irrelevant für die Verkaufszahlen.

mironicus
2018-09-16, 21:04:56
Dafür gibts VRR ;)

Damit das funktioniert was du sagst, muss mgpu wohl sehr tief im Spiel berücksichtigt werden - sicherlich nicht wenig Aufwand, weil man dafür AFR vergessen kann.
Wird kaum ein Studio machen da irrelevant für die Verkaufszahlen.

Und wie sieht es aus mit der Idee zu einem Programm, was dem System eine virtuelle Grafikkarte vorgaukelt, und dieses Programm vereint dann mehrere Grafikkarten zu dieser einen virtuellen Karte? Dieser Ansatz sollte doch möglich sein, immerhin werden in virtuellen Maschinen ja auch GPUs jeder Art emuliert.

robbitop
2018-09-16, 21:28:34
Äh...nein.
Damit mGPU transparent für die Anwendung läuft, braucht es unglaublich viel Bandbreite und sehr geringe Latenz zwischen mehren GPUs. Das ginge, wenn dann nur auf einem Package. Und selbst das ist odfenbar kaum realisierbar. Kurzum: vergiss es.

Fliwatut
2018-09-16, 22:13:59
Die Titan V ist stark, sehr stark.
Dafür ist sie ja auch noch teurer ;D

Digidi
2018-09-16, 22:21:27
Äh...nein.
Damit mGPU transparent für die Anwendung läuft, braucht es unglaublich viel Bandbreite und sehr geringe Latenz zwischen mehren GPUs. Das ginge, wenn dann nur auf einem Package. Und selbst das ist odfenbar kaum realisierbar. Kurzum: vergiss es.

SLI funktionierte ja auch. Das ist ja das Seltsame. Ich glaube man muss halt einen Chip bauen der halt nicht 90% Pipline hat und 10% Kommunikation sondern halt 50% Pipline und 50% kommunikation

PHuV
2018-09-16, 22:43:27
Es wird minimal-intensiev damit umgegangen - was denn bitte sonst?
Warum sollte man auch mehr als das absolut Notwendige tun ohne wirkliche Mitbewerber?

Ich kann keinen Vorteil für mich als Verbraucher erkennen. :(
Ließ mal das hier
Sapphire RMA abgelehnt (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=586804&highlight=Alternate)
Sowas findest Du in zig Foren.

Tesseract
2018-09-17, 00:24:28
SLI funktionierte ja auch.


das einzige was jemals halbwegs performant funktioniert hat war AFR in engines ohne temporale komponenten und selbst da gab es haufenweise micro stutter.

Digidi
2018-09-17, 00:31:56
Es ist aber greifbar. Wenn man sieht wie lam PCIe ist... Wie gesagt man braucht eine gescheite Schnitstelle und NVLink und Xgmi sollten das sein...

Freestaler
2018-09-17, 00:36:39
Es ist aber greifbar. Wenn man sieht wie lam PCIe ist... Wie gesagt man braucht eine gescheite Schnitstelle und NVLink und Xgmi sollten das sein... hmm dann hätten doch die DualGPU Karten bereits besser links und keine Microruckler gehabt habe müssen... Habe die aber.

Locuza
2018-09-17, 00:36:58
Es ist aber greifbar. Wenn man sieht wie lam PCIe ist... Wie gesagt man braucht eine gescheite Schnitstelle und NVLink und Xgmi sollten das sein...
Nein oder ist NVLINK/XGMI mindestens so schnell wie die Anbindung zum Speicher, der internen Datenaustausch-Bandbreite vom Chip mal ganz zu schweigen?

Digidi
2018-09-17, 00:40:06
Nein oder ist NVLINK/XGMI mindestens so schnell wie die Anbindung zum Speicher, der internen Datenaustausch-Bandbreite vom Chip mal ganz zu schweigen?

Es läuft doch jetzt schon brauchbar! Es kommt halt auch drauf an wie man es macht! Wenn Daten z.B auf beiden GPUs gleichzeitig gehalten werden wird der Transfer und die Latenz minimal.

Nur mal mathematisch nachgedacht. Das sind Parallele Berechnungen die sollten sowieso relative unabhängig voneinander sein. Da sollte der Austausch an Daten relative minimal sein.

PHuV
2018-09-17, 01:25:53
Es ist aber greifbar. Wenn man sieht wie lam PCIe ist... Wie gesagt man braucht eine gescheite Schnitstelle und NVLink und Xgmi sollten das sein...
Na ja, sie hat bereits einige Jahren auf dem Buckel, und für den Consumerbereich ist PCIe 4.0 noch etwas hin (wenn AMD wirklich 2019 was liefern will). Selbst im Pro-Bereich findest Du das aktuell nur bei IBM und bei Nvidias Automobile-Lösung "Jetson Xavier" mit x8-Anbindung. Wenn 2019 schon mit PCI5e gerechnet wird (https://www.golem.de/news/pci-sig-pcie-express-5-0-kommt-2019-1709-129876.html), würde ich mal vermuten, daß man eher das gleich verwendet.

Digidi
2018-09-17, 01:28:38
Na ja, sie hat bereits einige Jahren auf dem Buckel, und für den Consumerbereich ist PCIe 4.0 noch weit weg. Selbst im Pro-Bereich findest Du das aktuell nur bei IBM.

Die Specs der 2080 nicht gelesen ;)
https://www.nvidia.com/de-de/geforce/graphics-cards/rtx-2080/

GEFORCE RTX NVLINK-BRÜCKE
Die GeForce RTX NVLink-Brücke verbindet zwei NVLink SLI-fähige Grafikkarten mit der 50-fachen Übertragungsbandbreite der vorherigen Technologien. Damit kannst du dich auf superflüssiges Gameplay bei maximalen Auflösungen in ultimativer Grafikqualität mit GeForce RTX 2080 Ti- und 2080-Grafikkarten verlassen.
@Raff
Könnt Ihr ein NVLink Benchmark machen?

JaniC
2018-09-17, 01:58:14
GjpQwqtvCZc

GamersNexus schnackt mit Tom Peterson von NVidia ein bisschen über Voltage Limits und Boost 4.0. (9 min)
Ganz interessant, finde ich.

aufkrawall
2018-09-17, 02:13:31
Von "offiziellem" UV (alles andere ist unter Luft spätestens seit TSMC 16nm ja ziemlich sinnfrei) war da aber irgendwie nichts zu hören?
Mir als Enthusiast geht solche hidden magic jedenfalls ziemlich auf den Senkel. Man kann viel rumlabern von wegen Kurven etc., letztlich will man Takt X bei Spannung Y.

Hübie
2018-09-17, 07:46:09
Wobei das meistens Kopfsache / Schmuck am Nachthemd ist. Es gibt (afaik) auch keine aktuellen* Nachweise über höhere Lebensdauer im Zusammenhang mit niedrigeren Spannungen (weil wohl schlicht niemand solche Langzeittests machen möchte). Der Zusammenhang aus niedrigen Temperaturen und Lebenszeit ist zwar da, aber ebenfalls nicht quantifiziert. Auch das Kostenersparnis auf der Energiekostenabrechnung macht sich doch nicht wirklich bemerkbar.
Die meisten User kümmert es nicht, welche Spannung X bei Takt Y verwendet wird.
Mit 'man' meinst du also tendenziell eher dich / jemand wie du. ;)

*aktuell deshalb weil man ab Werk bei NVIDIA schon deutlich näher am Optimum des sweet spot agiert.

robbitop
2018-09-17, 07:53:53
SLI funktionierte ja auch. Das ist ja das Seltsame. Ich glaube man muss halt einen Chip bauen der halt nicht 90% Pipline hat und 10% Kommunikation sondern halt 50% Pipline und 50% kommunikation

SLI war AFR. Mikroruckler. Außerdem wurde es je moderner die Renderpipelines wurden immer schwieriger von außen überstülpbar, bis es quasi nur noch über Glück mit verfügbaren Problemen ging. Mit temporaler Komponente (taa) war es nicht mehr kompatibel (außer txaa wenn beides explizit vom Spiel unterstützt). Und es gab einen Haufen an bugs und Problemen. Es hat halt kaum ein Studion in den letzten Jahren wirklich ernsthaft implementiert geschweige denn in der Qualitätskontrolle berücksichtigt. Manchmal haben Patches dann das Spiel mit AFR kaputter an bestimmten Aspekten gemacht (da nicht berücksichtigt). Seit DX12 muss es afaik explizit vom Entwickler umgesetzt werden. Und wie gesagt: es ist eine Nische. Wird nicht passieren. Und wenn es hin und wieder doch passiert, dann via afr mit all seinen Nachteilen.
Klassisches mGPU ist tot. Es ist die Diskussion nicht wert.

Es ist aber greifbar. Wenn man sieht wie lam PCIe ist... Wie gesagt man braucht eine gescheite Schnitstelle und NVLink und Xgmi sollten das sein...

Da ging nur weil es AFR war. Bei AFR braucht man nur wenig von der anderen gpu weil beide gpus an individuellen Bildern arbeiten. Seit der ppfx Aera brauchte man dann aber doch immer mehr Infos vom vorherigen Bild. Aber im Vergleich zu einer transparenten Lösung (wo beide gpus am gleichen Bild arbeiten und Zugriff auf den vram und die Caches, rops und commandprozessoren des jeweils anderen haben müssen) ist das quasi nichts an Anforderungen. Da hilft auch nvlink nicht. Größenordnungen zu lahm (latenz/bandbreite). Selbst auf dem gleichen Träger oder Silicon Interposer ist das wohl kaum machbar.

horn 12
2018-09-17, 08:06:01
Raff dämpft gerade die Performance Erwartungen von Turing im Vergleich zur GTX 1080TI etwas
Ob von NV das so gewollt, die erschienen Leaks der Performance und der Realität wohl eher fremd ?

Zitat von Raff:

Das Hauptproblem dürfte sein, dass man nicht so stark von GP102 wegkommt, wie sich das manche wünschen (Vergleich GM200 -> GP102). Und FP64-Performance ist recht sucky – dieses Schicksal teilen sich aber alle aktuellen GPUs, wenn man von GV100 und Vega 20 absieht. Der Rest ist in der Tat übermächtig, weil überall aufgemotzt.

MfG,
Raff

Linmoum
2018-09-17, 08:46:32
Ist doch nichts Neues. Hersteller-Benchmarks und in diesem Fall noch die deutlich bessere Kühllösung bei der 2080 FE, alleine die beiden Umstände werden ggü. 1080Ti-Customs in der Realität sicherlich schon 15% weniger Vorsprung als von Nvidia dargelegt ausmachen.

Knapp oberhalb der Titan V ist dann auch das, was realistisch ist.

Rancor
2018-09-17, 09:30:59
Keine der Turing Karten wird oberhalb der TITAN V sein, wenn man sie entfesselt, also DHE Crap Kühler runter und was richtiges drauf.

Außer in Raytracing natürlich.

BlacKi
2018-09-17, 09:31:42
http://youtu.be/GjpQwqtvCZc

GamersNexus schnackt mit Tom Peterson von NVidia ein bisschen über Voltage Limits und Boost 4.0. (9 min)
Ganz interessant, finde ich.
boost 4.0 enttäuscht etwas. damit meine ich nicht das v limit, sondern diese zwischenstufe, also das sich das temp limit und drehzahllimit kurzzeitig überdrehen lässt, danach aber doch zum gedachten temp/drehzahllimit wieder zurück geht.

macht vl auch gewisse probleme beim benchen, oder zumindest schwieriger.

Adam D.
2018-09-17, 10:05:01
Ist doch nichts Neues. Hersteller-Benchmarks und in diesem Fall noch die deutlich bessere Kühllösung bei der 2080 FE, alleine die beiden Umstände werden ggü. 1080Ti-Customs in der Realität sicherlich schon 15% weniger Vorsprung als von Nvidia dargelegt ausmachen.

Knapp oberhalb der Titan V ist dann auch das, was realistisch ist.
Und genau das wurde doch so bereits seit Monaten erwartet, abseits der NV- bzw. AMD-Jünger, die wieder in absurde Extreme ausschlagen.

Mich interessiert an Turing viel mehr, wie die architektonischen Veränderungen durchschlagen. Wenn hier, so wie es aussieht, für die Zukunft geplant wurde, wird ein Turing-Refresh in 7nm abgehen wie Sau. Der 12nm-Zwischenschritt wird da nur ein erstes Appetithäppchen.

dargo
2018-09-17, 10:17:13
Mich interessiert an Turing viel mehr, wie die architektonischen Veränderungen durchschlagen. Wenn hier, so wie es aussieht, für die Zukunft geplant wurde, wird ein Turing-Refresh in 7nm abgehen wie Sau. Der 12nm-Zwischenschritt wird da nur ein erstes Appetithäppchen.
Du erwartest wieder zu viel glaube ich oder ich interpretiere "wie Sau" falsch. Sicherlich wird es auch eine gesunde Mehrleistung geben. Man wird aber vor allem auch die Die-Size und somit die Kosten senken wollen. Einen ~750mm² Die wirst du beim Nachfolger in 7nm garantiert nicht sehen. Höchstens bei Nachfolger vom Nachfolger wenn der nächste große Die-Shrink noch nicht so weit ist.

dildo4u
2018-09-17, 10:30:55
Das "Problem" für Turing ist das es zu wenige Games gibt die extrem Compute Limitiert sind,die Karten werden später deutlich besser aussehen als diese Woche.

Nimmt man die CPU aus dem Spiel haben wir 2X von 1080 zu Titan V.

https://farm2.staticflickr.com/1841/44733627791_3b3a25df4a_o.jpg (https://flic.kr/p/2b9Xx3F)superposition-titan-v-1 (https://flic.kr/p/2b9Xx3F) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://hothardware.com/reviews/nvidia-titan-v-volta-gv100-gpu-review?page=2


Nur Tomb Raider kommt dort ran.

https://farm2.staticflickr.com/1867/29796936917_efcd913bc6_o.png (https://flic.kr/p/Mp46eF)GeForce-RTX-2080-Ti-RTX-2080-Shadow-of-Tomb-Raider (https://flic.kr/p/Mp46eF) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Troyan
2018-09-17, 10:41:16
Und genau das wurde doch so bereits seit Monaten erwartet, abseits der NV- bzw. AMD-Jünger, die wieder in absurde Extreme ausschlagen.


Es ist doch seit nVidias Zahlen bekannt, dass ohne DLSS, ohne Adaptive Shader Rating und ohne genug INT-Anweisungen die Mehrleistung irgendwo bei 35% bis 50% ankommt.

Hängst alles davon ab, ob die ganzen Features auch in Zukunft angewendet werden.

Adam D.
2018-09-17, 10:57:59
Du erwartest wieder zu viel glaube ich oder ich interpretiere "wie Sau" falsch. Sicherlich wird es auch eine gesunde Mehrleistung geben. Man wird aber vor allem auch die Die-Size und somit die Kosten senken wollen. Einen ~750mm² Die wirst du beim Nachfolger in 7nm garantiert nicht sehen. Höchstens bei Nachfolger vom Nachfolger wenn der nächste große Die-Shrink noch nicht so weit ist.
Naja, Turing wird sich jetzt erstmal armotisieren müssen (und können, da AMD den Bereich mittelfristig nicht besetzen kann/wird). Deshalb gehe ich nicht davon aus, dass wir vor Jahreswechsel 19/20 auch nur irgendwas Neues von NV sehen. Man könnte dann eventuell direkt auf 7nm+ umsteigen und dann könnte man neben deutlich kleineren Dice auch mehr Takt und nochmal ein paar mehr Einheiten unterbringen. Da wäre dann schon einiges drin, wenn man bedenkt, wie massiv die Verbesserungen durch 7nm schon ausfallen müssten.

Es ist doch seit nVidias Zahlen bekannt, dass ohne DLSS, ohne Adaptive Shader Rating und ohne genug INT-Anweisungen die Mehrleistung irgendwo bei 35% bis 50% ankommt.

Hängst alles davon ab, ob die ganzen Features auch in Zukunft angewendet werden.
Kommt auch drauf an, ob das alles funktioniert und nicht wie bei Vega in der Umsetzung scheitert. Turing wird eher deutlich besser altern als schlechter, von allem dem, was ich bisher mit meinem Laienwissen gesehen hab.

w0mbat
2018-09-17, 11:15:13
Kommen jetzt heute reviews von der 2080, oder wurde das NDA wirklich auf Mittwoch verschoben?

=Floi=
2018-09-17, 11:18:03
Es ist doch seit nVidias Zahlen bekannt, dass ohne DLSS, ohne Adaptive Shader Rating und ohne genug INT-Anweisungen die Mehrleistung irgendwo bei 35% bis 50% ankommt.

Hängst alles davon ab, ob die ganzen Features auch in Zukunft angewendet werden.


gibt es eigentlich irgendwo offizielle zahlen von NV wie die das nun rechnen?
Hat eine karte dann doppelt so viele TF?

Rancor
2018-09-17, 11:38:22
Kommen jetzt heute reviews von der 2080, oder wurde das NDA wirklich auf Mittwoch verschoben?

Wurde verschoben, Release der 2080TI übrigens auch um eine Woche auf den 27.09 :freak:

monstar-x
2018-09-17, 11:39:18
Kommen jetzt heute reviews von der 2080, oder wurde das NDA wirklich auf Mittwoch verschoben?

Mittwoch.
Also los noch schnell Vorbestellen, ehe es ein anderen macht :-)

Sunrise
2018-09-17, 11:42:25
Naja, Turing wird sich jetzt erstmal armotisieren müssen (und können, da AMD den Bereich mittelfristig nicht besetzen kann/wird). Deshalb gehe ich nicht davon aus, dass wir vor Jahreswechsel 19/20 auch nur irgendwas Neues von NV sehen. Man könnte dann eventuell direkt auf 7nm+ umsteigen und dann könnte man neben deutlich kleineren Dice auch mehr Takt und nochmal ein paar mehr Einheiten unterbringen. Da wäre dann schon einiges drin, wenn man bedenkt, wie massiv die Verbesserungen durch 7nm schon ausfallen müssten.
Mal gegeben an der Fertigungsgrenze (12nm, ca. 750mm2) hat NV da schon ordentlich hochgebaut und sowohl an Performance gedacht als auch an neue Features, die wiederum die GPU stark entlasten könn(t)en. (Vor allem in Zukunft.)

Wenn man bedenkt, dass die Fertigung nichtmehr so schnell voranschreiten wird, abartig teuer ist und noch viel teurer wird, dann ist der Gedanke, wieder mehr spezialisierte Einheiten zu haben sicher eine gewisse realistische Wette, aber auch eine wo endlich mal wieder in die Zukunft gedacht wird.

Wenn sich noch einer an die R520- und R580-Situation (ATI) erinnern kann, da wurde massiv in Shaderleistung investiert, die damals aber erst so richtig abgerufen wurde, als die GPU schon mehrere Jahre auf dem Buckel hatte und eigentlich schon zum alten Eisen gehörte. Das ist allerdings jetzt eine nicht ganz vergleichbare Situation, denn NV hat den Moment viel besser abgepasst, da man bis zum Nachfolger (2020) mit Turing genug Leistung haben sollte (spätestens mit DLSS), dass man davon wenigstens auch zur Lebzeit etwas hat.

Diese massive Investition in Einheiten, die so direkt nicht in Leistung umgerechnet werden kann ist immer schwierig, weil man es dem Verbraucher auch klar erklären muss und dieser fragt sich natürlich zurecht, warum er das jetzt schon benötigt. Hier braucht es IMHO dann auch mehr als ein simples Review, damit viele Fragen die um Turing aufkommen auch beantwortet werden.

SKYNET
2018-09-17, 11:48:00
Das ist allerdings jetzt eine nicht ganz vergleichbare Situation, denn NV hat den Moment viel besser abgepasst, da man bis zum Nachfolger (2020) mit Turing genug Leistung haben sollte (spätestens mit DLSS), dass man davon wenigstens auch zur Lebzeit etwas hat.


genau, selbst TR wo NUR!! die schatten über RT liefen hatte unter FHD nichtmal 60fps... vergiss es einfach, es ist ein feature das erst bei den kommenden generationen nutzbar wird, turing jetzt ist einfach nur technologieträger, aber praktischen nutzen wirst eher nicht draus ziehen können wenn du mehr als in FHD zocken willst.

w0mbat
2018-09-17, 12:05:36
Wenn sich noch einer an die R520- und R580-Situation (ATI) erinnern kann, da wurde massiv in Shaderleistung investiert, die damals aber erst so richtig abgerufen wurde, als die GPU schon mehrere Jahre auf dem Buckel hatte und eigentlich schon zum alten Eisen gehörte.
Ich hatte damals eine X1900 XT und mein Kumpel eine 7900GTX. Er hat mich anfangs immer belächelt, weil mein "Fön" so viel mehr verbraucht hat und nicht schneller war.

2 Jahre später und ich war zT doppelt so schnell :D Erste GPU ohne 1:1:1 Aufteilung. Waren glaub ich 3x so viele shader.

dargo
2018-09-17, 12:11:49
Wenn sich noch einer an die R520- und R580-Situation (ATI) erinnern kann, da wurde massiv in Shaderleistung investiert, die damals aber erst so richtig abgerufen wurde, als die GPU schon mehrere Jahre auf dem Buckel hatte und eigentlich schon zum alten Eisen gehörte. Das ist allerdings jetzt eine nicht ganz vergleichbare Situation, denn NV hat den Moment viel besser abgepasst, da man bis zum Nachfolger (2020) mit Turing genug Leistung haben sollte (spätestens mit DLSS), dass man davon wenigstens auch zur Lebzeit etwas hat.

Ob man dann auch genug Speicher hat? :uponder: Wir werdens sehen. :tongue:

robbitop
2018-09-17, 12:13:25
Ich hatte damals eine X1900 XT und mein Kumpel eine 7900GTX. Er hat mich anfangs immer belächelt, weil mein "Fön" so viel mehr verbraucht hat und nicht schneller war.

2 Jahre später und ich war zT doppelt so schnell :D Erste GPU ohne 1:1:1 Aufteilung. Waren glaub ich 3x so viele shader.
Hatte ich damals auch extra deswegen (und wegen winkelznabhängigen af und 6x sgmsaa und tsaa und sgssaa gekauft). Aber als die R580 ihr Potenzial deutlich ggü R520 ausspielte, hatte ich bereits eine G80. Für Langzeitbesitzer sehr gut - für die, die immer das Neuste haben müssen eher meh.

PHuV
2018-09-17, 12:19:23
Wurde verschoben, Release der 2080TI übrigens auch um eine Woche auf den 27.09 :freak:
Echt jetzt? Quelle wäre gut gewesen.
Nvidia verschiebt Geforce RTX 2080 Ti auf den 27. September (http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Nvidia-verschiebt-Geforce-RTX-2080-Ti-1265198/)

Sunrise
2018-09-17, 12:32:44
genau, selbst TR wo NUR!! die schatten über RT liefen hatte unter FHD nichtmal 60fps... vergiss es einfach, es ist ein feature das erst bei den kommenden generationen nutzbar wird, turing jetzt ist einfach nur technologieträger, aber praktischen nutzen wirst eher nicht draus ziehen können wenn du mehr als in FHD zocken willst.
Ich würde da erstmal breitflächigere Ergebnisse abwarten, bevor ich direkt in den Panik-Mode rüberschalte. Wir reden hier um vollkommen neue Dinge, die implementiert wurden und so noch nicht dagewesen sind. NV wird sich schon was dabei gedacht haben und dass die Leistung inkl. DLSS sicher in vielen Spielen stimmt, da bin ich mir relativ sicher. Man will ja auch was für sein Geld sehen und damit meine ich optisch, fps alleine würden mich persönlich nicht zum Aufrüsten bewegen.

Ich warte jedenfalls erstmal ab, bis genug Entwickler aufgesprungen sind und da wird zwischen jetzt und Mitte/Ende 2019 noch einiges in Bewegung kommen.

Edgecrusher86
2018-09-17, 12:48:09
https://videocardz.com/newz/techpowerup-explains-the-difference-between-turing-a-and-non-a-gpu-variants

Also unterteilt man die OC-Güte per Chipname und Device ID und die anderen Einträge waren keine zukünftigen Modelle mit zum Beispiel Vollausbau.

looking glass
2018-09-17, 13:06:22
Mal eine kurze Frage, mich interessiert nicht so sehr die maximale Stromaufnahme, sondern ist irgendwie bekannt, was die Karten im Idle brauchen, halt wenn die übliche Desktopnutzung ala surfen vorliegt?

Bei Computerbase war vorgestern ein Beitrag in den News mit vielen angaben was Cachegrößen usw. anging, also wirklich reichlich viel Infos, aber der für mich immer viel interessantere Wert, nämlich was die Karte beim "nichts tun" verbrät, habe ich nicht gesehen.

aufkrawall
2018-09-17, 13:07:38
Mit 'man' meinst du also tendenziell eher dich / jemand wie du. ;)

Oder auch die Physik, denn wenn die GPU nicht gerade an der Kotzgrenze läuft, interessiert der Stromverbrauch das Herumgehampele von Booststufen etc. herzlich wenig. Wo wir wieder bei Takt X für Spannung Y wären.
Wär jedenfalls blöd, wenn man "OC"-Features anbietet, und dann trotzdem noch AB fürs UV benötigt. Bzw. unter Linux ist man dann wieder gearscht.

Troyan
2018-09-17, 13:12:12
Mal eine kurze Frage, mich interessiert nicht so sehr die maximale Stromaufnahme, sondern ist irgendwie bekannt, was die Karten im Idle brauchen, halt wenn die übliche Desktopnutzung ala surfen vorliegt?

Bei Computerbase war vorgestern ein Beitrag in den News mit vielen angaben was Cachegrößen usw. anging, also wirklich reichlich viel Infos, aber der für mich immer viel interessantere Wert, nämlich was die Karte beim "nichts tun" verbrät, habe ich nicht gesehen.

Laut nVidia soll die Founders Edition einzelne Spannungswandler bei geringer Last abschalten können.

aufkrawall
2018-09-17, 13:13:46
Laut nVidia soll die Founders Edition einzelne Spannungswandler bei geringer Last abschalten können.
Das ist im Vergleich völlig irrelevant, wenn der Treiber wie bisher für jeden neu geöffneten Firefox-Tab etc. die Karte mehrere Sekunden im Boost-Modus verweilen lässt.

Dural
2018-09-17, 14:14:01
Bei uns gibt es jetzt schon für rund 1000.- Euro eine 2080ti, das dürfte noch deutlich weiter runter gehen.

monstar-x
2018-09-17, 14:22:27
Bei uns gibt es jetzt schon für rund 1000.- Euro eine 2080ti, das dürfte noch deutlich weiter runter gehen.

Wo?, für 1000€ nehme ich die mit.

Hübie
2018-09-17, 14:48:54
Bei uns gibt es jetzt schon für rund 1000.- Euro eine 2080ti, das dürfte noch deutlich weiter runter gehen.

Was heißt denn "bei uns"? Österreich? Schweiz? Mongolei? Link?

cR@b
2018-09-17, 14:49:05
100 pro in der Schweiz... da schmeißen Sie einem förmlich Hardware nach....

Linmoum
2018-09-17, 15:00:00
Hatten wir das schon?

The PC Watch interview also states that NVIDIA's "Turing" architecture was originally designed for Samsung 10 nanometer silicon fabrication process, but was faced with delays and redesigning for the 12 nm process. This partially explains how NVIDIA hasn't kept up with the generational power-draw reduction curve of the previous 4 generations. NVIDIA has left the door open for a future optical-shrink of Turing to the 8 nm silicon fabrication node, an extension of Samsung's 10 nm node, with reduction in transistor sizes.
https://www.techpowerup.com/247657/nvidia-gtx-1060-and-gtx-1050-successors-in-2019-turing-originally-intended-for-10nm

Dural
2018-09-17, 15:01:13
https://www.toppreise.ch/prod_536461.html

La Junta
2018-09-17, 15:07:56
Wo?, für 1000€ nehme ich die mit.

Ich nehme mal an das er die Schweiz meint .
Hier z.B :
https://www.microspot.ch/de/Computer-Software/pc-komponenten/grafikkarten--C584000/gigabyte-gv-n208twf3oc-11gc-11gb--P0001592682

pixeljetstream
2018-09-17, 15:23:25
Mesh Shaders im detail:
https://devblogs.nvidia.com/introduction-turing-mesh-shaders/
War mein Focus der letzten 4 Jahre.

Schnoesel
2018-09-17, 15:24:00
Bei Schnäppchen darf man jetzt gleich doppelt aufpassen nicht auch noch ne einen schlechten Die zu bekommen.

https://www.computerbase.de/2018-09/selektierte-turing-gpus-nvidia-oc-geforce-rtx/

dildo4u
2018-09-17, 15:26:15
Die verlinkten sind OC Modelle.

Schnoesel
2018-09-17, 15:30:53
Und? Inwiefern betrifft das meine Aussage?

robbitop
2018-09-17, 15:38:18
Ich nehme mal an das er die Schweiz meint .
Hier z.B :
https://www.microspot.ch/de/Computer-Software/pc-komponenten/grafikkarten--C584000/gigabyte-gv-n208twf3oc-11gc-11gb--P0001592682
Verschicken die das für halbwegs sinnvolles Geld nach D?

PHuV
2018-09-17, 15:40:30
Mudu beim Zoll Zollgebühren und Mwst nachzahlen. Lohnt sich dann bei dem Preis nicht.

oldgamer
2018-09-17, 15:49:47
Verschicken die das für halbwegs sinnvolles Geld nach D?
Machen sie vermutlich nicht weil sie sich den Aufwand des Exports nach D nicht antun möchten.

Aber selbst wenn, rechne es mal durch:
1120 CHF = 995,5 €
Dann ziehst du die 7,7% Mwst ab (Schweiz) und bist bei 924,3 € netto
Und jetzt noch die deutsche Mwst drauf => 1099,9€

Bei uns war die Karte heute früh im Geizhals auch schon um 1199€ gelistet.
100€ (-Versand; -Wechselkursgebühren bzw schlechter Wechselkurs mit der Kreditkarte) gespart, im Defektfall Händler außerhalb der EU, kein Widerrufsrecht wie in der EU usw.

EDIT: Zollsatz ist bei Grafikkarten meines Wissens nach 0%, müsste man vorab checken, ich hab mal keinen angenommen
Und genau gesagt müsste du die Versandkosten auch noch mal mit 19% versteuern, denn die werden zum Warenwert addiert

PHuV
2018-09-17, 16:04:39
Hast Du dazu eine Quelle? Irgendwo gabs mal eine Liste mit allen Warenarten, die mit Gebühren belegt sind. Aber online finde ich das gerade nicht so schnell. :frown:

La Junta
2018-09-17, 16:12:39
Verschicken die das für halbwegs sinnvolles Geld nach D?
Versand nur in CH und FL .
Alternativ könntest du jemmanden fragen der es dir kauft und selbst aus DE zuschickt .
Demjenigen müsstest du jedoch vertrauen , oder er dir.

MFG Junta

Dural
2018-09-17, 16:28:44
Bei Schnäppchen darf man jetzt gleich doppelt aufpassen nicht auch noch ne einen schlechten Die zu bekommen.

https://www.computerbase.de/2018-09/selektierte-turing-gpus-nvidia-oc-geforce-rtx/

Sinnloses hochpushen von den Medien...

Ich glaube da geht es mehr darum das die Chips einfach rund laufen, den gerade mit Turing und der unheimlich grossen Die wird das umso wichtiger sein gerade auch betreffend einhalten PT.

Die Güte der Chips wird bei NV übrigens seit einer halben Ewigkeit immer an der Zahl festgelegt: TU102-300-A1 die Quadro hat einen TU102-400-A1. Übrigens die 400er stehen in der Regel für vollaktiv Chips.

Platos
2018-09-17, 16:28:48
Die günstigen Angebote in der Schweiz sind meistens die, die nicht liefern können. Das geht dann meistens 2 Monate. Wer warten kann, kann sich so aber Geld sparen.

Raff
2018-09-17, 16:30:14
Die Güte der Chips wird bei NV übrigens seit einer halben Ewigkeit immer an der Zahl festgelegt: TU102-300-A1 die Quadro hat einen TU102-400-A1. übrigens die 400er Chips stehen in der Regel für vollaktiv.

Du sagst es selbst: Die Zahl steht in erster Linie für die Einheitenzahl, mit der Taktbarkeit hat das aber nichts zu tun.

Immerhin ist eines mittlerweile eindeutig: "K1" steht für eine beschnittene Speicherschnittstelle.

MfG,
Raff

Dural
2018-09-17, 16:31:26
Nein Raff das stimmt nicht.

Es gab schon zig Beispiele wo die (besseren) Chips eben ein 425 oder 450 bekommen haben.

Schnoesel
2018-09-17, 16:33:05
Sinnloses hochpushen von den Medien...

Ich glaube du siehst generell alles unkritisch was Nvida macht.

Für mich bedeutet dass die von Nvidia angepriesenen Karten ab 499$, 799$ und 999$ schon mal die Reste sind. Wer bitte möchte das? Ne AMP Extreme mit dem besten Chips kostet dann 1500€? Naja kann sich ja jeder selber eine Meinung bilden. Ich finds nicht gut.

Lol ich glaube eher Raff als dir. Sorry ist nur persönlich.

Dural
2018-09-17, 16:36:10
Dann Frag Google… :rolleyes::rolleyes::rolleyes:

Bekanntestes Beispiel: 8800GTX und 8800Ultra

Oder G92, oder GT200, oder GF110

Und dazu brauch ich nicht mal Google ;)

Schnoesel
2018-09-17, 16:36:49
Das ist jetzt wie lange her? Komm mal mit nem aktuellen Beispiel.

Platos
2018-09-17, 16:38:54
Eine nicht übertaktete 2080TI wird dann vermutlich mit solchen schlechten Chips auch nicht mehr weit übertaktbar sein. Selbst wenn sie 999 kosten, dann kriegt man dafür vermutlich etwa +20-25% an Mehrleistung (bezogen auf 1080TI 2050MHz vs so eine "schlechte" 2080TI)

@Raff: Bitte führt in eurem Artikel dann eine klare P/L Rechnung auf, damit jeder sehen kann, ob das P/L steigt, stagniert oder sogar sinkt (natürlich ohne RT)

Dural
2018-09-17, 16:39:30
Was hat das mit dem Alter zu tun?!?

Fakt ist, umso höher die Zahl umso besser der Chip, das war bei NV immer so.

Über 600 kommen nur OEM Chips über, da bin ich mir nicht sicher ob das bei diesen zutrifft. Aber mit diesen Chips befassen wir uns eh nie.

Troyan
2018-09-17, 16:40:24
Eine nicht übertaktete 2080TI wird dann vermutlich mit solchen schlechten Chips auch nicht mehr weit übertaktbar sein. Selbst wenn sie 999 kosten, dann kriegt man dafür vermutlich etwa +20-25% an Mehrleistung (bezogen auf 1080TI 2050MHz vs so eine "schlechte" 2080TI)

Wo ist der Unterschied zu den anderen, vorigen Karten von den AIBs? Da gibt es zig verschiedene Versionen mit Taktunterschieden...

Schnoesel
2018-09-17, 16:41:03
Man wird sehen was man bekommt und selbst wenn es "nur" 999 sind sind diese immer noch ohne Märchensteuer. Mal sehen wann die ersten Listen auftauchen welche Karten die guten Chips verbaut haben.

Platos
2018-09-17, 16:44:08
Wo ist der Unterschied zu den anderen, vorigen Karten von den AIBs? Da gibt es zig verschiedene Versionen mit Taktunterschieden...

Steht doch im ersten Satz von mir. Der Unterschied liegt darin, dass man früher auch die nicht von Werk aus übertakteten selbst trotzdem hoch takten konnte. Bei schlechten Chips geht das aber nicht mehr (so gut).

Dural
2018-09-17, 16:44:33
GTX680 hatte einen 400er, die GTX770 einen 425 Chip ;)

Das habe ich jetzt gerade im google gesucht :wink:

Troyan
2018-09-17, 16:45:05
Der Unterschied liegt darin, dass man früher auch die nicht von Werk aus übertakteten selbst trotzdem hoch takten konnte.

Das wirst du mit den jetzigen genauso können. Da binnt niemand alle Chips. Das ist unmöglich.

Platos
2018-09-17, 16:48:45
Das wirst du mit den jetzigen genauso können. Da binnt niemand alle Chips. Das ist unmöglich.

Hast du die News nicht gelesen oder bist du hier der Allwissende ?

Troyan
2018-09-17, 16:55:36
Habe ich. Dort geht es um Werksübertaktung. Die manuelle Übertaktung ist weiterhin möglich.

Platos
2018-09-17, 17:01:22
Nein, es geht um die Chip-Qualität die in 3 Klassen daherkommen soll. Natürlich kann man selbst übertakten, aber es geht darum, wie erfolgreich man damit sein wird.

Dural
2018-09-17, 17:07:38
Wo es weit und breit kein Beweis gibt :rolleyes:

Auf allen Die von der 2080ti die ich bis jetzt gesehen habe steht 300.

Edit:
Schon nur der Gedanke das es NV macht um mehr Geld zu verlangen ist schlicht und ergreifend Dumm. Wenn sie mit OC Chips wirklich mehr Geld verdienen wollen könnten sie ohne weitere eine 2080 Ti Ultra oder was auch immer auf den Markt bringen, da würden die Kunden auch gleich sehen das es was bessere ist, machen sie stand Heute aber nicht.

MasterElwood
2018-09-17, 17:13:39
Glaubt hier jemand, dass die Titan V der RTX 2080 Ti unterliegt?
MfG,
Raff

DIE DA sehen es anscheinend so :-)

https://wccftech.com/nvidia-geforce-rtx-2080-ti-and-rtx-2080-final-fantasy-gaming-benchmark-leak/

MasterElwood
2018-09-17, 17:15:20
Nein, es geht um die Chip-Qualität die in 3 Klassen daherkommen soll. Natürlich kann man selbst übertakten, aber es geht darum, wie erfolgreich man damit sein wird.

Andere Seiten schreiben von nur ZWEI Klassen. Ich glaub momentan is alles nur raten...

Dural
2018-09-17, 17:40:34
Wie ich schon gesagt habe, es wird wohl um die Parameter von PT gehen.

Der Die von der TU102 ist 60% grösser im praktisch selben Herstellungsprozess als der GP102 und das bei nur wenigen Watt mehr Verbrauch. NV kann ja viel, ich glaube Zaubern aber noch nicht ;)

Die Qualität und das Einhalten bestimmter Werte wird umso wichtiger sein um ein vernünftiges Produkt abliefern zu können. NV wird durch diesen Schritt wohl einfach versuchen die Qualität zu sichern.

Die Boardpartner können das nämlich sicher nicht, auch wenn oft behaupten... :rolleyes:

oldgamer
2018-09-17, 17:54:23
Hast Du dazu eine Quelle? Irgendwo gabs mal eine Liste mit allen Warenarten, die mit Gebühren belegt sind. Aber online finde ich das gerade nicht so schnell. :frown:
Puh, hab mal etwas gesucht.

Eine GPU fällt in die Klasse 8471,da gibt es keinen Zollsatz.

Wenn du die Warengruppe hast einfach hier eingeben
http://auskunft.ezt-online.de/ezto/EztSuche.do#ziel

Zur Klassifizierung der Warengruppe hab ich auf die Schnelle nur die Seite gefunden:
https://www.gov.uk/guidance/classifying-computers-and-software

Ist zwar aus UK, aber hier alles auf EU-Ebene abgewickelt wird sollte das auch passen.

Sorry, irgendwie will er die Links am Handy nicht.

robbitop
2018-09-17, 17:57:10
Eine nicht übertaktete 2080TI wird dann vermutlich mit solchen schlechten Chips auch nicht mehr weit übertaktbar sein. Selbst wenn sie 999 kosten, dann kriegt man dafür vermutlich etwa +20-25% an Mehrleistung (bezogen auf 1080TI 2050MHz vs so eine "schlechte" 2080TI)

@Raff: Bitte führt in eurem Artikel dann eine klare P/L Rechnung auf, damit jeder sehen kann, ob das P/L steigt, stagniert oder sogar sinkt (natürlich ohne RT)
Dazu braucht es keinen Abschnitt in Artikel. Kann sich doch jeder selbst ausrechnen. Zudem ist jetzt schon anhand der von NV gelieferten Performancewerte (die sicherlich nicht zu konservativ sein werden) und der bekannten Preise klar, dass das P/L Verhältnis schlechter wird. 1080ti kostet <700€. Die 2080ti ist 40-50% schneller, kostet aber ~75...80% mehr.

1080 kostet 470€ 2080 kostet 786€ - also 67% mehr. Ist aber nur 40...55% schneller.

robbitop
2018-09-17, 17:59:21
DIE DA sehen es anscheinend so :-)

https://wccftech.com/nvidia-geforce-rtx-2080-ti-and-rtx-2080-final-fantasy-gaming-benchmark-leak/

Das ist aber eine TV mit angezogener Bremse. Anständige Kühlung, anständiges Powertarget und es sieht anders aus.

AffenJack
2018-09-17, 18:08:52
Steht doch im ersten Satz von mir. Der Unterschied liegt darin, dass man früher auch die nicht von Werk aus übertakteten selbst trotzdem hoch takten konnte. Bei schlechten Chips geht das aber nicht mehr (so gut).

Dafür hat man jetzt bei den OC Modellen bessere Chancen einen guten Chip zu erwischen. Die tollen Werks-OC GPUs hatten nämlich oft genug Gammelchips, die sich sogut wie gar nicht übertakten ließen, wo anscheinend gar kein Binning stattfand. Man bekommt einfach mehr das, was man zahlt. Am ende wird der Unterschied wahrscheinlich eh 2000mhz für die normalen vs 2100 mhz für die OC chips sein, wo es kaum einen Unterschied mehr macht.

HOT
2018-09-17, 18:30:45
http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/News/Pascal-parallel-kleinere-Modelle-naechstes-Jahr-1265251/

Das erklärt die hammerharte Chipgröße. In 10nm wär Turing sicherlich bei 300, 400 und 600mm² gelandet, was für mich äußerst plausibel klingt als geplante Chipgrößen. Dass der 10nm-Prozess von TSMC sich dafür nicht eignet musste man eben auf die harte Tour lernen offenbar. Ergänzt wird das ganze dann nach unten, wie gehabt, in einem Samsung 10nm-Prozess, der heißt 8LPP. Diese Chips kommen offenbar dann auch, aber die TSMC-Chips sind dann eben im bewährten 12FFN erschienen statt 10FF. Interessant an dieser Theorie ist, dass Leo fast recht gehabt hätte mit seinen 10nm und ich habs ja überhaupt nicht geglaubt. Zudem könnte man sagen, dass er auch recht hatte mit einem kleineren Prozess für die kleinen Chips, nur dass es sich hier nicht um 7nm handelt, sondern eine 10nm-Variante.

AffenJack
2018-09-17, 18:49:41
Ich zweifle an 8LPP, das sieht auch eher nach einem Mobilenode aus. Mal davon abgesehen, dass ich entweder blind bin oder 8LPP in der Originalquelle gar nicht erwähnt wird?
Es gab neulich von Samsung Aussagen, dass man wohl 7nm EUV GPUs produzieren wird und die Wahrscheinlichkeit ist da hoch, dass es Nvidia ist. Würde mich nicht wundern, wenn die ersten 7nm chips von Nv diesmal von Samsung und nicht TSMC kommen. Da könnte es einfach sein, dass man außer für HPC Non-EUV 7nm überspringt.

By the way, in the question and answer, in response to the question, "Mobile SoC, HPC, AI, automatic driving etc can be considered" in response to the question "What is this 7 nm Target Application?", "HPC also includes GPUs" Because there was a supplement, as a result of confirming that "that GPU is NVIDIA?", "We are doing foundry business, so we can not reveal the customer's name from our mouth (laugh)", A politically correct answer came back.
https://translate.google.com/translate?sl=jp&tl=en&u=https://news.mynavi.jp/article/20180905-689090/

Falls wer japanisch kann und da was anderes steht, als das was Google draus macht, gerne her damit.

Platos
2018-09-17, 19:49:57
Dazu braucht es keinen Abschnitt in Artikel. Kann sich doch jeder selbst ausrechnen. Zudem ist jetzt schon anhand der von NV gelieferten Performancewerte (die sicherlich nicht zu konservativ sein werden) und der bekannten Preise klar, dass das P/L Verhältnis schlechter wird. 1080ti kostet <700€. Die 2080ti ist 40-50% schneller, kostet aber ~75...80% mehr.

1080 kostet 470€ 2080 kostet 786€ - also 67% mehr. Ist aber nur 40...55% schneller.

Ich meinte mehr aus dem Grund, dass auch die Redaktionen das ohne Blatt vor dem Mund klar kommunizieren, dass man eig. für's Geld weniger kriegt, als bei der letzten Gen (natürlich abgesehen von den Tensor und RT Cores ect.)

Klar kann das jeder selbst ausrechnen. Aber Redaktionen haben m.M.n auch eine Art "Pflicht" solche Dinge klar im Artikel zu erwähnen.

Dafür hat man jetzt bei den OC Modellen bessere Chancen einen guten Chip zu erwischen. Die tollen Werks-OC GPUs hatten nämlich oft genug Gammelchips, die sich sogut wie gar nicht übertakten ließen, wo anscheinend gar kein Binning stattfand. Man bekommt einfach mehr das, was man zahlt. Am ende wird der Unterschied wahrscheinlich eh 2000mhz für die normalen vs 2100 mhz für die OC chips sein, wo es kaum einen Unterschied mehr macht.

Das Problem ist, dass man dafür sicher einiges bezahlen darf.

robbitop
2018-09-17, 19:51:42
Achso. Ja dafür wäre ich dann auch. :)

Hübie
2018-09-17, 19:52:02
Wo es weit und breit kein Beweis gibt :rolleyes:

Auf allen Die von der 2080ti die ich bis jetzt gesehen habe steht 300.

Edit:
Schon nur der Gedanke das es NV macht um mehr Geld zu verlangen ist schlicht und ergreifend Dumm. Wenn sie mit OC Chips wirklich mehr Geld verdienen wollen könnten sie ohne weitere eine 2080 Ti Ultra oder was auch immer auf den Markt bringen, da würden die Kunden auch gleich sehen das es was bessere ist, machen sie stand Heute aber nicht.

Du hast in keiner Weise verstanden worum es geht. Die Ziffernfolge gibt die Ausbaustufe an. Dann gibt es einen Suffix mit der Revision aus metal / respin (A1, B2 usw.) und jetzt neu den MC Ausbau. Dann gibt es noch die Güte des Chips die maßgeblich an den Leckströmen und noch einigen weiteren Parametern abhängt. Diese Qualität kannst du nirgends auf dem Chip ablesen. Diese Qualität wird in drei Stufen unterteilt.

Jetzt klar? Und sei dir mal nicht zu sicher, daß nicht alle Chips gebinned werden... ;) Irgendwie wird ja die Funktion getestet werden müssen, denn die meisten (? bzw. nicht alle) Defekte erkennt man nicht per optischer Aufnahme.

Raff
2018-09-17, 20:00:12
Ich kann mir auch gut vorstellen, dass die Ausbeute im Laufe der Zeit so gut wird, dass es zu viele hochwertige Chips gibt, die dann auch auf günstigeren Karten zum Einsatz kommen (egal, ob per Aufdruck herabgestuft oder nicht). Derzeit wird ja spekuliert, dass Turing auch wegen der besseren Ausbeute diesen "alten" Fertigungsprozess nimmt.

MfG,
Raff

Hübie
2018-09-17, 20:12:59
Na ja es wird irgendwo ein Mix aus allem sein. So eine Entscheidung ist ja nicht eine Formel ala A+B-C=D. Man munkelte einerseits was mit Kapazitäten und die damit verbundenen Kosten um den Zuschlag zu erhalten, damit einhergehend das Risiko im neuen Prozess festzusitzen und hohe (Entwicklungs- & Produktions-) Kosten, geringe Ausbeute sowie ggf. noch schlechte Verfügbarkeit in Kauf nehmen zu müssen.

Ps: Hat sich eigentlich irgend jemand mal gefragt warum ich seinerzeit das Stichwort "Regenbogen" rein gebracht habe? ;D

wolik
2018-09-17, 20:33:28
https://www.techpowerup.com/247660/nvidia-segregates-turing-gpus-factory-overclocking-forbidden-on-the-cheaper-variant

Ich kann mich nicht erinnern, ob so ein Mist früh gabs....

4Fighting
2018-09-17, 20:40:34
https://www.techpowerup.com/247660/nvidia-segregates-turing-gpus-factory-overclocking-forbidden-on-the-cheaper-variant

Ich kann mich nicht erinnern, ob so ein Mist früh gabs....

Was genau meinst Du? Binning?

Tobalt
2018-09-17, 20:44:43
factory oc ist doch eh sinnlos. der Knackpunkt an den customs ist doch hauptsächlich der Kühler umd Power target. der taktist ja mittlerweile eh sehr dynamisch

basix
2018-09-17, 21:18:05
Ach das "Binning" ist doch nichts anders als Gewinnmaximierung von Nvidia. Der "bessere" Chip kostet die Partner ein wenig mehr. Nicht dass sie auf die Idee kommen, den billigeren Chip für alles einzukaufen ;) An einen effektiven Unterschied bei der Taktbarkeit glaube ich im Mittel nicht. Zumindest gab es das nach meinem Wissen noch bei keiner Generation. Es konnte immer sein, dass die Super-Duper-OC Karte nicht wirklich oder nur geringfügig höher taktbar war als die meisten x-beliebigen Karten. Ausnahmen waren so Spezialdinger wie die MSI Lightning, die kostete dann aber auch bedeutend mehr.

VooDoo7mx
2018-09-17, 21:26:10
Die Güte der Chips wird bei NV übrigens seit einer halben Ewigkeit immer an der Zahl festgelegt: TU102-300-A1 die Quadro hat einen TU102-400-A1. Übrigens die 400er stehen in der Regel für vollaktiv Chips.

Sorry, aber das ist Quark, das hat weder was mit der Einheitenzahl noch der Güte des Chips zu tun.

Titan X: GP102-400
1080Ti: GP102-350
Titan Xp: GP102-450

Die 400 steht immer für das schnellste Consumer Produkt. RTX 2080 ist trotz teil deaktivierten Chip auch ein TU104-400.

Das die RTX2080Ti nur einen TU102-300 sagt eher schon sehr deutlich aus, dass praktisch schon eine TU102 Titan in den Startlöchern steht, alle Einheiten aktiv mit 12 wenn nicht sogar 24GiB GDDR6. Die wird sicher noch dieses Jahr kommen und sicher nicht günstig sein.

horn 12
2018-09-17, 21:48:56
gerade gelesen und dies weiss Nv wohl nur zu gut
Unser lieber und damals Treuer Format C schrieb:

Der Witz ist, dass das Ganze über bestimmte Benchmarks enorm streut. Da reicht es von grandios bis oops

Linmoum
2018-09-17, 21:58:18
Kennt man ja schon von Volta. In Prey ist die Titan V fast 50% schneller als die 1080Ti, in Wolfenstein 2 sind's dann gerade mal mickrige 6%.

y33H@
2018-09-17, 22:08:49
Siehe auch Quantum Break.

Linmoum
2018-09-17, 22:17:51
Ich dachte im ersten Moment, sie haben jetzt die miese DX12-Performance gefixt und deswegen zieht Turing davon. :D Aber das war ja iirc DX11, wo die Titan V scheinbar ziemlich gut rennt.

N0Thing
2018-09-17, 22:22:26
Mesh Shaders im detail:
https://devblogs.nvidia.com/introduction-turing-mesh-shaders/
War mein Focus der letzten 4 Jahre.

Vielen Dank für den Link. Ich freue mich schon, es in Ruhe durchzulesen. :)

HOT
2018-09-17, 22:27:36
Ich zweifle an 8LPP, das sieht auch eher nach einem Mobilenode aus. Mal davon abgesehen, dass ich entweder blind bin oder 8LPP in der Originalquelle gar nicht erwähnt wird?
Es gab neulich von Samsung Aussagen, dass man wohl 7nm EUV GPUs produzieren wird und die Wahrscheinlichkeit ist da hoch, dass es Nvidia ist. Würde mich nicht wundern, wenn die ersten 7nm chips von Nv diesmal von Samsung und nicht TSMC kommen. Da könnte es einfach sein, dass man außer für HPC Non-EUV 7nm überspringt.


https://translate.google.com/translate?sl=jp&tl=en&u=https://news.mynavi.jp/article/20180905-689090/

Falls wer japanisch kann und da was anderes steht, als das was Google draus macht, gerne her damit.

7LPE ist Qualcomm. Grafikchips wirds in dem Prozess eh nicht geben, wenn dan frühestens bei 7LPP und das dauert noch. Die produzieren einen SoC bei 7FF bei TSMC und sind dann direkt wieder nach Samsung zurückgewechselt. Samsung ist halt die erste Foundry, die EUV flächendeckend ab 7LPE einsetzt. 8LPP ist quasi ne HP-Variante von 10nm (also sowas wie 12nm zu 16nm), also das, was TSMC nicht bietet. außerdem sind die 107/108er-Chips so klein, dass das eh egal ist.

NVs Plan war mMn klar, das gleiche, was sie bei Pascal gemacht haben: 16FF+ für GP106/4/2/0 und 14LPP bei GP107/8. Also 10FF für TU106/4/2 (daraus wurde jetzt 12FFN aufgrund des extrem guten Yields und der recht geringen Nachteile ggü. 10FF) und TU107/8 Samsung 8LPP.

Die nächste Generation ist dann sicherlich 7FF+ TSMC für die 102/4/6 (2020/21) und 6LPP Samsung für 107/8 (2021/22).

Dural
2018-09-17, 23:32:56
Sorry, aber das ist Quark, das hat weder was mit der Einheitenzahl noch der Güte des Chips zu tun.

Titan X: GP102-400
1080Ti: GP102-350
Titan Xp: GP102-450

Die 400 steht immer für das schnellste Consumer Produkt. RTX 2080 ist trotz teil deaktivierten Chip auch ein TU104-400.


Nein, umso höher die zahl umso "besser" der chip, das war bei nv schon immer so. Es gibt zig beispiele wo das klar belegen, wie zb. früher bei den dual gpu karten.

horn 12
2018-09-17, 23:35:14
@edit

=Floi=
2018-09-17, 23:53:45
Natürlich kann man selbst übertakten, aber es geht darum, wie erfolgreich man damit sein wird.

das ist auch heute schon über den kühler und das power budget gedeckelt. Eine normale karte macht viel eher zu.
Bei der custom hast du dann mehr phasen und offene 350watt + denn passenden kühler dazu.

wolik
2018-09-18, 00:03:36
Was genau meinst Du? Binning?
Binning ? Kein Ahnung. Jetzt gibts zwei 2080Ti. TU102-300 and TU102-300-A. Na, dann viel Glück.

Hübie
2018-09-18, 01:55:12
Nein, umso höher die zahl umso "besser" der chip, das war bei nv schon immer so. Es gibt zig beispiele wo das klar belegen, wie zb. früher bei den dual gpu karten.

Ich geb's auf. :ucrazy4:

prinz_valium
2018-09-18, 02:50:21
https://www.youtube.com/watch?v=w9FtXZGQzfM
OMG

Screemer
2018-09-18, 04:40:23
Reinigung und Lüftertausch ist quasi unmöglich. Kudos an Nvidia.

woodsdog
2018-09-18, 07:11:53
Ließ mal das hier
Sapphire RMA abgelehnt (https://www.forum-3dcenter.org/vbulletin/showthread.php?t=586804&highlight=Alternate)
Sowas findest Du in zig Foren.

Ja genau. Jetzt kaufen wir einfach andere Hersteller und alles ist prima.
Wenn es de-facto nur noch einen Hersteller - NV - gibt, ist dieses Verhalten dann schlicht normal und von uns als Kunden nicht mehr vermeidbar.

Ich sehe nach wie vor keinerlei Vorteile.

Siehe Beiträge hier drüber... Verklebte Kühler. Ist für Verbraucher das letzte und wer macht es bei der ersten "Hersteller-Custom"? NV. NV does. :freak:
Als nächstes is dann die ganze Karte verklebt. Ist sicher prima für die Leute welche den Kaugummi auf dem Die wechseln oder gleich unter Wasser setzen wollen.

Kriegsgeier
2018-09-18, 07:22:19
Kühler bei 2080Ti verklebt?!?!?!

Gehts noch?

Die Lamellen können nicht vom Staubfilm befreit werden?!

uweskw
2018-09-18, 07:26:03
https://www.techpowerup.com/247660/nvidia-segregates-turing-gpus-factory-overclocking-forbidden-on-the-cheaper-variant

Ich kann mich nicht erinnern, ob so ein Mist früh gabs....

Man kann also davon ausgehen dass die Reviewer im Augenblick alle handverlesene golden samples haben.

Greetz
US