Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6
Kriton
2018-09-08, 22:16:57
Ist das so? Wenn wir Die-Größe und so weiter mit einrechnen kommen Grafikkarten nicht sonderlich teuer vor. CPUs sind gegenüber High-End Grafikchips lächerlich klein, kommen ohne Board und Speicher daher, kosten aber trotzdem gut 300-400€ ...
Realistisch gesehen haben sich die Grafikkartenpreise eher an das Niveau der CPUs angeglichen.
weil die GPU auch ein ganz anderer brummer ist.
https://en.wikipedia.org/wiki/Transistor_count :eek:
Das ist schon krank, was es bei GPUs so nebenbei zu kaufen gibt.
Die nutzbarkeit auch erheblich höher. GPU-Leistung kann ist theoretisch 1:1 in BQ/FPS umlegen.
Das Argument der DIE-Größe reduziert den Kostenaspekt IMHO zu sehr auf die konkrete Produktion. Das Design einer GPU (in der Skalierung) ist doch (AFAIK) im Vergleich zu einer X86-CPU deutlich simpler (nicht simpel, sondern nur in Relation) und damit einher gehen bei einer CPU gegenüber einer GPU noch ganz andere Kosten - beispielsweise beim Design.
Da gabs so modernes Zeugs noch nicht, und Internet nur per ISDN und Modem.
AffenJack
2018-09-08, 22:40:31
Das Argument der DIE-Größe reduziert den Kostenaspekt IMHO zu sehr auf die konkrete Produktion. Das Design einer GPU (in der Skalierung) ist doch (AFAIK) im Vergleich zu einer X86-CPU deutlich simpler (nicht simpel, sondern nur in Relation) und damit einher gehen bei einer CPU gegenüber eienr GPU noch ganz andere Kosten - beispielsweise beim Design.
Ist es das? (Ehrliche Frage) Z.b haben sowohl Apple als auch Samsung gute CPUs designt. Bei GPUs steigt Apple dagegen erst gerade um und Samsung scheitert angeblich seit Jahren am Design, ebenso wie Intel früher. Kann natürlich auch nur am nicht wollen liegen, aber scheint für mich auf den ersten Blick nicht groß simpler.
GSXR-1000
2018-09-08, 22:51:35
Wirklich?
Hast du nicht verleicht sogar mit Bitcoins bezahlt? :tongue:
Wie so oft haut er wieder alternative Fakten raus. Scheint bei ihm inzwischen schwer in mode zu kommen.
Selbst Wiki sagt, die ersten Karten kamen zu einem Preis von etwa 370 DM rausim Oktober raus. Wir haben die erste Lieferung der Monster 3D von Wave in Deutschland mitbekommen und die ersten fuer 350 DM verkauft. Zum Weihnachtsgeschäft lagen die Karten dann schon bei ca. 300 DM.
Teurer waren die Voodoo2 Karten die 1998 mit ca 450DM auf den Markt kamen. Aber auch ein x-faches an Leistung boten im Vergleich. Die fielen aber dann auch sehr schnell auf 300 DM.
Solche nummern bringt er in letzter Zeit dauernd. KA wieso...
Ich frag mich auch wie er die Karte im August gekauft haben will, wenn die Vorstellung erst im Oktober war...
pixeljetstream
2018-09-08, 23:02:22
[immy;11794769']man darf auch nicht vergessen, durch RT erhöht sich auch ja auch "klassische"-Rechenlast, da nun Dinge gerendert werden, die zuvor nicht im Bild waren. Dadurch erhöht sich die Anzahl der zusätzlichen Bildbereiche schon enorm.
Genau. Bei Schatten/AO sind die Strahlen mehr oder weniger schon der ganze Effekt, da profitiert man dann stark von der dedizierten HW. Bei Reflektionen allerdings, muss das Shading an dem getroffenem Punkt ausgewertet werden.
Auch muss die GPU die Arbeit leisten die dynamische Geometrie in die Beschleunigungsstruktur zu überführen.
Es sei aber auch gesagt, dass wenn man mit den alten Techniken wie dynamischen Environment Maps, oder Spiegelportalen arbeitet, diese natürlich auch Arbeit generieren und dann tendentiell für mehr Richtungen als nötig.
Wenn manche schreiben, die Gamer sind nicht das Ziel, sondern nur Pro-Markt, haben sie zwar Recht das unmittelbar der Pro-Markt schneller profitiert, die Gamer aber dennoch riesige Zielgruppe darstellen. Die Reise bis es dort durchschlägt ist nur länger (mehr Hersteller, günstigere Karten mit genügend Leistung). Es gäbe kein DXR wenn das nicht so wäre imo. AMD, Intel und NV haben schon ihre Lösungen für RT im Pro-Markt
Selbst Wiki sagt, die ersten Karten kamen zu einem Preis von etwa 370 DM rausim Oktober raus. Wir haben die erste Lieferung der Monster 3D von Wave in Deutschland mitbekommen und die ersten fuer 350 DM verkauft.
Wiki sagt nicht immer die Wahrheit. Ob der Preis war, wie gesagt, weiß ich nicht mehr, aber ich habe definitiv eine im August bereits gehabt. Soweit ich mich erinnern kann, mußten die Kollegen da noch ein paar Tage warten. Ich kann mich noch gut daran erinnnern, daß ich mir noch extra ein Zip-Laufwerk kaufte, um die Patche für Tomb Raider und Eurofighter 2000 in einem Internetcafe am Kudamm zu ziehen. Der von Eurofighter 2000 war richtig fett.
Egal. Damals waren die Karten eben auch nicht "billig".
Hübie
2018-09-09, 00:50:23
Huh? Apple verkauft hochpreisige Produkte und solange iPhones etc. weggehen wie warme Semmeln, wird Apple 1000 Euro pro iPhone. verlangen (IphoneX). Jetzt wird es ein iPhone X Plus oder wie auch immer es heißen mag, was noch mehr kosten wird. Die Schmerzensgrenze wird ausgelotet. Macht Nvidia genauso und ist außerdem in der glücklichen Situation keine Konkurrenz zu haben. Müssen wir wirklich darüber diskutieren. Solange es genügend Käufer zu diesen Preisen gibt, wird sich nichts ändern. Sollte AMD mit einer 7nm GPU kommen mit Raytracing, die gleichschnell sein und die Hälfte kosten wird, werden die Preise schnell purzeln. So ist Marktwirtschaft. Können wir bitte damit aufhören hier?
Und was genau hat es mit Angebot und Nachfrage zu tun? Wie hoch ist die Nachfrage? Wie hoch das Angebot? Wenn Produkt X 1000,-€ kostet wirkt Produkt Y mit n weniger Features für 700,-€ plötzlich wie ein Schnäppchen. Da wird keine Schmerzgrenze ausgelotet. Der Punkt ist seit 1950 mit dem TV oder der Mikrowelle längst überschritten worden. ;)
GSXR-1000
2018-09-09, 01:31:50
Wiki sagt nicht immer die Wahrheit. Ob der Preis war, wie gesagt, weiß ich nicht mehr, aber ich habe definitiv eine im August bereits gehabt. Soweit ich mich erinnern kann, mußten die Kollegen da noch ein paar Tage warten. Ich kann mich noch gut daran erinnnern, daß ich mir noch extra ein Zip-Laufwerk kaufte, um die Patche für Tomb Raider und Eurofighter 2000 in einem Internetcafe am Kudamm zu ziehen. Der von Eurofighter 2000 war richtig fett.
Egal. Damals waren die Karten eben auch nicht "billig".
Es ist am Ende egal was wiki sagt: Fakt ist die Karte wurde erst im Oktober vorgestellt und ausgeliefert. Das ist schlicht Fakt. Falls du mir das wieder nicht glaubst, frag einen der 3DFX Gurus hier im Forum. Die werdens dir bestaetigen.
reaperrr
2018-09-09, 02:34:43
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Turing-Mittelklasse-Kein-Raytracing-1264695/
Ggf doch erstmal kein RT für die kommenden lowcost und midrange Karten?
Alles andere hätte mich stark überrascht.
Für halbwegs brauchbare RT-Leistung braucht man wohl mindestens die RT-Rohleistung der 2070 (wobei ich selbst da noch ziemlich skeptisch bin).
Und wenn es für TU106 bei 192bit SI bleibt (und damit 48 ROPs und wohl dann 3MB L2$), würde der Chip ohne weitere Abstriche mindestens bei ~300mm² landen, was fast so groß wie GP104 ist.
Gleichzeitig wäre ein solcher Chip von der Rohleistung her aber so weit von GP104 weg (nur 60% der FLOPs pro MHz), dass die verbesserte uArch wohl nicht reichen würde, um auf die gleiche Perf/mm² zu kommen.
Die RT-Cores wären in dem Performance-Bereich eh nur flächen- und kostensteigernder Ballast ohne realen Nutzen gewesen.
Leonidas
2018-09-09, 04:40:21
Turing ist meiner Meinung nach nach GV100 ein zweiter Technologie-Pipecleaner. Nvidia kann sich das in der jetzigen Situation leisten. "Verändere dich nur aus einer Position der Stärke. So kannst du lenken, wie du dich veränderst. Ansonsten wirst du verändert".
Sehe ich 100% genauso. Bestmögliche Situation, um so einen Sprung zu machen, der anfänglich nicht viel bringt, aber irgendwann gemacht werden muß, ist genau jetzt - bei der Schwäche des Wettbewerbs. Womöglich hat NV die Sache die ganze Zeit griffbereit gehabt, um sie dann, wenn es passend ist, zu integrieren..
Die Gamer stehen gar nicht so im Fokus, sondern die Content-Creators aus der Filmindustrie.
Das wiederum sehe ich keinesfalls als so stark an. Die CC nimmt man sehr gern mit bzw. baut dort seine Position aus. Aber NV dürfte wissen, das RT sowieso im Gaming-Bereich kommen muß und es nur um die Frage des Zeitpunkts ging. RT ist jetzt durchaus dafür gedacht, sich im Gaming-Bereich durchzusetzen.
Trollt nvidia jetzt schon oder merken die langsam gar nix mehr:confused:
http://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/News/Turing-Preis-Pascal-1264699/
Aussage für Analysten, darf man nicht ganz so ernst nehmen. In diesem Umfeld wäre jeder höhere Preis nur noch positiver (mehr Marge!).
Wie so oft haut er wieder alternative Fakten raus. Scheint bei ihm inzwischen schwer in mode zu kommen.
Selbst Wiki sagt, die ersten Karten kamen zu einem Preis von etwa 370 DM rausim Oktober raus. Wir haben die erste Lieferung der Monster 3D von Wave in Deutschland mitbekommen und die ersten fuer 350 DM verkauft. Zum Weihnachtsgeschäft lagen die Karten dann schon bei ca. 300 DM.
Vorsichtig, mittels Annahmen auf irgendeinen Fakt schließen zu wollen. Sprich: Er könnte sich auch einfach geirrt haben. Rechnet bitte auch ein, das dies die große Zeit des Einzelhandels war. Und da gab es vor Ort immer auch mal sehr abweichende, teils viel höhere Preise.
dildo4u
2018-09-09, 06:36:21
Preis Leistung kann gigantisch sein je nachdem wie gut DLSS ist.Wenn sie ständig neue Profile bringen könnten zumindest alle AAA Games Support bekommen wie es jetzt der Fall mit den Gameready Treibern ist.
Armaq
2018-09-09, 08:00:38
Preis Leistung kann gigantisch sein je nachdem wie gut DLSS ist.Wenn sie ständig neue Profile bringen könnten zumindest alle AAA Games Support bekommen wie es jetzt der Fall mit den Gameready Treibern ist.
DLSS ist für die großen Karten das eine. Stellt euch das mal für die kleinen Karten vor. Wie viele Leute sehen die Unterschiede bei der Auflösung nicht, aber Effekte werden wahrgenommen.
mironicus
2018-09-09, 08:45:48
Solches Raytracing hätte NVidia mal zeigen sollen: :eek:;D
basix
2018-09-09, 08:59:57
@Leonidas: Das mit dem Gaming Sektor schrieb ich weiter unten in ähnlicher Weise. Auch die Gamer sollen profitieren. Doch ohne den Zusatz-Boost der CC-Margen wäre RT vermutlich später gekommen. Eben weil CC mehr oder minder sofort profitieren und entsprechend scharf auf die HW sind. Bei den Gamern sieht man es ja hier im Thread: Die meisten sehen RT im Gaming noch nicht ganz so weit oder augrund der gezeigten Performance schon fast als unbrauchbar. Ich jedenfalls freue mich auf den frischen Wind ;)
GSXR-1000
2018-09-09, 11:44:49
Vorsichtig, mittels Annahmen auf irgendeinen Fakt schließen zu wollen. Sprich: Er könnte sich auch einfach geirrt haben. Rechnet bitte auch ein, das dies die große Zeit des Einzelhandels war. Und da gab es vor Ort immer auch mal sehr abweichende, teils viel höhere Preise.
Hast Recht. Kommt nur in letzter Zeit sehr häufig vor.
Mir ist das noch sehr präsent, da ich seinerzeit selbst im Computerhandel unterwegs war. Auch höhere Preise im Einzelfall mag sein, Aber eher nicht mehr als um den Faktor 1,5 höher als die UVP. Fakt bleibt, das die Grafikbeschleuniger damals einen Megaeffekt hatten und im Vergleich zu anderer Computerhardware (mainboard, cpu, speicher) und vor allem auch anderen Grafikkarten (Stichwort Matrox oder auch Riva serie) sehr billig waren. Und das hat primär für die Marktdurchdringung und zur akzeptanz geführt. Auch waren von day 1 wirkliche gamechanger in software vorhanden (alleine GLquake war ein erlebnis, welches kaum ein Computerspieler dieser Zeit je vergessen wird, oder auch die angepasste version von Mechwarrior).
Das alles ist hier im Falle RT heute nicht gegeben. Was letztlich jedem potentiell schaden wird, der auf einen Erfolg der Technologie in möglichst kurzer Zeit hofft. Und NV arbeitet einem Erfolg mit diesen Preisen aktiv entgegen.
ChaosTM
2018-09-09, 12:54:30
Nochmals kurz zu einer möglichen variante der 2060er Serie.
Was spricht eigentlich dagegen, die 1070(ti) auf 2060 umzulabeln für den Fall dass NV nicht alle Pascals an den Mann bringt?
Die Leistung würde in etwa passen. Die derzeitige 1060er könnte dann vorübergehend den Platz der 2050er übernehmen.
Damit könnte man die Zeit bis 7nm gut überbrücken.
RT(X) ist in dieser Klasse sowieso nicht zielführend.
edit.: die erst Voodoo Karte hat hier 5500 4500 Schillinge gekostet was etwas 400 über 300 € Euro entspricht. Ich hab sogar noch irgendwo die Rechnung :)
pixeljetstream
2018-09-09, 13:00:05
Imo käme das gleich zu sagen die neue Architektur ist gescheitert. Einfach es zu lassen wie es ist schadet nicht und kostet auch nix.
ChaosTM
2018-09-09, 13:07:35
Finde ich nicht, aber man könnte es eventuell so auslegen, ja ..
=Floi=
2018-09-09, 13:13:02
Solches Raytracing hätte NVidia mal zeigen sollen: :eek:;D
dann hätte das mit den frauen in BF V endlich sinn ergeben. ;D :freak:
Vorsichtig, mittels Annahmen auf irgendeinen Fakt schließen zu wollen. Sprich: Er könnte sich auch einfach geirrt haben. Rechnet bitte auch ein, das dies die große Zeit des Einzelhandels war. Und da gab es vor Ort immer auch mal sehr abweichende, teils viel höhere Preise.
Beschwören will ich das nun auch nicht, ist ja schon lange her. :tongue: Ich weiß nur, daß ich damals in halb Deutschland rumtelefonierte, als die erste Ankündigung in einer Zeitschrift oder online laß (wir hatten 1996 in der Firma schon Internet). Wie der Zufall so wollte, hatte wirklich ein Laden am Kudamm um die Ecke bei uns die ersten Karten. Das war auch ein Laden, der damals einen ziemlich guten Ruf hatten, neue HW bereits verfügbar zu haben, auch als Import.
Solches Raytracing hätte NVidia mal zeigen sollen: :eek:;D
Ist das jetzt wirklich RT oder veralberst Du uns nur? :confused:
Neeee X-D
Radeonfreak
2018-09-09, 13:45:11
dann hätte das mit den frauen in BF V endlich sinn ergeben. ;D :freak:
gemeldet :cop:
;)
pixeljetstream
2018-09-09, 16:28:12
https://youtu.be/GRQuRcpf5Gc
Offtopic aber immer wieder nur krank (Image/Video Synthese via machine learning)
Tobalt
2018-09-09, 17:13:51
Wenn man den Kanal verfolgt bleibt eigentlich kein Zweifel dass auch beim Rendering AI immer wichtiger werden wird.
Und leute die dann von informationsverlust gegenüber Brechstangenrendering sprechen, kann ich nicht nachvollziehen
BigKid
2018-09-10, 10:27:10
Wenn man den Kanal verfolgt bleibt eigentlich kein Zweifel dass auch beim Rendering AI immer wichtiger werden wird.
Und leute die dann von informationsverlust gegenüber Brechstangenrendering sprechen, kann ich nicht nachvollziehen
Genau... Und JPEG sieht selbst bei hoher Kompression aus 3m Entfernung auf meinem Handy noch so toll aus - das ist defakto auch Verlustfrei... ich sehe keine Informationen die da verloren gehen...
Im Ernst: Ich mag was ich bisher über DLSS gelesen habe. Aber es ist nunmal verlustbehaftet weil ein Bild rekonstruiert wird und das IST verlustbehaftet... Wenn es gut funktioniert und power spart mag man das (gern) in Kauf nehmen - es bleibt aber was es ist...
Fragman
2018-09-10, 10:39:00
Genau... Und JPEG sieht selbst bei hoher Kompression aus 3m Entfernung auf meinem Handy noch so toll aus - das ist defakto auch Verlustfrei... ich sehe keine Informationen die da verloren gehen...
Im Ernst: Ich mag was ich bisher über DLSS gelesen habe. Aber es
ist nunmal verlustbehaftet weil ein Bild rekonstruiert wird und das IST verlustbehaftet... Wenn es gut funktioniert und power spart mag man das (gern) in Kauf nehmen - es bleibt aber was es ist...
Mit dem Argument ist alles verlustbehaftet, vor allem im Renderingbereich. Bei all den Tricks und Vereinfachungen, die man heute anwendet, ist kein Bild wirklich "vollständig".
Cubitus
2018-09-10, 10:57:12
Laut Colette Kress, EVP und CFO von Nvidia, soll Turing mehr Leistung pro Geld bieten als die Vorgängergeneration.
Sie gibt an, dass sich die Gaming-Leistung verdoppeln soll, während im Raytracing die sechsfache und im Deep Learning die zehnfache Leistung zur Verfügung steht.
Quelle PCGH
Musste gerade echt lachen..Alles eine Frage der Betrachtung.
Im Endeffekt ist gerade die "alte" 1080 GTX für die meisten Spieler wohl die beste P/L Karte.
Einfach deshalb weil die Leistung für 1080p und WQHD dicke ausreicht, und die Karte atm abverkauft wird.
Der deepe Lern-Shit und das Raytracing starten ja quasi bei Null im Gaming Bereich, natürlich sind die Karten somit schneller ;D
Vorausgesetzt die Optionen werden überhaupt bei der alten Gen implementiert :uponder:
Milchmädchen-Marketing-Rechnungs blabla @its best...
Screemer
2018-09-10, 11:50:00
Quelle PCGH
Musste gerade echt lachen..Alles eine Frage der Betrachtung.
Im Endeffekt ist gerade die "alte" 1080 GTX für die meisten Spieler wohl die beste P/L Karte.
Einfach deshalb weil die Leistung für 1080p und WQHD dicke ausreicht, und die Karte atm abverkauft wird.
Der deepe Lern-Shit und das Raytracing starten ja quasi bei Null im Gaming Bereich, natürlich sind die Karten somit schneller ;D
Vorausgesetzt die Optionen werden überhaupt bei der alten Gen implementiert :uponder:
Milchmädchen-Marketing-Rechnungs blabla @its best...
wurde vor zwei tagen schon mal gepostet: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11794714#post11794714
da haben viele in etwa so drauf reagiert wie du. nur falls es wen interessiert.
Quelle PCGH
Musste gerade echt lachen..Alles eine Frage der Betrachtung.
Im Endeffekt ist gerade die "alte" 1080 GTX für die meisten Spieler wohl die beste P/L Karte.
Einfach deshalb weil die Leistung für 1080p und WQHD dicke ausreicht, und die Karte atm abverkauft wird.
Die 1080 reicht (mit Gsync) bei vielen single Titeln auch für 4k mit spielbaren FR. Crysis3 suckt die 1080 in 4k im PCGH-Bench ja so richtig in den 30fps Bereich runter. Allerdings ist die Engine irgendwie low-fps freundlich und läßt sich auch mit drops auf 30fps ziemlich flüssig spielen. Mit Gsync sogar richtig flüssig.
Wer aus Prinzip "Motion Blur" deaktiviert und es nicht mit den Shadow-Maps übertreibt (auf die achte ich fast nie), sollte auch mit ner 1080 in UHD viele Titel genießen können.
Ich überlege gerade, die 2080ti tu stornieren. Ich brauche sie nicht wirklich, bin aber neugierig auf neue Technologien:confused:
PrinceGSC
2018-09-10, 12:45:28
Die 1080 reicht (mit Gsync) bei vielen single Titeln auch für 4k mit spielbaren FR. Crysis3 suckt die 1080 in 4k im PCGH-Bench ja so richtig in den 30fps Bereich runter. Allerdings ist die Engine irgendwie low-fps freundlich und läßt sich auch mit drops auf 30fps ziemlich flüssig spielen. Mit Gsync sogar richtig flüssig.
Wer aus Prinzip "Motion Blur" deaktiviert und es nicht mit den Shadow-Maps übertreibt (auf die achte ich fast nie), sollte auch mit ner 1080 in UHD viele Titel genießen können.
Ich überlege gerade, die 2080ti tu stornieren. Ich brauche sie nicht wirklich, bin aber neugierig auf neue Technologien:confused:
Hast dir die Antwort eigentlich schon selbst gegeben, lohnen tut es sich aktuell nicht aufs top Produkt umzusteigen, besonders wenn man bedenkt das man das angepriesene Element eh so gut wie garnicht nutzen kann oder einem FPS egal sind. Da reicht auch die 1080ti, daher ist die Frage wie wichtig dir das RTX ist.
🧐
BigKid
2018-09-10, 13:12:51
Mit dem Argument ist alles verlustbehaftet, vor allem im Renderingbereich. Bei all den Tricks und Vereinfachungen, die man heute anwendet, ist kein Bild wirklich "vollständig".
Ich denke du verstehst den Unterschied und willst einfach nur nicht...
Ich dachte immer dies hier sei ein technik-lastiges Forum und da geht es manchmal auch darum bei den Fakten zu bleiben und Dinge als das zu benennen was sie sind.
Um nochmal auf mein Beispiel zurück zu kommen:
Ein Waschmittel mit 25% mehr Waschkraft zu erfinden ist eine tolle Sache.
Dann einfach 75gr als 100gr zu verkaufen anstatt zu sagen "75gr - entspricht 100gr eines herkömmlichen Waschmittels" wäre Betrug.
Ich kann die Technik genial finden. Ich kann sogar das rekonstruierte (hochgerechnete) Bild als besser empfinden als ein Original.
Aber ich kann mich doch nicht hinstellen und sagen "ich verstehe nicht was die Leute wollen, die darauf hinweisen dass es PRINZIPBEDINGT verlustbehaftet ist" und mich dann wundern dass ich Gegenwind bekomme...
Manchmal gehts den Leuten nur um die Fakten - die sind einfach das was sie sind - ohne Bewertung...
Abgesehen davon... Nix konkretes weiss man nicht... *ungeduldig rummhüpf*
Auch wenn ich mir recht sicher nur dann eine RTX2000er für meinen Desktop hole wenn sich abzeichnet das 7nm noch länger auf sich warten lässt wüsste ich gerne mehr - speziell über DLSS...
Mich reizt es aber mehr für nen Gaming Laptop...
Fragman
2018-09-10, 14:14:08
Ich dachte immer dies hier sei ein technik-lastiges Forum und da geht es manchmal auch darum bei den Fakten zu bleiben und Dinge als das zu benennen was sie sind.
Ich verstehe, worauf die hinaus willst. Nur glaube ich, das Deine Grundannahme schon falsch ist. ;)
Auch bisher ging es nicht ohne Tricks und das was wir auf dem Bildschirm sahen und sehen, ist nichts "vollstaendiges", egal ob Spiel oder die VFX in Infinity War. Man erhoeht mit der Zeit nur die Genauigkeit bzw bekommt man mehr Genauigkeit in derselben Zeit.
Die AI hilft dabei diese Luecken schneller zu fuellen. Das ist kein Fake, sondern nur ein andere Art, Rechenleistung zu sparen. Ob das Bild am Ende zu 100 prozent korrekt ist (wobei man auch hier "korrekt" erstmal definieren muesste) oder nicht, ist eine rein philosophische Frage, wenn das Ergebnis ueberzeugt und stimmig ist. (Wobei man diese Diskussion noch deutlich ausweiten koennte. ;) )
robbitop
2018-09-10, 14:19:30
Bevor man sich in solche Diskussionen verstrickt, sollte man IMO die Ergebnisse und deren Konsistenz abwarten. Je nach dem stellen sich solche Fragen dann gar nicht mehr.
Kriton
2018-09-10, 14:34:12
Ist es das? (Ehrliche Frage) Z.b haben sowohl Apple als auch Samsung gute CPUs designt. Bei GPUs steigt Apple dagegen erst gerade um und Samsung scheitert angeblich seit Jahren am Design, ebenso wie Intel früher. Kann natürlich auch nur am nicht wollen liegen, aber scheint für mich auf den ersten Blick nicht groß simpler.
CPU ist bei Apple und Samsung ja ARM-basiert und lizensiert. Man musste da also schon einmal nicht bei null anfangen. Das GPU-Thema ist zudem aus Sicht der Patente sicher schwieriger.
Auch ist die Frage, aus Sicht von Apple und Samsung sicher gewesen, was wichtiger ist (auch deren Ressourcen für Prozessorendesign sind sicher begrenzt) und wenn man sich den Markt der vergangenen Jahre ansieht, hat es Intel mit Schwerpunkt CPU und (im Vergleich) schwächerer GPU nicht geschadet/hat immer gereicht.
robbitop
2018-09-10, 14:38:06
Samsung und Apple lizensieren nur die ISA. Da geht es dann nur um reine Nutzungsrechte. ARM designd keinen Fatz an Apples und Samsungs CPU. Apples letzte CPU die von ARM kam war der A5 mit einem Cortex A9.
Samsung hingegen macht das erst seit 2016 mit dem Mongoose Kern. Hatte vorher noch A57 und A72 Kerne von ARM.
Kriton
2018-09-10, 14:44:09
Ich denke du verstehst den Unterschied und willst einfach nur nicht...
Ich dachte immer dies hier sei ein technik-lastiges Forum und da geht es manchmal auch darum bei den Fakten zu bleiben und Dinge als das zu benennen was sie sind.
Um nochmal auf mein Beispiel zurück zu kommen:
Ein Waschmittel mit 25% mehr Waschkraft zu erfinden ist eine tolle Sache.
Dann einfach 75gr als 100gr zu verkaufen anstatt zu sagen "75gr - entspricht 100gr eines herkömmlichen Waschmittels" wäre Betrug.
Ich kann die Technik genial finden. Ich kann sogar das rekonstruierte (hochgerechnete) Bild als besser empfinden als ein Original.
Aber ich kann mich doch nicht hinstellen und sagen "ich verstehe nicht was die Leute wollen, die darauf hinweisen dass es PRINZIPBEDINGT verlustbehaftet ist" und mich dann wundern dass ich Gegenwind bekomme...
Manchmal gehts den Leuten nur um die Fakten - die sind einfach das was sie sind - ohne Bewertung...
+1
BigKid
2018-09-10, 14:46:01
Bevor man sich in solche Diskussionen verstrickt, sollte man IMO die Ergebnisse und deren Konsistenz abwarten. Je nach dem stellen sich solche Fragen dann gar nicht mehr.
Naja... Die zugrundeliegende Frage ist doch: Wenn man jetzt mal davon ausgeht, dass DLLS Pixel beim Rendern einspart und RTX diese dann per AI "erfindet" (und etwas anderes KANN es ja fast nicht sein bei den angegebenen Performance Gewinnen) - muss man diesen Umstand erwähnen ? Muss man die BQ dann kritisch zwischen AMD und NVIDIA (und sogar zwischen NVIDIA GTX und NVIDIA RTX) vergleichen ? Oder guckt man einfach nur drauf und sagt "sieht doch voll geil aus und boah ist der Balken lang" ?
Das ist imho ne Grundsatzfrage... Die kann man mal Diskutieren selbst wenn noch offen ist wie genau DLSS die 30-40% Boost herzaubert... Und ehrlich gesagt ist die Thematik eigentlich nicht neu und ich meine das früher auch eindeutiger zu solchen "Sparversuchen zur performance Steigerung" durch einen Hersteller Stellung bezogen wurde und sehr genau hingeschaut wurde...
Kriton
2018-09-10, 14:47:43
Samsung und Apple lizensieren nur die ISA. Da geht es dann nur um reine Nutzungsrechte. ARM designd keinen Fatz an Apples und Samsungs CPU. Apples letzte CPU die von ARM kam war der A5 mit einem Cortex A9.
Samsung hingegen macht das erst seit 2016 mit dem Mongoose Kern. Hatte vorher noch A57 und A72 Kerne von ARM.
Aber damit haben sie zumindest schon mal kein Problem mit den betroffenen Patenten.
Und wenn ich das richtig verstehe, so kann man (prinzipiell) einen von ARM designten Referenzchip bauen, oder? Alternativ halt "beliebig" abändern oder komplett neu machen.
Ich meine halt, dass es einfacher ist auf ARM-Basis einen Chip zu designen als eine GPU, ohne dass ich eine entsprechende ISA lizensieren kann. Das sollte prinzipiell richtig sein (sonst wüsste ich nicht, wie das Geschäftsmodell von ARM funktionieren sollte, wenn es keinen Vorteil bietet).
robbitop
2018-09-10, 14:56:38
Die ISA ist unabhängig von der Implementierung. Die ISA ist ja eigentlich nur die Oberfläche- die Sprache nach außen. Die eigentlichen Kerne nutzen intern ganz andere Instruktionen. Ab (und inkl) der decoder steckt das Knowhow. Und das kann und ist jede Implementoerung, jeder Trick, den es bis dato gab, mit Sicherheit geschützt. ISA unabhängig.
Will man da mitmisch, braucht es Licenceagreements mit denen, die die Patente innehaben. Da hat ARM sicherlich einige - aber sicherlich auch alle anderen.
Das gleiche gilt für GPUs.
Das ist der Grund dafür, dass tech Firmen Patente hamstern und Firmen kaufen: viele Patente -> Hebel für cross licence agreements.
Ich denke das ist weder bei CPUs noch bei GPUs unproblematisch wenn man ganz vorn mitspielen will. Das geht nicht ohne die Nutzung vieler bereits geschützter Implementierungen.
ViA hat ja bspw Centaur und S3 (kA ob ma die von htc zurück hat mittlerweile?) und Apple hat PA Semi. NV hat Transmeta.
BlacKi
2018-09-10, 16:14:14
Ich denke du verstehst den Unterschied und willst einfach nur nicht...
Ich dachte immer dies hier sei ein technik-lastiges Forum und da geht es manchmal auch darum bei den Fakten zu bleiben und Dinge als das zu benennen was sie sind.
Um nochmal auf mein Beispiel zurück zu kommen:
Ein Waschmittel mit 25% mehr Waschkraft zu erfinden ist eine tolle Sache.
Dann einfach 75gr als 100gr zu verkaufen anstatt zu sagen "75gr - entspricht 100gr eines herkömmlichen Waschmittels" wäre Betrug.
dennoch würde ich, deinem beispiel nach, das super 75gr waschmittel gegen das reguläre 100gr waschmittel benchen, wenn die qualität vergleichbar ist.
und jetzt noch besser:
man kann in einem test von 4l saugmotor vs 4l turbo motor ja auch nicht dem turbomotor den turbo klauen, mit dem argument ja aber die drehmoment kurve des turbos ist nicht dieselbe des saugmotors...
wenn dlss was taugt, dann wird das gegen das standard 4k gebencht, schließlich muss das was hinten raus kommt überzeugen.
BigKid
2018-09-10, 16:20:44
dennoch würde ich, deinem beispiel nach, das super 75gr waschmittel gegen das reguläre 100gr waschmittel benchen, wenn die qualität vergleichbar ist.
und jetzt noch besser:
man kann in einem test von 4l saugmotor vs 4l turbo motor ja auch nicht dem turbomotor den turbo klauen, mit dem argument ja aber die drehmoment kurve des turbos ist nicht dieselbe des saugmotors...
wenn dlss was taugt, dann wird das gegen das standard 4k gebencht, schließlich muss das was hinten raus kommt überzeugen.
Aber in beiden Fällen KANN ich darauf hinweisen und darauf eingehen... Und mir auch die NACHTEILE einer neuen Technologie ansehen bzw. nach diesen Ausschau halten ! Und als Tester wird aus dem KANN ein MUSS...
Und auf das Turbo-Loch wird immer wieder mal hingewiesen - das kann ich auch ohne dem Turbo den Turbo zu nehmen... Speziell wenn man Sauger mit Turbo vergleicht. Im Übrigen hinkt dein Vergleich auch deshalb weil hier eher ein 4l Sauger mit einem 2l Turbo verglichen würde...
Und zur Untersuchung der Nachteile/Vorteile kann ich durchaus auch den Turbo "mal abklemmen" und schauen was dann passiert...
(Und auch wenns aktuell Spekulation ist: WENN DLSS Pixel einspart und dann per AI erfindet (wie auch immer Konkret) und WENN diese Technik bei manchen der veröffentlichten Balkenlängen Anwendung fand - DANN wäre das IMHO quasi Betrug denn man kann die Karten schon kaufen... Speziell wenn DLSS sogar verwendet wurde ohne ÜBERHAUPT drauf hinzuweisen das DLSS (zB bei Aussagen wie 4k@60Hz) im Spiel war... Aber das ist ne Diskussion die ich mir bis nächste Woche aufspare.)
Loeschzwerg
2018-09-10, 16:28:22
ViA hat ja bspw Centaur und S3 (kA ob ma die von hrc zurück hat mittlerweile?)
Spielt eigentlich keine Rolle, liegt alles in der gleichen Familie :D
N0Thing
2018-09-10, 16:38:31
wenn dlss was taugt, dann wird das gegen das standard 4k gebencht, schließlich muss das was hinten raus kommt überzeugen.
Oder man testet mit FullHD / WQHD und beurteilt den Qualitätsgewinn, den DLSS evtl. bringt.
Fragman
2018-09-10, 16:41:29
Aber in beiden Fällen KANN ich darauf hinweisen und darauf eingehen... Und mir auch die NACHTEILE einer neuen Technologie ansehen bzw. nach diesen Ausschau halten ! Und als Tester wird aus dem KANN ein MUSS...
Dagegen wird auch keiner etwas sagen und das muss natuerlich auch vernuenftig getestet werden.
Ich persoenlich hab nur hier und da im Renderingbereich meine Erfahrungen gemacht und war bei einigen Dingen auch skeptisch. Wenn man sich aber mal anschaut, wieviel Renderzeit man sparen kann, ohne das man optisch einen Unterschied wahrnimmt, also in Bewegung, nicht auf Standbildern (auf vergleichsbildern ist es leicht was zu finden ;) ), dann relativiert sich sowas eben sehr schnell. Von vorn herein sollte man mit Worten wie Fake aber vorsichtig sein. Und wenn das Feature ueberzeugt, werden es andere auch in ihre Chips einbauen und wenn nicht, ist dieses Feature als Argument halt nicht ueberzeugend.
Hübie
2018-09-10, 16:47:19
(Und auch wenns aktuell Spekulation ist: WENN DLSS Pixel einspart und dann per AI erfindet (wie auch immer Konkret) und WENN diese Technik bei manchen der veröffentlichten Balkenlängen Anwendung fand - DANN wäre das IMHO quasi Betrug denn man kann die Karten schon kaufen... Speziell wenn DLSS sogar verwendet wurde ohne ÜBERHAUPT drauf hinzuweisen das DLSS (zB bei Aussagen wie 4k@60Hz) im Spiel war... Aber das ist ne Diskussion die ich mir bis nächste Woche aufspare.)
Nicht dein Ernst, oder? Dann ist Tesselation schon Betrug, denn da werden Vertices interpoliert (erfunden), die es nicht gibt. :freak:
Wait. Auch die PS4 schummelt. Wait... alles Lug und Betrug. Erst Recht wenn NVIDIA drauf steht, nicht wahr? :wink:
N0Thing
2018-09-10, 16:56:37
Nicht dein Ernst, oder? Dann ist Tesselation schon Betrug, denn da werden Vertices interpoliert (erfunden), die es nicht gibt.
Schlechtes Beispiel. Die Grafikkarte spart sich ja nicht von Haus aus Berechnungen, um diese dann via Tesselation wieder hinzuzufügen. Die Verwendung von Tesselation legt der Designer / Entwickler schon vorher fest und ist für jeden Spieler identisch.
Man sollte einfach die Reviews abwarten, bevor man sich ein Urteil bildet.
Aber man sollte auch mal ein paar Jahre zurück denken, als es vielen noch wichtig war, ob das AF einwandfrei umgesetzt wurde und ohne Einsparungen lief oder welches Muster bei SGSSAA zum Einsatz kommt. Jetzt steht uns quasi AI unterstütztes Upsampling bevor und es gibt erstaunlich wenige Stimmen, die sich um die Bildqualität sorgen machen.
BigKid
2018-09-10, 17:02:00
Nicht dein Ernst, oder? Dann ist Tesselation schon Betrug, denn da werden Vertices interpoliert (erfunden), die es nicht gibt. :freak:
Wait. Auch die PS4 schummelt. Wait... alles Lug und Betrug. Erst Recht wenn NVIDIA drauf steht, nicht wahr? :wink:
Nur leider greift dein Ablenkungsmanöver nicht... Nach 3dfx kam bei mir riva tnt2... und dann blieb NVidia bis auf einen ganz kurzen Abstecher zu AMD (blieb nichtmal nen Monat) bis zu meiner aktuellen GTX1080ti ... Merkste was ?
Ganz ehrlich ich dachte solche billige Nebelkerzen hättest du nicht nötig... Bzw. WENN du sie benutzt würdest du wenigstens mal schauen ob sie überhaupt zünden können...
Was manche hier irgendwie nicht zu begreifen scheinen: Für mich wäre es Betrug wenn eine Information, die für die Einordnung eines Benchmark Ergebnisses nötig ist, unterschlagen würde...
Dabei ist mir erstmal egal wie geil/gut das Feature ist... Es geht um Fakten... Und das kann ich alles ohne irgendeinen Bias tun und sogar ohne das Feature als solches zu verteufeln. Wenn also NVIDIA bei der Angabe +40% durch DLSS vergessen hätte zu erwähnen, dass sie zB DLSS gegen ein AA mit Downsampling verglichen haben weil das Endergebnis ihrer Meinung nach vergleichbar ist - DANN wäre das IMHO irgendwo Betrug... Punkt... Das hat Nullkommagarnix mit irgend einem Bias zu tun... Selbiges würde gelten wenn die Aussage 4K@60FPS nur dann wahr wäre wenn man DLSS verwendet... Wie gesagt - ich sage WENN dem so wäre, nicht das dem so ist - und schon das löst bei dir solche Beissreflexe aus ?
Es ist aktuell unklar wie DLSS als AA Verfahren mehr Performance Gain bringen soll, als jedes AA Verfahren das es ablösen könnte aktuell kosten dürfte... (mit Ausnahme von Downsampling AA)...
Und jetzt nur mal als Idee: In Jurrasic Park Evolution gibt es ein AA Verfahren das sie als "Hochskaliertes TAA" bezeichnen und nu schau man sich das mal an:
Darüber hinaus gibt es noch die Option „Hochskaliertes TAA“. [...] Offenbar nutzt dieser Modus Informationen von vorherigen Frames für das gesamte Bild, reduziert dabei jedoch die Auflösung. Dadurch arbeitet die Kantenglättung zwar immer noch gut, doch sinkt die Bildschärfe aufgrund der geringeren Auflösung deutlich. Dafür steigt aber die Framerate an.
In Zahlen ausgedrückt bedeutet dies, dass hochskaliertes TAA auf einer GeForce GTX 1080 die Framerate um 32 Prozent gegenüber abgeschalteter Kantenglättung verbessert. [...] Das normale TAA kostet dagegen jeweils sechs Prozent an Leistung, die aber sinnvoll investiert sind.
Ein Schelm wer da Paralelen sieht... 32% durch niedrigere Auflösung und dann nochmal 6% durch ein "gratis AA"..... Ich sag nicht das die Bildquali unter DLSS genauso leiden wird - es geht mir nur rein um die Performance Gewinne durch Rendern in niedrigerer Auflösung sowie um die IMHO vorhandenen Paralellen zu dem was wir über DLSS wissen...
Aber man sollte auch mal ein paar Jahre zurück denken, als es vielen noch wichtig war, ob das AF einwandfrei umgesetzt wurde und ohne Einsparungen lief oder welches Muster bei SGSSAA zum Einsatz kommt. Jetzt steht uns quasi AI unterstütztes Upsampling bevor und es gibt erstaunlich wenige Stimmen, die sich um die Bildqualität sorgen machen.
Genau darum gehts mir im Kern... Ich führe keinen Krieg gegen NVIDIA... Wenn ich überhaupt einen führe dann höchstens einen gegen Ignoranz... Kann ja sein, dass sich mehr Stimmen melden wenn es endlich mal Tests gibt... Aktuell stört mich nur dass nichtmal richtig Diskutiert wird wo die Performance Gains durch DLSS überhaupt herkommen könnten und nur sehr wenige das Ganze hinterfragen...
Klevapalis
2018-09-10, 18:15:58
Jetzt steht uns quasi AI unterstütztes Upsampling bevor und es gibt erstaunlich wenige Stimmen, die sich um die Bildqualität sorgen machen.
Vielleicht weil die wenigen einfach so schlau sind zu warten, statt sich wie BigKid mit peinlichen Gebrüll zu blamieren? ;)
Es ist ja nicht so, als würde NVIDIA die AI selbst anpassen, sondern dies muss auch der Developer tun (s. Keynote Gamescom). Ergo ist der Vergleich mit tessellation von Hübie perfekt und dein "Schlechtes Beispiel" bereits widerlegt.
N0Thing
2018-09-10, 18:19:20
Der springende Punkt war nicht die Handlung des Developers, sondern was die Grafikkarte oder der Treiber macht. ;)
Hübies Vergleich passt technisch einfach nicht.
Klevapalis
2018-09-10, 18:21:32
Der springende Punkt war nicht die Handlung des Developers, sondern was die Grafikkarte oder der Treiber macht. ;)
Hübies Vergleich passt technisch einfach nicht.
Möglich, dass er technisch nicht passt, aber das müsstest du erstmal begründen. Deine bisherigen zwei Gegenargumente gelten für Tessellation wie für DLSS und taugen somit nix :up:
basix
2018-09-10, 18:54:07
Das ist imho ne Grundsatzfrage... Die kann man mal Diskutieren selbst wenn noch offen ist wie genau DLSS die 30-40% Boost herzaubert... Und ehrlich gesagt ist die Thematik eigentlich nicht neu und ich meine das früher auch eindeutiger zu solchen "Sparversuchen zur performance Steigerung" durch einen Hersteller Stellung bezogen wurde und sehr genau hingeschaut wurde...
Naja, das selbe ist es eben nicht ganz. Früher war es eher so, dass man absichtlich weniger machte. Z.B. beim bilinearen vs. trilinearen Filter hat man effektiv schlechter gefiltert und somit weniger Performance gebraucht. Man konnte Screenshots machen und es sah schlechter aus. Bei DLSS wird zwar (vermutlich über Auflösung) ebenfalls weniger gemacht, aber zusätzlich noch ein Zusatzschritt zum das zu kompensieren. Das ist für mich der grosse Unterschied. Vermutlich wird es gegenüber nativer Berechung an einigen Stellen unschärfer aussehen. Meiner Meinung nach wird der Unterschied aber nicht gross auffallen oder besser gesagt vernachlässigbar sein (das sagen zumindest die, die es schon Live gesehen haben). In Bewegung kann es sogar noch deutlich besser aussehen als native Berechnung, wenn all das grässliche flimmernde Zeugs beruhigt wird. DAS ist für mich deutlich sichtbarer als hie und da an einer Stelle etwas Unschärfe / Detailverlust. Und wenn es oben drauf sogar noch Performance gibt, nur her damit. Wenn man es nativ berechnen will UND obendrauf DLSS anwendet, noch besser.
Ausserdem zu Unschärfe: Die meisten wenn nicht alle Post-Processing Filter führen Unschärfe ein. FXAA und TAA sind einfach unscharf und da verzichte ich lieber darauf als durch eine nicht korrekt angepasste Brille zu sehen. Bei TAA wird es mit höherer Auflösung zwar besser, so ab 4k soll es ganz gut sein. Doch dazu müsste man entsprechende HW haben (GPU, Monitor).
BigKid
2018-09-10, 18:56:49
Vielleicht weil die wenigen einfach so schlau sind zu warten, statt sich wie BigKid mit peinlichen Gebrüll zu blamieren? ;)
Ich bruell doch gar nicht... Der Sperrdruck sollte eigentlich nur die Lesbarkeit erhöhen... Im übrigen finde ich Leute viel peinlicher die sofort anfangen jeden zu diffamieren der auch nur wagt die Balkenlängen zu hinterfragen...
Schon traurig das man hier mehr damit Beschäftigt ist sich solchen persönlichen Anfeindungen zu stellen als mal die Technik zu diskutieren... Da wird einem dann einfach mal ein Anti-NV Bias unterstellt obwohl man seit 20 Jahren nur noch NVIDIA verbaut und fast jede Gen mitgemacht hatte... Oder man bezeichnet den Post einfach mal als "peinliches Gebrüll und blamabel" und das alles ohne mal tatsächlich auf die Punkte einzugehen...
Also ganz langsam für mich als offensichtlich Minderbemittelten - wo ist es peinliches Gebrüll wenn zB gerne mal darüber Diskutieren würde, wie ein AA Verfahren mehr Performance bringen kann als ein AA heutztage überhaupt so kostet ?
Oder wo ist es peinliches Gebruell wenn man auf ein paar Tatsachen hinweist - zB das ein Upscaling (egal wie - auch per AI) immer Verlustbehaftet sein wird - Prinzipbedingt ? Dabei bestreite ich ja nirgends dass das Ergebnis immernoch sehr gut - ja sogar besser aussehen könnte als das Original... aber das ist subjektiv ... objektiv fehlen Informationen gegenüber dem Original bzw. es könnte sogar falsche Informationen dazu bekommen... und das dies etwas ist was man sich bei Tests gut ansehen sollte...
Oder was ist falsch an der Aussage, dass es schon irgendwo Betrug wäre Informationen die zur Bewertung eines Bechmarkergenisses relevant wären zu unterschlagen ? Schon alleine fuer diese theoretische Feststellung wird man hier ja abgewatscht...
Was ist falsch an der Beobachtung das JP Evolution ein AA Verfahren anbietet, dass in seiner Arbeitsweise ähnlich wie DLSS sein könnte (wenn auch nicht so gut weil es ohne AI auskommen muss) und das interessanterweise einen vergleichbaren Performance Schub liefert wie DLSS ?
Magst du mir das mal erklären und auf meine Punkte eingehen oder wars das für dich ? Vielleicht hat dein Post dir geholfen, dass du dich jetzt überlegen fühlst - aber er hat Null Information beigesteuert...
Dieser Thread besteht aus viel zu viel Nebelkerzen in Form von persönlichen Anfeindungen... Sachargumente oder Fragestellungen gehen da viel zu oft unter weil sie sofort von diesem BS überlagert werden... Ich unterstelle da langsam (böse) Absicht...
N0Thing
2018-09-10, 18:58:49
Soweit ich das bei der Keynote verstanden habe, kommt die Hauptarbeit bei DLSS von Nvidia, der Entwickler muss aber das Spiel anpassen, sodass DLSS überhaupt verwendet werden kann. Wäre nur der Entwickler dafür verantwortlich, bräuchte man ja auch kein GeForce Experience zusätzlich zum Treiber, was die entsprechenden Daten für DLSS liefert. Da hätten wir den ersten technischen Unterschied.
Tesselation funktioniert für alle Spieler und alle GPUs gleich, es liegen gleiche Voraussetzungen vor und die Endergebnis sieht auch identisch aus. Wenn eine RTX 2080 unter 4K massiv an Performance gewinnt, hat Nvidia auf ihren Folien entweder nicht angegeben, was neben der Aktivierung von DLSS deaktiviert wird, und/oder es wird durch DLSS massiv Rechenleistung eingespart, z.B. indem das Bild nur in 1080p berechnet wird und dank DLSS auf 4K hochskaliert wird.
Wenn man bei einem Tesselationvergleich bleiben will, hätte sich der Tesselationschalter im AMD-Treiber eher angeboten, wo man den Tesselationfaktor begrenzen kann, ohne dass dabei zwangsläufig ein Unterschied bei der Bildausgabe sichtbar ist, trotz besserer Performance. Damit wäre von meiner Seite aus alles zum Thema Tesselationvergleich gesagt, zurück zu Turing.
mironicus
2018-09-10, 19:39:44
Beim neuen Tomb Raider-Spiel wird man eine 2080Ti brauchen, um mehr als 60 fps in 4K erreichen zu können, natürlich OHNE Raytracing. :)
Daredevil
2018-09-10, 19:49:08
Awat, das bekomme ich mit meinen beiden Karten auch hin. :> bzw. mit SLI.
BigKid
2018-09-10, 19:56:30
Mal zurück zum Versuch sachlich über DLSS zu spekulieren...
Frage: Sind die meisten hier der Meinung das DLSS Aufgrund der von NV verkündeten Performancesteigerungen mehr sein muss als nur ein AA ?
Als einzige andere Erklärung fällt mir noch ein, das NV bei den Benchmarks DLSS gegen ein AA mit Upscaling gebencht hat.
Für mich ist Upscaling immernoch die plausibelste Erklärung. Es hat auch den Vorteil dass es ein recht generischer Ansatz wäre. Weil DLSS die Motion Vektoren in der Zielauflösung + den letzten und den aktuellen Frame (vermutlich in niedrigerer Auflöung) + ein trainiertes Netz (AI) braucht sind zwar Anpassungen im Spiel nötig - aber abgesehen vom Training selbst bleibt es eben generisch und könnte recht schnell in die Engines integriert werden.
Jetzt irgendwie einzelne Shader/Effekte mit AI zu optimieren um die GPU zu entlasten halte ich für zu aufwändig.
ChaosTM
2018-09-10, 20:02:00
Beim neuen Tomb Raider-Spiel wird man eine 2080Ti brauchen, um mehr als 60 fps in 4K erreichen zu können, natürlich OHNE Raytracing. :)
Ich glaube nichtmal, dass das eine 2080ti schafft. Beim Vorgänger war man stellenweise Meilenweit von 60fps entfernt - mit der 1080ti.
Da müsste Turing 60+ Prozent drauflegen.
AffenJack
2018-09-10, 20:12:24
Mal zurück zum Versuch sachlich über DLSS zu spekulieren...
Frage: Sind die meisten hier der Meinung das DLSS Aufgrund der von NV verkündeten Performancesteigerungen mehr sein muss als nur ein AA ?
Als einzige andere Erklärung fällt mir noch ein, das NV bei den Benchmarks DLSS gegen ein AA mit Upscaling gebencht hat.
Für mich ist Upscaling immernoch die plausibelste Erklärung. Es hat auch den Vorteil dass es ein recht generischer Ansatz wäre. Weil DLSS die Motion Vektoren in der Zielauflösung + den letzten und den aktuellen Frame (vermutlich in niedrigerer Auflöung) + ein trainiertes Netz (AI) braucht sind zwar Anpassungen im Spiel nötig - aber abgesehen vom Training selbst bleibt es eben generisch und könnte recht schnell in die Engines integriert werden.
Jetzt irgendwie einzelne Shader/Effekte mit AI zu optimieren um die GPU zu entlasten halte ich für zu aufwändig.
Natürlich ist es gewisserweise Upscaling und ich bin da auch bei dir, dass zuerst mal Benches ohne DLSS gemacht werden müssen und DLSS immer nur ein Bonus wäre, alleine da es nicht überall verfügbar ist. Aber wenn ich DLSS richtig verstehe und es richtig gut funktioniert, wird DLSS trotz Upscaling besser aussehen, als die volle Auflösung mit den oftmals integrierten AA Techniken. Das macht es ja so äußerst interessant. Wenn das so funzt, dann ist das für mich viel mehr das Killerfeature als RT für diese Gen. Da kannst du dich dann aber trefflich streiten ob die schlechtere und langsamere Bildqualität als Maßstab herhalten sollte, weil alles "richtig" berechnet wird. Wie gesagt, alles unter dem Maßstab, dass es richtig funzt.
Sunrise
2018-09-10, 20:30:41
Mal zurück zum Versuch sachlich über DLSS zu spekulieren...
Frage: Sind die meisten hier der Meinung das DLSS Aufgrund der von NV verkündeten Performancesteigerungen mehr sein muss als nur ein AA ?
Kurz: Das hängt davon ab, wie es implementiert wird.
Sofern es aber so implementiert wird, wie ich es verstanden habe, ist quasi "perfektes" AA nur ein Nebeneffekt dessen, was du mit DLSS erreichen kannst, da du anhand des trainierten Ground Truths praktisch alles auf das tatsächlich berechnete Bild anwenden kannst, und das inkludiert (wie gefühlt vor ein paar hundert Seiten von mir bereits geschrieben) sowohl Bewegungen, die "interpoliert" werden, aber auch einer qualitativ höherwertigeren (genaueren) "Abtastung" dessen, was du als Ziel erreichen willst.
Es geht hier auch nicht nur um Spiele, damit könnte man (einfach mal die Phantasie spielen lassen) theoretisch sogar stark komprimierte Quellen abspielen und sie anhand des vom Ground Truth trainierten Ergebnisses (anhand der möglichst unkomprimierten Master) in fast unkomprimierter Form mit zusätzlichen Details darstellen.
Da wir aber aktuell keine nachvollziehbaren Praxisergebnisse kennen und hier auch die wenigsten das tatsächlich einschätzen werden können, müssen wir auf mehr Fakten warten.
Auch ist es jederzeit vorstellbar, dass es enorme Rechenleistung spart, da die universeller nutzbaren Einheiten entlastet werden (geringere Auflösung, kein AA...), während dedizierte Einheiten einzig und allein diese Aufgabe berechnen und das Ergebnis dann "nur noch verrechnet" wird. Also, ja, DLSS kann Enormes leisten, wenn es denn so arbeitet, wie wir? es verstanden haben.
Mal als Denkanstoß:
Warum ist es überhaupt für Consumer erst möglich, Ultra HD, HDR usw. zu streamen oder auf Blu-rays zu kaufen? Weil das Material eben NICHT der Ground Truth entspricht, es ist nur eine mehr oder weniger stark komprimierte Näherung dessen. Dennoch "sieht" das weder der typische Verbraucher, noch hat er etwas dagegen.
DLSS kann 4K schneller massenfähig machen (mehr Rechenleistung wird an anderer Stellen für multiple Aufgaben freigegeben) und es sieht wahrscheinlich auch sehr gut aus. Das gefällt natürlich auch NV, aber IMHO ist es auch das, was viele Spieler sich wünschen.
Es ist ja nicht so, als würde NVIDIA die AI selbst anpassen, sondern dies muss auch der Developer tun (s. Keynote Gamescom).
Der Entwickler wird in der Regel wohl nur Trainingsmaterial zur Verfügung stellen und vermutlich versteht weder er noch Nvidia genau warum man nun dieses Ergebnis erreicht.
Vermutlich wird es gegenüber nativer Berechnung an einigen Stellen unschärfer aussehen.
Falsche Denkweise.
Es wird an einigen Stellen anders aussehen. Aber ob unschärfer oder schärfer? Inkorrekter oder korrekter? Das kann man nur gegen die Groundtruth evaluieren.
Wenn man ehrlich ist, wird damit ein Performancevergleich fast unmöglich.
Troyan
2018-09-10, 20:37:53
nVidia vergleicht DLSS gegen 4K+(T)AA. Da AA das Bild ebenfalls behandelt, ist es also falsch von "nativ" zu reden.
Anders sieht es aus, wenn man auf (T)AA verzichtet.
basix
2018-09-10, 21:05:51
Falsche Denkweise.
Es wird an einigen Stellen anders aussehen. Aber ob unschärfer oder schärfer? Inkorrekter oder korrekter? Das kann man nur gegen die Groundtruth evaluieren.
Korrekt oder inkorrekt bin ich bei dir. Es ist Spielegrafik. Ob es anders aussieht ist mir egal, solange der (Gesamt-)Eindruck stimmt oder besser ist. Aber sobald etwas verwaschen oder unscharf wirkt, ist es für mich einfach nicht das Gelbe vom Ei. Lege mal ein Sichtschutzglas über den Bildschirm und es kann immer noch "korrekt" sein. Trotzdem willst du so nicht spielen wollen. Ich denke du weisst was ich damit meine ;)
Deshalb lasse ich die ganzen Bewegungsunschärfe-Effekte und auch z.B. FXAA auf aus. Das legt für mich einfach einen Unschärfefilter drüber, den ich einfach nicht mag. Sorry dafür, dass ich gute Augen habe :D
Ich habe letztens mal ein altes Tomb Raider anno 2005 oder gar früher rausgeholt. Die Grafik ist schon lange nicht mehr aktuell, trotzdem war ich recht angetan von von der "klaren" Sicht. Viele neue Spiele übertreiben es einfach mit den Post-Process Effekten.
Um den Bogen zurück zum DLSS zu schlagen: Das soll ja mit DLSS viel besser sein. Das heisst, gut geglättete Kanten, reduziertes Flimmern UND keine bemerkbare Unschärfe. Deswegen bin ich auch sehr gespannt auf den Turing Release. Wenn sich das bestätigen sollte, wird das oder ähnliches zukünftig wohl in jedes Spiel eingebaut werden.
DLSS kann 4K schneller massenfähig machen (mehr Rechenleistung wird an anderer Stellen für multiple Aufgaben freigegeben) und es sieht wahrscheinlich auch sehr gut aus. Das gefällt natürlich auch NV, aber IMHO ist es auch das, was viele Spieler sich wünschen.
Dafür müßten die Leute auch mal anfangen, UHD-Monitore zu kaufen. Laut Steam Survey sind das aktuell gerade mal 1,33%, das ist nichts, gar nichts.
Klevapalis
2018-09-10, 21:24:36
Soweit ich das bei der Keynote verstanden habe, kommt die Hauptarbeit bei DLSS von Nvidia, der Entwickler muss aber das Spiel anpassen, sodass DLSS überhaupt verwendet werden kann.
NVIDIA liefert die Implementation - wie bei Tessellation - und der Developer nutzt diese für sein Spiel und kann sie individuell anpassen. Immer noch exakt ganz so, wie bei Tessellation. Einen Unterschied konntest du immer noch nicht benenne oder begründen.
Und die Behauptung, für DLSS bräuchte man GeForce Experience, ist doch sowieso völliger bullshit. Wer auch immer sich so etwas ausdenkt.
Das ist eben genau dieses lächerliche Geschrei, wie es BigKid die ganze Zeit zelebriert. Später ist es dann ganz anders.
Monsta
2018-09-10, 21:39:59
NVIDIA liefert die Implementation - wie bei Tessellation - und der Developer nutzt diese für sein Spiel und kann sie individuell anpassen. Immer noch exakt ganz so, wie bei Tessellation. Einen Unterschied konntest du immer noch nicht benenne oder begründen.
Und die Behauptung, für DLSS bräuchte man GeForce Experience, ist doch sowieso völliger bullshit. Wer auch immer sich so etwas ausdenkt.
Das ist eben genau dieses lächerliche Geschrei, wie es BigKid die ganze Zeit zelebriert. Später ist es dann ganz anders.
Und wie soll man an die trainierten Daten ohne GeForce Experience kommen?
Sunrise
2018-09-10, 21:49:13
Dafür müßten die Leute auch mal anfangen, UHD-Monitore zu kaufen. Laut Steam Survey sind das aktuell gerade mal 1,33%, das ist nichts, gar nichts.
Wundert dich das, bei solchen Ergebnissen?
z.B.
https://www.computerbase.de/2018-09/shadow-of-the-tomb-raider-benchmark/2/#diagramm-sottr-mit-directx-11-vs-directx-12-3840-2160
Genau deshalb ja DLSS.
Wenn das Resultat ähnlich/(in gewissen Bereichen besser) bei nativen 1440p mit DLSS wie 3840p mit bzw. ohne AA aussieht und dann noch beträchtlich mehr fps liefert...also ich würde nicht lange überlegen.
Das müssen dann die Tests zeigen.
Ab spätestens 7nm könnte man dann RT mit hinzunehmen und der Gewinn wäre beachtlich. Das ist zwar nicht "brute force", aber doch verdammt intelligent.
Man weiß einfach noch nichts, da ändert sich zum Glück ja in Kürze.
Klevapalis
2018-09-10, 22:06:39
Und wie soll man an die trainierten Daten ohne GeForce Experience kommen?
Warum sollten die nicht im Spiel enthalten sein?
Ist nichts weiter als ein Datensatz. Kann sogar vom Developer mit einem Patch verändert werden.
Andersherum: Gibt es Belege für diese Behauptung?
Outsider82
2018-09-10, 22:22:51
Der Nvidia Typ hat doch in dem Interview gesagt das die Entwickler ihr Frühes Spiel zu Nvidia schicken sollen .. diese lassen das dann durch ihren Supercomputer laufen und errechnen die DLSS Daten und wandern zurück zum Entwickler der diese Daten in seinem Spiel einbaut oder Später per Patch nachliefert und das kostet dem Entwickler nichts. Also keine nervige Geforce Experience Anmeldung notwendig , DLSS Netzwerke werden im Spiel enthalten sein und nicht in der Geforce Experience !
War dieses Video : ( Welches hier auch schonmal verlinkt wurde wo ich das auch schonmal ansprach )
https://www.youtube.com/watch?v=YNnDRtZ_ODM
Weiss aber grad nicht mehr die genaue Stelle wo er das sagte. Okay habs gefunden : ab Minute 19:00
Aber sobald etwas verwaschen oder unscharf wirkt, ist es für mich einfach nicht das Gelbe vom Ei.
Aber warum sollte es unscharf wirken? Hier wird nicht ein einfacher Filter drübergelegt, der nur auf direkte Nachbarschaftsinformationen zugreifen kann.
Es kann aber passieren, dass komplett falsche Informationen eingefügt werden. Bei dem minimalen Auflösungssprung wird das aber wahrscheinlich nicht passieren.
Mal als Beispiel was man aus Standbildern rausholen kann:
https://image.slidesharecdn.com/20170118ottawamachinelearningmtgsent-170118155947/95/applying-deep-learning-vision-technology-to-lowcostpower-embedded-systems-23-638.jpg
Skysnake
2018-09-10, 23:31:27
JA und das ist doch das Problem mit Spielen bzw Videos.
Es kann dir wie in den "tollen" nVidia Video zu den autogenerierten Autofahrten halt total bescheiden aussehen, weil sich die Objekte unnatürlich verändern...
Man Errät halt wie das Bild aussehen könnte, aber das ist wie gesagt eben nur raten. Und da man nicht über hunderte Frames hinweg das was man geraten hat merken kann, kann es passieren, das man unterschiedliche Ergebnisse von fast identischen Bild Sourcen bekommt, was man dann halt schon sehen kann.
Die Frage ist, ob man es auch bemerkt. Je weniger man Raten muss, desto weniger sieht man es, und je kürzer etwas Sichtbar ist, desto weniger Möglichkeiten zum Vergleich hat man. Also z.B. bei Explosionen etc, die sehr dynamisch und eben vergänglich sind, wird es nicht auffallen, wenn da etwas nicht passt, so lange es halbwegs passend ist.
Wenn man aber 10 mal langsam an irgendwas vorbei läuft und sich das verändert, dann wird man das irgendwann mal sehen, und dann sieht man es immer. Wie bei den toten Pixeln auf Sensoren/Bildern.
basix
2018-09-10, 23:35:51
Aber warum sollte es unscharf wirken? Hier wird nicht ein einfacher Filter drübergelegt, der nur auf direkte Nachbarschaftsinformationen zugreifen kann.
Es kann aber passieren, dass komplett falsche Informationen eingefügt werden. Bei dem minimalen Auflösungssprung wird das aber wahrscheinlich nicht passieren.
Mal als Beispiel was man aus Standbildern rausholen kann:
https://image.slidesharecdn.com/20170118ottawamachinelearningmtgsent-170118155947/95/applying-deep-learning-vision-technology-to-lowcostpower-embedded-systems-23-638.jpg
Das was du beschreibst: Darauf hoffe ich ja ;) Und es wird mit grosser Wahrscheinlichkeit nach auch gut aussehen. Eben nicht so wie die bisherigen Verfahren. Und wieso es "unscharf" aussehen kann: Siehe deine Bilder. Ja die Verbesserung ist extrem gut, dennoch halt nicht gestochen scharf. Ich hoffe einfach darauf, dass z.B. 1080p auf 4k oder allenfalls 1440p auf 4k noch ohne zu viele Artefakte machbar ist. Nur schon das letztere wäre ein riesen Win für alle. Und wenn es auch "nur" bei 1800p auf 4k gut funktionert, ein Gewinn wäre es trotzdem.
Kriton
2018-09-11, 00:02:58
Warum sollten die nicht im Spiel enthalten sein?
Ist nichts weiter als ein Datensatz. Kann sogar vom Developer mit einem Patch verändert werden.
Andersherum: Gibt es Belege für diese Behauptung?
Das Inferencing findet dann auf der Turing-Hardware im Gaming-Rechner statt und wird durch die Tensor Cores unterstützt. Die dazu notwendigen Daten werden per GeForce Experience an den Rechner übertragen und sind nur wenige Megabyte groß. Allerdings würde damit auch die Installation der GeForce Experience zusätzlich zum Treiber notwendig und zudem verlangt dieser nach einem Login und kann nicht mehr einfach so betrieben werden.
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html
Klevapalis
2018-09-11, 00:13:00
https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47195-geforce-rtx-20-serie-neuer-aa-modi-dlss-erlaeutert-und-erste-leistungsdaten.html
Wohl eher die (falsche) Interpretation von hardwareluxx.
BigKid
2018-09-11, 00:23:10
Und wie soll man an die trainierten Daten ohne GeForce Experience kommen?
Was versuchst du überhaupt mit ihm zu Argumentieren? Ausser „glaub ich nicht” garniert mit abwertenden Kommentaren wird nix mit Substanz kommen...
Kriton
2018-09-11, 00:33:08
Wohl eher die (falsche) Interpretation von hardwareluxx.
Kommt da auch noch eine Begründung, oder ist es nur, weil es nicht zu dem passt, was Du denkst?
Outsider82
2018-09-11, 01:27:43
Weniger von Hardwareluxx falsch Interpretiert. Sondern zu diesem Zeitpunkt als der Bericht vom Luxx geschrieben wurde gab es diese Info noch nicht. Somit hat Hardwareluxx da nur eine Vermutung gehabt. Grund dafür ist das Nvidia zuviel geheimhällt und wir uns bis zu einem Punkt indem uns Nvidia mehr Brotkrumen zuwirft alles irgendwie zusammenreimen müssen. Das passt halt nicht immer 100 % zur letztentlichen Realität aber mehr bleibt uns wegen Nvidias verhalten halt nicht übrig.
Bericht Luxx DLSS: 22.8.2018
Video Interview mit dem Nvidia Typen : 29.8.2018
Tobalt
2018-09-11, 07:22:36
Das problem das skysnake beschreibt ist natürlich ein Risiko von AI upscaling. aber 1) denke ich dass das bei einem geringen scaling von 150% oder so nicht bemerkbar Auftritt und 2) kann man es super verstecken wenn statt für upscaling das DLSS tatsächlich nur für Supersamples genutzt wird. also günstig zb 2x2 upscalen und dann wieder downscalen ergäbe sehr günstiges (DL)SS...
tatsächliches upscaling ist da ja eher die Königsdisziplin eben wegen der ganzen Fettnäpfchen
BigKid
2018-09-11, 07:48:32
Das problem das skysnake beschreibt ist natürlich ein Risiko von AI upscaling. aber 1) denke ich dass das bei einem geringen scaling von 150% oder so nicht bemerkbar Auftritt und 2) kann man es super verstecken wenn statt für upscaling das DLSS tatsächlich nur für Supersamples genutzt wird. also günstig zb 2x2 upscalen und dann wieder downscalen ergäbe sehr günstiges DLSS
Dann stellt sich aber sofort wieder die Frage woher die 40% performance gain durch dlss herkommen sollen - das geht ohne upscaling (oder anderes Pixelsparen) nur wenn man dlss gegen ein aa gebencht hat das mindestens 40% gekostet hat - also zB 2x Downsample. Das könnte man schon machen - aber dann müsste man es halt auch dazu sagen...
Ich persönlich fände es aber sehr Schade wenn man DLSS nicht zum upscaling verwenden könnte...
Edgecrusher86
2018-09-11, 07:52:50
Aus dem Guru3D MSI AB Thread von Unwinder geposted. Es handelt sich um eine RTX 2080 mit laufenden NV OC Scanner.
Auffällig ist, dass sich noch kein PT erhöhen lässt und der GDDR6 200 MHz zu niedrig ausgelesen wird. Gut möglich, dass man mehr PT nun analog zum OV-Slider in den Settings freischalten muss. Inwiefern die Taktraten mit der Spannung stabil laufen, ist ebenso fraglich.
https://abload.de/thumb/pwnvymziois9.png (https://abload.de/image.php?img=pwnvymziois9.png)
https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-66#post-5582598
4Fighting
2018-09-11, 08:09:34
Aus dem Guru3D MSI AB Thread von Unwinder geposted. Es handelt sich um eine RTX 2080 mit laufenden NV OC Scanner.
Auffällig ist, dass sich noch kein PT erhöhen lässt und der GDDR6 200 MHz zu niedrig ausgelesen wird. Gut möglich, dass man mehr PT nun analog zum OV-Slider in den Settings freischalten muss. Inwiefern die Taktraten mit der Spannung stabil laufen, ist ebenso fraglich.
[/URL]https://abload.de/thumb/pwnvymziois9.png (https://abload.de/image.php?img=pwnvymziois9.png)
[URL]https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-66#post-5582598
Ob das mit dem Powertarget denn noch kommt? Wenn ich seinen Kommentar richtig lese, wird er die Software nicht mehr ändern, was bedeuteten würde, dass man das PT nicht ändern kann beim Großteil der Karten (?)
Actually, support for it is already implemented so MSI will probably provide this beta to reviewers and you'll be able to read about it a few days later when NDA lifts
Edgecrusher86
2018-09-11, 08:13:16
Ich kann es mir eigentlich nicht vorstellen, dass man das PT nicht mehr erhöhen kann. Turing wurde bisher ja unter anderem für massives OC beworben und der Presse eine RTX 2080 gezeigt, die per OC Scanner glaube auf 2113 MHz lief. Wenn natürlich das maximale PT neuerdings mit 100% gleichzusetzen wäre, könnte man auch damit leben. Eigentlich kann ich mir aber nicht vorstellen, dass man ein mit GPU Boost 1.0 eingeführtes Feature fallen lässt.
Die FE beispielsweise sind ja auch richtig ordentlich ausgestattet mit 10+3 und 10+6 Phasen (Ti). Dazu kommen 8+6 sowie 8+8 Pin PEG. Für die 2080 Ti FE könnte ich mir schon bis zu 325W maximal vorstellen. Die 2080 sollte hier zumindest um die 285W ziehen dürfen.
E: Den Boost-Taktraten käme es natürlich zu Gute, wenn 100% nun das Maximum wäre, wenn die Temperaturen nicht zu sehr limitieren. Um die Effizienz Stock nicht zu gefährden, müsste NV dann aber eigentlich einen niedrigeren Wert definieren. ^^
4Fighting
2018-09-11, 08:53:17
Ich kann es mir eigentlich nicht vorstellen, dass man das PT nicht mehr erhöhen kann. Turing wurde bisher ja unter anderem für massives OC beworben und der Presse eine RTX 2080 gezeigt, die per OC Scanner glaube auf 2113 MHz lief. Wenn natürlich das maximale PT neuerdings mit 100% gleichzusetzen wäre, könnte man auch damit leben. Eigentlich kann ich mir aber nicht vorstellen, dass man ein mit GPU Boost 1.0 eingeführtes Feature fallen lässt.
Die OC-Werbung dürfte vermutlich eher das DAU-Feature (OC-Scanner) sein, was Unwinder genauer beschreibt:
- OC Scanner will provide you two main modes: test and scan. In test mode your manually configured voltage/frequency curve is being stress-tested, result is returned as GPU stability confidence level in % (0% - unstable, 100% - stable). I’ve never seen 100% result even on stock clocks BTW, it always seem to max on 90% on all cards we tried so probably it is just a precaution from NV side, no need to worry if you see <100% result. In scan mode scanner’s proprietary algorithms are trying to detect the maximum stable overclocking achieved by your GPU, result is returned as average core clock overclocking in MHz. Modified overclocked non-linear voltage/frequency curve is also sent to MSI Afterburner by scanner in the end of scanning process. Test mode takes approximately 5 minutes to complete, scan mode takes 15-20 minutes to complete.
Und 2070mhz ist jetzt auch nicht mega viel;):freak:. Das scheint ja der ungefähre Maximaltakt der Karte gewesen sein, da diese mit OC-Scanner so getestet wurde.
Edgecrusher86
2018-09-11, 08:56:13
Besser als viele Pascal Karten, aber nicht um Welten, ja. In Kombination mit der Spannung sieht es aber gut aus, sofern das nicht nur ein Augenblickswert war. Laut Monitoring scheint dies aber nicht der Fall gewesen zu sein.
Genau, zum Beispiel für die Konsolen-Fraktion, die einen Blick Richtung PC wirft, ist so etwas wie der Scanner gedacht. Ein weiterer Schritt nach GFE. ^^
So wie das aussieht testet der scanner für jede spannungsstufe verschiedene taktraten bis es halt zu viel ist. Dann wird die spannung eine stufe erhöht und wieder getestet. Am ende wird die curve dann anhand dieser daten eingestellt. Schon praktisch... spart ne menge zeit. Aber ohne erhöhung des PT würde einem da schn ne menge leistung vorenthalten. Allerdings hätte dann auch ein 8er und ein 6er anschluss gereicht.
SKYNET
2018-09-11, 09:21:06
für das powerlimit gibt es ja noch silberleitlack, gell? ;)
Daredevil
2018-09-11, 09:30:07
Wenn das Tool echt so funktioniert, wie es soll.
Bei der EVGA 980ti war das ganze eher Bullshit als hilfreich. :X
BigKid
2018-09-11, 10:44:07
Aber warum sollte es unscharf wirken? Hier wird nicht ein einfacher Filter drübergelegt, der nur auf direkte Nachbarschaftsinformationen zugreifen kann.
Es kann aber passieren, dass komplett falsche Informationen eingefügt werden. Bei dem minimalen Auflösungssprung wird das aber wahrscheinlich nicht passieren.
Mal als Beispiel was man aus Standbildern rausholen kann:
https://image.slidesharecdn.com/20170118ottawamachinelearningmtgsent-170118155947/95/applying-deep-learning-vision-technology-to-lowcostpower-embedded-systems-23-638.jpg
Das ist das Risiko... Und man siehts nicht ohne das Original zu kennen. Aber die Gesichter sind ein sehr gutes Beispiel für die "Gefahr" die darin liegt. Denn abgesehen von ganz offensichtlichen Fails wie dem Totenkopfgesicht das aus der Brillenträgerin wird sind da subtile Unterschiede gerade auch zB in der Mimik zum Teil sind das auch ganz andere Menschen... Glaubwürdig aber total anders. Und diese Unterschiede sind es, die mir etwas Sorgen machen... Man wird es nämlich gar nicht wissen ohne das "Original" zu kennen... Ich denke aber auch dass es wenn es für "mildes" Upscaling (Faktor 1.5 - 2) eingesetzt wird und die AI pro Spiel oder gar "Level" trainiert wird eher Mild ausfallen wird und die Vorteile sehr deutlich überwiegen...
Edgecrusher86
2018-09-11, 10:58:23
Hier die genaue Vorgehensweise:
- It was declared by NV that scanner API is using embedded NVIDIA tests for stressing GPU and testing overclocking stability. It is closed proprietary technology, so it is not clear now how much hardware dependent is the implementation, it is quite possible that it will work exclusively on RTX 20x0 series only.
- OC Scanner will provide you two main modes: test and scan. In test mode your manually configured voltage/frequency curve is being stress-tested, result is returned as GPU stability confidence level in % (0% - unstable, 100% - stable). I’ve never seen 100% result even on stock clocks BTW, it always seem to max on 90% on all cards we tried so probably it is just a precaution from NV side, no need to worry if you see <100% result. In scan mode scanner’s proprietary algorithms are trying to detect the maximum stable overclocking achieved by your GPU, result is returned as average core clock overclocking in MHz. Modified overclocked non-linear voltage/frequency curve is also sent to MSI Afterburner by scanner in the end of scanning process. Test mode takes approximately 5 minutes to complete, scan mode takes 15-20 minutes to complete.
- It is very convenient to keep voltage/frequency curve editor window open while the scanner is running. V/F curve editor is showing you current GPU clock and voltage levels with horizontal/vertical dotted lines directly on the curve in real time (2070MHz / 975mV on the previous screenshot). This way you can visually control the process of scanning, so you always know which point of voltage/frequency curve is currently being tested or overclocked. In scan mode it doesn’t try to overclock each point independently, as it would take much more time than just 20 minutes. Instead of doing so, it is detecting working range of voltages on the first stage, split this voltage range on a few fixed parts (4 key points on the screenshot above) then try to find the maximum possible overclock for each of those key points by fixing the voltage in each point and slowly increasing the clock until instability is detected. You can see this process on the previous screenshot as well on jigsaw core clock graph. Each tooth of this jigsaw is the process of finding the maximum possible clock for each of 4 key points. Once the maximum stable overclocking is detected in each key point, the scanner is building whole curve by linear interpolation between the points and sending result to MSI Afterburner.
https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-67
E: 2080 Reviews auf den 19.09. verschoben:
Just last week we reported that the NDA for GeForce RTX 2080 reviews ends on September 17th. According to our sources, that is no longer true.
Long story short, there is a problem. Most reviewers we spoke with are experiencing difficulties in securing their samples. Some are expecting them this week, some even today. However, that would essentially mean that they have less than a week for full, professional review to be made (if September 17th was to be considered).
NVIDIA has responded to this situation by pushing back NDA date to September 19th, the same day GeForce RTX 2080 Ti reviews will go live. That said, reviewers will publish their RTX 2080 and RTX 2080 Ti reviews on the same day.
Only a handful of reviewers have the cards already. Those who do, still can’t even test them because no drivers were provided.
We will keep you updated should something change (again).
https://videocardz.com/newz/nvidia-chang
es-geforce-rtx-2080-reviews-date-to-september-19th
Fragman
2018-09-11, 12:16:40
Denn abgesehen von ganz offensichtlichen Fails wie dem Totenkopfgesicht das aus der Brillenträgerin wird sind da subtile Unterschiede gerade auch zB in der Mimik zum Teil sind das auch ganz andere Menschen... Glaubwürdig aber total anders. Und diese Unterschiede sind es, die mir etwas Sorgen machen... .
Wenn die "Fehler" konsistent sind, wird uns das nicht auffallen. Dafuer muessten wir die "echte" Loesung kennen.
Ich denke aber, das die Loesungen, dank der hohen Inputaufloesung, recht gut sein werden.
Godmode
2018-09-11, 13:13:38
E: 2080 Reviews auf den 19.09. verschoben:
https://videocardz.com/newz/nvidia-chang
es-geforce-rtx-2080-reviews-date-to-september-19th
Dieser Launch nervt einfach nur mehr. :mad:
MasterElwood
2018-09-11, 13:16:34
"Only a handful of reviewers have the cards already. Those who do, still can’t even test them because no drivers were provided."
Klartext: alle "geleakten" Benches sind Bullshit. :wink:
robbitop
2018-09-11, 13:40:48
Nicht wenn der leak von einem AIB kam. Die haben Karten und Treiber ja deutlich eher.
N0Thing
2018-09-11, 13:46:23
Der Nvidia Typ hat doch in dem Interview gesagt das die Entwickler ihr Frühes Spiel zu Nvidia schicken sollen .. diese lassen das dann durch ihren Supercomputer laufen und errechnen die DLSS Daten und wandern zurück zum Entwickler der diese Daten in seinem Spiel einbaut oder Später per Patch nachliefert und das kostet dem Entwickler nichts. Also keine nervige Geforce Experience Anmeldung notwendig , DLSS Netzwerke werden im Spiel enthalten sein und nicht in der Geforce Experience !
War dieses Video : ( Welches hier auch schonmal verlinkt wurde wo ich das auch schonmal ansprach )
https://www.youtube.com/watch?v=YNnDRtZ_ODM
Weiss aber grad nicht mehr die genaue Stelle wo er das sagte. Okay habs gefunden : ab Minute 19:00
Danke für das Video! :up:
Ultron
2018-09-11, 14:40:52
für das powerlimit gibt es ja noch silberleitlack, gell? ;)
So siehts aus :D:cool:
Linmoum
2018-09-11, 15:42:33
Die 2070 soll laut videocardz tatsächlich auf TU106 (und nicht wie die 2080 auf TU104) basieren.
https://mobile.twitter.com/VideoCardz/status/1039486182240006144
N0Thing
2018-09-11, 16:10:15
Finde ich weiterhin sehr erstaunlich, bei den geringen Unterschieden zwischen RTX 2080 und RTX 2070. Salvage Chips sind auch mit Turing möglich, wie man am TU102 sieht.
Dural
2018-09-11, 16:19:10
naja wenn man sich sagen wir mal 100mm2 spart macht das in dieser masse schon was aus. Die Field dürften bei 12nm sicherlich sehr gut sein, damit hat man vielleicht zu wenig Ausschuss für Karten wie die 2070.
Ist ja nicht das erste mal wo NV was ähnliches macht, ich erinnere nur mal an den GF104.
Edit:
Die 2080 hat ja so wie so nicht den vollen TU104 drauf, somit kann es gut sein das ein Grossteil der Chips schon mit der 2080 ausgeliefert werden können.
N0Thing
2018-09-11, 16:28:35
Worauf beziehst du dich mit dem GF104?
Der Abstand bei den Hardware-Einheiten war prozentual deutlich größer:
https://screenshotscdn.firefoxusercontent.com/images/ea263170-0dcc-44a3-88d6-a25d1c857275.png
AffenJack
2018-09-11, 16:29:43
Hmm interessant, dann müsste aber auch noch ne 2060TI oder 2060 als Cut-Down von TU106 kommen, da 2304 SP bei den Turingkonfigurationen der Vollausbau ist. Wären dann 3 GPCs für TU106, 4 GPCS für TU104. 6 GPCs für TU102. Soviel kleiner sollte der Chip dann aber nicht werden, dass ich mir denken würde, dass sich dies lohnt. ~530mm² TU104 vs ~430mm² TU106?
Der_Korken
2018-09-11, 16:30:30
Fände die 2070@TU106 aber insofern erstaunlich, dass der der TU106 auf 3/4 der Recheneinheiten kommt, das gleiche Speicherinterface hat und auch noch Raytracing beinhalten soll. Der wird kaum kleiner und die Fixkosten für einen separaten Chip sind sicherlich nicht gerade klein. Bin da doch sehr verwundert. Hätten sie z.B. Raytracing weggelassen und nur die sonstigen Architekturverbesserungen eingebaut, wäre es was anderes.
Dural
2018-09-11, 16:31:12
Der GF104 war näher am TopDog dran als es zb. beim Pascal der fall ist.
GF100 war nur 33% grösser als GF104. (512 zu 384SP)
Der_Korken
2018-09-11, 16:44:05
Der GF104 war näher am TopDog dran als es zb. beim Pascal der fall ist.
GF100 war nur 33% grösser als GF104. (512 zu 384SP)
Da war es aber beim SI 384 vs 256 bit und GF104 hatte kein 1:2 DP. Dadurch war GF100 >50% größer.
Fliwatut
2018-09-11, 16:45:30
Warum sollten die nicht im Spiel enthalten sein?
Weil der Developer nicht den Supercomputer hat, auf dem Nvidia den Datensatz berechnet.
Adam D.
2018-09-11, 16:54:57
Viel interessanter finde ich jetzt, dass TU106 ja die Tensor Cores und Raytracing-Hardware kriegen müsste. Die Frage ist dann, ob eine 2060 dann tatsächlich eine RTX wird (und wenn ja, in welchem Ausmaß) und wenn nicht, ob sie das Software- oder Hardware-technisch deaktivieren.
SKYNET
2018-09-11, 17:28:17
Viel interessanter finde ich jetzt, dass TU106 ja die Tensor Cores und Raytracing-Hardware kriegen müsste. Die Frage ist dann, ob eine 2060 dann tatsächlich eine RTX wird (und wenn ja, in welchem Ausmaß) und wenn nicht, ob sie das Software- oder Hardware-technisch deaktivieren.
sicherlich hardware seitig, die zeiten das man grakas modden konnte, sind leider vorbei :frown:
Tobalt
2018-09-11, 17:48:26
sowas wie falsche gesichter wird nicht passieren oder nicht in der form:
1) die wichtigen personen sind trainiert, werden also nicht als gesicht sondern als person XY erkannt und entsprechend interpoliert.
2) jeder frame wird eine leichte Abweichung haben aber im zeitlichen verlauf eird das ergebnis letzlich um die trainingsdaten schwingen (ground truth). wir menschen werden mit unserem hirn also letzlich wieder zur ground truth mitteln in unserer Wahrnehmung.
3) es werden sich bei subtilen mimiken moglicherweise leichte Abweichungen ergeben die man aber nicht bemerkt weil sie dennoch plausibel sein werden.
4) trainingsalgos werden mit der zeit noch besser als jetzt, gerade die adversarial networks werden mit trainingsdaten vom echten spiel noch deutlich besser.
5) das entstellte Gesicht war ein extremes 4x4 oder 8x8 upscaling und wird so nicht typische Anwendungen sein.
6) im echten spiel ist es gut möglich dass selbst dieses entstellte gesicht ni ht wirklich auffällt da es eben nur kurz entstellt ist und bei der geringen ausgangspixelzahl sicher auch nur weit im hintergrund sichtbar
basix
2018-09-11, 19:56:11
Fände die 2070@TU106 aber insofern erstaunlich, dass der der TU106 auf 3/4 der Recheneinheiten kommt, das gleiche Speicherinterface hat und auch noch Raytracing beinhalten soll. Der wird kaum kleiner und die Fixkosten für einen separaten Chip sind sicherlich nicht gerade klein. Bin da doch sehr verwundert. Hätten sie z.B. Raytracing weggelassen und nur die sonstigen Architekturverbesserungen eingebaut, wäre es was anderes.
Kein NVLink hast du vergessen ;) Das scheint relativ viel Platz zu benötigen. Wenn man Glück hat, landet man auf vielleicht 400mm2
Aber Sinn macht es für mich irgendwie trotzdem nicht. Auch wenn sich die 2070er gut verkaufen würde. Ich weiss jetzt nicht, wie hoch die Maskenpreise etc. sind, aber irgendwie ist gefühlt der Aufwand zu gross und der Unterschied zu TU104 zu gering. Zudem nur 1x SKU für TU104 neben den Quadros? Einzige Ausnahme wäre, wenn der selbe Chip noch in Form einer 2060er kommen sollte. Da aber Pascal ja noch bis mindestens Ende Jahr bleiben soll, gäbe es eine massive Konkurrenz zu GP104....ausser es gibt die 2060er erst Q1/2019 und Pascal GP104 wäre dann EOL. GP106 kann man ja noch weiter verkaufen.
MasterElwood
2018-09-11, 19:58:40
sowas wie falsche gesichter wird nicht passieren oder nicht in der form:
1) die wichtigen personen sind trainiert, werden also nicht als gesicht sondern als person XY erkannt und entsprechend interpoliert.
2) jeder frame wird eine leichte Abweichung haben aber im zeitlichen verlauf eird das ergebnis letzlich um die trainingsdaten schwingen (ground truth). wir menschen werden mit unserem hirn also letzlich wieder zur ground truth mitteln in unserer Wahrnehmung.
3) es werden sich bei subtilen mimiken moglicherweise leichte Abweichungen ergeben die man aber nicht bemerkt weil sie dennoch plausibel sein werden.
4) trainingsalgos werden mit der zeit noch besser als jetzt, gerade die adversarial networks werden mit trainingsdaten vom echten spiel noch deutlich besser.
5) das entstellte Gesicht war ein extremes 4x4 oder 8x8 upscaling und wird so nicht typische Anwendungen sein.
6) im echten spiel ist es gut möglich dass selbst dieses entstellte gesicht ni ht wirklich auffällt da es eben nur kurz entstellt ist und bei der geringen ausgangspixelzahl sicher auch nur weit im hintergrund sichtbar
Das kann man sowieso ÜBERHAUPT nicht miteinander vergleichen.
Das eine kommt von einem unkenntlichen Pixelhaufen mit Trainingsmaterial "Alles auf der Welt was es gibt" -
Das andere kommt von einem bereits hochauflösenden Bild - trainiert speziell auf nur das eine Game.
Das sind zwei vollkommen verschiedene Sachen. Wer jetzt Angst hat "vieleicht nicht das Original zu bekommen" versteht die Technik nicht.
robbitop
2018-09-11, 21:26:39
Der Ton ist aber arg rau dafür, dass niemand die Qualität der Ergebnisse kennt und die wenigsten vermutlich ein hinreichend tiefgehendes Verständnis (inklusive meiner Person) über die konkrete Implementierung haben. Viel Mutmaßung.
Entspannt zurücklehnen und schauen, wie die Ergebnisse sind würde viele hitzige Anfeindungen im Nachhinein ggf ersparen?
=Floi=
2018-09-11, 21:31:38
gab doch schon fotos davon und die sahen mau aus.
so lange es schneller ist, kann es nicht besser sein, weil schneller und qualitativ hochwertiger geht imho nicht.
Nebenbei muss der crap auch extra einprogrammiert werden. <5% marktanteil und kann sich mit primitive shader in die gleiche ecke stellen. :rolleyes:
Wäre es so mega genial, hätte es NV doch gezeigt. Warum mit allem so hinterm berg halten, wenn alles so toll ist?! Der release ist einer der schlechtesten seit langem.
Nich mal karten für tester?! Da kann ich doch nur lachen. Wie wollen sie dann den markt sättigen?
robbitop
2018-09-11, 21:36:14
Man kann es doch einfach mal abwarten, eh man sich festlegt. Was ist daran so schwer?
Tobalt
2018-09-11, 22:53:10
du hast natürlich Recht. meine Ausführungen betreffen auch nicht DLSS über das ich wie alle anderen nichts weiß, sondern AI verfahren zur Bildverbesserung im allgemeinen
unl34shed
2018-09-11, 23:04:39
Sagen wir es mal so, wenn Nvidia das ganze schon mit TXAA vergleichen muss, damit es gut aussieht, scheinen sie da auch nicht ganz vom Ergebnis überzeugt zu sein.
Mal die ersten Tests abwarten, ob da dann auch schöne AA modis gegen getestet werden.
sowas wie falsche gesichter wird nicht passieren oder nicht in der form:...
Wenn die AI alles kennt, warum erzeugt sie dann nicht das komplette Bild? Ne aber mal im Ernst, glaubst du wirklich, dass das so passiert? Die AI wird auf die Farben/Farbverläufe im Level abgestimmt und nicht auf einzelne Personen/Objekte. Und da bleibt dann die Frage ob das Ganze dann überhaupt scharf hinzubekommen ist oder ob das alles immer irgendwie verwaschen aussieht.
Was ich auch interessant finde, hier werden Grafiktricks hingenommen, vor Jahren gab es ein riesigen Aufschrei weil bei AF geschummelt wurde oder AMDs Tesselation settings, bei dem man keinen Unterschied erkennen konnte.
Generell gibt es immer weniger Vergleiche zwischen AMD und Nvidia von der Bildausgabe.
Fand da auch PCGH vor ein paar Jahren schwach, als sie Multi GPU in AOTs getestet haben. Minute 6:30 im Video (PCGH Link (http://www.pcgameshardware.de/Ashes-of-the-Singularity-Spiel-55338/Videos/Ashes-of-the-Singularity-Explicit-Multi-GPU-Video-1187231/)). Da wurde ein flackern entdeckt weil beide GPUs unterschiedliche Bilder erzeugen und im Video klingt es so, als ob es an der AMD Karte gelegen hat. Untersucht bzw. beim Entwickler nachgefragt wurde meines Wissens nie.
horn 12
2018-09-11, 23:12:23
Schlussendlich behält wohl doch erneut AMD Recht mit "Poor Volta"
und dem nun wohl anstehendem DX12 Update für die Vega Karten, da es nun Nvidia dringend braucht.
RTX oder GTX 2070 wird Gegner von Vega 56 bis Vega 64
Und Vega 64 wird durch die Bessere DX12 Unterstützung, Danke NV! immer weiter in Richtung GTX 1080TI gepuscht, ebenso RX56 wird sich oftmals mit 2070 duellieren
Mehr Strom brauchen die RTX dank dem RT "Gefrickel" auchnoch, somit schwindet der größte NV Vorteil.
-=Popeye=-
2018-09-11, 23:21:28
Schlussendlich behält wohl doch erneut AMD Recht mit "Poor Volta"
und dem nun wohl anstehendem DX12 Update für die Vega Karten, da es nun Nvidia dringend braucht.
Was redest du da? Volta ist technisch jeder AMD Karte überlegen aber das ist nicht das Thema.
Troyan
2018-09-11, 23:32:50
Videocardz leakt fleißíg weiter: https://videocardz.com/77895/the-new-features-of-nvidia-turing-architecture
Lmao @ TU106. Was für ein freakiger Aufbau.
/edit: 445mm^2 für TU106. Verstehe den Chip immer noch nicht. Aber gut, das Preis/mm^2 Verhältnis wird fast 50% besser von GP104 auf TU106. :D
Der_Korken
2018-09-11, 23:54:05
445mm² ... hatte sowas schon befürchtet. Verstehe Nvidias Strategie hier nicht so wirklich. Ich weiß jetzt nicht wie schnell die 2070 wird, aber so viel schneller als GP104 wird es ja wohl kaum sein. Ist GDDR5X mit GDDR6 irgendwie pin-kompatibel? Oder anders gefragt: Wäre ein GP104-Refresh in 12nm mit 10% mehr Takt und GDDR6 ohne große Verrenkungen möglich gewesen? Das wäre imho aufs gleiche rausgekommen, nur dass auf Raytracing verzichtet - für 30% (!) weniger Die-Fläche.
Ha, da lag ich wohl richtig :D. 2070 = TU106 Full, damit ist die 2060 TU106 salvage. Und TU106 ist ein halber TU102 mit 256Bit, das passt also tatsächlich gut. Nur TU104 fällt hier etwas aus dem Rahmen.
Troyan
2018-09-11, 23:57:49
Es gibt keinen richtigen 12nm Prozess. nVidia hat einfach mit TSMC Anpassungen für ihre Designs vorgenommen.
Schlussendlich liegt das "Problem" am neuen Aufbau der SMs - mehr Register, mehr Cache, mehr L2 Cache, Architekturverbesserung (die erst per Hand "aktiviert" werden können) etc.
RTX2070 sollte nach den theoretischen Werten eigentlich 20% schneller als GTX1080 sein (10% mehr Takt, 50% Effizienzsteigerungen pro SM, 40% mehr theoretische Bandbreite etc.).
/edit: Nicht zu vergessen, dass die Effizienzsteigerungen bei Pascal fehlen. 30% mehr Leistung würde auch mit 30% mehr Verbrauch einhergehen.
-=Popeye=-
2018-09-12, 00:08:00
Sollte dem so sein wären wir wieder bei G80 vs G92b wo den Karten bei steigender Auflösung einfach der Speicher ausgeht.
Razor
2018-09-12, 05:41:19
Ohne Worte:
Kriegsgeier
2018-09-12, 06:37:14
The new features of NVIDIA Turing architecture
https://videocardz.com/77895/the-new-features-of-nvidia-turing-architecture
NVIDIA GeForce RTX 2070 --> GT106 Chip!!
Adam D.
2018-09-12, 08:00:04
The new features of NVIDIA Turing architecture
https://videocardz.com/77895/the-new-features-of-nvidia-turing-architecture
NVIDIA GeForce RTX 2070 --> GT106 Chip!!
Ich will gar nicht wissen, was eine kolportierte 2060 mit einem 450mm2-Die kosten wird :freak:
AffenJack
2018-09-12, 08:26:57
Videocardz leakt fleißíg weiter: https://videocardz.com/77895/the-new-features-of-nvidia-turing-architecture
Lmao @ TU106. Was für ein freakiger Aufbau.
/edit: 445mm^2 für TU106. Verstehe den Chip immer noch nicht. Aber gut, das Preis/mm^2 Verhältnis wird fast 50% besser von GP104 auf TU106. :D
TU106 ist für mich nicht so freakig. Immerhin ein halber TU102 mit größeren Speicherinterface. In etwa so wie GP106 ein halber GP104 mit größerem Speicherinterface ist. Aber ich verstehe TU104 nicht. Wieso verändert man in dem Chip die Anzahl der Shader pro GPC? Dazu gleiche Speicherbandbreite wie die 2070. Ich werde das Gefühl nicht los, dass man hier ursprünglich mit 16GBps geplant hatte.
VooDoo7mx
2018-09-12, 08:51:39
445mm² ... hatte sowas schon befürchtet. Verstehe Nvidias Strategie hier nicht so wirklich. Ich weiß jetzt nicht wie schnell die 2070 wird, aber so viel schneller als GP104 wird es ja wohl kaum sein. Ist GDDR5X mit GDDR6 irgendwie pin-kompatibel? Oder anders gefragt: Wäre ein GP104-Refresh in 12nm mit 10% mehr Takt und GDDR6 ohne große Verrenkungen möglich gewesen? Das wäre imho aufs gleiche rausgekommen, nur dass auf Raytracing verzichtet - für 30% (!) weniger Die-Fläche.
nVidias Strategie ist ganz einfach: Jetzt Raytracing auf breiter Masse einführen anstatt immer nur längere Balken. Da nVidia aktuell keine gute Konkurrenz hat und hohe Margen fährt ist auch tatsächlich jetzt genau der Punkt um sowas einzuführen. AMD könnte sich z.B. solche Experimente gar nicht leisten. Vor ~10 Jahren übrigens nVidia auch nicht.
robbitop
2018-09-12, 09:10:03
Ha, da lag ich wohl richtig :D. 2070 = TU106 Full, damit ist die 2060 TU106 salvage. Und TU106 ist ein halber TU102 mit 256Bit, das passt also tatsächlich gut. Nur TU104 fällt hier etwas aus dem Rahmen.
Ist zwar noch nicht bestätigt aber es scheint so. :)
Dann kann man sich entweder von den 1060 Preisen verabschieden oder NV von ihren Margen (die 1060 war ja echt winzig und hatte nur 192 bit). Letzteres wird imo nicht passieren. :D
Ggf bekommt die 2060 kein gddr6 sondern nur 5x? Oder man beschneidet das SI.
Ich glaube allerdings kaum, dass die SMs in der Praxis 50% mehr leisten als die Pascal SMs. (Spiele)
AffenJack
2018-09-12, 09:18:16
Ist zwar noch nicht bestätigt aber es scheint so. :)
Dann kann man sich entweder von den 1060 Preisen verabschieden oder NV von ihren Margen (die 1060 war ja echt winzig und hatte nur 192 bit). Letzteres wird imo nicht passieren. :D
Ggf bekommt die 2060 kein gddr6 sondern nur 5x? Oder man beschneidet das SI.
Ich glaube allerdings kaum, dass die SMs in der Praxis 50% mehr leisten als die Pascal SMs. (Spiele)
Die 2060 wird sicherlich nicht auf TU106 basieren, dafür ist der Die zu groß. Wenn man schon extra für die 2070 einen Die auflegt, wird auch die 2060 ihren eigenen Die bekommen, dann ohne die RT Cores, da eh zu langsam.
Schnitzl
2018-09-12, 09:20:43
nVidias Strategie ist ganz einfach: Jetzt Raytracing auf breiter Masse einführen anstatt immer nur längere Balken. Da nVidia aktuell keine gute Konkurrenz hat und hohe Margen fährt ist auch tatsächlich jetzt genau der Punkt um sowas einzuführen. AMD könnte sich z.B. solche Experimente gar nicht leisten. Vor ~10 Jahren übrigens nVidia auch nicht.
hiess es nicht dass nVidia vor 10 Jahren mit der Entwicklung von RT begonnen hat? ;)
Hoffe nur das wird nicht wie PhysX... mehr Potential hats ja denke ich.
SKYNET
2018-09-12, 09:32:39
Ist zwar noch nicht bestätigt aber es scheint so. :)
Dann kann man sich entweder von den 1060 Preisen verabschieden oder NV von ihren Margen (die 1060 war ja echt winzig und hatte nur 192 bit). Letzteres wird imo nicht passieren. :D
Ggf bekommt die 2060 kein gddr6 sondern nur 5x? Oder man beschneidet das SI.
Ich glaube allerdings kaum, dass die SMs in der Praxis 50% mehr leisten als die Pascal SMs. (Spiele)
wohl eher GDDR5 den sie bekommt, verbauen da sicher keinen teurer GDDR5X drauf ;)
zum therma speicherinterface: mal aufgefallen wie gut ne 1080 Ti skaliert wenn man schon nur den speicher hochdreht? wenn die 2080 Ti nun +/- 20% mehr leistet, wird sie auch mit GDDR6 noch ins speicherlimit laufen. :freak:
Tobalt
2018-09-12, 09:34:01
Wenn die AI alles kennt, warum erzeugt sie dann nicht das komplette Bild? Ne aber mal im Ernst, glaubst du wirklich, dass das so passiert? Die AI wird auf die Farben/Farbverläufe im Level abgestimmt und nicht auf einzelne Personen/Objekte. Und da bleibt dann die Frage ob das Ganze dann überhaupt scharf hinzubekommen ist oder ob das alles immer irgendwie verwaschen aussieht.
ich rede wie gesagt nicht explizit von nvidias Implementierung. aber ja doch man bringt der ai eben nicht nur die Farbverläufe bei (die auch) sondern auch wichtigen objekte. so wird eben das objekt in einer bestimmten Orientierung und position erkannt und kann über die Erfahrung mit dem Trainingsmaterial dann vetbessert werden.
und ja es ist ein trick aber lange nicht zu gleichen mit einem lokalen filter der eben genau das nicht leisten kann. ein filter kann keine Informationen hinzufügen. eine AI schon. nämlich die Informationen aus den Trainingsdaten.
du kannst bei einer Zahlenreihe 1020304_5060 auch die richtige Zahl 0 einfüllen auf Basis deiner Erfahrung in Arithmetik. selbst wenn die zahl nicht einfach nur der Mittelwert aus den Nachbarn ist.
Locuza
2018-09-12, 09:45:50
New Shading Advancements
Mesh Shading — new shader model for vertex, tesselation, geometry shading (more objects per scene)
Variable Rate Shading (VRS) — developer control over shading rates (to limit shading where it does not provide visual benefit)
Texture-Space Sharing — Storing shading results in memory (no need to duplicate sharing work for the processes)
Multi-View Rendering (MVR) — Extends Pascal’s Single Pass Stereo to multi views in a single pass
Turing Memory Compression
Turing architecture brings new lossless compression techniques. NVIDIA claims that their further improvements to ‘state of the art’ Pascal algorithms have provided (in NVIDIA’s own words) ‘50% increase in effective bandwidth on Turing compared to Pascal’.
Video and Display Engine
New video engine supports DisplayPort 1.4a (8K at 60 Hz). The Turing graphics cards can drive two 8K displays at 60 Hz (either through DP or USB-C. The new engine features enhanced NVENC encoder (can encode H.265 stream at 8K/30 FPS) and new NVDEC decoder with HEV YUV444 10/12b HDR, H.264 8K and VP9 10/12 HDR support.
Mesh Shading klingt oberflächlich ähnlich, wie AMDs Vorstellung von Primitive Shadern.
AMD gab zu Beginn an, dass dafür expliziter API-Support nötig ist, man denke aber das APIs sich sowieso in diese Richtung entwickeln werden.
Möglicherweise gibt es bald ein DX12/Vulkan-Update bei der Geometrie-Pipeline?
Bis zu 50% mehr Effizienz aus der bisherigen DCC herauszuholen klingt ziemlich nett.
Allgemein technisch gesehen ein fettes Upgrade in mehreren Bezügen.
Man merkt das Nvidia finanziell nicht hungert und investiert.
Fragman
2018-09-12, 09:48:01
Ohne Worte:
Gibt es einen Link zu diesem Angebot?
Dural
2018-09-12, 09:58:45
Habe ja gleich gesagt die 2070 könnte interessant werden, für mich klar die rundeste Karte von allen und dazu noch ein Chip wo alles aktiviert ist. Was will man mehr!?!
Selbst die 100mm2 stimmen ;D Auch die RT Leistung dürfte nicht viel kleiner als beim TU104 sein :eek: TU106 benötigt rund ca. 250MHz mehr als TU104 für die selbe Leistung.
Jetzt muss der TU106 noch ein OC Wunder werden und wir haben die beste GeForce xx70 die es je gab.
Die 2060 wird sicherlich nicht auf TU106 basieren, dafür ist der Die zu groß. Wenn man schon extra für die 2070 einen Die auflegt, wird auch die 2060 ihren eigenen Die bekommen, dann ohne die RT Cores, da eh zu langsam.
Doch klar, irgendwo muss der Salvage-Kram ja hin und das wird ja das Gros der Chips sein. Vllt. wirds ja ne RTX2060Ti und ne GTX2060 oder so.
wohl eher GDDR5 den sie bekommt, verbauen da sicher keinen teurer GDDR5X drauf ;)
zum therma speicherinterface: mal aufgefallen wie gut ne 1080 Ti skaliert wenn man schon nur den speicher hochdreht? wenn die 2080 Ti nun +/- 20% mehr leistet, wird sie auch mit GDDR6 noch ins speicherlimit laufen. :freak:
Das ist kaum ein Unterschied in den Preisen. Ich denke eher, dass die das Speicherinterface beschneiden und nur 6GB verbauen werden.
Mesh Shading klingt oberflächlich ähnlich, wie AMDs Vorstellung von Primitive Shadern.
AMD gab zu Beginn an, dass dafür expliziter API-Support nötig ist, man denke aber das APIs sich sowieso in diese Richtung entwickeln werden.
Möglicherweise gibt es bald ein DX12/Vulkan-Update bei der Geometrie-Pipeline?
[...]
Mesh Shading wird sicherlich in DX12 Einzug halten, wenn die neue XBox mit NGG erscheint. Aber schön, dass Turing das schon mitbringt, hoffentlich ist es dann auch zu Microsofts Implementation kompatibel und teilt nicht das Schicksal der Vega NGG, weil MS nur ein NGG haben möchste, nämlich das von Navi.
Sweepi
2018-09-12, 10:50:33
Ich denke, der spekulierte TU106 passt gut ins Konzept.
Der TU106 wird im Sweetspot auch noch in High-end Notebooks passen (also jene, welche man noch halbwegs gerne rumschleppt, keine Desktop replacements oder Workstation NBs)
Dural
2018-09-12, 11:08:14
Der TU106 passt schon, der TU104 fällt völlig aus dem Konzept.
Wie so NV da nicht einfach 4 GPCs verbaut hat verstehe ich nicht :confused:
BigKid
2018-09-12, 11:22:32
Ich denke, der spekulierte TU106 passt gut ins Konzept.
Der TU106 wird im Sweetspot auch noch in High-end Notebooks passen (also jene, welche man noch halbwegs gerne rumschleppt, keine Desktop replacements oder Workstation NBs)
Ich sehe wenig Chancen den in etwas anderem als einem Desktop Replacement (ab jetzt DR) zu sehen... Einfach wegen der Wattzahlen... WENN er in etwas anderes als DRs verbaut würde dann nur als MAX-Q (Bedeutet mit deutlich niedrigerer TDP und Sparmassnahmen per Treiber)...
Es sei denn sowas wie ein GT73 wäre bei dir noch kein DR ;)
Sweepi
2018-09-12, 11:32:52
dann nur als MAX-Q (Bedeutet mit deutlich niedrigerer TDP und Sparmassnahmen per Treiber)...
Denke ich auch, aber auch wenn das natuerlich deutlich langsamer als die RTX 2070 sein wird (noch deutlicher als sonst), wird es non-DR NBs mit RTX support geben - das wird Nvidia sehr wichtig gewesen sein.
(und ist vermutlich auch wichtig, damit RTX 2018/2019 "ausreichend" Gewicht bekommen kann)
maximus_hertus
2018-09-12, 11:39:55
Jetzt muss der TU106 noch ein OC Wunder werden und wir haben die beste GeForce xx70 die es je gab.
Die beste 70 zum Preis einer 80 Ti, die es je gab ;)
Die 970 startete bei 320 Euro, die 2070 verdoppelt das mal eben. Das ist nichtmal ein Apfel-Birnen Vergleich.
Vielleicht gibt es eine 2060 Ti, TU106 Salvage, 192 Bit, 6GB, 499 Euro FE, 399 Euro UVP? Auf der anderen Seite wird man erstmal Pascal abverkaufen wollen. Vielleicht Anfang 2019?
basix
2018-09-12, 12:28:20
Der TU106 passt schon, der TU104 fällt völlig aus dem Konzept.
Wie so NV da nicht einfach 4 GPCs verbaut hat verstehe ich nicht :confused:
Ein möglicher Erklärungsansatz: Bessere Eignung im professionellen Markt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11797541&postcount=2
Leonidas
2018-09-12, 12:40:11
GF100 war nur 33% grösser als GF104. (512 zu 384SP)
Dies ist bei Enthusiast- zu HighEnd-Chip immer etwas anders, da gibt es in aller Regel auch nur +50% Hardware. Aber unterhalb dieser Ausnahme versuchen die Hersteller in aller Regel 1:2-Abspeckungen, d.h. 100% mehr Hardware auf 60-80% mehr Chipfläche. Nur nicht im Fall des TU106 - ich bin genauso verwundert wie alle anderen auch.
Ohne Worte:
1080Ti für 549€ ist doch traumhaft. Bannig viel Leistung und gut Gfx-Speicher. RT fehlt - aber man kann nicht alles haben und schneller als eine RTX2070 ist sie auch, die bestenfalls auf diesen Preispunkt kommt.
Maxwell war 1024 - 2048 - 3072
Pascal war 1280 - 2560 - 3840
Das passte offensichtlich nicht ins RT-Konzept. Der TU106-Chip wär zu schlapp geworden, hätte man nur 2 Rasterizer genutzt.
Das einzige, was man der Generation echt zugute halten kann, dass sie den Durchbruch für LL im PC-Markt bedeutet, weil sie dafür auch designt ist. Preise und Spieleleistung finde ich jedoch einigermaßen bescheiden, war mit 12nm aber auch nicht zu erwarten.
Leonidas
2018-09-12, 12:50:30
In gewissem Sinne ist der TU106-Chip der Beweis, das sich RayTracing unterhalb dessen nicht lohnt. Denn da die Shader-Cluster fest sind, hätte man für einen Turing-Chip mit sagen wie ~1800 Shader-Einheiten dann auch viel weniger RayTracing-Power gehabt - ganz automatisch, ergibt sich aus dem Aufbau der Shader-Cluster. Da NV dies eben nicht gemacht hat, sondern den TU106 so demonstrativ nahe an den TU104 herangeführt hat, sagt dies wohl: Unterhalb dieser Power macht RT keinen Sinn.
Womit beantwortet wäre, ob noch weitere Turing-Chips (im Sinne dieser Architektur) kommen.
Da kann man denke ich so sagen. Darunter kann man mit GP106 und kleiner auffüllen, oder, wie es derzeit aussieht, man behält einfach gesamte GTX-Riege bei.
Leonidas
2018-09-12, 13:05:08
Den eigentlichen Clou von Turing sehe ich in den neuen Shader-Clustern:
https://www.3dcenter.org/news/nvidias-turing-architektur-bohrt-die-shader-cluster-deutlich-auf
- nur noch 64 Shader-Einheiten pro Shader-Cluster
- TMUs & Load/Store-Einheiten halbiert (ergibt ein gleiches Verhältnis pro Shader-Einheit)
- Kontrolllogik und Level1-Cache bleibt jedoch gleich = faktische Verdopplung pro Shader-Einheit
https://www.3dcenter.org/dateien/abbildungen/nVidia-Turing-Shader-Cluster.png
Kriegsgeier
2018-09-12, 13:17:37
Sehr interessanter und vor Allem verständlicher Artikel!
Danke und mehr davon!
Verstehe ich das richtig: NVIDIA versucht damit die Eigenständigkeit eines eizigen ShaderClusters steigern?
Kepler: 192, Maxwell 128 und jetzt bei Turing 64?!
Dafür aber dann mehr Cluster! Wenn man das weiter spinnt, dann gibt es bald nur 16 Shader / Cluster?! Was würde es für einen Entwickler bedeuten? Weniger Programmieraufwand?!
Oder hängt das mit den angehangenen TensorCores zusammen? Weil diese gibt es ja pro Cluster? Dann kann man es besser ansprechen? Also rasterizzen
mksn7
2018-09-12, 13:24:37
Sieht ja sehr ähnlich aus wie Volta. Ich glaube mich aber zu erinnern dass Volta doppelt so viele LSU's hat, also 8 pro SM, was eine Verdoppelung gegenüber Pascal war. Die L1 Bandbreite hat sich da auch gleichzeitig vervierfacht. Für HPC ist das wirklich super, aber vielleicht hat nvidia das für Consumer lieber anders gebalanced, also gleiche LSU zahl wie früher und vielleicht auch nicht soviel L1 Bandbreite.
Die Registeranzahl wird auch noch interessant. Da hatten P100/V100 ja immer doppelt so viel pro Shader wie die Consumerchips, durch halb soviel Shader pro SM. Turing hat jetzt auch halb soviele Shader, jetzt müssten sie die Registerfiles halbieren um das Verhältnis gleich zu lassen.
Savay
2018-09-12, 13:25:19
Ich weiß nicht wirklich was da so Revolutionär dran sein soll...ist das nicht eigentlich eher eine Abkehr vom "Unified Shader" Konzept?!
Statt möglichst vieler universeller Einheiten pro Cluster, sind halt wieder mehr "Spezialeinheiten" drin.
Und da nur eine endliche Zahl an Cluster in ein gegebenes Design passt, gehen die Spezialeinheiten halt Flächenmäßig natürlich auf Kosten der Universellen Einheiten.
Locuza
2018-09-12, 13:29:13
Den eigentlichen Clou von Turing sehe ich in den neuen Shader-Clustern:
https://www.3dcenter.org/news/nvidias-turing-architektur-bohrt-die-shader-cluster-deutlich-auf
- nur noch 64 Shader-Einheiten pro Shader-Cluster
- TMUs & Load/Store-Einheiten halbiert (ergibt ein gleiches Verhältnis pro Shader-Einheit)
- Kontrolllogik und Level1-Cache bleibt jedoch gleich = faktische Verdopplung pro Shader-Einheit
https://www.3dcenter.org/dateien/abbildungen/nVidia-Turing-Shader-Cluster.png
https://abload.de/img/nvidia-turing-l1-l2-cmcij1.jpg
https://videocardz.com/newz/nvidia-upgrades-l1-and-l2-caches-for-turing
Turing hat doppelt so viele Load/Store-Units und insgesamt "nur" 33% mehr Storage Kapazität bei den SMs.
Für 128 ALUs hat Pascal 144KB (96KB Shared Memory + 2x 24KB L1$) und Turing 192KB (2x 96 KB Unified Storage).
Falls Nvidia die Größe vom Register-File nicht angepasst hat, dann hat Turing noch effektiv doppelt soviel Register-Space.
Ich weiß nicht wirklich was da so Revolutionär dran sein soll...ist das nicht eigentlich eher eine Abkehr vom "Unified Shader" Konzept?!
Statt möglichst vieler universeller Einheiten pro Cluster, sind halt wieder mehr "Spezialeinheiten" drin.
Und da nur eine endliche Zahl an Cluster in ein gegebenes Design passt, gehen die Spezialeinheiten halt Flächenmäßig natürlich auf Kosten der Universellen Einheiten.
Ja, aber wenn die Spezialeinheiten zum Beispiel 20% Fläche kosten, aber 2-8 mal soviel Leistung für die gewünschten Anwendungsfälle bringen, dann setzt man das auch lieber so um.
Raytracing und AI werden in Zukunft immer präsenter werden, es wird sehr wahrscheinlich jeder spezielle HW-Anpassungen dafür einbauen.
pixeljetstream
2018-09-12, 14:26:26
Mehr SMs = mehr Kontrollogik = besserer Umgang mit Divergenz und Load balancing.
Deswegen war GP100 in raytracing/compute schon deutlich stärker als GP10x, Volta behielt das bei. Ergo dieser Aspekt des Designs ist schon ein bisschen erprobt.
Der Einsatz von Speziellen Units (RT, Tensor) ist deutlich effizienter, wie Locuza schreibt. Aber die Entwicklung ist bi-direktional. Diese Einheiten können auch wieder verschwinden wenn der generische Teil flott genug ist für die Anwendungsfälle. (Vermutlich aber noch paar Generationen davon entfernt, oder vielleicht auch nicht).
Deswegen sind die RT Apis ja auch so abstrakt und lassen sich auf Standard compute abbilden. Man weiß noch nicht genau wie das HW Design sich ändern wird, der Funktionsumfang der cores wird angepasst etc.
Savay
2018-09-12, 14:37:30
Das glaube ich ja gern...nur ist die Interpretation, dass die Reduktion der FP32 Shader/Cluster per se eine "Optimierung" und "der Clou" an dem Aufbau wäre und in Wahrheit eben nicht eher einem Kompromiss geschuldet sind, der einfach aus dem Flächenbedarf der zusätzlichen Einheiten resultiert, etwas blauäugig. ;)
Der Platz ist halt endlich und wenn man den sinnvoll nutzen will muss man einfach irgendwo eine Balance finden die zu dem zu erwartenden Workload passt.
Das hängt dann aber wiederum auch von der Software ab die dann drauf läuft und ob diese sich letztlich an dem orientiert auf welche Verhältnisse die HW ausgelegt ist.
Ist IMHO so ein bisschen auch das alte Tesselator Problem.
Was ich mich eher frage:
Wozu sind eigentlich "plötzlich" dedizierte Integer Einheiten in den SMs?
mksn7
2018-09-12, 14:55:52
Turing hat doppelt so viele Load/Store-Units und insgesamt "nur" 33% mehr Storage Kapazität bei den SMs.
Ich zähle bei Volta 32 kleine LD/ST Kästchen* pro SM, hier bei Turing nur 16 pro SM. P100 hatte auch 16 pro SM. Haben Consumer Pascals weniger? Nvidia verdoppelt die LSUs per SM bei den Consumerchips nicht, wie sie es bei Volta gemacht haben. Von Pascal->Turing verdoppelt sich die L1 Bandbreite anscheinend nur (wie auf dem Bild von dir zu sehn), bei Pascal->Volta hatte sie sich vervierfacht, was zur doppelten LSU Zahl passt.
Sonst ist der Aufbau eben genau wie bei Volta, nur das eben nicht. Wär auch komisch gewesen, wenn HPC und Consumer völlig auseinandergehen.
*) nvidia kann natürlich soviele Kästchen malen und darunter verstehen was sie wollen, aber mehr Info gibts halt nicht...
Locuza
2018-09-12, 14:57:56
@ Savay
Es ist insofern ein Clou, dass Nvidia das Verhältnis bezüglich der Caches pro ALU aufgebohrt hat und die Arbeitsverteilung feiner ausfällt.
An der Stelle hat das nichts mit Tensor/Raytracing-Cores zu tun, sondern einfach an der grundlegenden Balance vom SM-Design.
Im Gegenteil, hätte Nvidia das SM-Design so gelassen wie bei den Pascals (Außer GP100), dann hätte Nvidia auch mehr Platz für mehr Compute Units gehabt.
Getrennte Execution-Ports für Integer helfen der Performance und Nvidia war vermutlich der Ansicht das es nun den zusätzlichen Flächenaufwand rechtfertigt.
Godmode
2018-09-12, 14:58:36
Was ich mich eher frage:
Wozu sind eigentlich "plötzlich" dedizierte Integer Einheiten in den SMs?
Integer und Floating Point geht jetzt anscheinend parallel stand irgendwo.
pixeljetstream
2018-09-12, 15:03:16
Integer-Last nimmt einfach zu je mehr eigene Datenstrukturen und komplexere Algorithmen die Leute so basteln. Addressen Arithmetik, packen von Daten in bits etc.
pixeljetstream
2018-09-12, 15:05:54
*) nvidia kann natürlich soviele Kästchen malen und darunter verstehen was sie wollen, aber mehr Info gibts halt nicht...
Die Cuda 10 Doku hat evtl noch bissl mehr Info. Rest dann unter NDA.
Digidi
2018-09-12, 15:30:03
Interessant: Mesh Shading — new shader model for vertex, tesselation, geometry shading (more objects per scene)
Gibt's dazu mehr?
pixeljetstream
2018-09-12, 15:37:50
Es gibt nach dem Fall des NDAs viel mehr ;)
robbitop
2018-09-12, 15:52:41
Wobei pro Rohleistung GV100 in Spielen nicht schneller war als GP102. Trotz doppelter Kontrolllogik und mehr Registern und mehr Cache.
Und ob die INT32 ALUs bei herkömmlichen shadercode helfen wäre auch interessant zu wissen. MWn ist der Großteil auf FP angewiesen.
64 SPs pro SM klingt btw sehr ähnlich zu GCN. Dort sind es 64 pro CU.
TurricanM3
2018-09-12, 16:02:56
Puh, ist das eine technische Diskussion hier. Sind hier nur Devs unterwegs? Bestimmt die letzten 30x umsonst hier reingeschaut. Bin scheinbar der einzige den die ganze technische Umsetzung etc. überhaupt nicht interessiert. :redface:
Troyan
2018-09-12, 16:04:58
TU106 ist für mich nicht so freakig. Immerhin ein halber TU102 mit größeren Speicherinterface. In etwa so wie GP106 ein halber GP104 mit größerem Speicherinterface ist. Aber ich verstehe TU104 nicht. Wieso verändert man in dem Chip die Anzahl der Shader pro GPC? Dazu gleiche Speicherbandbreite wie die 2070. Ich werde das Gefühl nicht los, dass man hier ursprünglich mit 16GBps geplant hatte.
GP106 war ein 1/3 bei Rechenleistung und 1/3 bei Bandbreite zu GP102.
TU106 ist 1/2 bei Rechenleistung und 70% bei Bandbreite zu TU102.
Sieht eher so aus, dass nVidia es wirtschaftlicher empfindet eine extra Maske zu fertigen statt TU104 zu beschneiden. Das Wissen über den Prozess haben sie ja seit 12 Monaten schon...
Dural
2018-09-12, 16:06:23
Das ihr immer mit Volta kommt, ich bin immer noch der Überzeugung das es für Volta keine optimierten Game Treiber gibt! Für was auch, für die Handvoll Spieler die sich eine Titan V gegönnt haben.
Das interessante ist ja, das NV mit Kepler 96SP gebracht hat mit der Begründung dies wäre für Games besser als 64 oder 128... Mit Maxwell wurden plötzlich 128SP eingeführt weil das deutlich besser und effizienter als die 96 von Kepler sind... Und jetzt haben wir doch 64 und es ist wahrscheinlich wieder das beste für uns Spieler... ;)
N0Thing
2018-09-12, 16:08:48
Puh, ist das eine technische Diskussion hier. Sind hier nur Devs unterwegs? Bestimmt die letzten 30x umsonst hier reingeschaut. Bin scheinbar der einzige den die ganze technische Umsetzung etc. überhaupt nicht interessiert. :redface:
:uban:
Troyan
2018-09-12, 16:11:37
Das ihr immer mit Volta kommt, ich bin immer noch der Überzeugung das es für Volta keine optimierten Game Treiber gibt! Für was auch, für die Handvoll Spieler die sich eine Titan V gegönnt haben.
Das interessante ist ja, das NV mit Kepler 96SP gebracht hat mit der Begründung dies wäre für Games besser als 64 oder 128... Mit Maxwell wurden plötzlich 128SP eingeführt weil das deutlich besser und effizienter als die 96 von Kepler sind... Und jetzt haben wir doch 64 und es ist wahrscheinlich wieder das beste für uns Spieler... ;)
Es sind 32 Cores per Scheduler. Die Anzahl pro SM ist irrelevant.
Dural
2018-09-12, 16:18:38
Ja schon, find es trotzdem lustig ;)
Kepler hat übrigens 192SP und nicht 96 :rolleyes:
Korvaun
2018-09-12, 16:36:05
Das interessante ist ja, das NV mit Kepler 96SP gebracht hat mit der Begründung dies wäre für Games besser als 64 oder 128... Mit Maxwell wurden plötzlich 128SP eingeführt weil das deutlich besser und effizienter als die 96 von Kepler sind... Und jetzt haben wir doch 64 und es ist wahrscheinlich wieder das beste für uns Spieler... ;)
Marketing halt? Das Neueste MUSS natürlich das Tollste und Beste sein, sonst kaufts ja keiner ;)
Kriton
2018-09-12, 16:50:56
Sieht eigentlich noch jemand die Fortsetzung von Kepler? Also, dass bisher "niedrigere" Chips in ein teureres Segment wechseln?
Das geschah doch das erste mal mit der 680, oder?
robbitop
2018-09-12, 16:51:37
Puh, ist das eine technische Diskussion hier. Sind hier nur Devs unterwegs? Bestimmt die letzten 30x umsonst hier reingeschaut. Bin scheinbar der einzige den die ganze technische Umsetzung etc. überhaupt nicht interessiert. :redface:
Dann bist du im falschen Forum.
robbitop
2018-09-12, 16:53:41
Das ihr immer mit Volta kommt, ich bin immer noch der Überzeugung das es für Volta keine optimierten Game Treiber gibt! Für was auch, für die Handvoll Spieler die sich eine Titan V gegönnt haben.
Das interessante ist ja, das NV mit Kepler 96SP gebracht hat mit der Begründung dies wäre für Games besser als 64 oder 128... Mit Maxwell wurden plötzlich 128SP eingeführt weil das deutlich besser und effizienter als die 96 von Kepler sind... Und jetzt haben wir doch 64 und es ist wahrscheinlich wieder das beste für uns Spieler... ;)
Workloads und Anforderungen ändern sich nunmal.
————
Ich finde es äußerst interessant, dass NV so kurz vor 7 nm Verfügbarkeit noch auf den alten Prozess setzt und so große dice bringt.
Kosten und Verfügbarkeit muss ja wirklich (noch) so stark auseinanderklaffen, dass sich das trotzdem lohnt.
Historisch war es bis dato ja so, dass knapp 2 Jahre zwishen 2 NV Generationen vergehen. Also wird man wohl erst recht spät bei 7nm (mit euv) einsteigen.
Ich bin wirklich auf die Leistung von Turing in der Praxis gespannt (und seinen Verbesserungen). :)
Der_Korken
2018-09-12, 17:00:24
Puh, ist das eine technische Diskussion hier. Sind hier nur Devs unterwegs? Bestimmt die letzten 30x umsonst hier reingeschaut. Bin scheinbar der einzige den die ganze technische Umsetzung etc. überhaupt nicht interessiert. :redface:
Na besser langweilige Technik, als wenn du hier reinguckst und drei neue Seiten Kleinkrieg findest, wie zeitweise der Fall war.
Ich finde die Technik genauso spannend wie das Produkt :D
Hübie
2018-09-12, 17:10:21
Ich finde es äußerst interessant, dass NV so kurz vor 7 nm Verfügbarkeit noch auf den alten Prozess setzt und so große dice bringt.
Kosten und Verfügbarkeit muss ja wirklich (noch) so stark auseinanderklaffen, dass sich das trotzdem lohnt.
Historisch war es bis dato ja so, dass knapp 2 Jahre zwishen 2 NV Generationen vergehen. Also wird man wohl erst recht spät bei 7nm (mit euv) einsteigen.
Ich bin wirklich auf die Leistung von Turing in der Praxis gespannt (und seinen Verbesserungen). :)
Interessant ist auch, dass man selbst die Pros abgrasen möchte. Wobei HPC noch aussteht... :whistle:
pixeljetstream
2018-09-12, 17:21:36
Workloads und Anforderungen ändern sich nunmal.
————
Ich finde es äußerst interessant, dass NV so kurz vor 7 nm Verfügbarkeit noch auf den alten Prozess setzt und so große dice bringt.
Kosten und Verfügbarkeit muss ja wirklich (noch) so stark auseinanderklaffen, dass sich das trotzdem lohnt.
Historisch war es bis dato ja so, dass knapp 2 Jahre zwishen 2 NV Generationen vergehen. Also wird man wohl erst recht spät bei 7nm (mit euv) einsteigen.
Ich bin wirklich auf die Leistung von Turing in der Praxis gespannt (und seinen Verbesserungen). :)
+1 für workloads die sich ändern.
Zur Integer Performance gibt's im Whitepaper paar Details mehr.
Was Prozess angeht immer historisch denken, dass Turing als Kind von Volta ja in der Planung schon alt ist. Durch die überlappende Entwicklung wurde Turing designt während Volta im Markt erschien.
Das heißt man hätte vor Jahren wetten müssen wie weit/günstig 7nm für Massenproduktion dieses Jahr ist.
Hübie
2018-09-12, 17:29:52
Mesh Shading klingt oberflächlich ähnlich, wie AMDs Vorstellung von Primitive Shadern.
AMD gab zu Beginn an, dass dafür expliziter API-Support nötig ist, man denke aber das APIs sich sowieso in diese Richtung entwickeln werden.
Möglicherweise gibt es bald ein DX12/Vulkan-Update bei der Geometrie-Pipeline?
Da gab es einen kleinen Punkt in der Präsi, den ich zwei mal angesprochen hatte. Nun ist die Katze dazu aus dem Sack. Wenn beide IHV die Geo-Stage umkrempeln, wird es auch viel wahrscheinlicher zu einer Marktdurchdringung kommen. Wobei ich bei Vega davon ausgehe, dass hier nichts mehr passieren wird - so schade dass auch ist, da die Änderungen plausibel auf einen Laien wie mich wirken.
Dural
2018-09-12, 17:33:06
Vielleicht wird Turing die erste Generation seit langem wo mal wieder ein einfacher Shrink in 7nm kommt.
Wobei man sagen muss das Turing wahrscheinlich auch massive Verspätung hat, sonst wären nicht schon alle drei Chips fertig. Wie so auch immer, das würde bedeuten das die nächste Generation auch nicht mehr 2 Jahre oder was auch immer weg ist.
Edit:
Würde sogar Sinn geben, TU106 wäre in 7nm etwas unter 200mm2, TU104 macht in 7nm nicht viel Sinn, da viel zu nahe an TU106.
Da nimmt man lieber TU102 als xx104 ersatz der um die 3xxmm2 haben müsste. Dazu einen gröberen TopDog (zb. 6144SP oder 6912SP) wo man auf 4xxmm2 kommt. ;D
Man hätte Abstände und Die grösse praktisch wie jetzt bei Pascal. :D
robbitop
2018-09-12, 17:54:15
Ein Turing Shrink ala G92 ggü G80? Wäre auch denkbar. :)
@pixeljetstream
Willst du damit sagen, dass die ca 2 Jahre zwische 2 Generationen mit dem Launch von GV100 (2017) begannen und somit 2019 ggf mit einer neuen Generation zu rechnen ist? :)
Oder nur dass man 2017 besser noch auf die sichere 12 nm Karte für Turing setzte?
Hübie
2018-09-12, 18:09:44
Ich bin mir jedoch nicht sicher ob es wirtschaftlich sinnvoll wäre Turing einfach einzudampfen... Eher nicht.
Workloads und Anforderungen ändern sich nunmal.
————
Ich finde es äußerst interessant, dass NV so kurz vor 7 nm Verfügbarkeit noch auf den alten Prozess setzt und so große dice bringt.
Kosten und Verfügbarkeit muss ja wirklich (noch) so stark auseinanderklaffen, dass sich das trotzdem lohnt.
Historisch war es bis dato ja so, dass knapp 2 Jahre zwishen 2 NV Generationen vergehen. Also wird man wohl erst recht spät bei 7nm (mit euv) einsteigen.
Ich bin wirklich auf die Leistung von Turing in der Praxis gespannt (und seinen Verbesserungen). :)
Da würd ich eher darauf tippen, dass NV einfach schiss vor dem Yield hatte. Schlechter Yield bei neuem Prozess mit wenig Kapazität = keine Produkte. Bei V20 ist das nicht so tragisch. Das wird für den Profimarkt alle mal reichen und wenns besonders gut läuft hat man auch noch was, was 30-40% schneller ist als V10.
Hübie
2018-09-12, 18:11:38
Ooooder man hat schlicht und ergreifend Null Komma Null Kapazitäten. Wieviel müsste NVIDIA bezahlen um ein paar GPUs zu fertigen statt horrender Mengen an SoCs....? :uponder:
Loeschzwerg
2018-09-12, 18:12:29
Da würd ich eher darauf tippen, dass NV einfach schiss vor dem Yield hatte.
Diesbezüglich hat NV schon einmal Erfahrung sammeln müssen (Start der FX Serie). Denke auch dass man hier bewusst konservativ fährt.
Ein Turing Shrink ala G92 ggü G80? Wäre auch denkbar. :)
Jup, oder GT200 auf GT200b.
Godmode
2018-09-12, 18:13:13
Puh, ist das eine technische Diskussion hier. Sind hier nur Devs unterwegs? Bestimmt die letzten 30x umsonst hier reingeschaut. Bin scheinbar der einzige den die ganze technische Umsetzung etc. überhaupt nicht interessiert. :redface:
3DCenter und so :wink:
pixeljetstream
2018-09-12, 18:20:28
Ein Turing Shrink ala G92 ggü G80? Wäre auch denkbar. :)
@pixeljetstream
Willst du damit sagen, dass die ca 2 Jahre zwische 2 Generationen mit dem Launch von GV100 (2017) begannen und somit 2019 ggf mit einer neuen Generation zu rechnen ist? :)
Oder nur dass man 2017 besser noch auf die sichere 12 nm Karte für Turing setzte?
Extrapoliere nicht so wild. Ich meine dass für die Produkte die wir jetzt sehen, die Entscheidung halt lange zurück liegt und deswegen 7nm da schon Glücksspiel gewesen wäre imo. Und es ist eher 2015-2016.
Puh, ist das eine technische Diskussion hier. Sind hier nur Devs unterwegs? Bestimmt die letzten 30x umsonst hier reingeschaut. Bin scheinbar der einzige den die ganze technische Umsetzung etc. überhaupt nicht interessiert. :redface:
Bist in jedem Fall nicht alleine und am Ende des Tages interessiert mich auch nur die Performance. Von daher wäre so nen G80 Sprung mal wieder geil aber das bietet der Turing hier nicht :(
Hübie
2018-09-12, 18:23:09
Die beiden spielen zusammen Golf. So viel Glücksspiel wäre es gar nicht. Kalkül träfe es wohl besser.
pixeljetstream
2018-09-12, 18:25:15
So ein Sprung kommt imo nie wieder, dafür ist die Evolution zu weit. Große Sprünge nur in Teilbereichen durch Spezialisierung (siehe AI, RT und neue Programmiermodelle).
Troyan
2018-09-12, 18:26:37
Außerdem war G71 nur 190mm^2 groß und G80 wuchs auf 480mm^2. Im Grunde ist der Schritt von GP104 auf TU102 identisch...
Hübie
2018-09-12, 18:27:49
So ein Sprung kommt imo nie wieder, dafür ist die Evolution zu weit. Große Sprünge nur in Teilbereichen durch Spezialisierung (siehe AI, RT und neue Programmiermodelle).
Gesetz des abnehmenden Grenzertrags. Greift eigentlich überall...
=Floi=
2018-09-12, 18:35:07
Marketing halt? Das Neueste MUSS natürlich das Tollste und Beste sein, sonst kaufts ja keiner ;)
Sicher weniger marketing, sondern technische limitierungen. Früher brauchte man erstmal rechenleistung und heute braucht man kontrollogik, weil man gemerkt hat die vorhandenen einheiten kann man noch besser auslasten.
Digidi
2018-09-12, 19:31:16
Da gab es einen kleinen Punkt in der Präsi, den ich zwei mal angesprochen hatte. Nun ist die Katze dazu aus dem Sack. Wenn beide IHV die Geo-Stage umkrempeln, wird es auch viel wahrscheinlicher zu einer Marktdurchdringung kommen. Wobei ich bei Vega davon ausgehe, dass hier nichts mehr passieren wird - so schade dass auch ist, da die Änderungen plausibel auf einen Laien wie mich wirken.
Welche Folien? Link?
@Locuza
Du meinst wohl eher ein equivalent zu NGG. Primitive Shader ist ein Teilaspect davon welcher das Culling verbessern soll. Man kann anscheinend schon damit sehr früh in der Pipeline Cullen wenn es nur Punkte und noch keine Polygone gibt. Darauf hat AMD auch ein Patent, weshalb Nvidia das vielleicht nicht umsetzen kann. Oder wie läuft das mit dem Cross License?
And at that point when you finally have the final position of the vertices of the triangle, is one point where we can always find out whether or not the triangle is inside of the frustum, back-faced, or too small to hit.
https://www.gamersnexus.net/guides/3010-primitive-discarding-in-vega-with-mike-mantor
pixeljetstream
2018-09-13, 01:56:16
Ich glaube das läuft bei den beiden als Friede unter Mutual Assured Destruction ;)
Nur dritte/neulinge müssen sich mehr Sorgen machen.
Leonidas
2018-09-13, 04:15:28
Mutual Assured Destruction
Sehr fein gesagt. Wobei das in der Tech-Branche inzwischen gang und gäbe ist. Echte Patentdurchsetzung gibt es da kaum noch - und wenn, dann gegenüber Neulingen, die man draussen zu halten versucht.
Hübie
2018-09-13, 07:57:56
Welche Folien? Link?
@Locuza
Du meinst wohl eher ein equivalent zu NGG. Primitive Shader ist ein Teilaspect davon welcher das Culling verbessern soll. Man kann anscheinend schon damit sehr früh in der Pipeline Cullen wenn es nur Punkte und noch keine Polygone gibt. Darauf hat AMD auch ein Patent, weshalb Nvidia das vielleicht nicht umsetzen kann. Oder wie läuft das mit dem Cross License?
https://www.gamersnexus.net/guides/3010-primitive-discarding-in-vega-with-mike-mantor
Da stand was von 'interoperable rasterization' oder so ähnlich. Google das Bild, ist am Blödfone so fummelig. :freak:
Ps: Das US Patentrecht ist etwas anders als hierzulande. Nur weil AMD eins hält ist es noch nicht gültig. Das entscheidet im Zweifelsfall ein Gericht. International betrachtet wird es dann sicher 'witzig'.
y33H@
2018-09-13, 08:22:09
=)
Spasstiger
2018-09-13, 09:16:23
Was ich mich noch frage: Wie bekommt NV gleich acht Tensor-Cores, die ja jeweils 64 fp16-Multiplikationen und 64 fp32-Additionen ausführen (4x4-Matrixmultiplikation und 4x4-Matrixaddition, D = A*B + C) augenscheinlich auf eine Fläche, die im Bereich der gerade mal 64 fp32-FMA-Einheiten liegt? Ein Vorteil ist natürlich, dass die Rechenpfade fest verdrahtet sind und die Tensor-Cores nur mit Kniffen und reduzierter Performance (z.B. Multiplikation mit Diagonalmatrizen) für skalare Berechnungen genutzt werden können.
Adam D.
2018-09-13, 09:31:56
=)
Da hat wohl jemand sein Sample bekommen :D
Üppige sieben Tage Zeit für intensives Testen und Artikel schreiben - viel Spaß :freak:
Sunrise
2018-09-13, 09:35:07
=)
Der beste Beitrag seit gefühlt 100 Seiten...😄
Viel Spaß!
y33H@
2018-09-13, 09:59:14
Üppige sieben Tage Zeit für intensives Testen und Artikel schreiben - viel Spaß :freak:Ich hab ab Montag übrigens Urlaub :freak:
AffenJack
2018-09-13, 10:02:05
Da hat wohl jemand sein Sample bekommen :D
Ich hoffe eher, dass der Treiber endlich da ist :biggrin:
Ich hab ab Montag übrigens Urlaub :freak:
Also ein geschäftiges WE und die Hoffnung, dass Nv nicht noch einen 2ten Treiber nachschiebt;D
Leonidas
2018-09-13, 11:09:38
Feine Grafik No.1: (Fullsize (https://www.3dcenter.org/dateien/abbildungen/nVidia-Pascal-Turing-Chips-Groessenvergleich.png))
https://www.3dcenter.org/dateien/abbildungen/nVidia-Pascal-Turing-Chips-Groessenvergleich.vorschau2.png
Feine Grafik No.2: (Fullsize als PDF (https://pc.watch.impress.co.jp/img/pcw/docs/1139/009/p30.pdf))
https://pc.watch.impress.co.jp/img/pcw/docs/1139/009/30_o.jpg
Edgecrusher86
2018-09-13, 11:16:28
NVIDIA Announces Tesla T4 Based on Turing GPU For Inferencing – 65 TFLOPs FP16, 130 TOPs INT8, 260 TOPs INT4 at Just 75W (https://wccftech.com/nvidia-tesla-t4-turing-75w-gpu-announced/)
TU104 Cut mit 16GB 10 Gbps G6.
E: Zum Vergleich aus eigenem Test: GTX 1080 @ 1266 MHz @ 681mV extrem UV - 87W Peak in Doom 4K Nightmare OGL damals. Hier ohne I/O sind fast 1,6 GHz bei 75W möglich.
MorPheuZ
2018-09-13, 11:22:34
DirectXR? Ist RT nicht Teil von DX12?
Leonidas
2018-09-13, 11:37:08
Sieht nach freier Kreation aus. Eigentlich dachte man ja, die Aufnahme von RT in DX12 würde das ganze zu irgendeiner sichtbaren Nummernänderung bringen. Sieht so als, als wäre für MS inzwischen alles "DX12", wie auch alles "Windows" ist. Exaktheit und Bestimmbarkeit ade.
Dural
2018-09-13, 11:40:36
75Watt mit 8.1 TFLOPs ist aber mal eine Ansage.
Nun auch auf deutsch:
Nvidia Tesla T4: Turing-Grafiklösung mit 8,1 TFLOPs bei nur 75 Watt (https://www.computerbase.de/2018-09/nvidia-tesla-t4-turing-grafikkarte/)
Die Tesla T4 basiert auf dem TU104-Grafikchip aus der Turing-Generation und soll bei einer weiterhin geringen Leistungsaufnahme von maximal 75 Watt teilweise die 12-fache Leistung des Vorgänger bieten.
Da soll noch einer mal was sagen, daß Nvidia nix getan hat und die Kunden nur melken will.
dildo4u
2018-09-13, 12:11:30
T4 hat 500Mhz mehr Takt als Pascal wir werden locker 2Ghz ohne OC sehen.
Leonidas
2018-09-13, 12:17:48
Na, bei 75 Watt TDP sind die Taktraten entweder gaaanz niedrig - oder NV deaktiviert hier große Teile des Chips nur für diese Tesla-Lösungen. Davon ausgehend würde ich nicht auf das Taktraten-Verhalten von Gaming-Lösungen spekulieren.
pilzsammler2002
2018-09-13, 12:21:20
T4 hat 500Mhz mehr Takt als Pascal wir werden locker 2Ghz ohne OC sehen.
Wo siehst du denn den Takt?
Oder rechnest einfach zurück?
Troyan
2018-09-13, 12:26:27
P4 hatte einen Boost-Takt von 1063MHz bei 75W. T4 liefert 47% mehr Rechenleistung, ergo einen Boost-Takt von knapp 1570MHz.
basix
2018-09-13, 12:26:40
Wo siehst du denn den Takt?
Oder rechnest einfach zurück?
P4 hatte einen Boost-Takt von 1063MHz bei 75W. T4 liefert 47% mehr Rechenleistung, ergo einen Boost-Takt von knapp 1500MHz.
Siehe hier:
https://www.nvidia.com/en-us/deep-learning-ai/solutions/inference-platform/hpc/
http://www.pny.eu/professional/explore-all-products/nvidia-tesla/775-nvidia-tesla-p4
Ihr könnt aber noch -20% Takt abrechnen, da 3072 vs. 2560 SMs. Ergo 8.1/5.5 * 2560/3072 = +23% mehr Takt
basix
2018-09-13, 12:29:59
Doppelpost
Troyan
2018-09-13, 12:32:11
Siehe hier:
https://www.nvidia.com/en-us/deep-learning-ai/solutions/inference-platform/hpc/
http://www.pny.eu/professional/explore-all-products/nvidia-tesla/775-nvidia-tesla-p4
Ihr könnt aber noch -20% Takt abrechnen, da 3072 vs. 2560 SMs. Ergo 8.1/5.5 * 2560/3072 = +23% mehr Takt
2560 Cores bei T4: https://www.nvidia.com/en-us/data-center/tesla-t4/
Sieht nach freier Kreation aus. Eigentlich dachte man ja, die Aufnahme von RT in DX12 würde das ganze zu irgendeiner sichtbaren Nummernänderung bringen. Sieht so als, als wäre für MS inzwischen alles "DX12", wie auch alles "Windows" ist. Exaktheit und Bestimmbarkeit ade.
Man kann da bestimmt interne Versionsnummer herausfinden, ab wann was wie und wo ist. ;) Dieses öffentliche "Herunterdumben" ist aber wirklich lästig.
Nun auch auf deutsch:
Nvidia Tesla T4: Turing-Grafiklösung mit 8,1 TFLOPs bei nur 75 Watt (https://www.computerbase.de/2018-09/nvidia-tesla-t4-turing-grafikkarte/)
Da soll noch einer mal was sagen, daß Nvidia nix getan hat und die Kunden nur melken will.
Wenn die bis zu 12× so schnell ist, wie teuer ist sie dann? Zum Vergleich: Die RTX 2080 Ti soll ja 35-45 % schneller sein und kostet 54 Prozent mehr als die GTX 1080 Ti zum Launch. ;)
MfG,
Raff
Edgecrusher86
2018-09-13, 12:40:38
Na, bei 75 Watt TDP sind die Taktraten entweder gaaanz niedrig - oder NV deaktiviert hier große Teile des Chips nur für diese Tesla-Lösungen. Davon ausgehend würde ich nicht auf das Taktraten-Verhalten von Gaming-Lösungen spekulieren.
Dass die Karte auf maximale Effizienz ausgelegt ist, ist klar. Wenn die 1582 MHz gehalten werden können (oder zumindest 1500 MHz), ist es dennoch eine Ansage. Die 2080 wird wohl bei 1900 MHz+ out of the Box liegen, darf aber auch 225W als FE ziehen bei 15% mehr SPs und 14 Gbps VRAM plus Display Clock (TDP -> Faktor 3). Es zeigt auf jeden Fall, dass Turing bei ähnlichen Verbrauchswerten wie ein händisch optimierter GP104 mal eben um die 200-300MHz mehr schafft bei doppeltem VRAM. :cool:
Wenn die bis zu 12× so schnell ist, wie teuer ist sie dann? Zum Vergleich: Die RTX 2080 Ti soll ja 35-45 % schneller sein und kostet 54 Prozent mehr als die GTX 1080 Ti zum Launch. ;)
Hier gehts ja um die Pro-Varianten für Workstations, Server, Cluster etc. wo stromsparen Trumpf ist. In hohen Stückzahlen ist die Performance/Watt entscheidend, und für HPC-Beschaffer wohl aktuell ein Anreiz (oder interne Umweltvorgabe etc), Nvidia-Karten zu kaufen und mehr zu bezahlen. 12x mehr Leistung in manchen Bereichen trotz gleichem Verbrauch für HPC schon ein sehr gutes Argument. Da hier intern mit ganz anderen Preis/Kostenrechnungen kalkulatorisch gearbeitet wird, kann sich das trotz hoher Preise nach internen Schlüsselwerten schnell als Investition amortisieren.
Da die TU104 für beide Bereiche produziert wird, HPC und Gaming, wirken sich vermutlich die hohen Preise im HPC-Bereich direkt auf den Gamingbereich aus. Dazu noch aktuell führende Rolle gegenüber AMD, und schon haben wir den Preis. Ist natürlich reine meine Spekulation.
AffenJack
2018-09-13, 13:28:02
Wer mal wieder wenig sagende Performancenumbers von der GTC Japan haben will:
https://i.imgur.com/wptnvaG.jpg
https://i.imgur.com/rvAJ8Li.jpg
Von Reddit geklaut und aus der Präsentation, deshalb unscharf.
Fliwatut
2018-09-13, 13:38:58
Sieht zumindest so aus, als könnte man mit der 2080ti flüssig in UHD zocken.
Hübie
2018-09-13, 13:47:43
Feine Grafik No.1: (Fullsize (https://www.3dcenter.org/dateien/abbildungen/nVidia-Pascal-Turing-Chips-Groessenvergleich.png))
https://www.3dcenter.org/dateien/abbildungen/nVidia-Pascal-Turing-Chips-Groessenvergleich.vorschau2.png
Feine Grafik No.2: (Fullsize als PDF (https://pc.watch.impress.co.jp/img/pcw/docs/1139/009/p30.pdf))
https://pc.watch.impress.co.jp/img/pcw/docs/1139/009/30_o.jpg
Die PDF ist ein sehr netter Fund. :up:
SKYNET
2018-09-13, 13:53:02
Sieht zumindest so aus, als könnte man mit der 2080ti flüssig in UHD zocken.
kann man mit ner guten 1080 Ti custom ala ftw, strix oder aorus xtreme auch... also, was ist da neu? O_o
Fliwatut
2018-09-13, 13:59:03
kann man mit ner guten 1080 Ti custom ala ftw, strix oder aorus xtreme auch... also, was ist da neu? O_o
Keine 60fps:
https://www.computerbase.de/2017-10/evga-geforce-gtx-1080-ti-ftw3-elite-test/#diagramm-ghost-recon-wildlands-3840-2160
https://www.computerbase.de/2017-10/evga-geforce-gtx-1080-ti-ftw3-elite-test/#diagramm-the-witcher-3-3840-2160
SKYNET
2018-09-13, 14:33:46
Keine 60fps:
https://www.computerbase.de/2017-10/evga-geforce-gtx-1080-ti-ftw3-elite-test/#diagramm-ghost-recon-wildlands-3840-2160
https://www.computerbase.de/2017-10/evga-geforce-gtx-1080-ti-ftw3-elite-test/#diagramm-the-witcher-3-3840-2160
tjo, und hier langt selbst ne 1080 non Ti für das meiste in UHD:
https://www.computerbase.de/2018-09/amd-nvidia-grafikkarten-generationen-vergleich/#diagramm-kingdom-come-deliverance-3840-2160
edit, ihhh, niedrig preset... hab nix gesagt X-D
heisst aber trotzdem das es min. ne 2080 Ti sein muss, weil die 2080 wird da auch versagen.
Dural
2018-09-13, 14:47:17
Naja 4K 60FPS mit der 2080 ist auch eine Ansage. Die 2080ti ist so mit noch etwas über den 60FPS, rechnerisch 70FPS+
Wenn das so weiter geht wird schon die 2070 oc GP102 Leistung haben, und das wäre schon eine Hausnummer.
Wie ich schon vor zwei Wochen gesagt habe, in 6 Monaten interessiert Pascal keiner mehr :P
SKYNET
2018-09-13, 15:00:34
Naja 4K 60FPS mit der 2080 ist auch eine Ansage. Die 2080ti ist so mit noch etwas über den 60FPS, rechnerisch 70FPS+
Wenn das so weiter geht wird schon die 2070 oc GP102 Leistung haben, und das wäre schon eine Hausnummer.
Wie ich schon vor zwei Wochen gesagt habe, in 6 Monaten interessiert Pascal keiner mehr :P
spätestens wenn die kommenden spiele mit solchen texturen und qualitätseinstellungen aufwarten, wie FFXV es tut, werde ich mir meine hände reiben und alle auslachen die sich was mit unter 11GB gekauft haben(= 2070 zum preis einer 1080 Ti oder schlimmer 2080) :tongue: weil dann kannste nichtmal in FHD alles anschalten oder auf max stellen :ulol:
Dural
2018-09-13, 15:05:58
Nein.
Adam D.
2018-09-13, 15:06:00
Naja 4K 60FPS mit der 2080 ist auch eine Ansage. Die 2080ti ist so mit noch etwas über den 60FPS, rechnerisch 70FPS+
Wenn das so weiter geht wird schon die 2070 oc GP102 Leistung haben, und das wäre schon eine Hausnummer.
Wie ich schon vor zwei Wochen gesagt habe, in 6 Monaten interessiert Pascal keiner mehr :P
Ja, wir kennen ja auch die Basis dieser Einschätzung, dann können wir ja eigentlich auch gleich die Reviews absagen, Nvidias PR-Abteilung hat ja bereits alle Antworten geliefert. Alter :freak:
Und genau, Pascal wird keine Sau mehr interessieren, weil jetzt der gesamte Gamermarkt auf 500++$-Produkte wechselt. Und die 2060 bekommen wir eh hinterher geschmissen. Alter² :freak:
Troyan
2018-09-13, 15:15:30
9 weitere Spiele erhalten DLSS Unterstützung: https://www.nvidia.com/en-us/geforce/news/geforce-rtx-dlss-new-games-september-2018/?linkId=100000003471448
DLSS wird das Killerfeature werden. Sollte das wirklich halbwegs funktionieren, muss jeder Entwickler es einbauen lassen.
/edit: Affenjack, die Folie gibt es jetzt auch direkt bei nVidia: https://www.nvidia.com/en-us/geforce/news/geforce-turing-4k-gaming/
dildo4u
2018-09-13, 15:16:34
Gibt es infos ob man dafür das Oktober Win 10 Update braucht?
Troyan
2018-09-13, 15:18:41
Gibt es infos ob man dafür das Oktober Win 10 Update braucht?
Nur für DXR. DLSS benötigt die Call-Aufrufe vom Spiel an den Treiber.
Schnäppchenjäger
2018-09-13, 15:29:11
Wie ich schon vor zwei Wochen gesagt habe, in 6 Monaten interessiert Pascal keiner mehr :PDas denkst aber auch nur du. Auch in 3 Jahren wird Pascal noch interessant sein, viele PCs werden noch damit laufen. Aber das versteht ein Enthusiast ja nicht. Selbst kurz vor Pascal hatten viele noch GPUs im Einsatz, die 2-3 Jahre alt waren.
Lurtz
2018-09-13, 15:37:59
9 weitere Spiele erhalten DLSS Unterstützung: https://www.nvidia.com/en-us/geforce/news/geforce-rtx-dlss-new-games-september-2018/?linkId=100000003471448
DLSS wird das Killerfeature werden. Sollte das wirklich halbwegs funktionieren, muss jeder Entwickler es einbauen lassen.
/edit: Affenjack, die Folie gibt es jetzt auch direkt bei nVidia: https://www.nvidia.com/en-us/geforce/news/geforce-turing-4k-gaming/
Das sind zum Großteil AA-Titel, die freuen sich über die PR. Wenn die Liste aus AAA bestünde, würde ich es vielleicht sogar glauben... Kann genauso gut wieder als Strohfeuer enden.
Troyan
2018-09-13, 15:46:08
Das sind zum Großteil AA-Titel, die freuen sich über die PR. Wenn die Liste aus AAA bestünde, würde ich es vielleicht sogar glauben... Kann genauso gut wieder als Strohfeuer enden.
Naja, SCUM hat 500.000 Verkäufe oder so. :eek:
Klar, kleinere Entwickler werden das mehr nutzen. Aber der PC-Spieler wird die Funktion, sollte sie wirklich so gut klappen, auch von AAA verlangen.
Ex3cut3r
2018-09-13, 15:47:38
spätestens wenn die kommenden spiele mit solchen texturen und qualitätseinstellungen aufwarten, wie FFXV es tut, werde ich mir meine hände reiben und alle auslachen die sich was mit unter 11GB gekauft haben(= 2070 zum preis einer 1080 Ti oder schlimmer 2080) :tongue: weil dann kannste nichtmal in FHD alles anschalten oder auf max stellen :ulol:
Wird nicht passieren, egal wie oft du es noch wiederholst, erstens die gleiche Konsolen Basis, zweitens RTX 2080 Ti und die 1080Ti haben als einzige Modelle 11GB, das macht vlt 5% der User aus. Auch bei FFXV hat mit man mit 8GB keine sehr großen Nachteile und wenn auf das Texturen Paket welches eh keine Unterschied bei den Texturen liefert verzichtet, reichen sogar 5GB VRAM aus.
8 GB reichen dicke bis die neuen Konsolen 2020 oder 2021 erscheinen, erst dann kommt ein Sprung Richtung 16GB VRAM.
Kriton
2018-09-13, 15:49:10
Klar, kleinere Entwickler werden das mehr nutzen. Aber der PC-Spieler wird die Funktion, sollte sie wirklich so gut klappen, auch von AAA verlangen.
Die meisten werden das gar nicht kennen/verstehen.
AffenJack
2018-09-13, 17:00:00
Das sind zum Großteil AA-Titel, die freuen sich über die PR. Wenn die Liste aus AAA bestünde, würde ich es vielleicht sogar glauben... Kann genauso gut wieder als Strohfeuer enden.
Sind fast alles UE4 Games. Da das da schon integriert ist, scheint der Aufwand für den Entwickler minimal. AAA haben ihre eigenen Engines und da wird man sehen müssen, wer das integriert. Frostbite bei Anthem würde mich nicht wundern und dann wäre das ein großer Win, weil man gute Chancen hätte in vielen EA Titeln damit zu landen.
Blediator16
2018-09-13, 17:17:37
Der Thread wäre ertragbarer, wenn man auf Benches wartet und auf die Qualitätstests bei DLSS .
Hauwech
2018-09-13, 17:47:37
Wie wichtig ist für den Einsatz von RT eigentlich der Unterbau, sprich CPU?
Sagen wir mal Spiel XY nutzt 4 Kerne und ich habe einen 8-Kerner im System: Können die "Mehr-Kerne" dann RT auf der Grafikkarte irgendwie "unterstützen" oder eher weniger/gar nicht?
Rampage 2
2018-09-13, 17:55:36
Habe ja gleich gesagt die 2070 könnte interessant werden, für mich klar die rundeste Karte von allen und dazu noch ein Chip wo alles aktiviert ist. Was will man mehr!?
Ich verstehe nur Eines nicht: wenn NV weiterhin auf den "bewährten" 12nm-Prozess setzt, dann können die Yields ja nicht so schlecht sein - warum können sie keinen vollaktivierten TU104 (GTX 2080 mit 48 statt 46 SMs) rausbringen?
Oder hebt man sich eine "GTX 2085" + 16GB VRAM für später auf?? (die RTX 6000 ist ja bereits vollaktiviert...)
zu TU106 bzw. 2070: diese hat nur 3 Raster-Engines - war das bei der 1070 auch so? Diese hatte zwar nur 3 aktive GPCs, aber sie gehörte zu GP104, welcher normalerweise 4 Raster-Engines besaß. Ist bei der 1070 auch die 4. Raster-Engine aktiv?
Und warum ist bei TU106 von 64 ROPs die Rede, obwohl sie nur aus 3 GPCs besteht?
R2
Troyan
2018-09-13, 17:58:55
Wie wichtig ist für den Einsatz von RT eigentlich der Unterbau, sprich CPU?
Sagen wir mal Spiel XY nutzt 4 Kerne und ich habe einen 8-Kerner im System: Können die "Mehr-Kerne" dann RT auf der Grafikkarte irgendwie "unterstützen" oder eher weniger/gar nicht?
Laut DICE wird die CPU Auslastung beim Einsatz von Raytracing erhöht, um einige Berechnungen durchzuführen.
"So, what we have done with our DXR implementation is we go very wide with a lot of cores to offload that work," Holmquist replied. "So we’re likely going to require a higher minimum spec and recommended spec for using RT, and that was the idea from the start. It won’t affect the gameplay performance, but we might need to increase the hardware requirements a little bit. And going wide is the best way for the consumer in this regard because you can have a four-core or six-core machine. It's a little bit easier these days for the consumer to go wide with more threads than have higher clocks."
It sounds like the engine is optimized for six-core CPUs with simultaneous multi-threading but may work well on 4C/8T processors as well.
https://www.tomshardware.com/news/battlefield-v-ray-tracing,37732.html
zu TU106 bzw. 2070: diese hat nur 3 Raster-Engines - war das bei der 1070 auch so? Diese hatte zwar nur 3 aktive GPCs, aber sie gehörte zu GP104, welcher normalerweise 4 Raster-Engines besaß. Ist bei der 1070 auch die 4. Raster-Engine aktiv?
Und warum ist bei TU106 von 64 ROPs die Rede, obwohl sie nur aus 3 GPCs besteht?
R2
Laut nVidia wurde bei GTX1070 immer ein "vollwertiger" GPC deaktiviert. Und die ROPs beziehen sich auf die Speichercontroller, die jeweils 16ROPs unterstützen. Die Pixelleistung wird seit Fermi ja auch durch die GPCs und SM definiert.
pixeljetstream
2018-09-13, 18:08:58
Ja rasterizer etc. ist Teil von GPC. Da ist also kein Unterschied zu 1070…
CPU Mehraufwand ist indirekt, RT selbst ist natürlich GPU, aber es braucht zusätzliche kommandos um die Beschleunigungsstrukturen zu managen, Daten zu transferieren etc.
Es kommen halt paar Buffer und Bindings dazu die gefüttert werden müssen.
Weswegen der Integrationsaufwand definitiv nicht ohne ist.
Rampage 2
2018-09-13, 18:20:09
Ja rasterizer etc. ist Teil von GPC. Da ist also kein Unterschied zu 1070…
Also hat auch die 2070 wieder effektiv nur 48 ROPs? (volle 64 ROPs nur, wenn MSAA oder SSAA eingeschaltet wird)
Und die 2080 hat eine doppelt so hohe Geometrie-/Tesselation-Power wie die 2070, weil sie doppelt so viele Raster-Engines hat? (6 versus 3)
R2
Troyan
2018-09-13, 18:37:22
Nein, die RTX2080 hat doppelte soviele Rasterizer. Die Geometrieeinheiten befinden sich bei Turing in den TPCs. Da hat die RTX2080 nur 33% mehr Leistung.
Rampage 2
2018-09-13, 18:40:43
Nein, die RTX2080 hat doppelte soviele Rasterizer. Die Geometrieeinheiten befinden sich bei Turing in den TPCs. Da hat die RTX2080 nur 33% mehr Leistung.
Hmmm... dann scheine ich die Informationen in den 3DC-News falsch interpretiert zu haben - wofür sind dann die Rasterizer zuständig?
R2
Troyan
2018-09-13, 19:08:14
Seite 13 und 14 erklären die Aufgaben der Geometrie-Einheiten und der Raster-Einheiten: http://www.hardwarebg.com/b4k/files/nvidia_gf100_whitepaper.pdf
Dural
2018-09-13, 19:09:04
Wer sagt den das nv die 2080 abgespeckt bringen muss? Das hat selten mit müssen zu tun, sondern mit können. Gewinnmaximierung nennt sich das.
Die 12nm werden ziemlich sicher relativ rund laufen.
Rampage 2
2018-09-13, 19:44:00
Wer sagt den das nv die 2080 abgespeckt bringen muss? Das hat selten mit müssen zu tun, sondern mit können. Gewinnmaximierung nennt sich das.
Du hältst es also für wahrscheinlich, dass Anfang nächsten Jahres (Q1 oder Q2 2019) noch eine GTX 2085 oder "GTX 2080 Black" mit vollem TU104 nachgereicht wird?
Vermutlich würde NV damit seine Kunden gleich 2x abkassieren - mir ist es recht, solange der volle TU104 bald nachfolgt:P (dann aber hoffentlich gleich mit 16GB VRAM)
Die 12nm werden ziemlich sicher relativ rund laufen.
Tut es das nicht bereits? Volta kam schon letztes Jahr raus und im gleichen Prozess (12nm)...
R2
Dural
2018-09-13, 20:11:18
Nein, da wird so bald sicher nichts kommen, für was auch?
Ex3cut3r
2018-09-13, 20:20:41
Was sollen den +128 Shader Einheiten groß reißen?
Ein TU104 Vollausbau wird nicht kommen, der Vollausbau wird eher für die RTX 5000 mit 8, 16 oder 32GB benutzt.
TurricanM3
2018-09-13, 20:37:50
Also ich finde die Geometrieeinheiten passen nicht zu den Rasterizern, sind eindeutig zu wenig in Bezug auf TU109 und die ROPs gehen mal gar nicht bei der GTX 2085 sobald SGSAAB eingeschaltet wird, dafür sind die Call Aufrufe echt erstaunlich für die dürftige DXR Tensor Cores / SM Leistung. Das gibt bestimmt um 0.045% Mehrleistung. Die Geo-Stage ist aber ein kompletter Witz, das ist ja mit nur 64 SPs pro SM fast schon GS1208 Shader-Cluster Niveau und das bei so viel Level1 Kontrolllogik gepaart mit den Alu Store units?
Ich bin schon meeeeggaa gespannt ob nun 24,67 oder doch 24,66 Transistoren verbaut sind. Gibt's da vielleicht schon Abschätzungen?
https://twitter.com/VideoCardz/status/1040290879628603392
Leaks incoming.
Ex3cut3r
2018-09-13, 20:40:19
@Turri hast du was geraucht? X-D
Swissr
2018-09-13, 21:09:18
Genialer Beitrag Turri, pass bloss auf, dass das niemand als Zitat in seine Signatur schreibt ;D
Also ich finde die Geometrieeinheiten passen nicht zu den Rasterizern, sind eindeutig zu wenig in Bezug auf TU109 und die ROPs gehen mal gar nicht bei der GTX 2085 sobald SGSAAB eingeschaltet wird, dafür sind die Call Aufrufe echt erstaunlich für die dürftige DXR Tensor Cores / SM Leistung. Das gibt bestimmt um 0.045% Mehrleistung. Die Geo-Stage ist aber ein kompletter Witz, das ist ja mit nur 64 SPs pro SM fast schon GS1208 Shader-Cluster Niveau und das bei so viel Level1 Kontrolllogik gepaart mit den Alu Store units?
Ich bin schon meeeeggaa gespannt ob nun 24,67 oder doch 24,66 Transistoren verbaut sind. Gibt's da vielleicht schon Abschätzungen?
https://twitter.com/VideoCardz/status/1040290879628603392
Leaks incoming.
Wie, immer noch keine Treiber? Wie gut, dass das 'ne uralte Architektur ist, die man mal schnell zwischen 12 und Mittag durchtesten kann, ist ja alles bekannt und kein Ding. :uup: Und generell ist die Bereitstellung vor einem Wochenende, um dann mit "Das sind doch zwei volle Tage!" argumentieren zu können, echt clever.
MfG,
Raff
Godmode
2018-09-13, 21:29:00
Wie, immer noch keine Treiber? Wie gut, dass das 'ne uralte Architektur ist, die man mal schnell zwischen 12 und Mittag durchtesten kann, ist ja alles bekannt. :uup:
MfG,
Raff
Durchn 3DMark jagen werden die Leaker schon schaffen. :freak:
@Turri:
Der Beitrag könnte von einem Ex-Member sein, der Probleme mit Satzzeichen hatte. Sorry fürs Mobbing. :):);)
Daredevil
2018-09-13, 21:32:16
Wie, immer noch keine Treiber? Wie gut, dass das 'ne uralte Architektur ist, die man mal schnell zwischen 12 und Mittag durchtesten kann, ist ja alles bekannt und kein Ding. :uup: Und generell ist die Bereitstellung vor einem Wochenende, um dann mit "Das sind doch zwei volle Tage!" argumentieren zu können, echt clever.
MfG,
Raff
So ne schöne 48h Benchmark LAN mit Pizza und Kikos im Büro, stell ich mir lustig vor. Sucht ihr noch Leute? :D
Caseking hat heute schon Karten bekommen, zumindest gabs nen Lagershot von der8auer.
vBulletin®, Copyright ©2000-2025, Jelsoft Enterprises Ltd.