Anmelden

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 [40] 41 42 43 44 45 46 47 48

Armaq
2018-10-03, 14:17:33
in anbetracht der tatsache das es nahezu linear mit dem speichertakt auch mit den frames nach oben geht bei meiner 1080Ti, die 2080Ti 30% schneller ist, aber nur 10% mehr bandbreite hat als jetzt meine zb. als max. wird sie wohl derbe verhungern, genau wie es schon die 1080Ti tat. bei der 2080 dürfte es sogar noch ausgeprägter sein, gleiche leistung wie die 1080Ti aber nur 448GB/s...
Das wäre ja meine Vermutung. Vll. kommt sogar noch ne 2080 Reloaded mit massiv mehr Bandbreite?

Dural
2018-10-03, 14:52:16
Ich sage es ja schon lange, die 2070 ist die einzig runde Karte ;)

SKYNET
2018-10-03, 15:53:54
Ich sage es ja schon lange, die 2070 ist die einzig runde Karte ;)

zumindest hat die, die passende bandbreite für die GPU... :ulol: dafür isse wohl nichtmal in 1440p mit allen reglern auf rechts zu gebrauchen ;D

Ex3cut3r
2018-10-03, 22:44:18
zumindest hat die, die passende bandbreite für die GPU... :ulol: dafür isse wohl nichtmal in 1440p mit allen reglern auf rechts zu gebrauchen ;D

ja natürlich, genau. Stimmt, mit GTX 1080 Leistung kann man nicht mehr spielen, wie spielen Leute eigentlich nur mit einer 1070er oder sogar RX 580er? Mein Gott, diese armen Schweine? Sag mal, glaubst du eigentlich selber diesen Scheiß den du da faselst? Lass dir mal vlt. Psychlogisch helfen? Ich wurde dir ein RTX Hass Syndrom Diagnostizieren

SKYNET
2018-10-03, 23:49:20
ja natürlich, genau. Stimmt, mit GTX 1080 Leistung kann man nicht mehr spielen, wie spielen Leute eigentlich nur mit einer 1070er oder sogar RX 580er? Mein Gott, diese armen Schweine? Sag mal, glaubst du eigentlich selber diesen Scheiß den du da faselst? Lass dir mal vlt. Psychlogisch helfen? Ich wurde dir ein RTX Hass Syndrom Diagnostizieren


das probiere doch mal mit ner 1080 in 1440p SotTR zu spielen wenn alles auf max steht ;D

mit smaat2x sind wir dann bei unter 50fps durchschnittsframes :biggrin:

BlacKi
2018-10-03, 23:52:26
Ich wurde dir ein RTX Hass Syndrom Diagnostizieren
schön formuliert.


bin gespannt was die leute in einem halben jahr sagen ausser : ehm ehm

achja, nv ist böse macht die konkurenz kaputt.

2 sätze später aber freesync ist billiger.

einfach wtf was hier im forum abgeht.

Ex3cut3r
2018-10-04, 00:28:37
das probiere doch mal mit ner 1080 in 1440p SotTR zu spielen wenn alles auf max steht ;D

mit smaat2x sind wir dann bei unter 50fps durchschnittsframes :biggrin:

Nein? Na sowas, das ist ja schlimm, wie kann man nur....mit 50 FPS spielen...Weltuntergang, Konsoleros spielen meistens mit 30 FPS only. Wie gesagt, hör auf zu trollen.

Effe
2018-10-04, 00:34:12
Ignorierliste: Syknet
Ist die kaputt?

Armaq
2018-10-04, 00:35:42
Im Gegensatz zu skynet meinte ich das nicht trollig. Ich denke wirklich, dass ne 2080 ggf viel mehr Bandbreite brauchen könnte. Es ist mir leider nicht möglich nen HBM Stack zu verlöten und ein Kartenbios samit Treiber zu schreiben, das wäre interessant.

SKYNET
2018-10-04, 00:59:38
Nein? Na sowas, das ist ja schlimm, wie kann man nur....mit 50 FPS spielen...Weltuntergang, Konsoleros spielen meistens mit 30 FPS only. Wie gesagt, hör auf zu trollen.

was ja total klasse ist, grad in den schnellen szenen... :freak:

aber wenn dir 30fps langen, warum hast dann ne turing gekauft? :rolleyes:

reaperrr
2018-10-04, 03:41:14
das probiere doch mal mit ner 1080 in 1440p SotTR zu spielen wenn alles auf max steht ;D

mit smaat2x sind wir dann bei unter 50fps durchschnittsframes :biggrin:
:freak:

Es gibt Leute, denen reichen 35-40 fps locker, solange die Frametimes halbwegs stabil sind :smile:
Mal ganz abgesehen davon, dass es auch Leute gibt die keine Minderwertigkeitskomplexe bekommen, wenn nicht alles auf Max steht :wink:

Die 2070 dürfte bei gleichem Takt jedenfalls dank identischer Bandbreite und ROPs häufig bei ~85% der 2080 rauskommen, das wäre relativ mittig zwischen 1080 und 1080 Ti. Mit OC könnte sie relativ nah an die 1080Ti/2080 rankommen.

Rampage 2
2018-10-04, 07:14:21
Die 2070 dürfte bei gleichem Takt jedenfalls dank identischer Bandbreite und ROPs häufig bei ~85% der 2080 rauskommen, das wäre relativ mittig zwischen 1080 und 1080 Ti. Mit OC könnte sie relativ nah an die 1080Ti/2080 rankommen.

Leider nicht; die 2070 hat effektiv nur 48 ROPs (da nur 3 GPCs) - sie kann also nur 48 der insgesamt 64 ROPs für Pixelberechnungen beanspruchen. D.h. sowohl 2080 als auch 1080 haben eine 33% höhere Pixel-Füllrate als die 2070. Nur (?) wenn MSAA/SSAA* dazugeschaltet wird, werden alle 64 ROPs beansprucht. Außerdem haben 2080 bzw. 1080 auch eine 27,8% bzw. 11,1% höhere Texturierleistung (Texel-Füllrate) als die 2070...


Dazu hätte ich aber noch ein paar Fragen:

1.) Ist das nur bei AA der Fall oder können auch unter anderen Bedingungen alle 64 ROPs angesteuert werden?

2.) Welche Grafik-Workloads fressen Pixel-Füllrate? Mir kommen da Schatten, Rauch, volumerische Effekte und Beleuchtung in den Sinn - hoffe, dass das jetzt kein Unsinn ist;)

* = stimmt diese Behauptung? Gilt das auch für SSAA, OGSSAA/DS und TrSSAA/SGSSAA oder doch "nur" für MSAA? Bis jetzt war immer nur von MSAA die Rede...

R2

mczak
2018-10-04, 07:56:57
Leider nicht; die 2070 hat effektiv nur 48 ROPs (da nur 3 GPCs) - sie kann also nur 48 der insgesamt 64 ROPs für Pixelberechnungen beanspruchen. D.h. sowohl 2080 als auch 1080 haben eine 33% höhere Pixel-Füllrate als die 2070.

Das ist so nicht richtig es werden alle 64 ROPs benutzt. Richtig ist hingegen dass der effektive Pixeldurchsatz nicht mehr als 48 Pixel/Takt sein kann.
Aber alles was mehr als 1 Takt braucht in den ROPs profitiert davon direkt, dazu gehört z.B. auch 4x32bit blend.
Ausserdem hängt von den ROPs auch interne (L2) Bandbreite ab, mehr ROPs sind also sicher nützlich - ich schätze mal 3x16 Pixel Rasterization sind nicht wirklich eine grosse Einschränkung. Ist ja jetzt auch nicht der totale ROP-Overkill wie z.B. bei GF106 (der hatte 24 ROPs bei maximal 8 Pixel/Takt...).

Dural
2018-10-04, 08:29:20
Ich spiele gerade SotTR in 4k alles max mit einer 1080fe. Und ich bin erstaunt wie gut es läuft! 60fps sind schön, braucht man in dem game aber definitiv nicht. Selbst in der workstation mit einer 1060 läuft alles max in 1080p gut spielbar.

SKYNET
2018-10-04, 10:10:36
:freak:

Es gibt Leute, denen reichen 35-40 fps locker, solange die Frametimes halbwegs stabil sind :smile:
Mal ganz abgesehen davon, dass es auch Leute gibt die keine Minderwertigkeitskomplexe bekommen, wenn nicht alles auf Max steht :wink:

Die 2070 dürfte bei gleichem Takt jedenfalls dank identischer Bandbreite und ROPs häufig bei ~85% der 2080 rauskommen, das wäre relativ mittig zwischen 1080 und 1080 Ti. Mit OC könnte sie relativ nah an die 1080Ti/2080 rankommen.


also grade die fluchtszene aus dem tempel vor den "bewachern" wären mir 30fps definitiv zu wenig, sehr schnelle stelle im spiel... gleiches bei der ölraffinerie. :wink:

Pitman
2018-10-04, 10:20:30
also grade die fluchtszene aus dem tempel vor den "bewachern" wären mir 30fps definitiv zu wenig, sehr schnelle stelle im spiel... gleiches bei der ölraffinerie. :wink:

Genau für diese 2 Stellen werde ich dann mal eben 1000 Euro für eine 2080Ti ausgeben.

SKYNET
2018-10-04, 10:57:55
Genau für diese 2 Stellen werde ich dann mal eben 1000 Euro für eine 2080Ti ausgeben.

nö, 650€ für ne 1080Ti :tongue:

Dural
2018-10-04, 11:05:13
Du widersprichst dich gleich selbst, den auch eine 1080Ti ist nach deinen Vorstellungen und angaben zu langsam ;)

yamo
2018-10-04, 11:22:49
EVGA listet eine neue Ti:
https://eu.evga.com/products/product.aspx?pn=11G-P4-2282-KR

mit deutlich niedrigerem Boost.
Edit: Website nicht mehr erreichbar.....

Nun, waren ca.1249€ für die Billigversion. Die hätte ich gerne mit WaKü+KFA² Bios getestet :freak:

SKYNET
2018-10-04, 11:31:36
Du widersprichst dich gleich selbst, den auch eine 1080Ti ist nach deinen Vorstellungen und angaben zu langsam ;)

ausgehend von den minimalframes bei meinen settigs und auflösung, und 70fps als minimum kann man ca. 20% davon abziehen und hat dann ca. die frames in 1440p = 56fps... da es tatsächlich nur eine szene war bisher, und auch eher keine aktiongeladene, sollte das ausreichend sein... achja, karte lief auf defaulttakt... mit OC garantiert über 60fps auch in der szene :wink:

ne 1080Ti ist halt "nur" eine 1440p karte... zumindest in aktuellen titeln wenn man alles auf max setzt.

Fliwatut
2018-10-04, 11:43:13
mit deutlich niedrigerem Boost.
Das ist dann wahrscheinlich die GPU ohne "A", diese Karte wird auch als Stepup-Modell angeboten. Da bin ich doch froh, dass ich das nicht gemacht habe.

gnomi
2018-10-06, 12:30:56
Beim neuen Tomb Raider ist man mit der 1080 OC schon noch super unterwegs.
Okay, man könnte schon eventuell etwas von den maximierten Einstellungen runter gehen ab 1440P.
Besonders ohne GSync und für absolut glatte Frametimes.
Etwas über 60 fps sind aber im Schnitt vorhanden.
Für 4K muss man etwa auf High für so eine Bildrate.
Das ist doch ein super Wert.
Wer bspw. auf der Xbox One X (dalso der stärksten Heimkonsole) in 4k spielt, bekommt keine glatten 30 fps, und trotzdem werden die meisten imho diesen Modus statt den sehr glatten 60 fps Full HD Modus nehmen.
Turing ist noch mehr High End, aber man sollte denke ich seine Ansprüche auch mal erden und ins Verhältnis setzen.
Sonst weiß man gar nichts mehr wertzuschätzen. :wink:

Troyan
2018-10-11, 17:27:51
MSI hat schonmal ein paar ihrer RTX2070 Karten offiziell angekündigt: https://www.hardwareinside.de/msi-stellt-nvidia-geforce-rtx-2070-grafikkarten-im-custom-design-vor-36744/

Die günstigeren Versionen sollen direkt zum Start für 519€ kommen...

BigKid
2018-10-12, 12:26:28
Turing ist noch mehr High End, aber man sollte denke ich seine Ansprüche auch mal erden und ins Verhältnis setzen.
Sonst weiß man gar nichts mehr wertzuschätzen. :wink:
Genau... Wenn die Industrie immer weniger Mehrwert zu immer höheren Preisen liefert - dann muss man einfach nur seine Erwartungen und Ansprüche runterschrauben...
Frei nach dem Spruch: Es ist nicht das Leben, das dir Kummer bereitet sondern es ist deine Art und Weise wie du auf das Leben reagierst.
Und weil Turing nun nicht mehr High End ist sonder quasi Higher End - ist das schon in Ordnung. Und nächstes Jahr gibts dann Highest End...
500 Euro für ne 70er Karte... Das hättest du mal vor 2 Jahren bringen müssen...
Ha... Aber das macht ja nix - dank fairer Beteiligung der Mitarbeiter an den gestiegenen Gewinnen hat sich ja auch das Gehalt in der selben Zeit um 50% gesteigert... Geht also voll in Ordnung...

basix
2018-10-12, 13:03:26
Ich bin jetzt von einer 980 Ti auf eine 2080 Ti umgestiegen. Also der Unterschied zwischen 60fps und 120fps ist bei fast allen Games sehr stark zu spüren. Es gibt schon Games, wo bei guten Frametimes auch 40fps noch knapp OK sind/waren (z.B. Crysis 1), doch die höhere FPS spürt man trotzdem sehr gut, vor allem bezüglich Eingabelatenz / Spielgefühl.

Zudem: Dort wo die 980 Ti 30-40fps hatte bin ich jetzt bei 80fps (alles 1440p). Oftmals komme ich aber sogar in mein 117fps Framelimit :freak:

Grundsätzlich hat es sich gelohnt, doch ich bin glaube ich so ein bisschen vom "Enthusiastentum" geheilt. Weil sooo extrem ist der Unterschied nämlich nicht, wenn man bedenkt, dass man für 2x den Preis 2x Performance erhält und das fast 3 Jahre später. Habe mir eigentlich vorgenommen auf 7nm zu warten. Aber man lebt nur einmal, und ich wollte schon länger was schnelleres :D Ausserdem ist Turing mit Tensor-/RT-Cores, GDDR6, stark verbesserter Compute-Leistung, riesigem Chip und ausladendem PCB-Design (bin Elektro-Ingenieur) ein sehr interessantes Stück Technik. Pascal war hier bei weitem nicht so spannend. Da ich bis zurück zur X850XT PE / 6800 Ultra eigentlich alle Meilensteine der GPU-Geschichte beider GPU-Hersteller besitze (mit Ausnahme von einer grossen Pascal Karte und Vega) passt die RTX 2080 Ti ganz gut in die Sammlung ;)

Leonidas
2018-10-14, 09:36:24
Möglicher Turing Midrange-Chip:
https://www.3dcenter.org/news/turing-basierter-midrange-grafikchip-zeigt-sich-nvidias-automobil-loesung-drive-agx-pegasus

TimeSpy-Benchmark einer RTX 2070:
https://www.3dcenter.org/news/erster-timespy-wert-zur-geforce-rtx-2070-zeigt-ein-performance-niveau-zwischen-geforce-gtx-1080

dildo4u
2018-10-15, 13:38:19
Hardocp RTX 2070 Gaming z Review


https://m.hardocp.com/article/2018/10/14/msi_geforce_rtx_2070_gaming_z_performance_review

Ravenhearth
2018-10-15, 16:20:39
Die RTX 2070 ist die einzige Turing-Karte, die preislich in Ordnung geht. Etwas schneller als die GTX 1080 bei einem wenig höheren Preis und gleicher Speichermenge, mit dem Versprechen von DLSS und Raytracing. Das reicht nicht, um von der GTX 1080 zu upgraden, aber für Neukäufer ersetzt die RTX 2070 somit die GTX 1080.

HOT
2018-10-15, 16:24:20
RT kann man aus der Rechnung glaub ich getrost rausstreichen, denn das Teil wird mit Sicherheit deutlich zu langsam sein, wenn man von den Leuchtturmspielen absieht und evtl. spätere Titel betrachtet. Ansonsten ist das das in der Tat das interessanteste Produkt. DLSS hingegen ist genau für die Karte ein sehr interessantes Feature, weil man wirklich fordernde Titel damit auch auf einem 4k-Monitor nutzen kann.

Ich würd mir wünschen, dass MS sich damit ebenfalls beschäftigt und einen offenen Standard mit dieser Upsamplingtechnologie bringt (die Cloudkapazität dafür haben die ja), damit auch AMD und Intel-Besitzer flächendeckend davon profitieren können und nicht nur verhältnismäßig wenige Spiele davon profitieren sondern alle. Wahrscheinlich arbeitet MS sogar an sowas für die nächste XBox - nichts ist wichtiger als Rechenleistung an der Konsole flächendeckend einzusparen.

Hakim
2018-10-15, 16:26:57
Für 1060 und 1070 Besitzer schon eine Überlegung wert. Preis geht hoffentlich auch etwas runter nach etwas Zeit.

Dural
2018-10-15, 16:47:36
Find es interessant das alle davon ausgehen das Turing für RT zu langsam ist obwohl bis heute kein einziges Spiel mit RT erhältlich ist. :wink:
Ich habe es schon mal gesagt, RT kann man wunderbar Skalieren. Aber in jedem Forum wird rauf und runter geschrieben das es nur mit der 2080Ti halbwegs vernünftig läuft und nicht mal da gut.

In der Theorie müsste RT auf Turing ja praktisch für Free sein wenn man es nicht übertreibt, weil es ja über separate Einheiten berechnet wird. Ich befürchte aber fast dass die Software Umsetzung, gerade am Anfang extrem mangelhaft sein wird. :rolleyes:

HOT
2018-10-15, 16:48:51
Da es kein reines RT wird, bremst eine Überlastung der RT-Einheiten die Framerate aus. Wenn das Bild zu langsam wird musst halt weniger RT machen und das wiederum kann für unterirdische Qualität sorgen. Das ist keine Softwareoptimierung sondern eine Contentoptimierung, damit das nicht scheisse aussieht oder eben nur mit 20FPS läuft. Das ist auch der Grund warum das erst mal krachend scheitern wird. In 5 Jahren können wir nochmal darüber sprechen.

Dural
2018-10-15, 16:52:56
Ja das ist ja das was ich sage, die Entwickler müssen für jede Karte einen vernünftigen Mittelweg finden.

Oder man macht praktisch einen RT Schieber oder ein On/Off Schalter ins Menü wo man die einzelnen Effekte regulieren kann.

HOT
2018-10-15, 16:56:49
So ein Schieber wär gar keine doofe Idee. Aber ich glaube es wäre sinnvoller die Recheneinheiten zu universalisieren, damit das Balancing auf der Grafikkarte von alleine läuft, als diese 3 dedizierten Rechenblöcke. Ist leider nicht so einfach, aber anders wirds nicht gehen. Und wenn es nicht geht, wars das eh für RT jetzt schon. Dann wird das Nische und fertig.

Ravenhearth
2018-10-15, 16:59:50
RT kann man aus der Rechnung glaub ich getrost rausstreichen, denn das Teil wird mit Sicherheit deutlich zu langsam sein, wenn man von den Leuchtturmspielen absieht und evtl. spätere Titel betrachtet. Ansonsten ist das das in der Tat das interessanteste Produkt. DLSS hingegen ist genau für die Karte ein sehr interessantes Feature, weil man wirklich fordernde Titel damit auch auf einem 4k-Monitor nutzen kann.

Ich würd mir wünschen, dass MS sich damit ebenfalls beschäftigt und einen offenen Standard mit dieser Upsamplingtechnologie bringt (die Cloudkapazität dafür haben die ja), damit auch AMD und Intel-Besitzer flächendeckend davon profitieren können und nicht nur verhältnismäßig wenige Spiele davon profitieren sondern alle. Wahrscheinlich arbeitet MS sogar an sowas für die nächste XBox - nichts ist wichtiger als Rechenleistung an der Konsole flächendeckend einzusparen.
Ja, es macht eigentlich keinen Sinn, auf der Konsole 4K auf Biegen und Brechen nativ zu berechnen, wenn man einen ganz ähnlichen Bildeindruck auch mit weniger Leistungseinsatz hinkriegt und die gesparte Leistung in Grafik investiert. Ich hoffe auch, dass Sony für die PS5 Checkerboard Rendering oder was auch immer weiter verbessert.

Hinsichtlich DLSS fände ich eine Lösung reizend, die so gut/"intelligent" ist, dass sie gar nicht mehr für ein Spiel spezifisch trainiert werden muss, sondern im Idealfall einfach über den Grafiktreiber zugeschaltet werden kann. Das wäre natürlich das Optimum.

Für 1060 und 1070 Besitzer schon eine Überlegung wert. Preis geht hoffentlich auch etwas runter nach etwas Zeit.
Ich bin mir nicht sicher, ob GTX 1060/1070-Käufer statt 250€ oder 400€ glatt 500€ oder mehr für eine Karte ausgeben. Insbesondere erstere. Irgendwo hat jeder seine persönliche Grenze für sowas.

Geächteter
2018-10-15, 17:23:48
Ich habe es schon mal gesagt, RT kann man wunderbar Skalieren. Aber in jedem Forum wird rauf und runter geschrieben das es nur mit der 2080Ti halbwegs vernünftig läuft und nicht mal da gut.

Was will man z. B. an Spiegelungen vernünftig skalieren? Man kann am LOD drehen, wann die Spiegelungen zu sehen sind, was für irritierendes Blinki-Blinki sorgt. Afaik hat das auch die PCGH bei der BF V-Demo moniert. Also muss schon für ne Ti "optimiert" werden.
Dann kann man an der Auflösung, der Frequenz und dem LOD der Spiegelung selber drehen, wird aber wohl schnell hässlicher/irritierender werden als konventionelle Lösungen.
Man braucht einfach viel mehr Power, um das was Vernünftiges auf die Beine zu stellen. Und da der neue Fertigungsprozess wohl noch bis 2020 warten muss, dann die Mainstreamkarten immer noch zu lahm dafür sind und man auf den übernächsten Fertigungsprozess vielleicht noch länger warten muss, sehe ich ich da eher schwarz für zufriedenstellendes RT.

Mr.Bug
2018-10-15, 17:38:05
Ich gehörte zur Zielgruppe der x70er-Reihe, aber diese unverschämte Abzocke bei Turing kann sich Jen-Hsun Huang gern an jenen dunklen Ort schieben, wo seine Lederjacke keinen Platz mehr findet. 639 Taler für eine FE-Edition der 2070, da zahlst selbst als Optimist bei Custom-Lösungen später locker 550. Und da ist meine persönliche Schmerzgrenze für ein schnödes Stück Grafikhardware erreicht.

Man muss sich doch bei Nvidia mittlerweile wirklich lachend auf die Schenkel klopfen, wieviel Bares sich aus der Gamingcommunity so herauspressen lässt...

Dural
2018-10-15, 18:03:57
In den man nicht alles Spiegelt? Oder die Qualität der Spiegelung runter nimmt? TR soll ja nur RT für die Schatten verwenden, das wäre dann der andere Weg wenn man halt nur einen Teil mit RT macht.

Das ganze ist halt ultra komplex und es wird sicher seinen Zeit dauern bis sich die Entwickler einig sind was sie wollen, gut und vernünftig ist ;)

basix
2018-10-15, 18:13:21
Spiegelungen sind doch nur ein kleiner Teil. Eigentlich streut, reflektiert und absorbiert alles. Und mit RT hat man entsprechend eine Technologie, die das berechnen kann. Es gibt heute noch viele Beispiele von Spielen, wo die Beleuchtung einfach sehr weit weg ist von den (grafisch) besten Spielen. Mit RT sollte die durchschnittliche Qualität näher zusammenrücken, zumindest erhoffe ich mir das. Einfach weil das Ergebnis bei entsprechendem Engine-Unterbau konsistenter und robuster ist und man nicht manuell die Beleuchting mit Fake-Lights, Shadow-Maps etc. pimpen muss. Weil genau diese Optimierungen können sich vor allem kleinere oder finanzschwache Studios nicht leisten (ergo schlechte Beleuchtung) oder das Ergebnis ist schrecklich von der Performance her (da keine Zeit zum optimieren).

Ravenhearth
2018-10-15, 18:18:07
Um die komplette Beleuchtung inkl. GI, Schatten, AO und Reflexionen durch Raytracing zu ersetzen, muss die Hardware aber um ein vielfaches schneller werden. Das wird noch lange dauern. Deswegen sind aktuell nur einzelne Effekte möglich, und die ziehen schon massiv Performance.

Ex3cut3r
2018-10-15, 18:26:21
Bin von der 1070 auf die RTX 2080 gewechselt, habe 520€ bezahlt, spiele in 3440x1440. War die beste Entscheidung seit langem. :smile: Läuft mittlerweile UV mit 1900mhz, und verbraucht nur 200W (an der Steckdose gemessen) und erreicht mehr Leistung als eine 1080Ti FE. Dazu sind die 200W leicht und leise wegkühlbar. :)

HisN
2018-10-15, 18:29:00
Hauptsache es geht überhaupt mal los.
Egal wie lange es noch dauern wird. Schön das erste Schritte getan werden.

basix
2018-10-15, 18:38:16
Um die komplette Beleuchtung inkl. GI, Schatten, AO und Reflexionen durch Raytracing zu ersetzen, muss die Hardware aber um ein vielfaches schneller werden. Das wird noch lange dauern. Deswegen sind aktuell nur einzelne Effekte möglich, und die ziehen schon massiv Performance.

Absolut klar. Geht nicht von heute auf morgen.

Hauptsache es geht überhaupt mal los.
Egal wie lange es noch dauern wird. Schön das erste Schritte getan werden.

Genau das. Man muss mal anfangen. Ich hoffe einfach, dass die nächsten Konsolen RT ebenfalls unterstützen werden. Nicht zu 100% (wie gesagt: Performance reicht nicht für alles) aber dass RT mal bei den Game-Entwicklern ankommt. Sonst sind wir mindestens noch einen weiteren Konsolenzylus bei bisherigen Beleuchtungstechniken. Eigentlich die grösste Frage ist: Sinkt durch RT der Aufwand der Game-Entwickler? Wenn ja, wird es von alleine kommen. Problem: Man muss am Anfang wohl zwei Pfade mit und ohne RT fahren, ansonsten bricht am PC die Zielgruppe mangels passender HW weg. Einziger Ausweg: Konsolen unterstützen es. Dann ist auf einen einzigen Schlag die entsprechende HW-Basis da. Wenn die HW am PC (Turing, und Navi?) es dann ebenfalls schon unterstützt, noch besser. Danach kann es in 2 Jahren bei Release der neuen Konsolen aussehen. Wer Turing und Navi(?) hat, ist schon ausgerüstet. Wer Pascal und Vega oder älter hat, wird sowieso langsam aufrüsten müssen, da 3-4 Jahre alte HW. Natürlich nicht schön, wenn einem die Performance ansonsten noch reichen würde oder man gerade kein Geld dafür vorrätig hat. Aber eine Grafikkarte nach so einer Zeitdauer zu ersetzen finde ich jetzt nicht allzu tragisch.

gravitationsfeld
2018-10-15, 20:22:14
Ich glaube immer noch, dass Raytracing was die Bildqualitaet angeht am Ende massiv ueberschaetzt wird. PBR war ein viel signifikanterer Schritt.

Digidi
2018-10-15, 20:25:11
Was ist PBR?

Armaq
2018-10-15, 20:34:16
physical based rendering

pixeljetstream
2018-10-15, 20:56:54
Ich glaube immer noch, dass Raytracing was die Bildqualitaet angeht am Ende massiv ueberschaetzt wird. PBR war ein viel signifikanterer Schritt.
Kommt drauf an wo das "Ende" ist (einfach Mal alte toy story gegen neue ;) ). Imo wird es für die Anfangsjahre hart. Sieht man ja an der Masse der Leute die nicht so impressed sind. Seit PBR und ein paar gut getricksten Reflexionen ist das was man gewöhnt ist schon recht hübsch (Geometrie LoD und shader aliasing Artefakte stören mich persönlich viel mehr). Aber als end-game für die Beleuchtung machen beschleunigte räumliche Datenstrukturen schon Sinn. Früh anfangen um das später mit der Geometrieflut in Einklang zu bringen.

HOT
2018-10-15, 21:05:47
[...]
Genau das. Man muss mal anfangen. Ich hoffe einfach, dass die nächsten Konsolen RT ebenfalls unterstützen werden. Nicht zu 100% (wie gesagt: Performance reicht nicht für alles) aber dass RT mal bei den Game-Entwicklern ankommt. Sonst sind wir mindestens noch einen weiteren Konsolenzylus bei bisherigen Beleuchtungstechniken. Eigentlich die grösste Frage ist: Sinkt durch RT der Aufwand der Game-Entwickler? Wenn ja, wird es von alleine kommen. Problem: Man muss am Anfang wohl zwei Pfade mit und ohne RT fahren, ansonsten bricht am PC die Zielgruppe mangels passender HW weg. Einziger Ausweg: Konsolen unterstützen es. Dann ist auf einen einzigen Schlag die entsprechende HW-Basis da. Wenn die HW am PC (Turing, und Navi?) es dann ebenfalls schon unterstützt, noch besser. Danach kann es in 2 Jahren bei Release der neuen Konsolen aussehen. Wer Turing und Navi(?) hat, ist schon ausgerüstet. Wer Pascal und Vega oder älter hat, wird sowieso langsam aufrüsten müssen, da 3-4 Jahre alte HW. Natürlich nicht schön, wenn einem die Performance ansonsten noch reichen würde oder man gerade kein Geld dafür vorrätig hat. Aber eine Grafikkarte nach so einer Zeitdauer zu ersetzen finde ich jetzt nicht allzu tragisch.


Vollkommen illusorisch. Die Konsolen werden zu 99,99999% kein RT mitbekommen. Das Upscaling hingegen und "Tensorcores" für DL hingegen ist ne andere Geschichte. Das könnt ich mir durchaus vorstellen. Ob die übernächste Generation (also nach PS5/Scarlett + deren Refreshes) RT mitbekommt wird davon abhängen, wie sich das überhaupt bewährt hat und ob es dann gut integrierbar ist.

Hauptsache es geht überhaupt mal los.
Egal wie lange es noch dauern wird. Schön das erste Schritte getan werden.

Das ist ja schön und gut, aber man sollte sich mal fragen, wie sinnvoll das Ganze eigentlich ist. Wollen wird perfekt dargestellte Licht/Schatten oder ist künstlerische Freiheit hier doch wichtiger? Ich verstehe durchaus, warum gravitationsfeld das so kritisch sieht. RT könnte durchaus für ne gewisse Sterilität sorgen, wo man mit klassichem Rendering viel tiefer in die Trickkiste greifen kann. Das ist eine Technologie, die überhaupt erst beweisen muss, dass sie ein echter Gewinn ist - optisch, von der Peformance her und mit der Praktikabilität. Nichtsdesto trotz ist es natürlich schön, dass da mal jemand überhaupt Hardware wagt.

Ravenhearth
2018-10-15, 21:16:26
Verringert RT denn überhaupt die künstlerische Freiheit? Wer will, kann doch sicher immer noch "manipulieren" und es nach Belieben konfigurieren.

basix
2018-10-15, 21:30:32
Ich glaube immer noch, dass Raytracing was die Bildqualitaet angeht am Ende massiv ueberschaetzt wird. PBR war ein viel signifikanterer Schritt.

Man kann auch ohne Raytracing sehr gute Grafik erzeugen, das ist keine Frage. Nur an einigen Stellen wie GI und Reflektionen ist RT einfach deutlich überlegen. Klar, mit genug Aufwand ist es auch ohne RT "genug" hübsch. Aber man findet überall in den Gamewelten Stellen, wo es dann nicht mehr ganz so hübsch aussieht, weil sozusagen "vergessen" wurde hier dann doch noch eine zusätzliche Lichtquelle einzufügen. Das wäre mit RT vermutlich konsistenter. Ausserdem gibt es Effeke vie HBAO welche mir persönlich noch nie gut gefallen haben, da an vielen Stellen einfach unrealistisch und schlecht ausgeleuchtet / verschattet. Da sieht die RT Version davon deutlich akkurater aus.

Das Modell Hybrid Raster-RT ist meiner Meinung nach ja perfekt. Dort wo RT besser / überlegen ist kann und soll man es nutzen. Sonst halt nicht. Den RT Overkill will ja niemand haben, ähnlich wie bei Tesseslation. Sinnvoll eingesetzt ist der Weg den man gehen soll.

pixeljetstream
2018-10-15, 21:34:26
Das ist eine Technologie, die überhaupt erst beweisen muss, dass sie ein echter Gewinn ist - optisch, von der Peformance her und mit der Praktikabilität. Nichtsdesto trotz ist es natürlich schön, dass da mal jemand überhaupt Hardware wagt.
Die Filmindustrie hat diesen Schritt schon hinter sich (zum Thema Optik und Tricks etc.). Natürlich andere Performance Maßstäbe, aber die Zahlen auch Geld pro Bild ;)

Armaq
2018-10-15, 21:46:30
Die Filmindustrie hat diesen Schritt schon hinter sich (zum Thema Optik und Tricks etc.). Natürlich andere Performance Maßstäbe, aber die Zahlen auch Geld pro Bild ;)
realtime sind aber andere Maßstäbe. FPS/EUR ist ggf. für Echtzeit noch ein recht früher Schritt. Da gibt es sich keinen perfekten Zeitpunkt im Henne/Ei Vergleich, aber besser als überhastet gibt es.

Pitman
2018-10-15, 22:08:58
Eins versteh ich nicht. Warum bringt man nicht einfach eine gtx1080 DDR6 heraus ? Wäre schneller als die rx 2070 und mit geringerem Aufwand umzusetzen. Oder ?

Andi_669
2018-10-15, 22:11:51
Eins versteh ich nicht. Warum bringt man nicht einfach eine gtx1080 DDR6 heraus ? Wäre schneller als die rx 2070 und mit geringerem Aufwand umzusetzen. Oder ?
weil die dann das tolle RT nicht hätte :freak:

RLZ
2018-10-15, 23:10:02
weil die dann das tolle RT nicht hätte :freak:
Stattdessen könnte man den AO Regler eins weiter nach rechts drehen. Schon ein schlimmer Verlust :freak:

gravitationsfeld
2018-10-15, 23:34:53
Kommt drauf an wo das "Ende" ist (einfach Mal alte toy story gegen neue ;) ). Imo wird es für die Anfangsjahre hart. Sieht man ja an der Masse der Leute die nicht so impressed sind. Seit PBR und ein paar gut getricksten Reflexionen ist das was man gewöhnt ist schon recht hübsch (Geometrie LoD und shader aliasing Artefakte stören mich persönlich viel mehr). Aber als end-game für die Beleuchtung machen beschleunigte räumliche Datenstrukturen schon Sinn. Früh anfangen um das später mit der Geometrieflut in Einklang zu bringen.
Ich lass das nicht gelten mit Toy Story. Ratatouille war auch noch hauptsaechlich Reyes.

Den Hauptvorteil sehe ich in der Produktion. Wenn man volles Path Tracing haette, wuerde alles einfach funktionieren ohne Tricks. Das sieht der Endnutzer halt nicht.

Armaq
2018-10-15, 23:44:32
weil die dann das tolle RT nicht hätte :freak:
Das muss man gar nicht ins lächerliche ziehen. Die Arbeit daran läuft, für mich glaubhaft, schon lange und man fragt sich, wann der perfekte Zeitpunkt kommt.

1080 in doppelt so fett war wohl keine besonders pralle Option und aufgrund der Roadmap von AMD hat man dann RT/Raster als passend implementiert.

Vielleicht können wir nvidia in 3 Jahren danken, dass PC-Gaming ne andere Sphäre einnimmt als Konsolen-Gaming? :)

pixeljetstream
2018-10-15, 23:47:49
Ich lass das nicht gelten mit Toy Story. Ratatouille war auch noch hauptsaechlich Reyes.

Den Hauptvorteil sehe ich in der Produktion. Wenn man volles Path Tracing haette, wuerde alles einfach funktionieren ohne Tricks. Das sieht der Endnutzer halt nicht.
Imo ist's sinnvoll, dass wir jenseits 3d texturen was für 3d Anfragen in jeder hw bekommen.
Der Rest ergibt sich dann, weil die Entwickler immer kreative Wege finden sowas auszunutzen. Die Form wird mit Sicherheit nicht wie das DXR von heute aussehen, sondern deutlich generischer, aber wir haben ja noch paar Jahre vor dem "Ende" ;)

Andi_669
2018-10-16, 00:14:06
Das muss man gar nicht ins lächerliche ziehen. Die Arbeit daran läuft, für mich glaubhaft, schon lange und man fragt sich, wann der perfekte Zeitpunkt kommt.
nicht falsch verstehen die Idee hinter RT an sich finde ich gut, nur was man bis jetzt gesehen habe ist eine 2080Ti mit RT bei 1920x1080 schon an der Kotzgrenze, was soll da eine Karte leisten die davon nur ~60% schafft,

ich hoffe auch das das was wird mit dem RT, vor allen eine echte globale Beleuchtung wäre schon was feines,
man muss da wirklich schauen was die Spielentwickler da hinbekommen wenn sie da eingearbeitet haben,

diese Demo Videos im Moment haben tolle Szenen, aber aber eben auch total unpassende Sachen drin,
wobei da wohl auch einiges überzogen eingebaut ist damit es einen sofort ins Auge springt.

SKYNET
2018-10-16, 00:22:25
was soll da eine Karte leisten die davon nur ~60% schafft,



720p ist das neue 4k für NV fantrolle, nicht gewusst? :biggrin:

N0Thing
2018-10-16, 02:27:47
Ich glaube immer noch, dass Raytracing was die Bildqualitaet angeht am Ende massiv ueberschaetzt wird. PBR war ein viel signifikanterer Schritt.

Hast du nicht zur Präsentation der RTX-Familie noch von einem Gamechanger gesprochen? :|

Thunder99
2018-10-16, 07:50:19
Erst dachte ich bei der Meldung RTX 2070 schlägt 1080, nicht schlecht. Dann erinnerte ich mich, dass normalerweise die 70er die 80er Ti schlagen sollte bei einer neuen Generation :freak:

Dural
2018-10-16, 10:24:55
Eins versteh ich nicht. Warum bringt man nicht einfach eine gtx1080 DDR6 heraus ? Wäre schneller als die rx 2070 und mit geringerem Aufwand umzusetzen. Oder ?

Weil Turing deutlich besser als Pascal ist? Und das liegt ganz bestimmt nicht nur an GDDR6 ;)
Turing hat seit Jahren mal wieder pro Einheit eine höhere Leistung gebracht! Pascal ist praktisch 1:1 zu Maxwell, da gab es kaum Änderungen, der Vorteil kam fast alleine durch 16nm vs 28nm.



1080 in doppelt so fett war wohl keine besonders pralle Option....


Wie soll das im praktisch selben Herstellungsprozess gehen? Eine doppelte 1080 hätte auch den doppelten Verbrauch = 360Watt+
Man hätte den Takt runter nehmen müssen um auf die 250Watt zu kommen, dazu dürfte Pascal wohl mit so vielen Einheiten nicht so gut Skalieren. Im Grossen und ganzen wäre man auch auf TU102 Leistung gekommen mit wahrscheinlich etwas kleinerer Die um die 600mm2 und das ohne den ganzen Turing Neuerungen. Das hört sich für mich wirklich wie ein schlechter Deal an, gerade für den Kunden.

Turing ist für sich unheimlich Effizienz, einer der besten Architekturen die wir im GPU Bereich je hatten. Man sieht es dank den 12nm/16nm halt auf den ersten Blick nicht gleich.
Turing liefert pro Watt fast 90% mehr FPS als Vega der in einem vergleichbaren Herstellungsprozess gefertigt wird, das muss man sich mal rein ziehen!

SKYNET
2018-10-16, 10:38:12
Erst dachte ich bei der Meldung RTX 2070 schlägt 1080, nicht schlecht. Dann erinnerte ich mich, dass normalerweise die 70er die 80er Ti schlagen sollte bei einer neuen Generation :freak:


zumal in timespy auch ne 2080FE schneller ist als ne 1080Ti(custom)... aber in echten leben dann meist den kürzeren zieht, selbst ne "schlechte" custom ist da meist(ok, fast immer) schneller. :cool:

SKYNET
2018-10-16, 10:42:41
Weil Turing deutlich besser als Pascal ist? Und das liegt ganz bestimmt nicht nur an GDDR6


outch... gefährliche aussage... selbst bei ner 1080Ti bremst die bandbreite deutlich, das grösste + an frames gibts mit speicher OC...

würd ja gerne mal ne 2080FE gegen eine 1080Ti sehen, mit identischen takt(gpu UND speicher)... weil mit gleichem GPU takt gibts ja genug benches. :freak:

Dural
2018-10-16, 10:45:13
Dir ist aber schon klar das die 2080 weniger Einheiten als die 1080Ti hat?

HOT
2018-10-16, 10:51:54
Die Filmindustrie hat diesen Schritt schon hinter sich (zum Thema Optik und Tricks etc.). Natürlich andere Performance Maßstäbe, aber die Zahlen auch Geld pro Bild ;)
Das sind nur, sowohl optisch als auch technisch, vollständig andere Anwendungsprofile.

Dural
Turing bringt mehr Effizienz durch mehrere Ebenen. Erst Mal sind da die Int8-Einheiten, es gibt also durchaus mehr Rohleistung, RPM und sinnvoller FP16-Support kommt hinzu und endlich echtes async-compute. Erkauft wurde das Ganze u.A. mit einer höheren TDP. Es mag Effizienzgewinne geben, aber vor allem in diesen Bereichen, der Rest wird durch die höhere TDP und Gewinne durch den Prozess aufgefangen.

Troyan
2018-10-16, 10:54:42
Das sind nur, sowohl optisch als auch technisch, vollständig andere Anwendungsprofile.

Sobald der Punkt erreicht wird, wo Nutzen den Kosten übersteigt, ändert sich alles.

Rayracing ermöglicht viel einfacher und schneller Effekte umzusetzen, die mit Rasterizing nicht oder nur schwer möglich sind. Wenn Raytracing in 1080p@60FPS funktioniert, ist es praktikabel. Und damit auch der Punkt erreicht, wo die Leute aufhören auf alternative Wege zu setzen.

HOT
2018-10-16, 10:57:49
Nope, es bleibt ein vollkommen anderes Anwendungsprofil und Ende. Filme und Spiele sind hier absolut nicht vergleichbar.

Troyan
2018-10-16, 11:04:35
Erklär mal. Wieso sollte es hier Unterschiede geben?

Armaq
2018-10-16, 12:03:25
Die Effekte in Echtzeit zu erarbeiten ist deutlich schwerer als im vordefinierten Ablauf eines Films?
Ich kann im Film-Rendering mir ja für 1080p 60 fps mehr als 16 ms Zeit lassen und hier kommt doch der Knackpunkt. Wenn ich nur 16 ms habe, dann sind die Kosten das zu erreichen uU. zu hoch.

HOT
2018-10-16, 12:26:32
Nicht nur das, du hast im Spiel ja auch x-mal mehr Perspektiven und musst viel mehr zeigen und berechnen. Im Film braucht man halt nur das was man sieht, bei Spielen ist das ne ganz andere Kiste. Das Ganze ist ja nicht nur echtzeit sondern obendrein auch noch interaktiv.

iuno
2018-10-16, 12:27:44
Ich denke das ist nicht mal so entscheidend wie das Format, in dem letztlich ausgeliefert wird.
Ein Film ist halt ein Film, bei dem Bildmaterial in irgendeinem standardisierten Format codiert ist und wiedergegeben werden muss. Wie die Bilder entstanden sind ist dem Kunden voellig egal. Die Decoder hat jeder Kunde, folglich laeuft auch jeder Film. Ein Spiel ist Software, die zum Erzeugen der Bilder erstmal beim Kunden laufen muss. Hinsichtlich der Produktionskosten lohnt sich RT also erst, wenn es so weit verbreitet ist, dass man es zum Standard machen kann und Alternatives rausschmeisst. Obwohl die einzelnen Effekte einfacher umzusetzen sind, ist es Mehraufwand, weil man es momentan eben nur zusaetzlich zu dem Bestehenden machen kann, aber nicht anstelle dessen.
Aber wie schon gesagt wurde, irgendwo muss man halt mal anfangen.

Troyan
2018-10-16, 12:39:45
Das stimmt ja alles nicht. Rasterizing ist schon auf ein Minimum reduziert. High-End Effekte gibt es nur in wenigen Spielen, weil deren Aufwand viel zu umfassend ist und ebenfalls nur von ein paar Leuten genutzt werden kann.

Raytracing wird daher der Standard für High-End Schatten, Reflexionen und globale Beleuchtung werden.

Fragman
2018-10-16, 12:41:13
Im Film braucht man halt nur das was man sieht,

Das ist sei dem Globalen Beleuchtungsmodel vorbei. Auch wenn das einige Layout Artists immer noch nicht in ihren Kopf bekommen wollen. :D

iuno
2018-10-16, 13:05:43
Das stimmt ja alles nicht. Rasterizing ist schon auf ein Minimum reduziert.
Ist klar ;D

Troyan
2018-10-16, 13:08:48
Natürlich. Wenig Geometrie, falsche Schatten, schlechtes AO, komische Reflexionen etc.

Alles ist reduziert, weil es Leistung kostet. Es muss ja unbedingt 4K mit 60FPS sein. Da fällt Grafik eben hinten runter. Dazu kommt, dass High-End Effekte auch massiv Leistung benötigen.

AffenJack
2018-10-16, 13:17:31
Hatten wir das schon? Golem mit Werten von der Remedydemo:
https://www.golem.de/news/geforce-rtx-was-raytracing-effekte-an-leistung-kosten-koennen-1810-137115.html

Die mit zwei Strahlen pro Pixel berechneten Kontakt- und Sonnenschatten benötigen inklusive Entrauschen zusammen 2,3 ms pro Frame und die Reflektionen satte 4,4 ms. Die globale Beleuchtung mit Denoising verlängert den Render-Vorgang um weitere 2,5 ms.

9,2 ms pro Frame mit einer 2080Ti in 1080p. Das ist schon verdammt viel, da es aber alle drei Effekte sind, finde ich das gar nicht so übel. Die Frage die sich stellt ist, wieviele ms bräuchten diese Effekte herkömmlich?
Schließlich spart man sich diese Zeit. Alles gleichzeitig zu benutzen wird auf jeden Fall noch zu teuer, aber z.B. nur Schatten in RT zu rendern, könnte dann auch mit einer 2070 möglich sein.
Müsste man aber natürlich auch erstmal in einem Spiel und nicht nur einer Demo hinkriegen.

Dural
2018-10-16, 14:12:46
Für die krasse Grafik-Qualitäts-Steigerung ist 1/3 weniger FPS ja fast geschenkt.

Aber ich befürchte immer noch dass da in realen Spielen ein ziemliches gebastel vollzogen wird. :rolleyes:

Ich freue mich auf die 7nm Chips, da dürfte RT wirklich sehr interessant werden.

Armaq
2018-10-16, 15:45:55
Du musst halt Day1 auf das Thema setzen. Wir sehen RT/Raster Engines in 2021, vorher wäre glaube ich utopisch.

SKYNET
2018-10-16, 15:59:19
so, die ersten reviews der 2070 durch... fazit: 600€ besser in ne 1080Ti investieren, über 20% durch die bank schneller... nach der 2080 also der nächste rohrkrepierer ;D

cR@b
2018-10-16, 16:06:13
Gehört alles zum Plan. Erstmal die Pascal Karten loswerden und dann die Turing, wenn man an die Pascal Karten kaum bzw. nur gebraucht rankommt.

Geächteter
2018-10-16, 16:06:31
so, die ersten reviews der 2070 durch... fazit: 600€ besser in ne 1080Ti investieren, über 20% durch die bank schneller... nach der 2080 also der nächste rohrkrepierer ;D
Die sollten bei der GTX 2060 die RTX 2070 nehmen und das Testo-RT-Gerümpel weglassen.
Was könnten die Karten gut sein, wenn man die zusätzlich Chipfläche für was Sinnvolles in ner Gamer-GPU verwendet hätte.

Ravenhearth
2018-10-16, 16:36:40
so, die ersten reviews der 2070 durch... fazit: 600€ besser in ne 1080Ti investieren, über 20% durch die bank schneller... nach der 2080 also der nächste rohrkrepierer ;D
Die 1080 Ti kostet neu allerdings auch schon ab 750€...

Die sollten bei der GTX 2060 die RTX 2070 nehmen und das Testo-RT-Gerümpel weglassen.
Was könnten die Karten gut sein, wenn man die zusätzlich Chipfläche für was Sinnvolles in ner Gamer-GPU verwendet hätte.
Die Karten sind imo gut, nur zu teuer. $349/399 für die 2070, $499/569 für die 2080 und $699/799 für die 2080 Ti und die Sache wäre geritzt. Aber mangels Konkurrenz nicht wirklich nötig. Naja, vielleicht reduziert Nvidia die Preise ja nächstes Jahr auf dieses Niveau. :smile:

Fragman
2018-10-16, 16:55:47
Die Preise werden schon noch etwas runter gehen, aber es ist wohl abzusehen, das man sich damit arrangieren sollte. Entspannung kann man wohl frühestens erst mit den neuen Konsolen erwarten. Wenn das allgemeine Leistungsniveau auch wieder etwas angehoben wird. Sofern die Konsolen einen deutlichen Schub bekommen sollten.

SKYNET
2018-10-16, 16:56:33
Die 1080 Ti kostet neu allerdings auch schon ab 750€...


was da in den letzten 2 wochen passiert? von knapp über 600 für ne halbwegs anständige custom(gigabyte) auf jetzt 750€ O_o

Ravenhearth
2018-10-16, 16:58:56
Die Preise werden schon noch etwas runter gehen, aber es ist wohl abzusehen, das man sich damit arrangieren sollte. Entspannung kann man wohl frühestens erst mit den neuen Konsolen erwarten. Wenn das allgemeine Leistungsniveau auch wieder etwas angehoben wird. Sofern die Konsolen einen deutlichen Schub bekommen sollten.
Ich glaube Navi wird uns einen Sprung bescheren. Einfach Vega10 auf 7nm zu shrinken ergäbe bereits GTX 1080-Leistung bei Polaris10-Größe, und den würde AMD nicht für 500€ verkaufen. Maximal 300€ imo. Und Navi kriegt weitere Verbesserungen. Auch wenns im Endeffekt nur ne 2070 ohne RT für 300€ wird, wäre das schon viel Wert.

was da in den letzten 2 wochen passiert? von knapp über 600 für ne halbwegs anständige custom(gigabyte) auf jetzt 750€ O_o
Angesichts von Turing wirkt die 1080 Ti natürlich besonders attraktiv ;D

AffenJack
2018-10-16, 17:00:06
was da in den letzten 2 wochen passiert? von knapp über 600 für ne halbwegs anständige custom(gigabyte) auf jetzt 750€ O_o

Schlicht ausverkauft. Deshalb machts auch keinen Sinn mit Ausverkaufspreisen zu vergleichen. Die 980Ti war auch P/L besser als die 1080 beim Ausverkauf, die RX390 war besser als die RX480. Das ist schlicht Standard, wenn die Händler versuchen die letzten Reste an den Mann zu bringen. Sobald es kaum mehr Karten gibt, gehen die letzten Karten wieder hoch im Preis.

Fragman
2018-10-16, 17:02:38
Ich glaube Navi wird uns einen Sprung bescheren. Einfach Vega10 auf 7nm zu shrinken ergäbe bereits GTX 1080-Leistung bei Polaris10-Größe, und den würde AMD nicht für 500€ verkaufen. Maximal 300€ imo. Und Navi kriegt weitere Verbesserungen. Auch wenns im Endeffekt nur ne 2070 ohne RT für 300€ wird, wäre das schon viel Wert.


Die Hoffnung stirbt zuletzt, aber darauf hoffe ich auch. Bin nur nicht sicher ob 7nm all die Versprechen halten wird.

dildo4u
2018-10-16, 17:02:38
was da in den letzten 2 wochen passiert? von knapp über 600 für ne halbwegs anständige custom(gigabyte) auf jetzt 750€ O_o
Die sind EOL NV hat die Preise jetzt im Prinzip um 100€ angehoben,was harmlos ist wenn man sieht was Intel für den 9900k will.

Ravenhearth
2018-10-16, 17:16:14
Die sind EOL NV hat die Preise jetzt im Prinzip um 100€ angehoben,was harmlos ist wenn man sieht was Intel für den 9900k will.
Der passendere Vergleich zum 9900k wäre eher die 2080 Ti, wo sie den Preis um 300€ bzw. 500€ angehoben haben.

dildo4u
2018-10-16, 19:13:48
Ganz bestimmt nicht Intel selbst sieht den 9900k 10% vor dem 8700k beim Zocken.

With Intel® Turbo Boost Technology 2.0 delivering up to 5.0 GHz single-core frequency, gamers can enjoy their favorite games with up to 10 percent5 more FPS across popular gaming titles compared with the previous generation, as well as up to 37 percent more FPS compared with a 3-year-old PC.

https://newsroom.intel.com/news-releases/intel-announces-worlds-best-gaming-processor-new-9th-gen-intel-core-i9-9900k/


Dafür wollen sie 600€ vs 350€ ich ziehe jetzt mal jeweils 100€ wenn sich die Preise wieder beruhigen.Selbst wenn man die kompletten Kerne rechnet sind es 33% mehr für 70% Aufpreis.
Bei der 2080 TI bekommste die 35% jetzt sofort nicht erst wenn Games lernen 8 Kerne zu nutzen.

just4FunTA
2018-10-16, 19:33:31
RTX2080 759€

Geht schon mal in die richtige Richtung der Preis und jetzt mit großen Schritten so weiter machen. :)

https://www.mindfactory.de/product_info.php/8GB-KFA2-GeForce-RTX-2080-OC-Aktiv-PCIe-3-0-x16--Retail-_1276297.html

nordic_pegasus
2018-10-16, 19:35:07
Vielleicht können wir nvidia in 3 Jahren danken, dass PC-Gaming ne andere Sphäre einnimmt als Konsolen-Gaming? :)

oder wir können Nvidia in 3 Jahren danken, dass die exorbitante Preissteigerung das PC-Gaming komplett zur Luxus-Nische degradiert hat und darum man aktuelle Games nurnoch auf Konsolen zockt (mit AMD Grafik ohne RayTracing).

Ein Pascal Refresh mit vielleicht 5120-6144 Cores samt 16/24 GB GDDR6 hätte wohl vielen (auch hier im Forum) besser geschmeckt als diese Early Access Studie mit dem Namen Turing.

Anfang des Jahres bei der Ankündigung der BFGD mit UHD@144Hz und G-Sync wurde noch spekuliert, dass Nvidia hierzu auch die passende GraKa liefern wird. Darauf warte ich bis heute (genauso wie auf diese Displays).

Auch glaube ich nicht an den Erfolg von VR im PC-Markt. Darum halte ich den USB-C Port an den Turing-Karten für totalen Nippes. Stattdessen hätte ich HDMI 2.1 erwartet. Hier hätte aber Nvidia die Hosen runter lassen müssen, ob man VRR = FreeSync per HDMI supporten wird. Und dann bekommen die normalen Consumer nicht einmal den Vollausbau von TU102 und TU104 zu kaufen.

HisN
2018-10-16, 19:53:55
Wobei es ja auch Monitore mit USB-C gibt, die hoffentlich auch daran funktionieren können.

Fragman
2018-10-16, 19:57:41
Ein Pascal Refresh mit vielleicht 5120-6144 Cores samt 16/24 GB GDDR6 hätte wohl vielen (auch hier im Forum) besser geschmeckt als diese Early Access Studie mit dem Namen Turing.



Die Gesichter hätte ich allerdings gerne gesehen, wenn nv dann den günstigen Preis von schlappen 1999,- $ plus Steuer auf dem grossen Screen duchlaufen lassen hätte. ;D

Kriton
2018-10-16, 23:10:07
Die hätten dann so ausgesehen:

Dural
2018-10-17, 00:15:10
Ihr wollt Grafikkarten mit 300-400watt? Und wie ich schon gesagt habe ist es nicht sicher ob pascal mit 5000sp+ überhaupt vernünftig skaliert.

@nordic_pegasus
Selten so was schlechtes gelesen, jede 1060 oder 580 ist doch schon besser als die konsolen. High End PC hardware war schon immer teurer, das wird sich nie ändern.


Ich freue mich ja schon auf die ersten 7nm chips, da werden einige ziemlich doof aus der wäsche schauen! Nicht wegen der leistung, sonder wegen den preisen.

SKYNET
2018-10-17, 00:24:45
NV bremst pascal mit den neueren treibern künstlich aus... ;D irgendwie muss man turing ja gut dastehen lassen X-D

mFSLro_OXLQ

Dural
2018-10-17, 00:28:58
Stimmt nicht.

TGKlaus
2018-10-17, 00:30:20
DLSS schätzt nicht. DLSS weiß, wie das deutlich bessere Endresultat aussieht. DLSS erstellt dann basierend auf dem trainieren Netzwerk das Bild.

Deshalb ist die Bildqualität bei FF XV mit DLSS auch so unterirdisch. :rolleyes:

Klevapalis
2018-10-17, 00:35:28
NV bremst pascal mit den neueren treibern künstlich aus... ;D irgendwie muss man turing ja gut dastehen
Jedes Mal die gleichen Lügen. Meine Pascal ist mit neuen Treibern schneller geworden, nicht langsamer :facepalm:

SKYNET
2018-10-17, 00:37:40
Jedes Mal die gleichen Lügen. Meine Pascal ist mit neuen Treibern schneller geworden, nicht langsamer :facepalm:

ich hatte mit dem neusten treiber ca 5% weniger frames in SotTR... darum auch wieder zurück auf alt bewährtes.... nach dem video weiss ich nun, das es nicht am rest vom rechner lag :P

TGKlaus
2018-10-17, 01:04:57
Also beim AC:O Benchmark fehlen 15% :eek:

Ich muss mir das morgen unbedingt nochmal genauer ansehen.
Ist dann doch etwas spät heute.

CompuJoe
2018-10-17, 01:20:42
Ich habe mich schon gewundert, hatte in Forza immer konstant 60 FPS.
Hatte Gestern Abend den neuen Treiber drauf gebügelt und mich heute gewundert warum es ab und an slows bis 45 FPS gab wo ich sonst immer 60 FPS hatte.
Auch alle paar Minuten für 2-3 Sekunden stuttering was vorher nicht war, fühlt sich an wie Nachladeruckler.

dildo4u
2018-10-17, 05:15:50
Hast du die Details wieder angepasst?Das Game wirft die Einstellungen zurück sobald man ein neuen Treiber installiert.

SKYNET
2018-10-17, 10:10:06
Stimmt nicht.


doch, ich hatte es mit SotTR --> 5% weniger frames und zwar durchweg, darum auch wieder runter damit. hatte nur erst gedacht liegt evtl. am restlichen system, und nicht weiter verfolgt, da anscheinend sonst keiner das problem hatte(zumindest niemand nen faden für aufgemacht hatte)

Dural
2018-10-17, 10:31:35
Ich hatte mit meiner 1080 auch keine Probleme, obwohl ich derzeit natürlich schon den 416.34 drauf habe.

Und ich weis auch von anderen die das bestätigen können, ich kenne das Video da oben schon seit dem 12.10 und wir war sofort klar das es hohe Wellen schlagen wird.

Man muss übrigens schon ziemlich Wahnvorstellungen haben wenn man davon ausgeht das NV karten künstlich einbremst wegen Turing, vor allem ist die 1060 ja voll der Turing Gegenspieler... :freak:

CompuJoe
2018-10-17, 11:44:20
Hast du die Details wieder angepasst?Das Game wirft die Einstellungen zurück sobald man ein neuen Treiber installiert.

Ja, alles wie vorher eingestellt.

dildo4u
2018-10-17, 11:53:49
Lief das Game überhaupt mit 300 Treibern?Bei mir ist alles normal.


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11816731&postcount=33

maximus_hertus
2018-10-17, 11:58:28
Naja ich würde jetzt schlicht behaupten AMD Marketing Abteilung ;)

Problem: sowas existiert nicht bei AMD :)


Stimmt nicht.
Problem wohl eher vor dem Bildschirm.
Den ganzen Trollen ist nichts zu Blöde, um NVIDIA schlecht da stehen zu lassen.

Das Ganze "NVIDIA bremst alte Karten aus" wurde schon zig Mal von diversen Leuten mit diversen Generationen debunked. Aber manche glauben immer noch, es hätte keinen Holocaust gegeben.
Man muss übrigens schon ziemlich Wahnvorstellungen haben wenn man davon ausgeht das NV karten künstlich einbremst wegen Turing, vor allem ist die 1060 ja voll der Turing Gegenspieler...

Wow, starke Diskussionskultur, da bekommt man ja richtig Lust auf eine Diskussion.

Problem vor dem Bildschirm, Holocaust, Wahnvorstellungen, Trolle. Stark, ganz stark. Endlich spricht es jemand aus.

Man kann auf Klevapalis und Dural echt stolz sein, die bringen das 3DC-Forum voran.

Adam D.
2018-10-17, 12:16:06
Wow, starke Diskussionskultur, da bekommt man ja richtig Lust auf eine Diskussion.

Problem vor dem Bildschirm, Holocaust, Wahnvorstellungen, Trolle. Stark, ganz stark. Endlich spricht es jemand aus.

Man kann auf Klevapalis und Dural echt stolz sein, die bringen das 3DC-Forum voran.
Ändert nichts an der Tatsache, dass diese Vorwürfe absoluter Bullshit sind - wie immer. Jede verdammte Generation taucht der Vorwurf auf, jedes Mal wird eh als BS bewiesenermaßen zurückgewiesen, aber das hindert dieselben Klick-geilen Deppen nicht, ihn wieder rauszukramen. Es nervt nur noch. Und nein, mir gefällt NV zur Zeit überhaupt nicht, aber BS bleibt BS.

gbm31
2018-10-17, 12:28:21
Wow, starke Diskussionskultur, da bekommt man ja richtig Lust auf eine Diskussion.

Problem vor dem Bildschirm, Holocaust, Wahnvorstellungen, Trolle. Stark, ganz stark. Endlich spricht es jemand aus.

Man kann auf Klevapalis und Dural echt stolz sein, die bringen das 3DC-Forum voran.

Och, das macht die Arbeit mit der Ignore deutlich leichter. Seit Turing wächst die wieder ordentlich.

Dafür sind die Threads mittlerweise wieder ganz lesbar...

Zum Treiber und Pascal ausbremsen: was wäre so offensichtlich dass es in jedem Fall rauskommen würde.

Auch wenn manche Webseiten so blind sind dass sie ihre eigenen Ergebnisse nicht mehr im Kopf haben (Hallo Cb...)

CompuJoe
2018-10-17, 12:37:52
Lief das Game überhaupt mit 300 Treibern?Bei mir ist alles normal.


https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11816731&postcount=33

Hatte zu Release den 411.63 WHQL installiert.
Habe den nun auch wieder drauf, mit dem 416.34 WHQL hatte ich auch in anderen Games slow downs und rubberbanding.

KORE
2018-10-17, 13:59:28
Hab auch den 411.63 wieder drauf mit dem 416 geh aus iwelchen Gründen kein DX12 mehr.
Schon alles versucht, mal abwarten was kommt.

gbm31
2018-10-17, 15:50:36
Scheint also allgemein buggy zu sein statt Pascal gezielt auszubremsen... Ist wohl eher was fürs Nv GraKa Forum

y33H@
2018-10-17, 16:52:52
Immer dieser Bullshit von wegen bewusst ausbremsen, dem war nie so :mad:

Dural
2018-10-17, 18:00:50
SKANDAL NVIDIA macht mit neuem Treiber alte Grafikkarte "schneller" ;)

GTX1060 399.24 vs 416.34

Dural
2018-10-17, 18:20:29
Und hier noch ein zweites Spiel, mehr habe ich auf dem System nicht drauf.

CompuJoe
2018-10-17, 18:22:58
SKANDAL NVIDIA macht mit neuem Treiber alte Grafikkarte "schneller" ;)

GTX1060 399.24 vs 416.34
Laut dem Screenshots wird die GPU langsamer aber CPU schneller ^^

Nuvirus
2018-10-20, 20:12:35
Was sagt ihr dazu:
https://www.youtube.com/watch?time_continue=1&v=IadH64GJ2Ps

Könnte durchaus so sein und je nach Verkaufserfolg und wann 7nm rdy wird könnte ich mir vorstellen das nach Abverkauf der alten Chips die Preise auch etwas sinken?

Bin immer noch am Ringen mit mir ob ich meine 980Ti ersetze (läuft leider nicht mal bei Default mit 1,4Ghz stabil - knapp drunter).

Könnte es doch sein das die 7nm Generation näher ist als wir denken je nachdem ob AMD 7nm eingermaßen bezahlbar auch für Consumer raus bringt und wie die Leistung ist der Vega Nachfolger Karten?

Oder schätzt ihr das es eher 2020 wird mit neuen Karten - ich schätze auch das beim 7nm Launch je nach Zeitpunkt auch wie bei Pascal erstmal die kleineren Chips unter der 3080Ti kommen oder evtl. auch für die 20xx Serie dann nen 7nm günstiger Chip als Konter je nach Leistung der ersten 7nm AMD Chips irgendwann nächstes Jahr.

Fragman
2018-10-20, 20:57:22
AMD wird 7nm bestenfalls in einem Jahr bringen und dann auch nur als Mainstream Lösung (vielleicht sogar erst 2020).
Bei nv wird das sicher noch länger dauern, Druck haben sie ja keinen, selbst mit Navi nicht.
Aber das wurde alles schon mehrfach in diversen Threads geschrieben.
Wenn 7nm so nah wäre, wie ja immer noch einige hoffen, hätte sich nv Turing sicher nicht angetan. ;)

Mortalvision
2018-10-20, 21:09:09
Ich mach mir um Turing keine Gedanken. Verbeamtung kommt 2020, und dann noch ein Jährchen Probezeit, also Sommer 2021 wird frühestens der nächste OC Rechner gezüchtet. Bis dahin muss es das Gaming notebook tun...

Nuvirus
2018-10-20, 21:38:00
Jo von AMD wird höchstens irgendwann nen 7nm Vega Nachfolger kommen für Gamer aber schätze der ist zu teuer um ihn mit HBM für Gamer zu bringen.

Gegen den Navi 7nm kann Nvidia einfach Preise senken wenn überhaupt notwendig und ggf. 16GB Karten bringen sollte AMD beim Speicher nochmal ne Ecke höher als 8GB bei der stärksten Navi Karte aber an die 2080Ti wird die nicht annähernd rankommen.

Ist halt schwierig hoffen das doch nächstes Jahr was neues von Nvidia kommt im Bereich über 2080(Ti) oder doch jetzt noch was kaufen bis 2020 Warten will ich eigl nicht unbedingt.

Schätzt ihr das wenn die Pascals abverkauft sind die Preise noch etwas sinken der kleineren bzw. mit besserer Verfügbarkeit der 2080Ti?

Mortalvision
2018-10-21, 07:25:22
Pascal wird nicht eingestellt ;)

robbitop
2018-10-21, 09:27:05
Vor 2020 kommt IMO kein echter TU102 Nachfolger. Bis dato waren es immer ca 1.5-2 Jahre von 102 zu 102. Aus Spass legt man Turing sicher nicht nur für ein paar Monate auf nur um kurz darauf den Nachfolger zu bringen.

Es heisst immer warten warten. IMO ist der beste Kaufzeitpunkt (aus der Sicht am längsten Ruhe zu haben - nicht aus PL Sicht) wenn die neue Gen raus ist. Also jetzt. Wer jetzt eine NV Karte haben will und jetzt mehr Leistung braucht und das entsprechende Geld hat sollte jetzt kaufen um 1.5 bis 2 Jahre Ruhe zu haben. Wenn das das Kriterium ist.

Das gilt jedoch nicht für alle. Viele kaufen auch nach PL.
Ich zB habe eine 1080ti letztes Jahr im Maif für 600 € geschossen und meine titan xm für 450€ gekauft. Das war ein guter deal. Ich bin unbeeindruckt von TU102. Also warte ich auf den Nachfolger. Hätte TU102 linear mehr Leistung als GP102 gehabt (doppelter Preis - doppelte Leistung oder meinetwegen dreifacher Preis dreifache Leistung) hätte ich ihn gekauft. Aber für doppelten Preis (600€ in 2017 -> 1250€ in 2018) bei nur 30-40% mehr Leistung empfinde ich das als kein gutes Geschäft. Kapital ist kein Problem. Aber mein Grundprinzip ist dass ein Geschäft nur sinnvoll ist, wenn Preis und Leistung übereinstimmen. :)

Nuvirus
2018-10-21, 10:11:03
Vor 2020 kommt IMO kein echter TU102 Nachfolger. Bis dato waren es immer ca 1.5-2 Jahre von 102 zu 102. Aus Spass legt man Turing sicher nicht nur für ein paar Monate auf nur um kurz darauf den Nachfolger zu bringen.


Also um vom meiner 980Ti Aufzurüsten würde mir auch einen 104 Nachfolger Chip in 7nm holen wenn die Leistung stimmt und hoffentlich der VRAM.

Wäre die 2080 atttraktiver gestaltet gewesen wäre es wohl diese geworden da man die auch leiser Kühler kann.
Wenn die 7nm Gen mit 104 Chip nächstes Jahr kommt und das nicht gerade erst Dezember ist würde ich wohl warten.

Ich würde auch sagen das der GP104/106/107 noch weiter läuft aber halt nicht im 500€ + Bereich und dann direkt in verschiedenen Steps in 7nm ersetzt - ist nur die Frage wann.
Der GP104 ist ja immer noch günstiger (Flächenmäßig) in der Fertigung als der GT106.
Evtl kommt halt noch 2050 Ti mit defekten GT106 Kernen wenn genug gesammelt sind.

Aber Nvidia hat bis genug Turing Chips verfügbar sind wohl auch noch Interesse gehabt die GP104 Chips mit Maximum an Gewinn zu verkaufen was natürlich die 2080 und 1070Ti waren jetzt mit den 519€ Designs der 2070 wird das nicht mehr gehen außer über günstigen Preis.
Die 1080 wird wohl auslaufen und nur die 1070Ti evtl. 1070 noch weiterlaufen um die Preisbereiche über der 1060 abzudecken die ja jetzt sogar mit GDDR5X Speicher kommen soll.

Leonidas
2018-10-22, 17:40:48
NV bremst pascal mit den neueren treibern künstlich aus... ;D irgendwie muss man turing ja gut dastehen lassen X-D
http://youtu.be/mFSLro_OXLQ


Also beim AC:O Benchmark fehlen 15% :eek:
Ich muss mir das morgen unbedingt nochmal genauer ansehen.
Ist dann doch etwas spät heute.



Falls NV so was tut, sollten sie damit rechnen, einen dicken Skandal zu produzieren.


Und effektiv ist das ganze auch nicht: Viele HW-Tester benchen ihre Vergleichs-HW mit einem älteren Treiber und nicht dem Release-Treiber der neuen HW - einfach, weil man ansonsten zu viel Benches in zu wenig Zeit machen müsste. Zudem ergibt die eine Treiber-Version Differenz in der heutigen Zeit gewöhnlich keinen echten Unterschied her, maximal noch in Spielen, die in den Release Notes als "optimiert" beschrieben werden.

Sprich: Begeht ein Hersteller so eine Dummheit, dann kann es sei, das der Hersteller davon noch nicht einmal auf breiter Front profitiert.



PS:
GTX1080Ti läuft schon rein praktisch aus. Die Einzelhändler bekommen schon keine Nachlieferungen mehr ...

aufkrawall
2018-10-22, 17:43:20
Ihr kennt euch wieder hinlegen, gibt auch mit Turing Performance-Regressions...

Platos
2018-10-22, 18:57:57
Da ich mich bis jetzt (mangels Zeit) nich gross informiert habe, mal eine grundlegende Frage zu DLSS.

Das ist ja so, dass das von nvidia selbst für jedes Spiel eingepflegt werden muss, richtig ?
Eigentliche Frage: Wenn es unterstützt wird, betrifft dass dann automatisch mehrere Auflösungen oder "nur" 4K? Also könnte man damit auch in 4K (nativ) und mit DLSS dann auf 8K spielen oder geht das nur auf 4K ? Denn mich persönlich interessiert eher 8K und nicht 4K.

Und kann man eig. nvidia DSR mit DLSS kombinieren? Also so dass man bei einem 4K Monitor dann mittels DLSS auf 8K zocken kann ?

basix
2018-10-22, 19:10:21
@ Platos: (Mein) momentaner Wissensstand

Nicht Nvidia bindet es ein, das macht der Spieleentwickler (mit Support von Nvidia). Nvidia bietet nur an, DLSS kostenlos auf ihren Servern zu trainieren. Ob man DLSS selber trainieren kann, keine Ahnung.
DLSS ist auflösungsspezifisch, d.h. es geht nach aktuellem Stand nur 4K als Zielauflösung. Momentan wird ebenfalls Support für 1440p diskutiert. Alle anderen Auflösungen funktionieren nicht.
DSR + DLSS ist unklar. Meiner Meinung nach könnte das gehen. Vermutlich halt auf Zielauflösung 1440p mittels DSR rechnen, was intern 4K bedeutet und darüber nochmals DLSS. Irgendwie hört sich das aber zu hacky an und wäre momentan aufgrund des vorherigen Punktes auf eine einzelne Auflösung sowie einen einzelnen DSR Faktor von 1.5 begrenzt.


Meiner Meinung nach ist DLSS sehr interessant. Aber der 2. Punkt ist eigentlich ein Genickbruch für die Technik und deren Verbreitung. Deswegen trainiert es Nvidia wohl auch kostenlos für die Spieleentwickler. Ansonsten hätten die ja Null Anreiz, DLSS zu implementieren.

Gouvernator
2018-10-22, 19:18:39
DLSS ist doch reinster Schwindel. Wäre es ein (also nur 1)globaler Profil das in jedem unterstützten Game funktioniert - könnte es gut gehen. Aber es muss pro Game eines antrainiert werden. Mir ist auch nicht ganz klar wie es mit steigenden FPS funktionieren soll. Sprich DLSS@120 FPS möglich oder nur 60 FPS? Weil die Tensor Cores das nicht mehr packen.

basix
2018-10-22, 19:26:40
Mangels Benches und näheren Technikinfos kann dir keiner was genaueres sagen ;) Aber ja, ein allgemeines globales Profil wäre wohl allen am liebsten. Und das für alle Spiele und Auflösungen.

N0Thing
2018-10-22, 21:33:05
DLSS kommt von Nvidia, wird auf deren Supercomputer mit dem Spiel trainiert und via Treiber, Geforce Now oder Spiele-Patch ausgeliefert, muss aber natürlich auf vom Entwickler in das Spiel integriert werden, was laut Nvidia aber wohl keinen echten Aufwand darstellt:

https://news.developer.nvidia.com/dlss-what-does-it-mean-for-game-developers/

Question: Can you walk us through how DLSS will be worked into the developer’s workflow?

Answer: DLSS is a post-processing effect that can be integrated into any modern engine. It doesn’t require any art or content changes and should function well in titles that support Temporal Anti-Aliasing (TAA).

Platos
2018-10-22, 22:01:06
Ich frage mich, wie dass dann genau mit dem trainieren gehen soll bzw. wann das gemacht wird. Ich weiss ja nicht, wie viel früher ein Spiel nvidia ausgehändigt werden könnte, damit man vernünftig trainieren kann. Es muss ja schliesslich die ganze Welt bzw. jede Mission etc. (alle Texturen ect.) schon fertig sein. Gibt es irgendwelche Infos darüber, wie lange die Ki da so etwa trainieren muss ? Kommt natürlich sicherlich auf die grösse der Spielewelt an
Aber von was für Rechenzeiten muss man da ausgehen? Eine Woche, zwei Wochen, ein Monat ?

Aber mal abgesehen davon ist das schade. Meine Auflösung ist ja eig. jetzt schon 4K, also nativ. Mit DLSS wäre es optisch ein downgrade. Naja, mal schauen. Für mich ist DLSS so kein Features, dass ich gebrauchen kann (ausser es man erkennt den Unterschied gegenüber nativ nur bei sehr genauem hinschauen, was ich aber stark bezweifle.

Wenn es für 8K (in Kombination mit DSR), oder wenigstens 5K oder sonst irgendetwas über 4k, verfügbar ist, würde es mir schon sehr viel bringen (vorausgesetzt mind. 8 von 10 zukünftigen AAA Titeln unterstützen das).

vinacis_vivids
2018-10-22, 22:23:30
"Post Processing" sagt doch schon alles.

Timbaloo
2018-10-22, 22:34:32
Ist nicht die interessante Frage ob der jeweilige Entwickler das Modell überhaupt zwingend für das jeweilige Spiel trainieren muss? So die wirkliche Not sehe ich nicht. Mal von speziellen Grafikspielereien wie die extremen schwarzen Rahmen um die Objekte in Borderlands abgesehen.

Ist halt die Frage wieviel I in AI steckt.

N0Thing
2018-10-22, 23:22:23
Das wird die Zeit zeigen. Ich kann mir gut vorstellen, dass ein spezielles Training irgendwann nicht mehr notwendig ist, wenn genug Daten zusammengekommen sind.
Wäre das Training jetzt schon nicht mehr notwendig, könnte Nvidia DLSS auch für alle Spiele anbieten und so einen deutlichen Mehrwert bieten, den die Karten bei den aktuellen Preisen auch gut gebrauchen könnten.

RLZ
2018-10-22, 23:23:38
Es muss ja schliesslich die ganze Welt bzw. jede Mission etc. (alle Texturen ect.) schon fertig sein.
Irgendwie hast du eine seltsame Vorstellung davon.

Platos
2018-10-23, 08:17:10
Inwiefern ? Die AI muss ja lernen und um zu lernen, muss das Spiel ja mehr oder weniger fertig sein. Die AI muss ja mit Texturen "gefüttert" werden, oder inwiefern soll sie sonst lernen?

Käsetoast
2018-10-23, 10:02:29
Ja, das mit einem globalen Profil kann man vergessen - dann steht man im Endeffekt mit einem üblichen Upscaler da. Das DLSS muss halt für eine bestimmte Szene bzw ein bestimmtes Level trainiert werden. Das Profil aus dem Wüsten Level im Dschungel zu benutzen wird nur Grütze liefern. Daher wird man tatsächlich jeden Level eines Spiels separat trainieren müssen - zumindest wenn die Bildinhalte unterschiedlich sind. Wie Nvidia das automatisieren will ist aber in der Tat interessant. Bei einer Infiltrator Demo mit immer gleichen Ablauf ist das natürlich einfach. Bei einem richtigen Spiel wird das tatsächlich jemand spielen müssen oder es muss zumindest eine Art Kamerafahrt geben, wobei man ja auch auf Sachen wie Explosionen trainieren muss, weswegen eine echte Automatisierung nicht gehen wird. Nvidia bräuchte da halt echtes Gameplay zum analysieren...

Da wird es auf jeden Fall interessant zu sehen wie die Entwickler das anstellen und ob DLSS dann eher was wird, das nachträglich eingebaut wird - hängt wahrscheinlich davon ab wie viele Spiele Nvidia gleichzeitig analysieren kann. Interessant wird auch, ob und wie Open World Spiele das einbauen - hier müsste der Entwickler Zonen definieren und dann jeweils das passende Profil zuweisen. Der Aufwand hält sich da natürlich in Grenzen - interessant werden die Grenzfälle wo man das Profil wechselt und wie das dann aussieht...

AffenJack
2018-10-23, 10:17:11
Ja, das mit einem globalen Profil kann man vergessen - dann steht man im Endeffekt mit einem üblichen Upscaler da.

Nope, ein globaler AI Upscaler ist auch so deutlich besser als normales Upscaling. Alle Berichte über Samsungs 4K-> 8K AI Upscaling die ich gesehen habe, waren sehr positiv. Man muss sich eher fragen, wieso Nv für jedes Spiel ein Profil braucht, so gut wie es bei Samsung ohne funktioniert.
Da sollten dann aber noch deutlich bessere ergebnisse möglich sein.

Käsetoast
2018-10-23, 11:11:14
Klar - mit AI ist ein Upscaler natürlich klüger als ohne. Ich meinte halt, dass mit einem globalen Profil DLSS an sich damit nichts besonderes mehr ist. Das gezielte trainieren ist halt was das ganze so interessant macht und ich weiß gerade nicht wie Samsungs Upscaler funktioniert, aber wahrscheinlich ist der auf 24p Material ausgerichtet und nicht auf 60 Hz Spiele. Zumindest muss mich in Spielen ein Upscaler noch überzeugen...

BigKid
2018-10-23, 12:03:23
@ Platos: (Mein) momentaner Wissensstand

Nicht Nvidia bindet es ein, das macht der Spieleentwickler (mit Support von Nvidia). Nvidia bietet nur an, DLSS kostenlos auf ihren Servern zu trainieren. Ob man DLSS selber trainieren kann, keine Ahnung.
DLSS ist auflösungsspezifisch, d.h. es geht nach aktuellem Stand nur 4K als Zielauflösung. Momentan wird ebenfalls Support für 1440p diskutiert. Alle anderen Auflösungen funktionieren nicht.
DSR + DLSS ist unklar. Meiner Meinung nach könnte das gehen. Vermutlich halt auf Zielauflösung 1440p mittels DSR rechnen, was intern 4K bedeutet und darüber nochmals DLSS. Irgendwie hört sich das aber zu hacky an und wäre momentan aufgrund des vorherigen Punktes auf eine einzelne Auflösung sowie einen einzelnen DSR Faktor von 1.5 begrenzt.


Meiner Meinung nach ist DLSS sehr interessant. Aber der 2. Punkt ist eigentlich ein Genickbruch für die Technik und deren Verbreitung. Deswegen trainiert es Nvidia wohl auch kostenlos für die Spieleentwickler. Ansonsten hätten die ja Null Anreiz, DLSS zu implementieren.

Es wurden hier 2 DLSS Modi genannt.

DLSS wie von dir beschrieben und DLSSx2.

Bei DLSS wird in einer niedrigeren Auflösung als der Zielauflösung gerendert und dann mit AI upgescaled.

DLSSx2 ist dann Quasi ein AI Upscaling + Downsampling AA. Hier wird in der Zielauflöung gerendert (vermutlich) dann mit AI auf die eine höhere Auflösung hochgerechnet und dann ein Downsampling AA in die Zielauflösung gemacht...

Alle Angaben basieren nur auf Mitlesen hier im Thread...

Das erfordert aber immer passende Trainingsdaten/ein trainiertes Netz und das Training ist Auflösungsspezifisch... und zwar doppelt... Die Render-Auflösung und die Zielauflösung müssen schon beim Training festgelegt werden.

Klar - mit AI ist ein Upscaler natürlich klüger als ohne. Ich meinte halt, dass mit einem globalen Profil DLSS an sich damit nichts besonderes mehr ist. Das gezielte trainieren ist halt was das ganze so interessant macht und ich weiß gerade nicht wie Samsungs Upscaler funktioniert, aber wahrscheinlich ist der auf 24p Material ausgerichtet und nicht auf 60 Hz Spiele. Zumindest muss mich in Spielen ein Upscaler noch überzeugen...
Die Frequenz/FPS Interessiert bei dem Verfahren nicht... Was gebraucht wird zum Training und Nachher ist: Bild in Quellauflösung, Bewegungsvektoren und gewünschtes Resultat in Zielauflösung. Da ist also eine Temporale Komponente drinn... Eventuell wird noch das "nächste Bild in Quellauflösung" gebraucht. Aber wieviel Abstand zwischen den Bildern ist, ist dem Ding egal...
Hmm... Wobei durch die Temporale Komponente könntest du recht haben... Bei Kamerafahrten etc. dürfte es scho neine Rolle spielen ob das nun 24Hz oder 60Hz Material ist... Hmm...
Wobei man 60Hz Material in der freien Wildbahn eh nicht findet und obs nu 24Hz oder 25Hz oder sogar noch 30Hz ist dürfte noch Wumpe sein...

robbitop
2018-10-23, 12:46:25
Nope, ein globaler AI Upscaler ist auch so deutlich besser als normales Upscaling. Alle Berichte über Samsungs 4K-> 8K AI Upscaling die ich gesehen habe, waren sehr positiv. Man muss sich eher fragen, wieso Nv für jedes Spiel ein Profil braucht, so gut wie es bei Samsung ohne funktioniert.
Da sollten dann aber noch deutlich bessere ergebnisse möglich sein.

Wobei das Upsampling von Filmaterial schon was anderes ist als von Bildern einer 3D gerenderten Szene. Filmmaterial ist ja mit einer Kamera aufgenommen. Pro Pixel prasseln ettliche Photonen bei einem cmos Chip ein. Entsprechend hat man da eine natürliche Form von AA. Bei gerendertem Material für Film und Fernsehen ist intern mit extrem hohen AA Faktoren berechnet. Echtzeit 3d ist ein Sample pro Pixel im Ernstfall. Temporales Aliasing ist also dort ein zusätzliches Problem, was in Filmmaterial so nicht vorkommt.

Käsetoast
2018-10-23, 12:46:48
@BigKid:
Genau - in der Diskussion mit Nennung vom Samsung Upscaling als Vergleich muss man aber auch Latenz und Datenmengen beachten. Wenn ich ein 60 Hz Signal upscalen will ist das ein anderes Kaliber als ein 24 Hz Signal. Neben der temporalen Komponente hinsichtlich der Vorhersage muss man das eben alles auch in rund einem Drittel der Zeit abgefrühstückt haben was einem für aufwendigere Berechnungen dann keine Zeit lässt. Zumindest in Hinsicht auf dem Chip im Fernseher - Turing hat da ja ein ganz anderes Kaliber Dampf unter der Haube...

robbitop
2018-10-23, 13:55:57
Ja sicherlich haben die modernen Skalierverfahren in TVs Zugriff auf mehrere Bilder, so dass die Latenz größer wird, was im Echtzeitbereich auch nicht schön wäre.

HOT
2018-10-23, 14:06:45
Glaub kaum, dass das vergleichbar ist TV und Grafikkarte - steht halt beides mal AI dran, aber mit AI hat weder das eine noch das andere zu tun, das ist pures Marketing. Das trainierte Upscaling an sich ist eher was für Konsolen und schwachbrüstige Mainstreamkarten. Interessanter ist doch Upscaling und dann Downsampling. Damit kann man sicher ein gutes AA erzeugen mit mäßigem Aufwand. Das ist ein Anwendungsbereich, der mich deutlich mehr interessiert als PCler.

Die Technologie werden Sony und M$ sowieso adaptieren und damit findet das eh auch Einzug in DirectX. Mit den DLSS-Games hat man sicherlich schon mal den Vorteil, diese Technologie als AA-Technologie vorher schon zu nutzen. Und für sowas anspruchsvolles wie FF15 ist es sicherlich auch als Upscaler interessant für normale Mainstreamkarten, so sie denn mal irgendwann kommen sollten.

Daredevil
2018-10-23, 15:11:48
Weiß jemand, ob irgendeine Seite mittlerweile die neue NVENC Qualität unter die Lupe genommen hat?
Linustechtipps spricht mittlerweile davon, dass es besser aussieht im Vergleich zu x264 Fast 6Mbit. Das würde mich mal interessieren.

Raff, ist das keine News Wert?
Die Twitch Community würde sich auf euch stürzen!^^
Streaming ohne die CPU einbinden zu müssen bei guter Qualität ist ein Killer Feature.

Oder muss ich das etwa selber machen? :cool::D

RLZ
2018-10-23, 15:34:42
Inwiefern ? Die AI muss ja lernen und um zu lernen, muss das Spiel ja mehr oder weniger fertig sein. Die AI muss ja mit Texturen "gefüttert" werden, oder inwiefern soll sie sonst lernen?
Die "AI" lernt aber nicht alle Texturen oder Szenen aus allen Perspektiven auswendig. Das wäre dann die effizienteste Kompression der Welt.
Hier wird salopp gesagt nur die Erkennung von statistische Regelmäßigkeiten gelernt. Solange nicht etwas außergewöhnlich aus der Reihe fällt, ist alles ok.

vinacis_vivids
2018-10-23, 15:44:51
Nein.

Platos
2018-10-23, 16:35:40
Die "AI" lernt aber nicht alle Texturen oder Szenen aus allen Perspektiven auswendig. Das wäre dann die effizienteste Kompression der Welt.
Hier wird salopp gesagt nur die Erkennung von statistische Regelmäßigkeiten gelernt. Solange nicht etwas außergewöhnlich aus der Reihe fällt, ist alles ok.

So habe ich das jetzt auch nicht gemeint. Aber die AI muss doch z b wenigstens lernen, wie die Bäume so in etwa aussehen. Natürlich muss sie nicht alles kennen, aber von einem Stuhl kann die AI doch nicht auf eine Person schliessen. Sie muss also wissen, wie das in etwa aussieht. Also Texturen für bäume müssen dann doch schon vorhanden sein.

Oder liege ich da falsch?

Tesseract
2018-10-23, 18:44:39
das netzwerk ist wohl viel zu simpel um gezielt ganze texturen zu lernen, da geht es eher um so dinge wie zu erkennen welcher bildbereich vegetation enthält und in dieser dann die typischen muster für diese objekte durchzugehen.
das ganze kann man sich wohl sehr grob so vorstellen:

1) bild wird herumgefaltet und gecruncht bis man in etwa weiß in welchem bildbereich "baum" oder andere objektklassen sind.
2) "baum" hat grüne, rundliche flächen (blätter) die in eine bestimmte richtung verzerrt sind
3) erzeuge texturdetail mit rücksicht auf die verzerrung mit frequenz, farben usw. wie sie im referenzbild vorkommen.

und das ganze natürlich nicht vom developer implementiert sondern beim lernen selbst rausgefunden.

mksn7
2018-10-23, 18:49:36
Ich glaube nicht dass tatsächlich Objekte oder Inhalte erkannt werden. Ich denke das Neuronale Netz erkennt einfach nur typische Aliasing Artefakte wie Treppenstufen, und smoothed die dann.

Ein globales Profil wird sicherlich auch funktionieren, ein spiel spezifisches kann noch ein bisschen besser sein.

Tesseract
2018-10-23, 18:51:24
dafür brauchst du kein DL, das kannst du mit stinknormalem post processing auch machen.

mksn7
2018-10-23, 18:59:09
Ich denke das ist auch nicht soviel mehr als ein fortgeschrittenes post processing. Wenn ein neuronales Netz gut erkennt wo Schärfe erhalten bleiben sollte, weil das echte Feautres im Bild sind und wo nicht, dann hat man ja schon was gewonnen. Der upscaling mode (also nicht der 2x mode) fügt noch ein wenig high frequency information hinzu, die typischerweise im Bild drin ist. Es wird ja nicht auf die x-fache Auflösung hochskaliert, sondern nur ein wenig, da muss nicht viel Information 'erfunden' werden.

Tesseract
2018-10-23, 19:12:32
Wenn ein neuronales Netz gut erkennt wo Schärfe erhalten bleiben sollte, weil das echte Feautres im Bild sind und wo nicht, dann hat man ja schon was gewonnen.

und genau den vorgang habe ich anhand eines beispiels beschrieben.

mksn7
2018-10-24, 13:06:08
Ja, aber ich denke nicht dass da tatsächlich Objekte oder auch nur Objektkategorien erkannt werden.

Man könnte ein Netz konstruieren, dass ein komplettes Bild nimmt und daraus ein komplettes Bild erzeugt. Ich denke aber eher dass das viel lokaler funktioniert, und dass für jeden Pixel nur ein paar Pixel außen rum als Kontext dienen.

Man kann ziemlich viele Verfahren als Neuronales Netzwerk formulieren und als Deep Learning verkaufen. Nvidia war bei Bezeichnungen und kreativer Interpretation noch nie besonders zurückhaltend. Sie werden schon etwas mehr machen als nur einen einfachen linearen Filterkernel, aber sicher nicht ein Netz was sämtliche Level auswendigt lernt, wie manche hier sich vorstellen.

RLZ
2018-10-24, 14:58:40
Ja, aber ich denke nicht dass da tatsächlich Objekte oder auch nur Objektkategorien erkannt werden.
Ich auch nicht. Die Erkennung wird im Bereich von "geometrischen Grundobjekten" liegen. Linien und Highlights zu erkennen reicht für das meiste AA aus. Für gute Objekterkennung wäre das Netzwerk zu tief und die Latenz zu hoch.

RLZ
2018-10-24, 15:56:46
Ja, aber ich denke nicht dass da tatsächlich Objekte oder auch nur Objektkategorien erkannt werden.
Ich auch nicht. Die Erkennung wird im Bereich von "geometrischen Grundobjekten" liegen. Linien und Highlights zu erkennen reicht für das meiste AA aus. Für gute Objekterkennung wäre das Netzwerk zu tief und die Latenz zu hoch. Füttert man noch die die Material-ID öä. als Kontext mit rein, wird das vermutlich schon richtig gut.

robbitop
2018-10-24, 16:43:29
Wobei ich mir denke, dass das Bild für Bild sicherlich um ein Vielfaches leichter ist als das auch temporal stabil (ohne temporales aliasing) hinzubekommen. Und das auch noch mit so gering wie möglichen Detailverlust

basix
2018-10-28, 10:30:00
Ich lache mich gerade kaputt. Der Jensen hatte einen offenen Hosenstall bei der RTX Quadro Präsentation :lol: Wahrscheinlich war er so heiss auf RTX, dass es da ein wenig Kühlung brauchte ;D
https://www.flickr.com/photos/nvidia/27181937478/in/photostream/

robbitop
2018-10-28, 11:13:49
Gibts eigentlich schon nähere Tests zum neuen NVENC? Der soll ja massiv besser geworden sein.

Daredevil
2018-10-28, 11:55:49
Gibts eigentlich schon nähere Tests zum neuen NVENC? Der soll ja massiv besser geworden sein.
Das habe ich hier auch schon drei mal gefragt, aber bisher hat das nur Linus angeschnitten.
Wenn das bald nichts wird, mach ich es einfach selber zum Black Friday. :mad:

Troyan
2018-10-28, 12:28:33
Gibt doch noch keine Software mit den Anpassungen.

Daredevil
2018-10-28, 12:35:58
Wie meinste?
Mit Shadowplay ist das doch locker messbar bzw. mit den Plugins als Quelle von herkömmlichen Streaming Programmen wie OBS oder XSplit.

Troyan
2018-10-28, 12:51:44
Die nehmen doch nur mit den Presets auf. Was man messen könnte, wäre die CPU-Auslastung. Ansonsten muss natürlich der neue Encoder auch entsprechend angesprochen werden. Und das wurde soweit ich weiß, noch nicht getan. Laut nVidia soll es ja eine OBS-Version irgendwann geben.

Daredevil
2018-10-28, 13:34:48
Wenn Linus sagt, dass NVENC Hardware Encoding genau so gut aussieht wie x264 Fast und er es auch in deinem Video zeigt im Vergleich zu Pascal, dann wird doch die Hardware angesprochen?!

Oder ist das Rocket Science und ich stehe irgendwo auf dem Schlauch? :D
Wenn man mit NVENC aufnimmt, hat man doch keinerlei CPU Belastung mehr. Darum gehts ja gerade und deswegen ist das auch relativ interessant.

Digidi
2018-10-28, 18:21:51
Info zu Meshhader programming:
https://www.youtube.com/watch?v=KckRq7Rm3Mw

Morgenlicht
2018-10-29, 00:29:00
Test mit NVENC auf Turing?
Scheint zur Zeit noch recht schwierig zu sein, wegen dem NVIDIA Video Codec SDK 8.2 (https://developer.nvidia.com/nvidia-video-codec-sdk), welches laut NVENC-Ecoder Support Matrix (https://developer.nvidia.com/video-encode-decode-gpu-support-matrix#Encoder) nur bis Volta ausgelegt ist.

in diesem externen Thema devtalk.nvidia.com/video-codec-sdk/details-about-nvenc-in-turing-/2 (https://devtalk.nvidia.com/default/topic/1038493/video-codec-sdk/details-about-nvenc-in-turing-/2) gibt es aber Andeutungen, daß die Geschwindigkeit gegenüber der GTX 1080 nicht gut genug ist. Vermutet wird dort, daß nur noch eine Videoeinheit, statt derer zwei in der vorherigen Generation, verbaut sind. Hoffentlich ist das nur eine Fehlinterpretation wegen dem noch nicht Turing unterstützenden Video SDK

TheAntitheist
2018-10-29, 02:19:25
also mit einer 2080 bekomme ich über 100fps in 1080p und höchster qualität bei NVENC. h.265 natürlich.
sonstige settings sind:
10 bit, Adaptive quant an, ref 5, bframes 5. qualität ist auf x264 und slow preset niveau würde ich sagen.

pixeljetstream
2018-10-29, 08:02:45
Info zu Meshhader programming:
https://www.youtube.com/watch?v=KckRq7Rm3Mw

Danke, war dann noch live dabei ;)
Weitere Kommentare von Arseny
https://twitter.com/zeuxcg/status/1056663188165390336?s=19

Digidi
2018-10-29, 11:48:38
Danke, war dann noch live dabei ;)
Weitere Kommentare von Arseny
https://twitter.com/zeuxcg/status/1056663188165390336?s=19

Da habt Ihr doch auch eure Finger im spiel:
http://www.pcgameshardware.de/Unity-Engine-Software-258440/News/Unity-Megacity-Techdemo-1267974/

Locuza
2018-10-29, 11:59:11
Was heißt hier "auch" und "Finger im Spiel"?

pilzsammler2002
2018-10-29, 12:28:35
Was heißt hier "auch" und "Finger im Spiel"?
Glaube das war eher ne Pseudo-Vermutung/Aussage...
Obwohl Unity nicht unbedingt (im gegensatz zur UE4 Engine) Nvidia favoring ist... Siehe 1st Raytracing mit Radeon :freak:

AffenJack
2018-10-29, 13:43:22
Glaube das war eher ne Pseudo-Vermutung/Aussage...
Obwohl Unity nicht unbedingt (im gegensatz zur UE4 Engine) Nvidia favoring ist... Siehe 1st Raytracing mit Radeon :freak:

Und es absolut 0 Anhaltspunkte in der News gibt, dass Nv irgendwas damit zutun hätte. Aber er glaubt ja in jedem Spiel, wo eine Vega nicht auf 1080Ti Niveau ist hat Nv ihre Finger im Spiel.

Digidi
2018-10-29, 16:55:18
Was heißt hier "auch" und "Finger im Spiel"?
Es fehlt ein Fragezeichen :D Aber der Usecase für Mashshader und Taskshader wäre dafür optimal ;)

pixeljetstream
2018-10-29, 21:42:44
Jo wäre er. Aber der Fokus war wohl ein neuer multi-threaded renderer (tweet von Mike Acton) und das lief auch auf dem iPhone!

Digidi
2018-10-29, 21:46:48
Jo wäre er. Aber der Fokus war wohl ein neuer multi-threaded renderer (tweet von Mike Acton) und das lief auch auf dem iPhone!
Auf dem IPhone mit der Polygonenmasse????????:eek:

Was meinen Die mit 4.5M Mesh renderers? sind das Polygonen?

Locuza
2018-10-30, 08:22:04
Meshes bestehen aus mehreren Polygonen.

Ein paar konkrete Messergebnisse zu Nvidias Mesh/Task-Shader mit Culling:
Modern GPUs are crazy. But this GPU is especially so. Scene has 100 Happy Buddhas (100*1.087M tri). Traditional raster takes 17.2 ms. RTX code from my stream (with some perf fixes/tweaks) renders this in 6.3 ms - almost 3x faster. This is 17B triangles per second. 2080 non-Ti.
6.3 ms are timings with SetStablePowerState. SetStablePowerState limits the GPU clocks. Running without SetStablePowerState is faster - 5.5ms. Changing meshlet indices to uint16 (up to 4M vertices/mesh) - 5.4 ms. This is 20.1B triangles per second. TWENTY BILLION TRI/SEC.
Just to clarify since it's ambiguous - RTX refers to "mesh shading code we've been writing on Vulkan streams that runs on an RTX GPU", not "raytracing". 20B tri/sec is the perf of RTX 2080 raster path when using task/mesh shaders + cluster cone culling.
Are you sure you want to know? :) But okay, it's Intel UHD630 and it takes 208ms to render this scene. 0.52B triangles per second :(
https://twitter.com/zeuxcg/status/1057138441710854144

pixeljetstream
2018-10-30, 08:41:33
Yay :) 20 Giga Triangles!!! Take that Primitive Shader ;)

AffenJack
2018-10-30, 09:46:12
Mal wieder was von der Prozessfront für Nvs nächste Produkte:

7LPP Update

The biggest news from Wednesday at 3 PM was the announcement that 7LPP has entered risk production and is expected to ramp throughout 2019. It’s expected that Samsung will be the first EUV-based process to enter mass production, although when and how high-volume it will be next year is still uncertain. Both Qualcomm and Nvidia have products planned for this process.

https://fuse.wikichip.org/news/1750/samsung-7nm-enters-risk-production-talks-roadmap-scaling-boosters-and-the-arm-ecosystem/

Könnten unter Umständen die kleinen Turings (bzw. Nachfolger mit anderem Namen, falls keine kleinen turings mehr kommen) werden, die bei Samsung in 7nm EUV in H2 nächsten Jahres gebaut werden. Ich würde einfach mal vermuten, dass Nvidia 7nm DUV nur für den Volta Nachfolger benutzt und sonst direkt auf die EUV Prozesse geht. Größere Chips dann vielleicht wieder bei TSMC, aber erst 2020.

Dural
2018-10-30, 10:08:21
Dürften irgend welche kleine Chips sein, Tegra?

AffenJack
2018-10-30, 10:28:53
Xavier ist erst ganz neu, der kriegt erst später sein Update. Ich vermute einfach die kleineren Turings, weil es um die bisher so still ist. Ich kann mir kaum vorstellen, dass Nv Mitte nächsten Jahres noch 12nm GPUs launcht, aber GP106 und GP107 brauchen Nachfolger.
Es schwirrt ja TU116 und TU117 rum. Man nehme an, der TU116 wäre wie GP106 ein halber GP104 ist + 64Bit Interface, ein halber TU104, weiterhin mit 128Bit Interface. In 16nm grob 300 mm² groß.

Samsungs 7nm EUV Prozess für High Performance hat eine deutlich höhere Transistordichte als TSMC 7nm HPC DUV (67 MTr/mm2 vs 81 MTr/mm2 bei Samsung).
Damit ist man dann nicht nur bei 2,2x Density gegenüber 16/14nm wie TSMC, sondern 2,6x Density.

Also bei Samsung 7nm EUV ~120 mm² für 1536 Shader mit 128 Bit Interface. Klein genug das Ding früh genug zu produzieren. Dazu ein 96 Bit TU117 mit 896 Shadern in ~90mm².
Fertig hätte man sein 20 Series Lineup mit den wichtigen Notebook und Mainstreamchips. Beide Chips sind in Größenregionen von Mobile SoCs und könnten recht früh im Prozess produziert werden.

Digidi
2018-10-30, 12:21:19
Yay :) 20 Giga Triangles!!! Take that Primitive Shader ;)

Bei 1800 MHz sind das nur 11 Polygonen pro Takt und nicht 17 wie bei PS :P

aufkrawall
2018-10-30, 12:36:58
Test mit NVENC auf Turing?
Scheint zur Zeit noch recht schwierig zu sein, wegen dem NVIDIA Video Codec SDK 8.2 (https://developer.nvidia.com/nvidia-video-codec-sdk), welches laut NVENC-Ecoder Support Matrix (https://developer.nvidia.com/video-encode-decode-gpu-support-matrix#Encoder) nur bis Volta ausgelegt ist.

Ein Quote von dort:
Yeah it’s all gone a bit quiet. The NVidia guy in the other thread has said it’ll be months before a new SDK or they update anything, which is disappointing as they were the ones going on about this mythical 25% improvement in bitrate for the same Q.
Erinnert frappierend an RT und DLSS. ;D

pixeljetstream
2018-10-30, 13:24:34
Bei 1800 MHz sind das nur 11 Polygonen pro Takt und nicht 17 wie bei PS :P
Mit dem Unterschied, dass der Wert unabhängig gemessen wurde auf einer Applikation die jemand selbst gebastelt hat :)
Komme auf ca. 18 in einem Test in einem Sample von mir. (35M triangles, 1.03 ms auf der rtx6000). Aber im Prinzip ist es leicht hier irgendwelche zahlen zu generieren weil es ja ums verwerfen geht.

Digidi
2018-10-30, 15:03:00
Gibt es denn ein theoretisches Limit?

HOT
2018-10-30, 15:06:51
Der hat ganz sicher nicht den teuren 7LPP. Mit 7LPP fangen jetzt Samsung selber und Qualcomm an, aber ganz sicher net NV und schon gar nicht die Billigchips.
Das wird schon stimmen mit den 8LPP, nur eben nur für die kleinen GTX-Varianten, denn der Yield wird zu kacke gewesen sein bei den großen, deshalb sind die 12nm.

pixeljetstream
2018-10-30, 18:26:34
Gibt es denn ein theoretisches Limit?

Es gibt beim culling kein direktes primitive Limit wenn alles Shader basiert ist. Weil die Anzahl der primitive ja programmierer Sache sind.

Die zwei Schritte am Ende haben Limits aber wenn du vorher nix erzeugst läufst du auch nicht da rein.

DrawCall > Shader Warps > viewport transform (vpc) > rasterization

Das ist der grobe Ablauf. Wenn du alles im Shader cullst, greifen wie bei compute die limits: wie schnell kann die Hardware Warps erzeugen, parallel abarbeiten etc. Und wie viel Daten brauchst du als Programmierer um deine Primitive zu erzeugen.

Digidi
2018-10-30, 21:19:24
Es gibt beim culling kein direktes primitive Limit wenn alles Shader basiert ist. Weil die Anzahl der primitive ja programmierer Sache sind.

Die zwei Schritte am Ende haben Limits aber wenn du vorher nix erzeugst läufst du auch nicht da rein.

DrawCall > Shader Warps > viewport transform (vpc) > rasterization

Das ist der grobe Ablauf. Wenn du alles im Shader cullst, greifen wie bei compute die limits: wie schnell kann die Hardware Warps erzeugen, parallel abarbeiten etc. Und wie viel Daten brauchst du als Programmierer um deine Primitive zu erzeugen.
Interessante News dann läuft Mesh Shader also über das Shader Arry ;) Danke für die Info

pixeljetstream
2018-10-30, 23:18:26
Interessante News dann läuft Mesh Shader also über das Shader Arry ;) Danke für die Info

Jeder "shader" code ist identisch was die Ausführung auf der HW angeht. Der Programmcode wird von den SMs/CUs ausgeführt die dazu ihre execution units nutzen. Den Mesh/Task shader programmiert man wie jeden anderen auch.

Digidi
2018-10-31, 15:52:08
Jeder "shader" code ist identisch was die Ausführung auf der HW angeht. Der Programmcode wird von den SMs/CUs ausgeführt die dazu ihre execution units nutzen. Den Mesh/Task shader programmiert man wie jeden anderen auch.
Exekution Units sind doch Shader? Das Villingen wird praktisch durch die Mesh/taskshader auf die normalen Shader umgelegt?

pixeljetstream
2018-11-01, 00:46:40
Exekution Units sind doch Shader? Das Villingen wird praktisch durch die Mesh/taskshader auf die normalen Shader umgelegt?

Villingen = Autokorrektur von Culling? Dann Ja, aber man schaltet zumindest bei uns das hw-culling nicht ab, man schickt nur weniger Arbeit dahin.

Für mich ist shader der Programmcode ;) finde die alten Marketing Namen unglücklich und verwirrend (Shader/cuda cores etc.).

Dural
2018-11-14, 09:36:24
Von NV kommen in 2019 "massive" mengen an 7nm Chips.

Da bin ich ja mal gespannt, es würde mich nicht mal verwundern wenn NV zuerst 7nm Chips ausliefert, jedenfalls in Stückzahlen.

Timbaloo
2018-11-14, 10:10:18
Gibt's eigentlich noch keinen Thread für eine "post-Turing"-Generation?

AffenJack
2018-11-14, 12:32:41
Von NV kommen in 2019 "massive" mengen an 7nm Chips.


Quelle? Oder nur Vermutungen?

Dural
2018-11-14, 13:10:35
Kommt sicher bald in die news, die angabe soll direkt von TSMC über Digitimes kommen, so wie sich das anhört sogar mehrere gpus.

Hübie
2018-11-14, 13:58:54
Wer sagt dass die kommenden Chips auf RTX oder GTX Karten verlötet werden? Das Wachstum findet gerade an anderer Stelle statt. ;) Gaming-GPUs werden doch aktuell teuer genug verkauft...

AffenJack
2018-11-14, 14:29:29
Kommt sicher bald in die news, die angabe soll direkt von TSMC über Digitimes kommen, so wie sich das anhört sogar mehrere gpus.

Aha und das weißt du aufgrund deines guten Drahtes zu TSMC? Verzeih mir, wenn ich bei solchen Aussagen außerst skeptisch bin.

Nebenbei hat Hübie aber natürlich auch recht. Volta wird 2019 2 Jahre alt und wette wir werden auf der GTC2019 den Nachfolger in 7nm sehen. Schon da wird man so einige 7nm Wafer für brauchen.

Sunrise
2018-11-14, 14:32:40
Von NV kommen in 2019 "massive" mengen an 7nm Chips.

Da bin ich ja mal gespannt, es würde mich nicht mal verwundern wenn NV zuerst 7nm Chips ausliefert, jedenfalls in Stückzahlen.
Dann träum mal weiter...

Was du sehen wirst, aber zu 100% sicher nichtmehr 2018 (AMD liefert noch 2018 aus), ist zuerst die 7nm HPC GPU die alleine schon Massen an Wafern benötigt. Volta ist am Limit dessen was möglich war, 7nm kommt daher sehr früh, hat ja auch echt niemand so kommen sehen...

Dass NV Turing so früh schon ablöst wäre nur sinnvoll, wenn 7nm insoweit "gereift ist", dass die Margen darunter nicht leiden und ein vor kurzem vorgestelltes Line-Up dadurch nicht direkt obsolet wird. NV hat sich schon aus gutem Grund dafür entschieden, auf 12nm zu bleiben.

Was NV benötigt, wäre im preissensitiveren Bereich eine starke Konkurrenz für Navi, hier könnte man dann die 7nm-Vorteile inkl. NVs sowieso schon starkem Effizienzvorteil wohl noch weiter ausbauen. Also quasi der "echte" Nachfolger von GP104. Alles darüber ist viel zu teuer und würde NV nur unnötig selbst die Zahlen verhageln.

Ravenhearth
2018-11-14, 14:35:21
Ist die 7nm HPC GPU/Architektur für 2019 immer noch Ampere?

Dural
2018-11-14, 18:08:59
2018 ist gleich 2019 :rolleyes:

Stückzahlen ist gleich Vega20 :rolleyes:

Nein :wink:

Zuerst wird wohl ein HPC Chip kommen, ja. Danach was kleines gegen Navi.

Hübie
2018-11-14, 18:14:35
Ist die 7nm HPC GPU/Architektur für 2019 immer noch Ampere?

Gute Frage, denn von Ampére hört und liest man nix. Gut möglich dass Turing mal Ampére war. Es wird jedenfalls nicht mehr sehr lange dauern bis es neue Häppchen gibt. Das sagt mir mein Bauchgefühl irgendwie. :wink::wink:

Dural
2018-11-14, 21:07:22
https://www.pcbuildersclub.com/2018/11/leak-nvidia-produziert-2019-7nm-grafikkarte-bei-tsmc/amp/

Hübie
2018-11-15, 01:13:51
An so etwas wie SoC und DrivePX will noch keiner so recht denken?

Troyan
2018-11-16, 00:58:32
Laut Huang wird Turing auch in die unteren Produktkategorien kommen. Damit sollte das Thema, ob die kleineren Chips ähnliche Funktionen aufweisen, sich erledigt haben.

Linmoum
2018-11-16, 01:06:47
Für RT braucht man halt auch leistungsstarke 720p-Karten, die nicht so teuer sind.

gravitationsfeld
2018-11-16, 01:11:25
Laut Huang wird Turing auch in die unteren Produktkategorien kommen. Damit sollte das Thema, ob die kleineren Chips ähnliche Funktionen aufweisen, sich erledigt haben.
Nur weil es Turing ist heisst es noch lange nicht, dass auch alle Features implementiert werden.

Nuvirus
2018-11-16, 02:02:51
Was aus meiner Sicht für 7nm Refresh oder generell neue Karten spricht sind die hohen Die Sizes also falls 7nm besser/günstiger als 12nm für Tu104 zu fertigen ist könnte Nvidia da natürlich was bringen evtl dann ja als zusätzlichen Anreiz mal mit mehr Speicher.

Fragman
2018-11-16, 08:37:55
Was aus meiner Sicht für 7nm Refresh oder generell neue Karten spricht sind die hohen Die Sizes also falls 7nm besser/günstiger als 12nm für Tu104 zu fertigen ist könnte Nvidia da natürlich was bringen evtl dann ja als zusätzlichen Anreiz mal mit mehr Speicher.

Die DIE Sizes fuer nv next werden aber auch nicht klein. Glaub war wieder bis zu 500mm^2 hoch. Ob das unter 7nm dann soviel billiger wird, muss man abwarten.
In der aktuellen 1080 Preisregion könnte sich vielleicht etwas tun, aber der Performancebereich ist ja auch nicht der interessante, oder? ;)

Nuvirus
2018-11-16, 11:17:46
Die DIE Sizes fuer nv next werden aber auch nicht klein. Glaub war wieder bis zu 500mm^2 hoch. Ob das unter 7nm dann soviel billiger wird, muss man abwarten.
In der aktuellen 1080 Preisregion könnte sich vielleicht etwas tun, aber der Performancebereich ist ja auch nicht der interessante, oder? ;)

Ja da könnte es sein das die ersten Schritte kommen, ich kann mir trotzdem nicht vorstellen das Nvidia absichtlich lang wartet 12nm zu ersetzen außer man kommt direkt mit ner neuen Architektur/leichten generellen Turing Verbesserungen zusammen mit dem Shrink und es verzögert sich nicht extrem.

Wenn die Kapazitäten und die Fertigung reif ist könnte ich mir schon vorstellen das TU106 und TU104 Nachfolger kommen - den TU104 7nm Refresh könnte man durch die hohen Taktraten wohl auch Performancemäßig hochschrauben und damit auch die 2080Ti als 3080 ersetzen ohne riesen Die Size wie damals bei der 1080.
Dazu könnte Nvidia einfach 8 und 16GB Karten für die 3080 rausbringen dann wäre es auch vom Speicher her kein Problem.
Die TU102 schätze ich auch das diese wie bei Pascal erst später mit nem Big Chip ersetzt wird.
Das ganze natürlich abhängig davon das 7nm vernünftig mit guten Yields läuft.

Dazu kommt halt das die aktuellen Verkäufe wohl nicht so toll laufen da wird man nicht bis 2020 warten sondern sobald wie möglich ich tippe so auf Q4 2019 das die ersten kommen aber halt nicht der Big Chip.

fondness
2018-11-16, 12:13:06
Was aus meiner Sicht für 7nm Refresh oder generell neue Karten spricht sind die hohen Die Sizes also falls 7nm besser/günstiger als 12nm für Tu104 zu fertigen ist könnte Nvidia da natürlich was bringen evtl dann ja als zusätzlichen Anreiz mal mit mehr Speicher.

Das wird nicht passieren. 7nm ist pro Transistor(!) erheblich teurer als 12nm und das wird auch so bleiben.

Setsul
2018-11-16, 13:37:49
Kommt darauf an was man unter erheblich versteht.

https://m.eet.com/images/eetimes/2016/06/1329887/Handel1.png
Ist schon etwas älter, aber so falsch ist es nicht.

Also doppelte Kosten pro Wafer ja, aber so viel teurer sind die Transistoren nicht. Wenn man größere Transistoren braucht als das Minimum (z.B. für I/O) dann wirds natürlich teurer, aber generell ist das Problem, dass die Designkosten massiv ansteigen und die Transistoren nicht billiger werden um das zu kompensieren. Das ist aber schon seit 20nm so.

12nm ist natürlich kompliziert. Der Wafer kostet genauso viel wie bei 16/14nm, aber ein paar Prozent weniger Fläche wegen kleinerere Libs (9->7.5T oder 7.5->6T) sparen natürlich unabhängig von der Transistoranzahl ein paar Prozent Kosten. Abgesehen von den Designkosten steht das gegenüber 28nm dann gar nicht so schlecht da.

Bei GPUs ist der Vorteil von 7nm noch recht deutlich, halber Stromverbrauch oder doppelte Einheiten, dafür kann man Geld verlangen. Wenn man die Stückzahlen hat (und nVidia hat sie) kann man damit auch die Designkosten wieder reinbringen.

NVidia wird Turing ganz normale eine Generation durchlaufen lassen und dann so wie mit Pascal das gleiche in 7nm nochmal bringen. Das dauert Jahre. Kein Grund 300 Millionen für einen neuen 7nm Chip rauszuwerfen solange AMD nichts zu bieten hat und man 700$ für den "alten" 12nm Chip bekommt.

Sunrise
2018-11-16, 14:27:48
Ich wünsche mir aber doch ganz doll, dass NV endlich 7nm GPUs für mich zusammenbaut, verdirb mir und den anderen doch jetzt nicht den Spaß hier, sonst hab ich nichts mehr zu tippen. :rolleyes:

Ein HPC-Chip ist mir viel zu teuer! Und Turing ist auch zu teuer! Ich will aber unbedingt NV kaufen, weil die so geil sind.

7nm ist übrigens das Allheilmittel, damit werden wir endlich billigere Produkte sehen, ich sags euch!

Ich leg mich dann mal wieder hin und warte ab, bis TSMC mehr Produktionskapazität hat, die verschenken die nämlich momentan an alle Interessenten, weil die ja unbedingt Kunden gewinnen wollen! Ja, ist echt ein hartes Geschäft.

Fragman
2018-11-16, 15:39:30
Naja,
man kann ja vielleicht die Hoffnung haben, für 500 Euro eine 3080 RTX mit doppelter RT aber gleicher Rasterizer Leistung zu bekommen inkl 10GB Ram. Vielleicht nicht soo abwegig?

RLZ
2018-11-16, 16:38:32
Naja,
man kann ja vielleicht die Hoffnung haben, für 500 Euro eine 3080 RTX mit doppelter RT aber gleicher Rasterizer Leistung zu bekommen inkl 10GB Ram.
Da könnte man drüber spekulieren, wenn man die aktuellen Bottlenecks kennen würde.

TobiWahnKenobi
2018-11-16, 16:41:32
https://abload.de/img/1kw3ycy0.jpg
8700K auf Z370 mit 2x RTX 2080Ti @ je 380W PL unter last

im märz gibts kommendes jahr wohl eher nichts zurück /eon.


(..)

mfg
tobi

Dural
2018-11-16, 16:43:10
500.- für eine 3080 könnt ihr vergessen.

Eine 3080 / xx104 dürften eher bei 800-900.- starten.

Fragman
2018-11-16, 17:03:29
Mir ging es eher um die Leistung, verglichen mit einer heutigen 2080. Also gleiche Rasterizer Leistung, doppelte RT Leistung und etwas mehr Ram bei deutlich niedrigerem Preis dank 7nm.
Eine "echte" 3080 erwarte ich auch nicht zu diesem Preis. War falsch ausgedrückt. ;)

Daredevil
2018-11-16, 17:26:06
https://abload.de/img/1kw3ycy0.jpg
8700K auf Z370 mit 2x RTX 2080Ti @ je 380W PL unter last

im märz gibts kommendes jahr wohl eher nichts zurück /eon.


(..)

mfg
tobi
Uff, nicht mal ein richtiges SLI Brett. Da muss aber mehr gehen. :D

https://youtu.be/84OkcOYmXOk?t=263

Edgecrusher86
2018-11-16, 17:36:21
Mit NVLINK ist es egal, ob 3.0 x8 x8 oder x16 x16 - getestet in 4K oder höher (5K/8K DSR).
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11833577#post11833577

TobiWahnKenobi
2018-11-16, 17:56:46
Mit NVLINK ist es egal, ob 3.0 x8 x8 oder x16 x16 - getestet in 4K/5K DSR.
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11833577#post11833577

ja, so hatte ich das im vorfeld auch verstanden. da wo es funktioniert, funktioniert es auch ganz gut. etwa im alten battlefront.. UHD mit 200fps.. *gg* nett wäre es mit RTX in BFV, aber das scheint wohl nicht so vorgesehen zu sein.

im moment fahre ich noch mit handbremse, damit meine PSU nicht hochgeht; sie ist nur für 850W spezifiziert und ein NT mit 1200W ist im zulauf. glaube zwar nicht dran, aber DHLs sendungsverfolgung sagt "heute bis 20 uhr.."

btw,
besagtes battlefront kann meinen PC abschalten.. wenn ich z.b. 200% resolution scale zuschalte.. klack - NT aus.


edit:
lieferung doch erst morgen :-( also wird es montag.. morgen gibts nur die benachrichtigungskarte, dass ich selbst abholen darf.


(..)

mfg
tobi

Edgecrusher86
2018-11-16, 18:01:40
Zumindest hätte man seitens DICE/NV mit dem Update auch zeitgleich DLSS für 4K und WQHD anbieten können - beim Drop mit RTX on käme ein Boost von 30-40% gerade recht.

Mal schauen, ob D3D12AFR da auch noch später kommt...

Zumindest läuft es mit der Ti ja ordentlich in oldschool 1080p und RTX low. ;)

TobiWahnKenobi
2018-11-16, 18:07:27
Zumindest hätte man seitens DICE/NV mit dem Update auch zeitgleich DLSS für 4K und WQHD anbieten können - beim Drop mit RTX on käme ein Boost von 30-40% gerade recht.

Mal schauen, ob D3D12AFR da auch noch später kommt...

ich will da jetzt nicht falsches sagen, aber ich meine im OSD 1-82fps gesehen zu haben (RTX on @WQHD an meinem pc). ich hatte wenig zeit. einen tag vor dem RTX update lief bfv tadellos. am RTX-tag startete mein spiel nicht und wieder einen tag später hatte ich keine zeit mehr aber BFV startete wieder. habe davon also noch nicht soviel gesehen, wie ich gern gesehen hätte. ich wollte es mir auch noch im wohnzimmer am krüppel-PC anschauen, aber da ist nichtmal 1809 drauf (warum auch immer).

vllt. komme ich ja dazu während mich die warterei auf die PSU am spiele-PC weiter bremst.

//
ja, afr-unterstützung wäre wünschenswert.
kam das bei dice nicht immer irgendwann als patch hinterher?!


(..)

mfg
tobi

Edgecrusher86
2018-11-16, 18:15:20
Früher eigentlich gleich zu Release - bei BF1 wohl im September 2017 (habe das Spiel nicht):
https://www.youtube.com/watch?v=uz1ZO5gLCT0

Also in 4K RTX Ultra im SP hatte ich mindestens 16 fps gesehen - 2,1 GHz T - hier dreht die zweite Karte leider auch Däumchen:
https://www.youtube.com/watch?v=8x89GUEIcUU
8:08ff

Im MP ist sicher deutlich weniger möglich - habe schon gehört von 28 fps Min @ 2,1x GHz im Spiegelsaal Rotterdam @ 3440. :D

Slipknot79
2018-11-16, 19:34:58
https://abload.de/img/1kw3ycy0.jpg
8700K auf Z370 mit 2x RTX 2080Ti @ je 380W PL unter last

im märz gibts kommendes jahr wohl eher nichts zurück /eon.


(..)

mfg
tobi


N1, rechnet die Energie sofort in Masse um. :redface: :wink:

Daredevil
2018-11-16, 23:15:56
Uff, nicht mal ein richtiges SLI Brett. Da muss aber mehr gehen. :D

https://youtu.be/84OkcOYmXOk?t=263
Mit NVLINK ist es egal, ob 3.0 x8 x8 oder x16 x16 - getestet in 4K oder höher (5K/8K DSR).
https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11833577#post11833577
Und wie erklärt man sich dann die Ergebnisse in dem Video?

Blaire
2018-11-17, 01:47:12
Und wie erklärt man sich dann die Ergebnisse in dem Video?

Ja seltsame Testmethoden haben die... zu Ashes of the Singularity (https://www.gamersnexus.net/guides/3366-nvlink-benchmark-rtx-2080-ti-pcie-bandwidth-x16-vs-x8) hättest auch den Text lesen müssen:
"For the 2080 Tis, we removed the NVLink bridge and just tested them via explicit multi-GPU via the PCIe bus."
AotS ist da bislang die Ausnahme und bieten gleich mehrere MultiGPU-Modis an (Explicit linked/unlinked usw.). Alle anderen DX12 MultiGPU-Umsetzungen setzen die NVLink- bzw. SLI-Bridge-Sync voraus.

ChaosTM
2018-11-17, 02:49:55
Ashes kann/konnte auch MultiGPU mit AMD und NV. Erinnere mich da an einen Test mit Fury und 980ti.
Geht das noch ?

Blaire
2018-11-17, 03:28:19
Ashes kann/konnte auch MultiGPU mit AMD und NV. Erinnere mich da an einen Test mit Fury und 980ti.
Geht das noch ?

Hab ich persönlich nie ausprobiert, durchaus möglich das dies immer noch funktioniert. Ist jedoch keine gute Idee, denn die Latenzwege länger über PCIe.

davidzo
2018-11-19, 21:36:16
Hat eigentlich schon jemand geklärt auf was die Tesla T4 basiert?
Custom Server-silicon oder doch einfach TU106?

https://www.anandtech.com/show/13619/scaling-inference-with-nvidias-t4-a-supermicro-solution-with-320-pcie-lanes
https://techreport.com/news/34091/nvidia-tesla-t4-brings-turing-smarts-to-ai-inferencing

Es soll ja eine Turing "GPU" drin stecken, mit 2560 Shadern bei 8,1Tflops, Tensor-Cores, und immerhin 320gb/s Speicherbandbreite bei 16GB RAM.

8,1Tflops entspricht einem maximalen Turbo von 1600mhz. Die RTX2070 hat mit 1710 mhz bei jedoch weniger shadern nur unwesentlich mehr Turbo-takt, aber eine um den Faktor 2,3 höhere TDP.

Interessant dass es eine low profile karte ist, das ist bei 256bit sicher nicht einfach zu routen.

y33H@
2018-11-19, 23:10:08
TU104 freilich.

https://www.golem.de/news/tesla-t4-nvidia-bringt-googles-cloud-auf-turing-1809-136548.html

davidzo
2018-11-20, 20:52:02
tu104 auf 75W?

kraaassss


edit: Sieht nicht so aus als hätte Golem irgendeine offizielle Bestätigung für die Vermutung, andere Seiten haben TU104 nur als klare Vermutung dahingestellt. Da ist so einiges im Golem-Artikel falsch, z.B das hier:
Wie gehabt handelt es sich um ein Dualslot-Modell mit passiver Kühlung und ohne Display-Ausgänge, die Verlustleistung wird auf 75 Watt beziffert, weshalb der PCIe-Slot zur Stromversorgung ausreicht.
Blödsinn, das ist eine single slot half height Karte! Das slotblechverhältnis Länge zu Breite ist zwar dasselbe wie bei dualslot, aber wenn man genau hinschaut sieht man am Slotblech nur eine Zunge und eine Befestigungsschraube. Die Karte ist viel kleiner als sie aussieht, bloß weil die proportionen gleich geblieben sind, aber die absoluten kantenlängen eben nicht.

SKYNET
2018-11-21, 02:05:47
TU104 freilich.

https://www.golem.de/news/tesla-t4-nvidia-bringt-googles-cloud-auf-turing-1809-136548.html


mit nur 320gb bandbreite? entweder ist der speicher extrem lahm getaktet(wovon ich ausgehe bei 75W) oder die anbindung ist beschnitten...

Timbaloo
2018-11-21, 20:41:22
Das ist halt 10GBps DDR6...

y33H@
2018-11-22, 07:09:28
Nvidia sagte TU104 im Call, bei 2560 ALUs kann es kein TU106 sein.

Blödsinn, das ist eine Single Slot Half Height Karte!Ja, das war falsch, ist korrigiert ... hab aufm Foto selbst noch mal geschaut, kA wie ich auf Dualslot kam :(

64848

reaperrr
2018-11-22, 11:39:49
Das ist halt 10GBps DDR6...
Schätze ich auch, mindestens Hynix hat den auch mit 1.25V statt 1.35V im Angebot, das ist dann wahrscheinlich fast eine Halbierung des Verbrauchs gegenüber 14Gbps @1.35V.
Und SI+MemController der GPU takten ebenfalls entsprechend niedriger und laufen evtl. ebenfalls mit weniger Spannung.

Troyan
2018-11-22, 13:49:41
RTX 2060 im FF15 Benchmark aufgetaucht: https://videocardz.com/newz/nvidia-geforce-rtx-2060-final-fantasy-xv-benchmark-result-spotted

SKYNET
2018-11-22, 14:34:34
RTX 2060 im FF15 Benchmark aufgetaucht: https://videocardz.com/newz/nvidia-geforce-rtx-2060-final-fantasy-xv-benchmark-result-spotted

wenns kein fake ist: trauerspiel.... dürfte mit sicherheit 400 taler kosten... dafür nimmt man dann gescheiter ne 1070Ti, weil RTX kann man auf dem ding eh 100% knicken ausser in 720p mit low RT setting... halt überflüssig wie jede turing unterhalb der 2080Ti

dildo4u
2018-11-22, 14:37:53
Die soll kein RTX haben,die Die wird also deutlich kleiner sein.

Timbaloo
2018-11-22, 15:21:59
Ich würde tippen: kein RT aber trotzdem TC (für DLSS).

reaperrr
2018-11-22, 17:47:22
wenns kein fake ist: trauerspiel.... dürfte mit sicherheit 400 taler kosten... dafür nimmt man dann gescheiter ne 1070Ti, weil RTX kann man auf dem ding eh 100% knicken ausser in 720p mit low RT setting... halt überflüssig wie jede turing unterhalb der 2080Ti
RT Cores wird die nicht haben.

Abgesehen davon rechne ich nach den Werten fest mit 2/3 der 2070 Specs (bzw. 3/4 beim SI, aber evtl. mit geringerem Speichertakt).
Also 20% mehr SM und etwas mehr IPC je SM ggü. der 1060.

Dural
2018-11-22, 21:05:52
Wie so sollte die das nicht haben?

SKYNET
2018-11-22, 22:19:09
RT Cores wird die nicht haben.

Abgesehen davon rechne ich nach den Werten fest mit 2/3 der 2070 Specs (bzw. 3/4 beim SI, aber evtl. mit geringerem Speichertakt).
Also 20% mehr SM und etwas mehr IPC je SM ggü. der 1060.


dann würd sie aber GTX 2060 heissen, nicht RTX... obwohl, NV wäre auch das zu zutrauen, das sie kunden mit dem kürzel verarschen...

Dural
2018-11-22, 23:37:35
Ja nv sind ja die, die den gleichen chip drei mal unter neuem namen verkaufen :rolleyes:

pilzsammler2002
2018-11-22, 23:50:02
Ja nv sind ja die, die den gleichen chip drei mal unter neuem namen verkaufen :rolleyes:

RX 580 != RX 590... :)

SKYNET
2018-11-23, 01:39:57
Ja nv sind ja die, die den gleichen chip drei mal unter neuem namen verkaufen :rolleyes:


und, pascal war ja auch nur nen lauwarmer aufguss von maxwell... :P

und intel machts ja auch nicht anders... was hat sich nochmal seit der 6th gen getan bei intel ausser mehr kerne und takt? :freak:


und der 3. aufgruss der RX langt um NV bis kommendes frühjahr, das wasser abzugraben, weil vorher kommt die 2060 nicht, und die wird eh nen batzen teurer sein :smile:

Rampage 2
2018-11-23, 03:17:24
RT Cores wird die nicht haben.

Abgesehen davon rechne ich nach den Werten fest mit 2/3 der 2070 Specs (bzw. 3/4 beim SI, aber evtl. mit geringerem Speichertakt).


Dann hätte das Ding wieder nur 6GB VRAM - Polaris kann schon seit Längerem mit seinen 8GB VRAM erfolgreich gegen die 1060 werben... ich glaube nicht, dass NV so fahrlässig sein wird 2019 immer noch zu wenig Grafikspeicher zu verbauen.

Ich tippe auf ein voll intaktes SI mit 256Bit @ GDDR5 oder aber ein 128Bit SI mit 16Gbit GDDR6 (mit dem höchstmöglichen Takt; 16-18 Gbps), so dass sich in beiden Fällen 8GB VRAM ergibt.


Also 20% mehr SM und etwas mehr IPC je SM ggü. der 1060.

20% mehr SM und 20% höhere IPC als Pascal;)

Aber selbst damit könnte sie nicht mit einer 1070 gleichziehen. Ich glaube, diesmal wird NV nicht so hohe Preise verlangen können wie noch bei der 1060 - jene erreichte ja immerhin die gleiche Leistung wie die HighEnd-GPU der Vorgängergeneration (GTX 980), was die 2060 dieses Mal offensichtlich nicht schaffen wird...

R2

Dural
2018-11-23, 10:12:15
Der Wert ist so wie so ein Fake, die Karte müsste eigentlich so schnell wie eine 1070 sein.


@SKYNET
Ich würde Vorschlagen das du mal die verkaufszahlen der 1060 und 580 vergleichst.

Und Pascal hat übriges sehr viele Änderungen, die Architektur wurde auf hohen Takt Optimiert. Etwas was AMD bis heute nicht hinbekommen hat. So viel zum Thema keine Änderungen.