PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Angebliche Launchtermine zu GeForce GTX 1160, 1170 & 1180 aufgetaucht


Leonidas
2018-07-23, 17:00:10
Link zur News:
https://www.3dcenter.org/news/angebliche-launchtermine-zu-geforce-gtx-1160-1170-1180-aufgetaucht

matty2580
2018-07-24, 00:46:05
Irgendwie wiederholen sich alle Meldungen dazu nur.
Habt ihr euch überhaupt das Vidieo angesehen?

https://www.youtube.com/watch?v=UBbyACygmAs&t=1m28s

Da ist ab 01:30 auch die Rede von einem DX 13, was für mich die viel größere Überraschung ist, als die vermutlich "geratenen" Release-Date der neuen Turing-GPUs.

Offensichtlich baut MS wenn die Meldung stimmt ein neues DX 13 auf, mit Raytracing als Schwerpunkt. Dann könnte die Verschiebung von Turing auch daran liegen.

Gast
2018-07-24, 09:10:02
Raytracing wird in den nächsten Jahren weiterhin völlig uninteressant bleiben auch wenn Nvidia uns etwas anderes behauptet. Die Leistung der Grafikkarten müsste sich mindestens verdoppeln besser noch vervierfachen damit das anständig umgesetzt werden kann. Alle paar Jahre das selbe, irgendjemand holt Raytracing aus der Mottenkiste und predigt das es der shit schlechthin ist und am Ende scheitert es wieder an der nicht vorhandenen Leistung.

pilzsammler2002
2018-07-24, 09:34:00
Offensichtlich baut MS wenn die Meldung stimmt ein neues DX 13 auf, mit Raytracing als Schwerpunkt. Dann könnte die Verschiebung von Turing auch daran liegen.
Hauptsache es wird kein DX11 + Raytracing sondern geht weiter richtung LL-Api :freak:

Iscaran
2018-07-24, 09:51:58
Bei Min 2:28 werden auch Verkaufspreise kolportiert...
https://www.youtube.com/watch?v=UBbyACygmAs&amp=&t=2m28s

719-729 $ für eine GTX 1180.

Das wären bei aktuellem Kurs von 1.1693 $/€ inkl 19% Mwst Aufschlag dann ca 742 €. (729/1.1693*1.19)

Mit kleinem Transport/Händler Aufschlag würde ich mal von >749€ ausgehen.

Und das wäre die non-Ti. Selbst schuld wer soviel Geld für GPU ausgibt. :-).

Ich warte auf die 1150 maximal 1160 für <300€ (oder entsprechende alternativen anderer Hersteller in dem Segment).

Pirx
2018-07-24, 09:54:04
Das können doch nur 12 nm GPUs sein (oder?) - und das soll dann für so einen großen Leistungssprung reichen?

Radeonfreak
2018-07-24, 09:54:21
719-729 $ für eine GTX 1180.

Das wären bei aktuellem Kurs von 1.1693 $/€ inkl 19% Mwst Aufschlag dann ca 742 €. (729/1.1693*1.19)

Mit kleinem Transport/Händler Aufschlag würde ich mal von >749€ ausgehen.

Und das wäre die non-Ti. Selbst schuld wer soviel Geld für GPU ausgibt. :-)..

Naja, ich hab im Mai 2016 806 € für die 1080 bezahlt. Das wär ja ein Schnäppchen. :freak:

MasterElwood
2018-07-25, 13:05:16
Raytracing wird in den nächsten Jahren weiterhin völlig uninteressant bleiben auch wenn Nvidia uns etwas anderes behauptet. Die Leistung der Grafikkarten müsste sich mindestens verdoppeln besser noch vervierfachen damit das anständig umgesetzt werden kann. Alle paar Jahre das selbe, irgendjemand holt Raytracing aus der Mottenkiste und predigt das es der shit schlechthin ist und am Ende scheitert es wieder an der nicht vorhandenen Leistung.

"verdoppeln besser noch vervierfachen" is doch super!!! Ohne diesem "AI-denoisen" wären wir immer noch so um Faktor 100x weg :smile:

Aber natürlich muss man VORHER anfangen das "Chicken-Egg" Problem anzugehen.

Turing: RT Demos.
After Turing: Vereinzelt Effekte in Games
After After Turing: Alles was Reflection ist wird über RT gemacht.
After After After Turing: Ray Tracing. Ray Tracing EVERYWHERE! :cool:

Es KOMMT jez. Wir müssen nur die nächsten paar Jahre absitzen :biggrin:

Gast
2018-07-25, 23:13:14
Turing: RT Demos.
After Turing: Vereinzelt Effekte in Games
After After Turing: Alles was Reflection ist wird über RT gemacht.
After After After Turing: Ray Tracing. Ray Tracing EVERYWHERE! :cool:

Es KOMMT jez. Wir müssen nur die nächsten paar Jahre absitzen :biggrin:


Die Frage ist der Kosten/Nutzen-Faktor.

Egal wie viel Rechenleistung du hast, Raytracing wird immer viel teurer bleiben.
Dementsprechend ist es nur sinnvoll Raytracing für Dinge einzusetzen die mit Rasterizing gar nicht oder nicht in der Qualität möglich sind.
Die Frage ist wie kann ich mit der gegebenen Rechenleistung die beste Qualität erzeugen. Und hier ist Raytracing nicht zwangsweise besser.
Man könnte auch heute schon in Echtzeit Raytracen, aber eben nur in 320x240, was dann im Endeffekt eine deutlich schlechtere Qualität ergeben würde.
IMO wird man daher den letzten Punkt niemals erreichen und selbst der vorletzte ist fraglich, ganz einfach weil man mit einem Mix aus Rasterizing und Raytracing immer das bessere Verhältnis an Performance/Bildqualität haben wird als mit reinem Raytracing, egal wie weit die Rechenleistung irgendwann steigen wird.

Die einzige Möglichkeit, dass sich reines Raytracing durchsetzen kann wäre wenn die Rechenleistung dermaßen ansteigt, dass diese keine Limitierung mehr für die erreichbare Bildqualität darstellt.
Der Vorteil von Raytracing ist nämlich, dass das reale Verhalten von Licht simuliert wird (wenn auch natürlich immer noch approximiert).
Damit braucht man keinerlei Tricks mehr die beim Rasterizing noch notwendig sind um eine glaubhafte Welt darzustellen (und die sich teilweise noch gegenseitig ausschließen), sondern hat quasi die Weltformel für seine simulierte Spielwelt.
Das vereinfacht natürlich das Gamedesign deutlich, da die Designer praktisch keine Rücksicht mehr nehmen müssen was sie wann einsetzen und ihrer Fantasie freien Lauf lassen können.

Sollten wir also jemals in den Genuss dermaßen überschüssiger Rechenleistung zu kommen, dass man "alles" mit ausreichender Performance darstellen kann, könnte es sein, dass irgendwann der Vorteil der Einsparungen in der Entwicklungszeit größer ist als irgendwelche Performancenachteile durch Raytracing.
Angesichts immer langsamerer Fortschritte in der Halbleiterfertigung habe ich aber meine Zweifel ob wir diese enorme Rechenleistung jemals bezahlbar erreichen können, wenn doch liegt diese sicher noch Jahrzehnte entfernt.
Inzwischen erreichst du einfach mehr Bildqualität wenn du stupides Rasterizing mit viel höherer Auflösung berechnen kannst als vollständiges Raytracing.


Um mal als Vergleich die Verbreitung von Videomaterial zu nehmen: Klarerweise wäre die beste Qualität mit unkomprimierten bzw. maximal Lossless komprimierten Material zu erreichen.
Nur bräuchtest du dann selbst für gerade mal 720p30 Material schon fast 1Gb/s an Übertrangungsbandbreite.

Real ist die Qualität von 4k-Material mit vielleicht sogar 60p und höherer Farbtiefe für HDR trotz verlustbehafteter Kompression wesentlich höher und braucht dabei wesentlich weniger Bandbreite als das unkomprimierte 720p30 Material.

Deshalb werden wir auch niemals (außerhalb vom Mastering) unkomprimiertes Videomaterial sehen. Haben wir irgendwann die Bandbreite die 4k@60fps mit HDR10 übertragen kann? Vielleicht, nur kann ich dann über die selbe Bandbreite auch mehr als 8k@120fps mit HDR16 übertragen und letzteres hat wieder eine wesentlich bessere Qualität.

Genauso glaube ich nicht, dass wir jemals reines Raytracing in Spielen sehen werden, ganz einfach weil sich immer ohne vollständiges Raytracing eine bessere Qualität erreichen lässt.