PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 [25] 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

crux2005
2018-08-21, 19:01:53
Giga-Rays .. keiner hat auch nur ansatzweise eine Ahnung was das in echt bedeuted und es wird fleissig diskutiert was man damit machen kann. Interessant ;)

Schalte ein RayTracing Programm an und schau selber nach. :P

Bösewicht
2018-08-21, 19:06:25
Die 10 GigaRays sollten genug sein für die Schatten. Oder da ist noch ein Komplett anderes Problem was sie Zeitlich nicht lösen konnten...
das spiel soll nur in 1080p laufen aber es flimmert nichts da wird schon noch ordentlich saft für aa drauf gehen, außerdem sind die messe versionen sehr oft etwas laggy und wäre die rtx implementierung schon perfekt würden sie es auch ins fertige spiel integrieren tun sie aber nicht es wird ein patch kommen.

ich weiß schon warum ich um 144 hz oder vr oder 4k einen bogen mache, ohne reduzierte details geht da auch in zukunft nichts also alles schön entspannt:biggrin:

dargo
2018-08-21, 19:09:25
Was hat die Refreshrate vom Monitor mit den Grafikdetails zu tun? :|

GSXR-1000
2018-08-21, 19:11:05
Giga-Rays .. keiner hat auch nur ansatzweise eine Ahnung was das in echt bedeuted und es wird fleissig diskutiert was man damit machen kann. Interessant ;)
So ist das in aller Regel bei Buzzwords wie diesem hier.
Am besten finde ich noch, das Leute hier schon sagen: ja mit XX Gigaray sollte dies und jenes auf jeden Fall möglich sein.
Bisher kannte ich den Begriff Gigaray eigentlich nur im Zusammenhang mit Gigaray Lichtfeldern. Da ist die Bedeutung aber eine andere.
Für andere hier scheint dieses Konstrukt bereits eine absolut legitime (und vor allem klar definierte) Recheneinheit zu sein. Respekt, das Marketing funktioniert.

Ex3cut3r
2018-08-21, 19:13:22
Was hat die Refreshrate vom Monitor mit den Grafikdetails zu tun? :|

Er meint das so, dass man mit 144hz Monitor, auch immer fleißig aufrüsten muss, damit etwas von hat ohne Details zu reduzieren, bei VR muss man auch ständig aufrüsten, weil die Leistung und die Auflösung immer höher werden, bei 4K das selbe, ständig muss eine neue GPU rein, weil die Spiele Jahr für Jahr mehr Hardware brauchen. Natürlich kann man auch die Details reduzieren, dass scheint aber keine Option für ihn zu sein.

EinName
2018-08-21, 19:16:03
Nochmal auf Tests warten. Allerdings sollte man wohl eher nicht davon ausgehen, auf 2070/2080 irgendwas mit RT flüssig spielen zu können, wenn selbst die TI dafür eigentlich zu schwach ist. Wenn die Karten nicht überraschend doch +60-70% Mehrleistung in klassichen Szenarien aufweisen, wird es halt ein Rohrkrepierer (zu dem Preis).

Sehr hohe Preise, und für mich leider ein wenig am Ziel vorbei. WQHD und >60fps wären mein Anspruch an eine neue Karte.

Ich bin strikt dagegen den Preis aus der Diskussion zu lassen - gehört mit zum Launch, und nach der Cash-Cow Pascal mit den auch schon überteurten Mini-Chips wird's jetzt dank Monopolstellung eklig.


@PHuV:
... schreib ich dir per PN, würd mir aber wünschen einer von euch würde mal aufhören auf den letzten Stuss vom jeweils anderen zu antworten :tongue:

dargo
2018-08-21, 19:16:20
@Ex3cut3r

Spielt er immer noch ohne VRR? Dann kann ich es einigermaßen verstehen. Aber mit VRR? Also ich brauche keine 144(+)fps trotz 144Hz Bildschirm. :tongue:

Hübie
2018-08-21, 19:16:44
Ich kann mir die letzt 30 Seiten nicht antun, daher bitte ich darum, mich zu informieren falls es Infos gibt, welche in den Startbeitrag sollen. Meldung ist raus, damit hier mal etwas durchgewischt wird. :smile:
Noch mal die Bitte an alle den Melden-Button zu benutzen oder weniger die Gefühle hoch kochen zu lassen. :smile: Notfalls ignore list...

Ex3cut3r
2018-08-21, 19:17:30
Ja sehe ich auch so, man kann sich das eigentlich schon gut ausrechnen. 2070 wird wohl 1080 Leistung in Games ohne RT liefern, 2080 wird wohl 1080Ti Leistung liefern, und die 2080Ti wird 30% mehr liefern.

Armaq
2018-08-21, 19:21:25
Dargo hat es doch schon angesprochen und darum geht es bei RTX.

Jeder Käufer kauft 2 Technologien, um Bewegtbilder zu erzeugen. Ray und Raster. Ich finde die Preise unverschämt, aber gemessen an bspw. der Chipfläche sind sie gar nicht so unverschämt im Vergleich zur Konkurrenz und zum Wettbewerb.

Ich bin nicht prophetisch genug veranlagt um zu wissen, ob wirklich ein neues Zeitalter anbricht, aber klar und unbestreitbar haben die neuen Funktionen richtig viel Budget auf dem Chip verschlungen.

Wir wissen leider nicht, was AMD in der Pipeline hat, aber vll. bringen die ja was ähnliches heraus und der Chip ist auch 30-40% fetter?

Bösewicht
2018-08-21, 19:25:14
Er meint das so, dass man mit 144hz Monitor, auch immer fleißig aufrüsten muss, damit etwas von hat ohne Details zu reduzieren, bei VR muss man auch ständig aufrüsten, weil die Leistung und die Auflösung immer höher werden, bei 4K das selbe, ständig muss eine neue GPU rein, weil die Spiele Jahr für Jahr mehr Hardware brauchen. Natürlich kann man auch die Details reduzieren, dass scheint aber keine Option für ihn zu sein.
im prinzip ist das meiste richtig.
sehe ja wie hier die meisten nach immer mehr und mehr schreien sich aber an vieles scheinbar nicht mehr erfreuen können, was bringt mir ein 144hz monitor wenn ich am ende eh nie über 60hz komme?
Was bringt 4k wenn die details massiv runtergeschraubt werden müssen oder gefühlt es auch in zukunft keine hardware gibt die das stemmen kann und das alleine ohne neue effekte, kommen die in form von RT dazu
sind wir wieder bei 1080p max. 60fps.

Thunder99
2018-08-21, 19:27:03
Kein Bock 50 Seiten zu lesen :D. Battlefield V hat als erstes Spiel RT Effekte?

Ansonsten bin ich nur gespannt auf die echten Tests. Würde mich ja kugelig lachen wenn die wo die 1080Ti verkauft hatten vorher merken das wahr ein Fehler ;D

basix
2018-08-21, 19:29:39
Für andere hier scheint dieses Konstrukt bereits eine absolut legitime (und vor allem klar definierte) Recheneinheit zu sein. Respekt, das Marketing funktioniert.

Falls du mich meinen solltest: Nein ;)

Ich habe nur den von Nvidia vorgestellten Rechenansatz erörtert (Lederjacke hat den gezeigt). Und der geht eben hinten und vorne nicht auf :freak: Irgendwie so à la Gigarays in eine magische Schuhschachtel rein, ein paar TensorOPs und TFLOPs oben drauf, ein bisschen schütteln und voilà: "RTX-OPs" ;D

Das einzige was einigermassen schlüssig wäre ist ein relativer Vergleich mit einer HW ohne RT + TC in einer Anwendung, welche RT unterstützt. Und ich behaupte jetzt mal, dass Nvidia ausgehend von der 1080 Ti auf diese 78 RTX-OPs für die 2080 Ti gekommen ist.

Godmode
2018-08-21, 19:29:46
Kein Bock 50 Seiten zu lesen :D. Battlefield V hat als erstes Spiel RT Effekte?

Ansonsten bin ich nur gespannt auf die echten Tests. Würde mich ja kugelig lachen wenn die wo die 1080Ti verkauft hatten vorher merken das wahr ein Fehler ;D

Du hast nichts verpasst, glaubs mir.

Alles wichtige findest du bei Computerbase und dass schön übersichtlich.

Ex3cut3r
2018-08-21, 19:29:54
im prinzip ist das meiste richtig.
sehe ja wie hier die meisten nach immer mehr und mehr schreien sich aber an vieles scheinbar nicht mehr erfreuen können, was bringt mir ein 144hz monitor wenn ich am ende eh nie über 60hz komme?
Was bringt 4k wenn die details massiv runtergeschraubt werden müssen oder gefühlt es auch in zukunft keine hardware gibt die das stemmen kann und das alleine ohne neue effekte, kommen die in form von RT dazu
sind wir wieder bei 1080p max. 60fps.

Das ist was dran. Auf jeden fall, natürlich sollen wir auch immer alle fleißig zur neuen Gen greifen. Das ist optimal für solche Firmen wie Apple, Nvidia und co. Eigentlich sind wir "kleine" Zombies bzw. Süchtige. :redface:

Bösewicht
2018-08-21, 19:34:01
@Ex3cut3r

Spielt er immer noch ohne VRR? Dann kann ich es einigermaßen verstehen. Aber mit VRR? Also ich brauche keine 144(+)fps trotz 144Hz Bildschirm. :tongue:
Ich spiele lieber ohne 4k vrr aber dafür in 1440p 60fps (hätte aber auch nicht gegen eine vrr) und 3,5meter diagonale, die emission ist für mich einfach sehr viel stimmiger als VR
(mein eindruck, hm ja schaut nicht so schlecht aus wie erwartet ganz nett aber bitte sowas ist für menschen die mit 3d brillen schon ein problem haben schon fast absturz freaky:biggrin:)
oder der gleichen, aber gut das ist geschmackssache, hat auch nicht jeder ein ganzen raum für sowas zur verfügung.
komplett anderer ansatz ganz anderes spielgefühl eigentlich auch nicht vergleichbar.

basix
2018-08-21, 19:37:20
im prinzip ist das meiste richtig.
sehe ja wie hier die meisten nach immer mehr und mehr schreien sich aber an vieles scheinbar nicht mehr erfreuen können, was bringt mir ein 144hz monitor wenn ich am ende eh nie über 60hz komme?
Was bringt 4k wenn die details massiv runtergeschraubt werden müssen oder gefühlt es auch in zukunft keine hardware gibt die das stemmen kann und das alleine ohne neue effekte, kommen die in form von RT dazu
sind wir wieder bei 1080p max. 60fps.

Da hast du recht. Doch da sehe ich einen grossen Vorteil von RT: Sobald es irgendwann mal performant genug ist und die Qualität ebenfalls stimmt, wird es danach praktisch gratis sein. Nicht heute, aber übermorgen.

Edit:
Was mich positiv stimmt bezüglich Performance der 2070er ist der riesige Bandbreitenunterschied zur 1070er. +75% sind schon eine Hausnummer. Grundlos wird das Nvidia nicht machen. Vielleicht eine OC Bombe?

crux2005
2018-08-21, 19:40:05
Am besten finde ich noch, das Leute hier schon sagen: ja mit XX Gigaray sollte dies und jenes auf jeden Fall möglich sein.

Danke.

Bisher kannte ich den Begriff Gigaray eigentlich nur im Zusammenhang mit Gigaray Lichtfeldern. Da ist die Bedeutung aber eine andere.

Richtig wäre GigaRay/s

Giga = 1 Milliarde = 1 000 000 000 = 109
Ray = Lichtstrahl
s = Sekunde.

Also eine Angabe wie viele Lichtstrahlen die Grafikkarte für RayTracing in HW pro Sekunde beschleunigen kann. Natürlich ein Theoretisches Limit was nur unter Idealbedingungen erreicht wird.


Für andere hier scheint dieses Konstrukt bereits eine absolut legitime (und vor allem klar definierte) Recheneinheit zu sein. Respekt, das Marketing funktioniert.

Was hat das mit Marketing zu tun nur weil du diese Einheit nicht kennst?

Wenn Intel den Verbrauch von CPUs in GigaWatt angeben würden wäre dass auch kein Marketing. :P

RLZ
2018-08-21, 19:49:02
Sind also ~25% realistischer?
Als absolutes oberes Limit bei Schätzungen vielleicht. Da aber viele andere Blöcke auch angewachsen sind, wohl eher weniger.
Naja komplett getrennt würde ich jetzt AI und RT nicht sehen, wenn das eine für das Denoising vom anderen verwendet wird. RT wird erst durch AI sinnvoll.
Nur weil Raytracing durch die Tensorcores stark beschleunigt werden kann, heißt das ja nicht, dass die Tensorcores sonst brach liegen müssen. Im Nextgen-Konsolen Thread hab ich schon vor Monaten mal eine lange Liste von Beispielen für Nutzungsmöglichkeiten davon gemacht. Nvidia hat gestern auch welche vorgestellt...

Troyan
2018-08-21, 19:59:25
TensorCores beschleunigen nicht Raytracing. Die sind vielleicht für das Denoising im Einsatz, aber das geschieht immer erst nach dem Einsatz der RT Cores.

RLZ
2018-08-21, 20:09:01
TensorCores beschleunigen nicht Raytracing. Die sind vielleicht für das Denoising im Einsatz, aber das geschieht immer erst nach dem Einsatz der RT Cores.
Wenn du die effektiv die Zahl der benötigten Strahlen reduzierst, ist das eine Beschleunigung vom Raytracing.

dargo
2018-08-21, 20:12:43
TensorCores beschleunigen nicht Raytracing. Die sind vielleicht für das Denoising im Einsatz, aber das geschieht immer erst nach dem Einsatz der RT Cores.
Was ändert das daran, dass ohne Tensor Cores kein Raytracing umsetztbar? Oder glaubst du wirklich dieses Rauschen von RT ohne Denoising würde sich einer freiwillig antun?

ChaosTM
2018-08-21, 20:14:06
Bevor Karten nicht mindestens im Peta-Ray bereich arbeiten, wird das nix ^

GigaRay/sec ist eine echte Einheit, nur kann sich niemend wirklich was drunter vorstellen, ausser den Leuten die mit RT schon gearbeitet habe. Das meinte ich früher..

Troyan
2018-08-21, 20:16:50
Was ändert das daran, dass ohne Tensor Cores kein Raytracing umsetztbar? Oder glaubst du wirklich dieses Rauschen von RT ohne Denoising würde sich einer freiwillig antun?

Denoising kann auch über die FP32 Einheiten durchgeführt werden. Das wird auch in vielen Anwendungen schon gemacht.

RLZ
2018-08-21, 20:21:23
Was ändert das daran, dass ohne Tensor Cores kein Raytracing umsetztbar? Oder glaubst du wirklich dieses Rauschen von RT ohne Denoising würde sich einer freiwillig antun?
Nachdem du auf den letzten Link von mir nicht geklickt hast, versuch ich es noch einmal:
https://cs.dartmouth.edu/~wjarosz/publications/mara17towards.pdf
Kein neuronales Netzwerk und keine Tensor Cores.

dargo
2018-08-21, 20:35:06
Ich glaube wir reden aneinander vorbei. :)

Ich meine natürlich speziell auf die RTX Karten bezogen. Wenn die Tensor Cores schon da sind nutzt man sie bei Raytracing entsprechend fürs Denoising. Ich sage ja nicht, dass Denoising ohne Tensor Cores allgemein nicht möglich wäre.

Digidi
2018-08-21, 20:36:32
Nachdem du auf den letzten Link von mir nicht geklickt hast, versuch ich es noch einmal:
https://cs.dartmouth.edu/~wjarosz/publications/mara17towards.pdf
Kein neuronales Netzwerk und keine Tensor Cores.

Ich glaube er meint zurzeit mit den gegebenen Mitteln braucht man Tensor Cores. Das ist chip Flächen effizenter

basix
2018-08-21, 20:37:49
Nur weil Raytracing durch die Tensorcores stark beschleunigt werden kann, heißt das ja nicht, dass die Tensorcores sonst brach liegen müssen. Im Nextgen-Konsolen Thread hab ich schon vor Monaten mal eine lange Liste von Beispielen für Nutzungsmöglichkeiten davon gemacht. Nvidia hat gestern auch welche vorgestellt...

Niemand hat das erstere behauptet ;) DLSS sieht sehr interessant aus. Freue mich auf Berichte dazu. AI ist wie gesagt AIding Graphics :D Dadurch können Dinge effizienter abgearbeitet werden, da trainierte Netze viel effizienter sind als Brute Force Methoden. RT ist nur ein einzelner Auswuchs davon. Ändert trotzdem nichts an meiner Aussage, dass es ohne AI kein RT gäbe. Nicht aus technischer Sicht (wie Troyan sagt kann man für Denoising etc. auch über Cuda-Cores gehen, dein Link zeigt das ebenfalls), nur wäre es nicht performant genug um in der Praxis sinnvoll eingesetzt zu werden in Real-Time Anwendungen.

Edit:
Habe dein verlinktes Paper mal überflogen. Die reden von 16spp und in Zukunft erhoffen sie sich 6-10spp, das ist deutlich entfernt von den 0.5-2spp welche Nvidia zeigt. Natürlich ist es sehr gut im Vergleich zu den 100-1000spp welche einige für ein brauchbares RT nennen. Aber 8-10ms nur fürs RT ist auch in den Augen der Autoren des Papers viel, und das auf einer Titan Xp in 720p.

Kriton
2018-08-21, 20:48:58
Heise sagt übrigens, dass Control von Remedy kein Raytracing nutzen soll. Das war doch aber in der Präsentation? Sprechen aber auch noch von Titan V - veralterter Artikel, obwohl von heute?

Die beiden derzeit von Remedy entwickelten Spiele Control und Crossfire 2 sollen noch kein Raytracing nutzen.

https://www.heise.de/newsticker/meldung/Raytracing-in-Spielen-Das-dauert-noch-4142061.html

Troyan
2018-08-21, 20:51:32
Natürlich veraltet: https://twitter.com/ControlRemedy/status/1031862372678299649

Die waren einfach noch unter NDA.

Apropos Control:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/control-nvidia-rtx-ray-tracing/control-game-nvidia-rtx-ray-tracing-screenshot-006.png
https://www.nvidia.com/en-us/geforce/news/control-game-rtx-ray-tracing-technologies/

Das ist so cool, dass man nun wirklich richtige Spiegelungen haben kann, ohne das die Gameboy Color Version ausgepackt werden muss.

RLZ
2018-08-21, 20:53:50
Habe dein verlinktes Paper mal überflogen. Die reden von 16spp und in Zukunft erhoffen sie sich 6-10spp, das ist deutlich entfernt von den 0.5-2spp welche Nvidia zeigt. Natürlich ist es sehr gut im Vergleich zu den 100-1000spp welche einige für ein brauchbares RT nennen. Aber 8-10ms nur fürs RT ist auch in den Augen der Autoren des Papers viel, und das auf einer Titan Xp in 720p.
Ein nicht aktuelles Paper vs optimiertes Produkt?
Ich hatte aber schon die Seed Präsentation und deren Lösung verlinkt... und werde das nicht zum fünften Mal nochmal tun.

Thunder99
2018-08-21, 20:57:10
Du hast nichts verpasst, glaubs mir.

Alles wichtige findest du bei Computerbase und dass schön übersichtlich.

Danke. Sieht auf dem ersten Blick gut aus. Bin dennoch auf Test gespannt und den Vergleich mit und ohne RT. Preis der Karten finde ich jenseits von gut und böse...

Das neue AA ein Nachfolger von SGSSAA?

TobiWahnKenobi
2018-08-21, 21:06:05
wo ist eigentlich blaire?? der soll mal bei nvidia anrufen und denen verklickern, dass die drei voltakäufer auch tensorcore-AA zuschaltbare tensorcore-features haben wollen.. gern als globalen schalter im CP. RT kann NV von mir aus erstmal behalten. :P

für alle, die den normalen benchmarks entgegenfiebern: basierend auf der vermutung, dass die Ti identisches leistet wie TV, kann man sich auf 60Hz UHD gezocke mit passenden fps freuen. die 100fps im witcher, die irgendwo weiter vorn gewünscht wurden bleiben allerdings utopie. es werden eher 60-70fps.. bei ~2GHz @sGPU. das betrifft so ziemlich jedes spiel, in dem 1080Ti/TXP mit 40-50fps rumkrebsen.


(..)

mfg
tobi

basix
2018-08-21, 21:15:43
Ein nicht aktuelles Paper vs optimiertes Produkt?
Ich hatte aber schon die Seed Präsentation und deren Lösung verlinkt... und werde das nicht zum fünften Mal nochmal tun.

Danke für den Refresher, die Pica Pica Sache habe ich angeschaut. Trotzdem bringt hier Turing nochmals 3-6x Performance Schub. Um genau den geht es ja bei den TensorCores. Es geht ALLES über die Shader, nur nicht so performant wie nötig. So kleine Techdemos wie die von Seed mal aussen vor und nicht mal die ist wahrscheinlich in 1080p / 60fps in real-time gerendert worden. Da gebe ich Jensen schon recht: Ohne diese Kombination von AI + RT würde man evtl. erst mit 5nm eine ähnliche Leistung haben für diesen speziellen Anwendungszweck von RT.

@ Tobi:
For existing games, Turing will deliver 2x the performance and 4K HDR gaming at 60 FPS on even the most demanding titles
https://blogs.nvidia.com/blog/2018/08/20/geforce-rtx-real-time-ray-tracing/
Was besseres haben wir nicht zur Angabe der "normalen" Performance. Falls das stimmen sollte, wäre es schon eine sehr harte Tour für Titan V Käufer. Sorry Tobi

Linmoum
2018-08-21, 21:27:34
"2x the performance" (ggü. wem oder was?) oder "2070 is faster than the Titan Xp", was soll man sich nun aussuchen? ;) Passt nicht zusammen.

prinz_valium
2018-08-21, 21:31:47
Palit ist wieder dabei mit Monster Karten:
http://www.hwbattle.com/data/editor/1808/3f1f960867bb3bd1aa476eae23edf4bc_1534868272_6185.jpg

http://www.hwbattle.com/data/editor/1808/3f1f960867bb3bd1aa476eae23edf4bc_1534868029_0346.jpg

http://www.hwbattle.com/data/editor/1808/3f1f960867bb3bd1aa476eae23edf4bc_1534868096_167.jpg

http://www.hwbattle.com/bbs/board.php?bo_table=hottopic&wr_id=9616&ckattempt=1

dildo4u
2018-08-21, 21:37:39
Es gibt durchaus AAA Games die in 4k mit 30fps auf einer 1080 Ti laufen das wäre 2x für 60fps.

Troyan
2018-08-21, 21:38:38
Danke für den Refresher, die Pica Pica Sache habe ich angeschaut. Trotzdem bringt hier Turing nochmals 3-6x Performance Schub. Um genau den geht es ja bei den TensorCores. Es geht ALLES über die Shader, nur nicht so performant wie nötig. So kleine Techdemos wie die von Seed mal aussen vor und nicht mal die ist wahrscheinlich in 1080p / 60fps in real-time gerendert worden. Da gebe ich Jensen schon recht: Ohne diese Kombination von AI + RT würde man evtl. erst mit 5nm eine ähnliche Leistung haben für diesen speziellen Anwendungszweck von RT.

Pica Pica hat als Ziel 1080p@60FPS auf Titan V.

Ex3cut3r
2018-08-21, 21:56:17
https://www.kiebel.de/komponenten/grafikkarten/nvidia-pci-e/nvidia-geforce-rtx-2080ti-11gb-gddr6.html?utm_campaign=csw&utm_medium=cpc&utm_source=geizhals.at :confused:

Lieferbar innerhalb 48 Stunden, kann mal einer bestellen und Benchmarks anfertigen? :naughty:

dargo
2018-08-21, 21:57:10
Ohne Treiber? :usweet:

Ex3cut3r
2018-08-21, 21:57:51
:freak: Fuck ganz vergessen. :(

Obwohl bis jetzt habe ich beim Kauf einer GPU, immer eine Treiber CD bekommen. ^^

Blaire, Hallo. Einen Turing Treiber Bitte. Hdgdl. :D

;D

crux2005
2018-08-21, 21:58:00
Blaire, Hallo. Einen Turing Treiber Bitte. Hdgdl. :D

akuji13
2018-08-21, 22:01:45
https://www.kiebel.de/komponenten/grafikkarten/nvidia-pci-e/nvidia-geforce-rtx-2080ti-11gb-gddr6.html?utm_campaign=csw&utm_medium=cpc&utm_source=geizhals.at :confused:

Lieferbar innerhalb 48 Stunden, kann mal einer bestellen und Benchmarks anfertigen? :naughty:

"Lieferbar innerhalb 48 Stunden
Lieferzeit: 21 - 28 Werktage"

Sucht sich der Lieferant also aus was er nimmt, ich tippe auf die 28 Tage. ;)

Ex3cut3r
2018-08-21, 22:02:53
Ja dann mussen wir noch auf PCGH und Co. warten, was ein Rotz. :usad:

Irgendwie ein sehr unbefriedigender "Launch"

wolik
2018-08-21, 22:24:12
http://img0.joyreactor.cc/pics/post/anon-4656312.jpeg

Sunrise
2018-08-21, 22:31:28
Man müsste mal ein paar Szene-Coder auf Turing loslassen. Eventuell ja nichtmehr ganz so spannend wie früher (man hat einfach alles irgendwie irgendwo schonmal gesehen), aber da sollten sich einige doch die Finger lecken.

Bin zwar nichtmehr ganz im Bilde, aber Turing sollte da endlich wieder ein paar frische Möglichkeiten aufzeigen. Klar, jeder schaut auf Spiele, ich schaue normalerweise aber aufs Gesamtpaket und im Moment fehlt einfach zuviel um sich da ein Bild machen zu können.

akuji13
2018-08-21, 22:34:38
Ja dann mussen wir noch auf PCGH und Co. warten, was ein Rotz. :usad:

Irgendwie ein sehr unbefriedigender "Launch"

Ist ja leider nicht zum ersten mal so. :rolleyes:

Mein Fazit der letzten 30 Seiten:

1.Geile Technik!
War aber nicht erst jetzt klar sondern schon länger.

2.Die bisherige Implementierung ist durchwachsen und erinnert mich im Ansatz (!) an Dinge wie die Stoffsimulation in Mafia II.
Sollten später aber native Titel bzw. besser aufgehübschte alâ Prey kommen kann das den Spielspaß deutlich steigern. :)

3.Die performance ist bislang fraglich, sowohl mit als auch ohne RT.
Sollten sich Dinge wie 30 fps@1080p als korrekt rausstellen bin ich mir nicht sicher wie sich das auswirkt.

Geht es dann wie mit HDR (warten auf mehr Nutzen und Verbreitung) oder VR (nach dem ersten hype köchelt es vor sich hin) weiter oder verschwindet es wie andere Techniken wieder?

Reichen die Käufer der großen RTX Karten aus um langfristig einen Anreiz für Spieleschmieden zu schaffen um es einzubauen?
Oder ist die Implementierung gar so einfach das es grundsätzlich eingebaut wird?

Fragen über Fragen und keine Antworten, das ist wirklich unbefriedigend! :D

Godmode
2018-08-21, 22:38:34
Ja dann mussen wir noch auf PCGH und Co. warten, was ein Rotz. :usad:

Irgendwie ein sehr unbefriedigender "Launch"

Das war sogar schlimmer als die bisherigen Paper-Launches.

pixeljetstream
2018-08-21, 22:41:11
https://www.nvidia.com/en-us/geforce/turing/

Die Architektur wird mit drei Punkten dort beworben. "Nur" einer davon ist raytracing. Man kann also durchaus was anderes mit der Karte noch machen ;)

just4FunTA
2018-08-21, 22:41:16
wenigstens kann man es im gegensatz zu hdr auf auch auf bildern sehen und wenn das wirklich deutlich besser aussieht kann das von den leuten nicht ignoriert werden auch wenn es noch eine weile geht bis es spielbar ist. (30fps@1080p mit gtx2080TI zählt nicht als spielbar. ;)

bbott
2018-08-21, 22:41:53
Ich frage mich auch was man jetzt mit Racing anfängt?!

Derzeit wird immer noch mehr Rechenleistung für 4k, 144Hz und HDR benötigt.


@wolik
Lustiges Bild

just4FunTA
2018-08-21, 22:43:46
aber endlich geht es voran mit grafischen Verbesserungen, ich kann dann auch gut damit leben das die ersten Karten zu langsam dafür sind. :)

pixeljetstream
2018-08-21, 22:44:21
Und dann kommt 8k, irgendwann muss man anfangen die toolbox zu vergrößern um dem her zu werden. Aus "weniger" mehr machen, weil brute-force nicht mehr reicht.

Es wirkt fast so als ob die, die jetzt schreien die gleichen sind die vorher den refresh verteufelten, und nun genau das haben wollen. Die Meinungsdifferenz über Preis und Event ist eine Sache, aber den Fortschritt immer auf "später" schieben zu wollen kann ich nicht nachvollziehen.

Bösewicht
2018-08-21, 22:45:22
https://www.nvidia.com/en-us/geforce/turing/

Die Architektur wird mit drei Punkten dort beworben. "Nur" einer davon ist raytracing. Man kann also durchaus was anderes mit der Karte noch machen ;)
die karten werden locker 25-30% schneller als ihre direkten vorgänger sein, ist das für ein chip dessen neue funktionen im vordergrund stehen nicht eigentlich ziemlich gut und das auch noch bei fast gleicher fertigung?

w0mbat
2018-08-21, 22:53:27
Und dann kommt 8k, irgendwann muss man anfangen die toolbox zu vergrößern um dem her zu werden. Aus "weniger" mehr machen, weil brute-force nicht mehr reicht.

Es wirkt fast so als ob die, die jetzt schreien die gleichen sind die vorher den refresh verteufelten, und nun genau das haben wollen.

Es gibt einen Punkt an dem man auf den typischen PC-Monitor Größen die Pixel nicht mehr sieht, und das sollte mit 4K erreicht sein. Was ist der Sinn hinter einer höheren Auflösung, wenn es die Bildqualität nicht mehr merklich verbessert?

pixeljetstream
2018-08-21, 22:57:02
Sei 8k das downsampling für 4k ;)
Ist ja auch mein Argument die Qualität zu erhöhen und dass da brute-force imo langfristig nicht reicht. Daher geht der Chip halt in einige neue Richtungen.

Ex3cut3r
2018-08-21, 22:57:52
Es gibt einen Punkt an dem man auf den typischen PC-Monitor Größen die Pixel nicht mehr sieht, und das sollte mit 4K erreicht sein. Was ist der Sinn hinter einer höheren Auflösung, wenn es die Bildqualität nicht mehr merklich verbessert?

Sehe ich nicht so, 4K an den typischen 27" bietet keine Smartphone PPi. Aber 8K schon eher. :wink:

wolik
2018-08-21, 22:57:53
Und dann kommt 8k, irgendwann muss man anfangen die toolbox zu vergrößern um dem her zu werden. Aus "weniger" mehr machen, weil brute-force nicht mehr reicht.

Es wirkt fast so als ob die, die jetzt schreien die gleichen sind die vorher den refresh verteufelten, und nun genau das haben wollen. Die Meinungsdifferenz über Preis und Event ist eine Sache, aber den Fortschritt immer auf "später" schieben zu wollen kann ich nicht nachvollziehen.
Ich finde recht schade das nicht mal du über GPU-GPU Access Memory bereit / kannst etwas zu erzählen ;(

Menace
2018-08-21, 22:59:04
Ich lehne mich jetzt mal aus dem Fenster und rate: Die Performance der Turing-Generation wird auch jenseits der RT-Sachen hier die meisten positiv überraschen. nVidia weiß, was sie macht. Und war es die letzte Generation oder die vorletzte, wo sie auch wie aus dem Nichts eine entsprechende Grafikkarte rausgehauen haben. Ich kann mir nicht vorstellen, dass sie diesmal nicht auch abliefern.

Wenigstens haben sie den Mut, etwas neues auszuprobieren und das auch offensiv zu bewerben. Man muss ab und an einfach Risiken eingehen; letztendlich profitieren wir als Nutzer davon (siehe Mantle bei AMD und jetzt RT bei nVidia). Falls es jetzt noch nicht perfekt ist, macht sie mir ja beinahe sympathisch. Und das sage ich jetzt als relativ treuer AMD-Kunde. :smile:

Fliwatut
2018-08-21, 23:02:50
Ich finde recht schade das nicht mal du über GPU-GPU Access Memory bereit / kannst etwas zu erzählen ;(
Naja, er will seinen Job wohl behalten :wink:

wolik
2018-08-21, 23:05:50
Naja, er will seinen Job wohl behalten :wink:
Man hat doch schon Karten auf dem Tisch gelegt... Wieso nicht erklären ob das ein Ass ist oder nur Dame :frown:

Fliwatut
2018-08-21, 23:08:02
Ich lehne mich jetzt mal aus dem Fenster und rate: Die Performance der Turing-Generation wird auch jenseits der RT-Sachen hier die meisten positiv überraschen.
Und warum haben sie das dann in der Präsentation nicht stolz gezeigt? Die Turing-Karten, die 50, 60, 70% schneller sind als ihr Pascal-Gegenstück, DAS wäre ja auch ein tolles Marketingargument. UND die Turings können zusätzlich noch Raytracing und die vielen anderen spannenden Sachen. Starting at $499! Pre-order now!

So einen Elfmeter lässt doch niemand liegen, nur um später die Kunden zu ärgern, die nicht vorbestellt oder die sich doch noch eine Pascal-Karte gekauft haben. Das macht irgendwie keinen Sinn.

Fliwatut
2018-08-21, 23:08:53
Man hat doch schon Karten auf dem Tisch gelegt... Wieso nicht erklären ob das ein Ass ist oder nur Dame :frown:
Weil eben nicht alle Karten auf dem Tisch liegen! Und weil du vorbestellen sollst :biggrin:

pixeljetstream
2018-08-21, 23:09:34
Ich finde recht schade das nicht mal du über GPU-GPU Access Memory bereit / kannst etwas zu erzählen ;(

In der Cuda Dokumentation zu GP100 und GV100 müsste was stehen. Und wenn du cuda10 runterlädst steht da auch was über Turing.

Die GPU sieht das ganze als ein Adressraum und sämtliche peer2peer Zugriffe gehen über nvlink. Mit jeder Generation wurde Bandbreite und Cache-
Verhalten besser. Aber es ist natürlich nicht so schnell wie ein lokaler Zugriff. G6 600GB/s und nvlink 100GB/s. (GF1050 hat 112 GB/s)

Welche Daten auf welche GPU kommt liegt am Entwickler (Dx12/VK/CUDA).

Ich persönlich hab damit keine direkte Erfahrung, hiesige Kollegen haben mit VR und raytracing auf der Quadro GV100 bissl gespielt (split-frame, aber alle Geometrie und Texturen gedoppelt).

Ex3cut3r
2018-08-21, 23:10:08
Weil eben nicht alle Karten auf dem Tisch liegen! Und weil du vorbestellen sollst :biggrin:
Glaube ich nicht, mit RT wird versucht, etwas zu Kaschieren, wahrscheinlich nur die 15-30% mehr Leistung innerhalb der Vorgänger Karten, ganz klar.

Linmoum
2018-08-21, 23:11:04
Wurde doch immer wieder betont, wie schnell(er) Turing ist. Nur halt mit Ray Tracing. Ich glaube, manche hier verstehen nicht, was das über die nächsten Jahre/Generationen bewirken kann. Man ist da bei Nvidia sicherlich auch ein Stück weit stolz drauf und will das natürlich entsprechend promoten.

Leistungssteigerungen bekommt der Normalo ja trotzdem, aber die sind halt nur zweitrangig. Einfach mal davon wegkommen, dass man immer nur die Rohperformance deutlich anhebt und sich ansonsten auf die Schulter klopft. Es braucht auch mal größere Veränderungen und Ray Tracing wird eine solche.

Troyan
2018-08-21, 23:14:24
Und warum haben sie das dann in der Präsentation nicht stolz gezeigt? Die Turing-Karten, die 50, 60, 70% schneller sind als ihr Pascal-Gegenstück, DAS wäre ja auch ein tolles Marketingargument. UND die Turings können zusätzlich noch Raytracing und die vielen anderen spannenden Sachen. Starting at $499! Pre-order now!

So einen Elfmeter lässt doch niemand liegen, nur um später die Kunden zu ärgern, die nicht vorbestellt oder die sich doch noch eine Pascal-Karte gekauft haben. Das macht irgendwie keinen Sinn.

Weil man noch Pascal-Karten verkaufen muss. Deswegen gibt es auch keine richtigen Leistungswerte.

Ich habe auf meinen PC noch die InfiltratorDemo rumliegen und mit meiner GTX1080TI@~1600MHz verglichen - selber Zeitraum wie bei Turing:
42,6FPS (FPS zwischen 34 und 49). Das wäre also zum gesyncten Bild von nVidia rund 41% Mehrleistung...

basix
2018-08-21, 23:17:03
Und warum haben sie das dann in der Präsentation nicht stolz gezeigt? Die Turing-Karten, die 50, 60, 70% schneller sind als ihr Pascal-Gegenstück, DAS wäre ja auch ein tolles Marketingargument.

Vielleicht ist die Antwort einfach, dass es immer noch viele Pascals an Lager hat. Nvidia und die ganze Lieferkette würde sofort massig an Marge für schon hergestellte Produkte abschreiben. Und DAS will Nvidia sicher nicht ;)

Weil man noch Pascal-Karten verkaufen muss. Deswegen gibt es auch keine richtigen Leistungswerte.

Ich habe auf meinen PC noch die InfiltratorDemo rumliegen und mit meiner GTX1080TI@~1600MHz verglichen - selber Zeitraum wie bei Turing:
42,6FPS (FPS zwischen 34 und 49). Das wäre also zum gesyncten Bild von nVidia rund 41% Mehrleistung...

Mit meiner 980 Ti bin ich bei ca. 25fps oder so :D Und zum 60fps cap: Jensen hat doch 78fps gesagt, welche halt auf 60 begrenzt wurden?

pixeljetstream
2018-08-21, 23:19:15
@Fliwatut die Turing Hardware wird doch ewig verkauft, relativ zu den paar Wochen bis es Tests gibt. Die Reviews und Tests sind doch viel wichtiger für den Kunden.

Mein Herz blutet auch ein bisschen, weil ich an dem dritten beworbenen Punkt "NEW ADVANCED SHADING TECHNOLOGIES" gearbeitet habe, der komplett nicht gezeigt wurde. Aber das wäre halt typisch evolutionär "schneller" und nicht wirksam wie raytracing.

Troyan
2018-08-21, 23:19:36
Man weiß ja nicht, wo die 78FPS anliegen... Durchschnitt? Einige Szenen? Immer?

Fliwatut
2018-08-21, 23:21:57
Die Reviews und Tests sind doch viel wichtiger für den Kunden.
Ja, warten wir es mal ab.

Fliwatut
2018-08-21, 23:23:21
Wurde in dieser Infiltrator-Demo DLSS benutzt oder wie wird dieses Verfahren bezeichnet? Muss der Programmierer dieses Verfahren im Spiel implementieren oder geht das über den Treiber?

Menace
2018-08-21, 23:23:40
Ich rate hier einfach wild rum. Aber ich glaube, die Jungs haben wirklich ein hartes Stück Arbeit hinter sich. Huang sprach am Anfang immer wieder von Fehlschlägen. Das jetzt so hinzubekommen ist selbst für nVidia nicht selbstverständlich. Und es wird -ich hoffe es nicht, fürchte es aber fast- die nächste Zeit ein Alleinstellungsmerkmal sein.

Ich kritisiere nVidia häufig und an vielen Punkten. Aber wie gesagt, Leistung effizient liefern können sie halt auch. Deshalb meine Vermutung: die hauen uns stückchenweise Turing um die Ohren. Today RT, tomorrow fps. Aber wie gesagt, ich rate einfach.

basix
2018-08-21, 23:24:54
Man weiß ja nicht, wo die 78FPS anliegen... Durchschnitt? Einige Szenen? Immer?

Keine Ahnung, das weiss der Jensen wohl selber nicht. Hier aber die Aussage:
https://www.twitch.tv/videos/299680425?t=2h52m21s

Du kannst es aber auch so sehen: Du hast 34fps min. Bei der Demo sind es durchgehend 60fps ohne Drops ;)

PHuV
2018-08-21, 23:25:08
Glaube ich nicht, mit RT wird versucht, etwas zu Kaschieren, wahrscheinlich nur die 15-30% mehr Leistung innerhalb der Vorgänger Karten, ganz klar.
Kontra Deine Spitze vorhin: Du bist ein Vertreter vom AMD Vorstand und willst nur hier Nvidia und Turing schlechtmachten.
@Fliwatut die Hardware wird doch ewig verkauft, relativ zu den paar Wochen bis es Tests gibt.
Meiner Erinnerung nach war das vorher immer nicht so ein Thema, weil vor einem Release die Lager Monate vorher schon kräftig geräumt wurden, siehe Kepler und Maxwell. Bei Pascal ist eben nun der im Sande versickerte Mining Boom dazwischen gekommen. So eine Situation hatte bisher Nvidia nicht.

Dazu noch den neue Antminter E3, der im Mining der Gamechanger für Etherum ist:
https://cryptoslate.com/bitmain-e3-asic-ethereum-miner/
https://cryptoslate.com/wp-content/uploads/2018/04/E3-Analysis-1.png
180 MH/s ist schon ein Brocken. Ich bin mal gespannt, was Turing hier leisten könnte.

Menace
2018-08-21, 23:27:20
Kontra Deine Spitze vorhin: Du bist ein Vertreter vom AMD Vorstand und willst nur hier Nvidia und Turing schlechtmachten.

Nein. Er ist Zweckpessimist. Er sieht es jetzt noch kritisch; dann freut er sich später umso mehr, wenn es doch besser aussieht. :wink:

Hübie
2018-08-21, 23:36:38
Es wirkt fast so als ob die, die jetzt schreien die gleichen sind die vorher den refresh verteufelten, und nun genau das haben wollen. Die Meinungsdifferenz über Preis und Event ist eine Sache, aber den Fortschritt immer auf "später" schieben zu wollen kann ich nicht nachvollziehen.

Ich auch nicht. Und ein zu hoher Preis honoriert die jahrelange, harte Arbeit der Beteiligten nicht, daher können wir den Preis schon daran koppeln - jedenfalls kurz- bis mittelfristig. Langfristig wird sich auch das auszahlen, nur dürften die wenigsten verstehen, was da drin steckt.
Ich vermag es mir mit meinem laienhaften Wissen nur ansatzweise vorstellen können, aber weiß gute Arbeit immer zu schätzen. :up:

Es gab ein paar hints, was darauf schließen lässt, dass man nicht nur durch Takt und ALUs mehr Leistung erzielt, aber meine Versuche da was anzuregen sind im getr0lle der anderen wohl völlig verloren gegangen. Warten wir es einfach ab. :cool:

Für mich persönlich ist der Preis einfach zu hoch. Mein Zenith ist überschritten.

pixeljetstream
2018-08-21, 23:38:53
... die Hardware wird ewig verkauft...

Meiner Erinnerung nach war das vorher immer nicht so ein Thema, weil vor einem Release die Lager Monate vorher schon kräftig geräumt wurden, siehe Kepler und Maxwell. Bei Pascal ist eben nun der im Sande versickerte Mining Boom dazwischen gekommen. So eine Situation hatte bisher Nvidia nicht.

Bezog mich auf Turing. Fliwatut meinte die Wochen bis es Tests gibt, verliert man durch den RT Fokus Vorbestellungen.

Slipknot79
2018-08-21, 23:39:25
Es wirkt fast so als ob die, die jetzt schreien die gleichen sind die vorher den refresh verteufelten, und nun genau das haben wollen. Die Meinungsdifferenz über Preis und Event ist eine Sache, aber den Fortschritt immer auf "später" schieben zu wollen kann ich nicht nachvollziehen.


Ist schwer nachzuvollziehen, für jemanden der auf der payroll von nvidia steht. :cool:
Letztendlich entscheidet der Kunde ob er RT als Fortschritt akzeptiert oder nicht, ob er bereit ist eure Preise auch zu bezahlen. Und dem bist du nunmal ausgeliefert.

Mit den aktuellen Preisen wird aber der Fotschritt nunmal auf "später" geschoben. Wenn ihr wirklich Interesse daran habt den Fortschritt zu beschleunigen, dann müsst ihr eben was an den Preisen tun. Ansonsten liegt eben kein ernsthaftes Interesse vor.


Auch ich bin nicht bereit für 30fps in 1440p 1300EUR zu bezahlen, wenn mein TFT 165Hz schafft. Der eine Fortschritt bremst eben den anderen. :redface:
RT ist eine coole Sache, aber ich habe auch Zeit.

PHuV
2018-08-21, 23:40:11
Ich rate hier einfach wild rum. Aber ich glaube, die Jungs haben wirklich ein hartes Stück Arbeit hinter sich. Huang sprach am Anfang immer wieder von Fehlschlägen. Das jetzt so hinzubekommen ist selbst für nVidia nicht selbstverständlich.
Das merkte man auch an den Präsentationen hier Gamescon oder auf der Siggraph 2018 an. Huang war ja wirklich so überzeugt und begeistert davon, und das kann man mit dem Hintergrund auch verstehen. Aber er ist in meinen Augen leider ein schlechter Präsentator, er konnte genau diesen Umstand nicht vermitteln. Seine Begeisterung kontra Reaktionen im Publikum mit den (hats jemand bemerkt) eingebauten Zwangsklaschern und Beifallrufern. Das war doch etwas peinlich.

Das ist dann auch vermutlich die größe Hürde hier. Viele wollen oder können nicht verstehen (das ist überhaupt nicht negativ gemeint), was da vermutlich im Hintergrund geleistet wurde, um RT so möglich zu machen. Wann hatten wir in den letzten Jahren eine Steigerung von Faktor 6 zu einer Generation (wie Pascal zu Turing) zu Faktor 3 innerhalb einer Generation (wie Volta zu Turing)? Volta wurde im Dezember 2017 ausgeliefert, daß muß man sich mal vor Augen halten.

horn 12
2018-08-21, 23:43:17
Nun von Preis aus sollte die GTX 2080TI nochmals ca. 25 bis 30% draufpacken können
Gut möglich dass die GTX 2080 nur 15% über einer GTX 1080 kommt.

Menace
2018-08-21, 23:49:36
Aber er ist in meinen Augen leider ein schlechter Präsentator, er konnte genau diesen Umstand nicht vermitteln.

Das muss er auch nicht können. Er muss seine Mannschaft gut verkaufen; das machte er. Und RT wird nicht von heute auf morgen die Spielewelt umkrempeln. Das braucht seine Zeit. Ist aber ein ähnliches Problem bei Vega. Ich freue mich den Arsch ab, wenn ich mit OpenCl arbeite und der Rest schüttel nur mit dem Kopf. Etwas mehr Gelassenheit auf Deiner Seite könnte da auch nichts schaden. :wink:

[MK2]Mythos
2018-08-21, 23:51:13
Nun von Preis aus sollte die GTX 2080TI nochmals ca. 25 bis 30% draufpacken können
Gut möglich dass die GTX 2080 nur 15% über einer GTX 1080 kommt.
Ist überhaupt irgend ein Grafikkartenlaunch vor deinen komplett an den Haaren herbei gezogenen Spekulationen sicher? Ich mein, klar können es 15% sein, es können aber auch 0% sein, oder 30,oder 40, oder 80, wer weiß das schon?
RT mag ja nett sein, aber wenn man das in aktuellen Spielen bei vernünftigen Auflösungen ausmachen muss um spielbare fps zu erreichen, bleibt es doch einfach nur ein theoretisches checkboxfeature. Ich kann mir selbst bei Nvidia nicht vorstellen dass das alles ist um mit solchen Preisvorstellungen an den Markt zu gehen.

horn 12
2018-08-21, 23:53:08
Niemand, ist nur eine Vermutung und die auch komplett falsch sein kann!

horn 12
2018-08-22, 00:02:03
https://www.techradar.com/au/reviews/nvidia-geforce-rtx-2080-ti

Vorab Review zur GTX 2080TI

Troyan
2018-08-22, 00:05:49
Aus dem Folien-Satz zur Keynote:
https://i.imgur.com/w4UOLQa.png

Turing benötigt für ein Frame genauso lange wie Pascal alleine für Rastering und Shading. Nach dem dort, wäre Turing 2x schneller als Pascal...

basix
2018-08-22, 00:07:56
https://www.techradar.com/au/reviews/nvidia-geforce-rtx-2080-ti

Vorab Review zur GTX 2080TI

Daraus ein Auszug
In terms of frame rate, Shadow of the Tomb Raider ran at a mostly consistent 50-57 fps, which is impressive giving the game is running on a single GPU and in such an early state – on top of all the new ray tracing techniques.

We also played a variety of other PC games that shall not be named, and saw performance run in excess of 100 fps at 4K and Ultra settings. Unfortunately, we also don’t know how much power these GPUs had to draw to reach this level of performance.

Troyan
2018-08-22, 00:09:20
nVidia bewirbt doch, dass Turing für 4K@60FPS in ALLEN Spielen laufen soll:
Turing -- which delivers 6x more performance than its predecessor, Pascal™ -- redefines the PC as the ultimate gaming platform, with new features and technologies that deliver 4K HDR gaming at 60 frames per second on even the most advanced titles.
https://nvidianews.nvidia.com/news/10-years-in-the-making-nvidia-brings-real-time-ray-tracing-to-gamers-with-geforce-rtx

Wer weiß, ob die in TR nicht einfach SSAA gleich miteingeschaltet haben.

Linmoum
2018-08-22, 00:09:44
Unfortunately, we also don’t know how much power these GPUs had to draw to reach this level of performance.
Letzteres dann scheinbar mit SLI.

nVidia bewirbt doch, dass Turing für 4K@60FPS in ALLEN Spielen laufen soll:

https://nvidianews.nvidia.com/news/10-years-in-the-making-nvidia-brings-real-time-ray-tracing-to-gamers-with-geforce-rtx

Wer weiß, ob die in TR nicht einfach SSAA gleich miteingeschaltet haben.
Die Titan V schafft bei CB in 19 von 24 Spielen in UHD bereits (mehr als) 60fps, in den restlichen fünf liegen die fps zwischen 52,3 und 59,5. Nvidias Marketing hat hier also durchaus recht.

Troyan
2018-08-22, 00:15:46
Computerbase testet in 4K nicht mehr allen Einstellungen.

pixeljetstream
2018-08-22, 00:17:05
Ist schwer nachzuvollziehen, für jemanden der auf der payroll von nvidia steht. :cool:
Letztendlich entscheidet der Kunde ob er RT als Fortschritt akzeptiert oder nicht, ob er bereit ist eure Preise auch zu bezahlen. Und dem bist du nunmal ausgeliefert.
Als Kunde war ich die längste Zeit meines Lebens in der 300€ Klasse unterwegs und hab nicht jede Generation mitgemacht, erst mit 1080 Mal was dickeres geholt. Deswegen hab ich kein Problem damit wenn jemand etwas es nicht wert ist. Dennoch konnte ich mich aber an der "teuren" Technik erfreuen. Aber ist wie Du sagst halt einfach zu sehr Ingenieurs/Entwicklersicht.

Was am Ende wirtschaftlich erfolgreicher ist, kann ich nicht beurteilen, davon hab ich zu wenig Ahnung. In jedem Fall aber eine Wette auf die Zukunft.

Bösewicht
2018-08-22, 00:19:58
1080
https://geizhals.de/gainward-geforce-gtx-1080-phoenix-3651-a1449266.html?hloc=de

2080
https://geizhals.de/gainward-geforce-rtx-2080-phoenix-gs-4146-a1870929.html?hloc=de

Boost: 1733MHz
Boost: 1815MHz
ca. +5%

320GB/​s
448GB/​s
+40%

2560
2944
knapp 20%

160
184
+15%

8873 GFLOPS (Single)
10687GFLOPS (Single)
ca. 20%

277GFLOPS (Double)
334GFLOPS (Double)
ca. 20%

ich kann mir nicht vorstellen das allein ohne Architektur Verbesserungen wir am ende keine +30% bekommen

N0rG
2018-08-22, 00:21:12
Das eigentliche Killerfeature ist für mich das AI unterstützte rendering. Warum irgendwas berechnen wenn es eine AI mit einem Bruchteil der Chipfläche hin bekommt. Und das beste ist dass die Netzwerke mit der Zeit immer besser werden. Die herkömmliche Rechenleistung wird wahrscheinlich mit der Zeit immer weniger wichtig.
Ich prophezeie mal, dass wir da in Zukunft ziemlich geilen Scheiß sehen werden.

Timbaloo
2018-08-22, 00:23:23
ich kann mir nicht vorstellen das allein ohne Architektur Verbesserungen wir am ende keine +30% bekommen

Naja, 30% Chip zu Chip wäre halt auch einfach wenig und auch wenn ich den Weg Richtung RT wichtig und richtig finde... schlecht.

Für mich als 970 Besitzer der jetzt nicht unbedingt die aktuellsten Spiele in 4K und vollen Details spielen muss wäre Turing damit (zusammen mit der wahrscheinlich höheren TDP der 2080 zur 1080) "aussetzbar".

Edit: Quote eingefügt

Linmoum
2018-08-22, 00:29:31
Computerbase testet in 4K nicht mehr allen Einstellungen.
https://i.gyazo.com/9cbdef2126ee068a36a2becb16c2960c.png
https://www.computerbase.de/2018-05/mifcom-miniboss-titan-v-test/

Sieht für mich anders aus. Das sind im Prinzip nahezu überall max. Settings.

Daredevil
2018-08-22, 00:31:02
Die TDP beschreibt ja den Maximalwert der thermischen Verlustleistung ( Danke Wiki ) und demnach kannst du diesen Wert überhaupt nicht ernst nehmen, da nicht jedes Spiel eines ist, welches Shader-, Tensor- und RT Cores komplett auslastet.
Ein 8 Kerner brät ja auch nicht maximal Strom durch, wenn nur zwei Kerne genutzt werden.

Zudem ist die gezeigte GTX1080 ja auch nur mit dem Ref Power Limit versehen, damit reißt man auch keine Bäume aus. :D

TGKlaus
2018-08-22, 00:31:19
Wann hatten wir in den letzten Jahren eine Steigerung von Faktor 6 zu einer Generation (wie Pascal zu Turing) zu Faktor 3 innerhalb einer Generation (wie Volta zu Turing)?

Es gibt keine Performancesteigerung um Faktor 6 oder Faktor 3.
Wir hoffen das es überhaupt eine Steigerung um Faktor 1,3 gibt.

Lass einfach mal den Marketing BS stecken!

Troyan
2018-08-22, 00:32:29
Natürlich gibt es die Leistungssteigerung. Die wurde auch längst ermittelt.

Bösewicht
2018-08-22, 00:33:01
Naja, 30% Chip zu Chip wäre halt auch einfach wenig und auch wenn ich den Weg Richtung RT wichtig und richtig finde... schlecht.

Für mich als 970 Besitzer der jetzt nicht unbedingt die aktuellsten Spiele in 4K und vollen Details spielen muss wäre Turing damit (zusammen mit der wahrscheinlich höheren TDP der 2080 zur 1080) "aussetzbar".

Edit: Quote eingefügt
180W (NVIDIA) vs 215W (NVIDIA)
wenn ich das richtig verstanden habe kommen die 30 watt nlink dazu also sind es quasi 5 watt extra.

dazu kommt halt das RT dazu und unter diesen Hintergrund finde ich das voll in Ordnung.
Effektiv gesehen ist es wenn es so kommt schon nicht so übel, 30+ % und in manchen Szenarien durch RT viel viel schneller.

mein richtiger negativ punkt ist der viel zu hohe preis.

TGKlaus
2018-08-22, 00:37:29
Natürlich gibt es die Leistungssteigerung. Die wurde auch längst ermittelt.

:facepalm:


Ok, dann nenn mir doch mal die Games z.B. aus dem Computerbase Benchparkur, welche eine Steigerung größer / gleich Faktor 2 haben werden ....

Timbaloo
2018-08-22, 00:42:30
180W (NVIDIA) vs 215W (NVIDIA)
wenn ich das richtig verstanden habe kommen die 30 watt nlink dazu also sind es quasi 5 watt extra.

dazu kommt halt das RT dazu und unter diesen Hintergrund finde ich das voll in Ordnung.
Effektiv gesehen ist es wenn es so kommt schon nicht so übel, 30+ % und in manchen Szenarien durch RT viel viel schneller.

mein richtiger negativ punkt ist der viel zu hohe preis.
Wäre die 2080 die "üblichen" % schneller als die 1080ti (ohne RT), dann würde mich persönlich der Preis nichtmal so sehr stören. Den könnte ich mir schnell damit schönreden ein Feature zu supporten auf welches ich lange im Bereich gewartet habe. Wissentlich ein early adopter zu sein, wissentlich, dass ich damit real nie groß was für mich haben würde. Aber eine Karte welche nur marginal (30% halte ich hier für marginal angesichts der Die-Größe) schneller ist wie ihr direkter Vorgänger (1080 und damit <1080ti) und zu diesem Preis ist einfach nicht cool. Für mich.

Troyan
2018-08-22, 00:49:26
Welche Karte? Die RTX2080? Wäre die 30% schneller bei ähnlichen Die, wäre das doch ziemlich fantastisch...

Screemer
2018-08-22, 00:51:43
Aber eine Karte welche nur marginal (30% halte ich hier für marginal angesichts der Die-Größe) schneller ist wie ihr direkter Vorgänger (1080 und damit <1080ti) und zu diesem Preis ist einfach nicht cool. Für mich.
Das ist ja bisher noch völlig offen. Wenn ich mit den ein oder anderen hint bier und in anderen Foren so ansehe, dann könnte da noch ein großer Schöpfer geheime Soße oben drauf kommen. Die SMs könnten sich ordentlich von den pascalachen Einheiten unterscheiden. Dazu kommt noch das ein oder andere auch gimik für rasterization dazu und man könnte richtig rocken. Bin sehr gespannt ob NV da noch hinter dem berg gehalten hat. Schön ist auf jeden Fall zu sehen, dass sich die Erwartungshaltung einiger hier im Vergleich zu vor der siggraph etwas beruhigt hat.
Welche Karte? Die RTX2080? Wäre die 30% schneller bei ähnlichen Die, wäre das doch ziemlich fantastisch...
Bei den 30% ging er von rtx 2080 vs GTX 1080 aus. Da wären 30% geradezu erbärmlich.

Linmoum
2018-08-22, 00:52:49
For Battlefield V, the situation was similar with a 1080p 144Hz monitor, playing on the Rotterdam map over LAN. There were framedrops during fast-paced scenes and in general it didn’t seem like it could keep up with the game. Again, there was no FPS info available but the RTX 2080 Ti was almost surely not cranking out constant 60fps. Here, the real-time ray tracing was quite noticeable, with vivid dynamic reflections in puddles, windows, and river. Even at 1080p, those features added to the overall image quality, though the ultimate performance cost was unclear. Framerates aren't a good tradeoff for image quality in fast-paced FPS', though for the record, I’ve always been terrible at shooters (except maybe Halo 2).
In any case, I think there are a few relevant takeaways from the hands-on:

RTX in terms of real-time ray-tracing is still in development, which is something confirmed by developers themselves for Shadow of the Tomb Raider and Battlefield V;
As presented thus far, RTX in terms of both real-time ray-tracing and deep learning super sampling (DLSS) require developer support and implementations may vary between them;
As presented thus far, RTX in terms of a technology or a platform is fairly confusing for gamers, because includes a few different technologies like real-time ray-tracing and deep learning super sampling (DLSS), but also provides the namesake for the “GeForce RTX” 20-series and “GeForce RTX” branded games (we will explain all this in detail when the time comes);
The demos didn’t clarify apples-to-apples performance differences between the GTX 1080 Ti and RTX 2080 Ti
September 20 is a long time to go without third-party objective analysis

https://www.anandtech.com/show/13261/hands-on-with-the-geforce-rtx-2080-ti-realtime-raytracing

Battlefield scheint wohl allen zu gefallen, was Ray Tracing angeht (und das sah auf der Präsentation auch sehr fein aus), aber Performance sollte gerade bei einem MP-Shooter natürlich passen.

Aber hat bestimmt seinen Grund, warum vor Ort scheinbar nur 1080p zum testen ist. ;)

Timbaloo
2018-08-22, 00:54:05
@Troyan

Bei 2080 vs 1080 + 30% wären schwach.

2080 vs 1080ti + 30% wären ziemlich gut.

PHuV
2018-08-22, 00:57:15
Es gibt keine Performancesteigerung um Faktor 6 oder Faktor 3.
Wir hoffen das es überhaupt eine Steigerung um Faktor 1,3 gibt.
Äh, doch, im RT-Bereich? Hast Du die Präsentationen der Siggraph nicht gesehen

https://i.imgur.com/UANbxDb.jpg

https://i.imgur.com/2Lw0eey.jpg

Screemer
2018-08-22, 00:59:13
Äh, doch, im RT-Bereich? Hast Du die Präsentationen der Siggraph nicht gesehen

https://i.imgur.com/UANbxDb.jpg
Das ist doch für Gamer völlig uninteressant. Ohne dedizierte rt-einheiten ist es sowieso nicht nutzbar. Imho ein völliger Äpfel und Birnen Vergleich. Das beste ist ja, dass der speedup nur bei sehr hoher Genauigkeit überhaupt zutrifft. Pica pica das man auf der Folie sieht nutzt spp2 oder war das die seed demo?

Bösewicht
2018-08-22, 00:59:16
Aber eine Karte welche nur marginal (30% halte ich hier für marginal angesichts der Die-Größe) schneller ist wie ihr direkter Vorgänger (1080 und damit <1080ti) und zu diesem Preis ist einfach nicht cool. Für mich.
wenn ich mir diese zwei links ansehe
https://www.computerbase.de/2014-09/geforce-gtx-980-970-test-sli-nvidia/6/#diagramm-rating-2560-1600-4xaa-16xaf
https://www.computerbase.de/2015-05/geforce-gtx-470-570-670-770-970-vergleich/2/
das hypothetische 30% mal von maxwell auf pascal abgesehen ja ehr normal als die Ausnahme sind.
Viel mehr hab ich dazu auch nicht mehr zu sagen sonst wiederhole ich mich nur :tongue:

Timbaloo
2018-08-22, 01:06:12
Das ist ja bisher noch völlig offen.
Klar, deswegen warte ich auch ab und bin weder euphorisch noch tief enttäuscht.

Was mir aber auf den Sack geht ist wie manche das Feature RT, egal wie nutzbar es mit Turing real ist, versuchen kleinzureden. Das ist ganz klar die Zukunft. Es ist endlich mal echte Innovation in dem Bereich, entgegen der ganzen "low level"-Kackophonie, HBM als ultimativem Heilsbringer gestartet und als Bettvorleger für HPC gelandet, oder total irrelevantem Geblubber wie Hairworks/TressFX/whatever. Das verstehen aber irgendwie viele nicht. Auch nicht, dass man mit RT jetzt erstmal durch ein Tal der Tränen und der Rückschläge muss (zumindest im Gaming). Aber dann wird das gut, und nicht "gut" wie irgendein verkackter "mit dem Angriff Steiner wird das alles werden"-Wundertreiber.

PS: Das musst du im übrigen nicht unbedingt auf dich beziehen.

PHuV
2018-08-22, 01:11:52
Ich bin schon ganz durcheinander. Wo war den die Folie, wo Pascal mit 6x, Volta mit 3x zu Turing im Bereich RT gezeigt wurde? Ich find sie nicht mehr, war das bei der Siggraph oder Gamescon?

PHuV
2018-08-22, 01:14:30
Das ist doch für Gamer völlig uninteressant. Ohne dedizierte rt-einheiten ist es sowieso nicht nutzbar. Imho ein völliger Äpfel und Birnen Vergleich. Das beste ist ja, dass der speedup nur bei sehr hoher Genauigkeit überhaupt zutrifft. Pica pica das man auf der Folie sieht nutzt spp2 oder war das die seed demo?
Laut Nvidia Präsentation gibts die Steigerungen im RT Bereich, warum wird das angezweifelt? Um mehr gings doch gar nicht. :confused: Zu allem anderen hab ich doch gar nichts gesagt?

Troyan
2018-08-22, 01:16:00
Meinst du die:
https://pbs.twimg.com/media/DkqK-93UYAEGq8B.jpg
https://twitter.com/CasualEffects/status/1029788286242324480

Die 6x Angabe bezieht sich auch auf den Hybrid-Modus.

Screemer
2018-08-22, 01:18:28
Also ich hab hier im thread noch niemanden gefunden der rt nicht als die Zukunft im Gamerendering sieht. Man liest aber halt immer das was man lesen will.

Wenn man sich z.b. darüberber beschwert, dass im TR Showcase mit RT off bei den Kindern mit den Leuchtstäben einfach gar keine Schatten integriert wurden, dann wird man dafür kritisiert ach was richtig dumm angemacht. Der Konversation las sich ungefähr so:

1: Keine Schatten bei dynamischen Licht ist einfach Humbug. Wären die Schatten mit z.b. enlighten nicht auch ok?
2: Sind die physikalisch korrekt?
1: Nein aber ansehnlich?
2: RT schatten sind aber viel geiler?
1: Na das ist doch gar keine Frage!
3: Würdest du dafür von 60fps mit reiner rasterization auf 30fps als target runter gehen?
1: Mmmmhhhh eher nicht!
2: Aber RT ist die Zukunft!
1: Ja kann schon sein aber ich hätte gern mehr FPS.
2: Du solltest aufwachen und die Entwicklung nicht so negativ sehen!1!11!
1: Emkey.

Troyan
2018-08-22, 01:24:22
Aha. Und das hat mit dem Thema hier genau, was zu tun? Ich bekomme auch keine Hairworks-Implementierung für das Haar und muss mich mit dem absoluten lächerlichen Purehair abgeben, was nichtmal das D in Definition "Realismus" erreicht.

Dir ist klar, dass du keine dynamischen Lichter erhälst, weil deine Lieblingsfirma die technische, rückständige Konsolenbasis liefert? Schreib ein Brief an AMD.

Nixxes macht genau das, wofür Raytracing da ist: Wenig Aufwand viel Qualität.

TGKlaus
2018-08-22, 01:25:22
Äh, doch, im RT-Bereich? Hast Du die Präsentationen der Siggraph nicht gesehen




Interessant ist was hinten rauskommt! Und nicht irgendein (bisher nicht vorhandener) Teilbereich.

Und mehr als Faktor 1,3 wird das nicht werden.


Edit:

Wenig Aufwand viel Qualität.

Falsch!

Riesiger Rechenaufwand, viel Qualität.

RT macht NICHTS schneller.

Screemer
2018-08-22, 01:30:57
Laut Nvidia Präsentation gibts die Steigerungen im RT Bereich, warum wird das angezweifelt? Um mehr gings doch gar nicht. :confused: Zu allem anderen hab ich doch gar nichts gesagt?
Das wird doch nicht angezweifelt. Auserdem ist der Vergleich wie gesagt völlig Banane. Das ist wie damals t&l auf der gpu mit t&l auf der cpu zu vergleichen. Völlig sinnfrei. Der erste Vergleich der Sinnhaftigkeit war, war hw-t&l untereinander zu vergleichen.

Angezweifelt wird ob der speedup für RT mit spielbaren frameraten ausreicht. Bisher ist das völlig offen. Tut es das, dann ist es der shit. Tut es das nicht kann man auch hier den Vergleich mit t&l ziehen. Das erst wirklich mit der nächsten Generation nutzbar wurde.

Without broad application support at the time, critics pointed out that the T&L technology had little real-world value. [...] Software support for hardware T&L was not commonplace until several years after the release of the first Geforce. Early drivers were buggy and slow, while 3dfx cards enjoyed efficient, high speed, mature Glide API and/or MiniGL support for the majority of games. Only after the GeForce 256 was replaced by the GeForce 2, and ATI's T&L-equipped Radeon was also on the market, did hardware T&L become a widely utilized feature in games.
https://en.m.wikipedia.org/wiki/GeForce_256

@troyan: warum redest du mich eigentlich schon wieder blöd an? Du hast meine Beiträge oben gelesen? Ich bin RT sehr positiv gegenüber gestimmt feiere nur nicht alles so ab wie du und phuv. Timabloo ist da eher auf meiner Erwartungshaltung. Du hast bis heute nicht gerafft, dass es mir scheiß egal ist wer mir was für meinen PC liefert. Ich hatte seit dem Athlon 64 X2 bis zu meinem jetzigen x1600 keine AMD cpu und betreibe nun seit längerem eine 980ti. Mir ist bang for the buck wichtiger als irgendwas anderes.

crux2005
2018-08-22, 01:32:49
Nvidia Geforce RTX 2080 - It just works – oder halt nicht
https://www.gamestar.de/artikel/nvidia-geforce-rtx-2080-it-just-works-oder-halt-nicht,3333736.html

Was das für Vorteile mit sich bringt, wenn ich mit einer RTX Gegner in Reflektionen beispielsweise um eine Ecke sehen kann, sie mich aber mit einer GTX nicht... Fast schon unfair...

Aber natürlich haben die Entwickler von DICE eine Mechanik eingebaut, um diesen Vorteil auszugleichen. Denn schon beim ersten Feindkontakt bricht bei mir die Framerate ein. Statt 120 fps sehe ich nun 15 bis 20, aber immerhin in 4K

Genau richtig zum einschlafen. ;D

PHuV
2018-08-22, 01:48:58
Meinst du die:
https://pbs.twimg.com/media/DkqK-93UYAEGq8B.jpg
https://twitter.com/CasualEffects/status/1029788286242324480

Ne, schwarzer Hintergrund, links Pascal 6x grüner Pfeil nach rechts Mitte Volta 3x grüner Pfeil nach rechts Turing.

N0Thing
2018-08-22, 02:20:45
Ist das nicht der von Huang neu definierte "Leistungsstandard"? Ist das eigentlich NDA-Inclusive? ;D

Wäre nun auch egal, da von Huang publik gemacht.


Mein Herz blutet auch ein bisschen, weil ich an dem dritten beworbenen Punkt "NEW ADVANCED SHADING TECHNOLOGIES" gearbeitet habe, der komplett nicht gezeigt wurde. Aber das wäre halt typisch evolutionär "schneller" und nicht wirksam wie raytracing.

Mal abseits der Wortgefechte der Boyz, ist es genau dieser Punkt, über den sich fast alle neutralen Beobachter mehr Informationen gewünscht hätten, zusätzlich zu dem, was man über RT mitgeteilt bekommen hat. Die stille Mehrheit ist in deinem Lager. :)

Aus dem Folien-Satz zur Keynote:
https://i.imgur.com/w4UOLQa.png

Turing benötigt für ein Frame genauso lange wie Pascal alleine für Rastering und Shading. Nach dem dort, wäre Turing 2x schneller als Pascal...

Niemand weiß, ob diese Folien wirklich akkurat sind. Die Darstellung der Verteilung von RT-, Tensor- und Shader-Cores war ja auch nur für den maximalen Effekt ausgewählt.


Als Kunde war ich die längste Zeit meines Lebens in der 300€ Klasse unterwegs und hab nicht jede Generation mitgemacht, erst mit 1080 Mal was dickeres geholt. Deswegen hab ich kein Problem damit wenn jemand etwas es nicht wert ist. Dennoch konnte ich mich aber an der "teuren" Technik erfreuen. Aber ist wie Du sagst halt einfach zu sehr Ingenieurs/Entwicklersicht.

Was am Ende wirtschaftlich erfolgreicher ist, kann ich nicht beurteilen, davon hab ich zu wenig Ahnung. In jedem Fall aber eine Wette auf die Zukunft.

:up:

Die Zeit wird zeigen, wie erfolgreich der eingeschlagene Weg von Nvidia sein wird. Aus meiner Sicht, kann man sowohl die Technik feiern, als auch die Preisgestaltung kritisieren. Schade, dass da immer so schnell die Neidkarte als Verteidigung herangezogen wird und ebenfalls Kacke ist die Ignoranz für den Mut auf der anderen Seite, mal neue Bahnen zu beschreiten, selbst wenn es aktuell vielleicht (noch) nicht der heilige Gral ist.

Leonidas
2018-08-22, 04:07:35
Also ich glaube ihr macht euch was vor. Für Partnerkarten hat Nvidia bei der TI auch ab 999$ angegeben. Die Realität sieht so aus:
https://geizhals.de/?cat=gra16_512&asd=on&asuch=2080ti&sort=-p#productlist
Keine einzige Partnerkarte unter dem Preispunkt der FE. Gleiches gilt für die 2080.



Ganz böse. Wobei man zur Ehrenrettung sagen muß, das dies alles Eigendesigns mit Werks-OC sind. Noch ist nicht alles verloren ... aber wenn es dumm ausgeht, dann steht erst einmal der FE-Preis an.





Ich wette mit euch, bei den nachfolgenden GPUs in 7 nm wird RTX und der ganze zusätzliche Kram wieder entfernt werden, weil NVidia sonst in Zukunft immer so fette Chips herstellen müsste. Dieses Zeug wird in ein paar Dutzend Spielen genutzt werden, die NVidia jetzt pusht, aber 2019/2020 kräht kein Hahn mehr danach, weil 98% der User keine Raytracing-fähige GPU kaufen werden.


Ganz egal, ob es völlig schief geht: Die 7nm-Chips sind jetzt schon designt, die ändert so spät niemand mehr. Und damit kommen die sicher mit RT. Vor allem sind Hersteller eher träge darin, Fehler einzusehen, sondern versuchen es eher durchzuboxen. Genau das dürfte letztlich passieren: Egal wie steinig der Weg wird, NV boxt es einfach durch. Der Gesichtsverlust im gegenteiligen Fall wäre zu groß.




Es wirkt fast so als ob die, die jetzt schreien die gleichen sind die vorher den refresh verteufelten, und nun genau das haben wollen.


Treffer ... und versenkt.





https://www.techradar.com/au/reviews/nvidia-geforce-rtx-2080-ti

Vorab Review zur GTX 2080TI


Die Leute sollten nicht etwas "Review" nennen, was auf Basis weniger Herstellerinfos und ohne Produkt in den (eigenen) Händen passiert. Das ist hart an der Grenze zur "Fake-News". In jedem Fall Clickbait und Google-Betrug (weil Google natürlich so blöd ist, das älteste "Review" höher zu gewichten). Sollte demzufolge exakt umgedreht behandelt werden: Nichtverlinkung und heftig Minuspunkte im Google-Index für diese Webseite. Wo ist A.I. wenn man sie mal brauchen könnte?

tEd
2018-08-22, 05:45:13
Das Problem an sich ist ja nicht Raytracing. Coole Sache aber wie viele neue Features in der Vergangenheit kostet es halt viel Leistung. Das wirkliche Problem ist der Preis.

wolik
2018-08-22, 06:34:11
In der Cuda Dokumentation zu GP100 und GV100 müsste was stehen. Und wenn du cuda10 runterlädst steht da auch was über Turing.

Die GPU sieht das ganze als ein Adressraum und sämtliche peer2peer Zugriffe gehen über nvlink. Mit jeder Generation wurde Bandbreite und Cache-
Verhalten besser. Aber es ist natürlich nicht so schnell wie ein lokaler Zugriff. G6 600GB/s und nvlink 100GB/s. (GF1050 hat 112 GB/s)

Welche Daten auf welche GPU kommt liegt am Entwickler (Dx12/VK/CUDA).

Ich persönlich hab damit keine direkte Erfahrung, hiesige Kollegen haben mit VR und raytracing auf der Quadro GV100 bissl gespielt (split-frame, aber alle Geometrie und Texturen gedoppelt).

Danke ! Für SLI Fans es ist ein gutes Nachricht :tongue:

pixeljetstream
2018-08-22, 07:19:42
Ganz egal, ob es völlig schief geht: Die 7nm-Chips sind jetzt schon designt, die ändert so spät niemand mehr. Und damit kommen die sicher mit RT. Vor allem sind Hersteller eher träge darin, Fehler einzusehen, sondern versuchen es eher durchzuboxen. Genau das dürfte letztlich passieren: Egal wie steinig der Weg wird, NV boxt es einfach durch. Der Gesichtsverlust im gegenteiligen Fall wäre zu groß.

Ihr überschätzt dass der Die nur wegen RT cores größer wurde und unterschätzt die positive Aufnahme bei Entwicklern und anderen Märkten. Ich wage zu behaupten, dass die meisten Entwickler sehr froh sind Anfragen in eine räumliche Datenstruktur zu bekommen. Es wurde der offensichtliche aber auch schwerste Anwendungsfall demonstriert und das ganze ist immer noch vergleichsweise neu. Man zeigt wo die Reise hingeht.
Bin mir sicher dass RT und DL jenseits von den gezeigten Beleuchtungseffekten genutzt werden. Kann mich da natürlich irren.

pilzsammler2002
2018-08-22, 07:48:37
unterschätzt die positive Aufnahme bei Entwicklern und anderen Märkten.

Kann ich mir bei Raytracing vorstellen, aber nicht das es wieder mit Gameworks kommt... Oder ist es einsehbar?
Wenn nicht hoffe ich die Entwickler haben aus Witcher 3 gelernt und nehmen die offene Lösung ohne Gameworks...

Godmode
2018-08-22, 07:57:02
Mein Herz blutet auch ein bisschen, weil ich an dem dritten beworbenen Punkt "NEW ADVANCED SHADING TECHNOLOGIES" gearbeitet habe, der komplett nicht gezeigt wurde. Aber das wäre halt typisch evolutionär "schneller" und nicht wirksam wie raytracing.


This!!!! Ich habe gestern die RTX Dokumentation kurz überflogen, und das ist mir das sofort aufgefallen:

https://abload.de/img/capturefmisp.png

https://developer.nvidia.com/rtx

Das könnte erklären wie man trotzdem auf eine ordentliche Leistungssteigerung kommt, trotz nur 20% mehr ALUs:
"New Turing shader architecture with Variable Rate Shading allows shaders to focus processing power on areas of rich detail, boosting overall performance."

Hübie
2018-08-22, 07:57:49
Ich möchte hier noch mal klar stellen, dass beim Preis es erstens darum geht, dass wir Gamer die Gier der Stakeholder befriedigen sollen, zweitens in eine Zukunftstechnologie investieren und drittens dann obendrein beim Speicher stagnieren (ratet mal wer dann 2020 schon wieder tief in die Tasche greifen darf weil die neuen Konsolen kommen und deutlich mehr Speicher besitzen). Ich erinnere auch mal daran dass 2019 iirc die Produktionskapazitäten von jeglichem Speicher um ~30% gesteigert werden.

AffenJack
2018-08-22, 08:15:24
So ganz kann ich die ganzen Comments nicht verstehen, dass wir keine Anhaltspunkte für die Rasterleistung haben. Natürlich würde ich mir paar richtige Benches wünschen, aber mal will anscheinend die Katze noch nicht ganz aus dem Sack lassen.

Generell haben wir 4 Hints zu der Rasterisierungsleistung von Turing:
1. Aussage Jensen Infiltrator 78 FPS vs 42 FPS (Wert von Troyan) = ~+85%
2. Aussage Jensen 2070 schneller als Titan X = ~+70%
3. Aussage Jensen Turing pro Shader ~1,5x so schnell wie Pascal
Bsp 2080Ti vs 1080Ti 1,5x 1,21= 1,8 bei gleichem Takt
4. Casual Graphics UE4 Raster 1 Spp Wert, Turing 1,5X schneller als Volta
-> 90% schneller als 1080Ti

Vor allem Aussage 3 scheinen viele nicht mitbekommen zu haben, die er während der Präsentation getätigt hat. Nehmen wir etwas übertreiben aus den Werten raus, dann deuten die Werte immernoch auf min 50% Geschwindigkeitsvorteil pro Karte vs den Vorgänger.

monstar-x
2018-08-22, 08:36:27
So ganz kann ich die ganzen Comments nicht verstehen, dass wir keine Anhaltspunkte für die Rasterleistung haben. Natürlich würde ich mir paar richtige Benches wünschen, aber mal will anscheinend die Katze noch nicht ganz aus dem Sack lassen.

Aussage Jensen, Aussage Jensen , Aussage Jensen

Merkst du was? Niemand kann das wiederlegen, der Jensen kann viel erzählen ohne Benchmarks... UND die gibt es nicht!

Monsta
2018-08-22, 08:48:33
Solange das Massenprodukt die imaginäre 2060 nicht spielbares RT Schatten auf den Schirm zaubert ist das Feature Dead on Arrival.
Und das für einen Preis von max 200-300€.

Das was Nvidia da vor hat ist mir nicht zu erklären. Bei den Preisen lachen sich die Konsolenhersteller tot.
Eine 2060 die alle Titel in 4K 60Fps darstellen würde wäre ein Angriff, aber so.

Piefkee
2018-08-22, 08:50:36
Bezüglich Adaption von Ray-Tracing:

One thing I read in a comment on r/hardware is that it's incredibly unlikely that ray tracing in games will ever gain traction because of AMD. Not because AMD has the best GPUs, but because they have the consoles. And you know what? That comment is exactly right.

When was the last time you saw a game with PhysX? Hairworks? Any Nvidia technology? Probably not in a long time. The last Nvidia Gameworks title I can think of is that Final Fantasy game with the bad demo. Nvidia may have Turing, but AMD indirectly controls the games.

Und bin mir ziemlich sicher, dass es genau adaptiert wird. Wie HairWork wird das RT bei allen Benches einfach ausgeschalten. Schon alleine weil es zum Beispiel eine GTX2060 nicht kann. NV ist mal wieder ein Hype gelungen.

Hier mitzulesen, dass Leute die Dinger und RT abfeiern ohne nur irgendwelche anzeichen bzgl. der Leistung zu sehen und dann noch der Preis. Da kann man echt nur den Kopf schütteln.

Und noch was wenn die Turning wirklich soo gut sein soll. Warum bringt NV eine 2080Ti überhaupt? Also vielleicht mal weniger Hypen und auf benches warten.

pilzsammler2002
2018-08-22, 08:53:12
"New Turing shader architecture with Variable Rate Shading allows shaders to focus processing power on areas of rich detail, boosting overall performance."
Das heisst in bestimmten Bereichen des Bildschirms leidet die Bildqualität?
So ähnlich wie bei Shadow Warrior mit Multi-Res Shading?

Rancor
2018-08-22, 08:53:33
Und wenn AMD keine ähnliche Lösung hat und die nächsten Konsolen wieder eine APU von AMD bekommen ( wovon stark auszugehen ist ) dann wird sich Raytracing auch mittelfristig nicht durchsetzen.

SKYNET
2018-08-22, 08:56:52
@Troyan

Bei 2080 vs 1080 + 30% wären schwach.

2080 vs 1080ti + 30% wären ziemlich gut.

beides wunschdenken. :wink:

Linmoum
2018-08-22, 08:57:04
Und noch was wenn die Turning wirklich soo gut sein soll. Warum bringt NV eine 2080Ti überhaupt? Also vielleicht mal weniger Hypen und auf benches warten.
Für RT-Showcases wäre nur die 2080 aber zu langsam. Schon die 2080ti hat in FHD Probleme, 60 fps in BFV zu schaffen. In SotTR sind's sogar nur rund 30fps. Optimierungen hin oder her, würde man das jetzt alles nur mit 'ner 2080 vorführen und releasen... ;)

dildo4u
2018-08-22, 09:13:51
Die Ti kommt weil wir am Ende von 12nm sind,es wird vermutlich diesmal nicht über 2 Jahre bis zu 7nm dauern.Daher kann Nvidia Turing nicht über zwei Jahre verteilen sondern nimmt jetzt alles an Umsatz mit so lange es keine Konkurrenz Karten gibt.

N0rG
2018-08-22, 09:15:56
Das heisst in bestimmten Bereichen des Bildschirms leidet die Bildqualität?
So ähnlich wie bei Shadow Warrior mit Multi-Res Shading?

Könnte mir vorstellen, dass das in verbindung mit der AI genutzt wird. Für bestimmte Bildbereiche ist vielleicht eine geringere Qualität ausreichend um daraus auf ein hochqualitatives bild hochzuscalen

Fragman
2018-08-22, 09:19:00
Was mir aber auf den Sack geht ist wie manche das Feature RT, egal wie nutzbar es mit Turing real ist, versuchen kleinzureden. Das ist ganz klar die Zukunft.

tjoooo,
wir sind in deutschland,
da wird in den nachrichten zu beginn der gamescom auch erstmal ueber die computerspielsucht gesprochen, anstatt ueber das event selbst und wie geil so ein event in deutschland eigentlich ist. und da wird sowas neues lieber erstmal komplett verrissen. auf der anderen seite faehrt man mit seinem diesel durch die stadt und meint, man hilft damit der umwelt. ;D

was hier die letzten seiten abgeht ist laecherlich.
ich erinner da mal an die doom presentation, das wurde mit 30 frames auf der g3 gezeigt. am ende konnte die karte das nicht halten, sie war zu langsam. hats jemanden gestoert, das eine 1000 euro karte das nicht gepackt hat? wie sich die zeiten aendern...

deekey777
2018-08-22, 09:19:08
Bezüglich Adaption von Ray-Tracing:



Und bin mir ziemlich sicher, dass es genau adaptiert wird. Wie HairWork wird das RT bei allen Benches einfach ausgeschalten. Schon alleine weil es zum Beispiel eine GTX2060 nicht kann. NV ist mal wieder ein Hype gelungen.

Hier mitzulesen, dass Leute die Dinger und RT abfeiern ohne nur irgendwelche anzeichen bzgl. der Leistung zu sehen und dann noch der Preis. Da kann man echt nur den Kopf schütteln.

Und noch was wenn die Turning wirklich soo gut sein soll. Warum bringt NV eine 2080Ti überhaupt? Also vielleicht mal weniger Hypen und auf benches warten.

Irgendjemand hat irgendwas geschrieben, also muss das so sein.

TobiWahnKenobi
2018-08-22, 09:26:45
Die Ti kommt weil wir am Ende von 12nm sind,es wird vermutlich diesmal nicht über 2 Jahre bis zu 7nm dauern.Daher kann Nvidia Turing nicht über zwei Jahre verteilen sondern nimmt jetzt alles an Umsatz mit so lange es keine Konkurrenz Karten gibt.

ich glaube eher, dass die Ti mitgelauncht wurde, damit man etwas hat, das bewegte bilder mit raytracing ermöglicht.. mit 15-20fps wären ein battlefield v oder ein ein neues tomb raider wahrscheinlich eher rohnkrepierer und die breite, für gewöhnlich schlecht informierte masse würde das RTX-zeug als sinnfrei abhaken.


(..)

mfg
tobi

Käsetoast
2018-08-22, 09:27:59
So ganz kann ich die ganzen Comments nicht verstehen, dass wir keine Anhaltspunkte für die Rasterleistung haben. Natürlich würde ich mir paar richtige Benches wünschen, aber mal will anscheinend die Katze noch nicht ganz aus dem Sack lassen.

Generell haben wir 4 Hints zu der Rasterisierungsleistung von Turing:
1. Aussage Jensen Infiltrator 78 FPS vs 42 FPS (Wert von Troyan) = ~+85%
2. Aussage Jensen 2070 schneller als Titan X = ~+70%
3. Aussage Jensen Turing pro Shader ~1,5x so schnell wie Pascal
Bsp 2080Ti vs 1080Ti 1,5x 1,21= 1,8 bei gleichem Takt
4. Casual Graphics UE4 Raster 1 Spp Wert, Turing 1,5X schneller als Volta
-> 90% schneller als 1080Ti

Vor allem Aussage 3 scheinen viele nicht mitbekommen zu haben, die er während der Präsentation getätigt hat. Nehmen wir etwas übertreiben aus den Werten raus, dann deuten die Werte immernoch auf min 50% Geschwindigkeitsvorteil pro Karte vs den Vorgänger.
Da musst du aber stets den Kontext im Hinterkopf behalten:

Bei Aussage 1 ging es darum Infiltrator erstmals in 60 fps in 4k zu zeigen (die 78 fps konnten wegen dem 60 Hz Beamer nicht demonstriert werden). Das Ganze wurde jedoch im Zusammenhang mit dem Upsampling gezeigt bzw. direkt davor sah man ja auch diesen Screenshoot vom alten TAA gegenüber dem neuen Ansatz zum Errechnen unbekannter Bildpunkte. Es ist hier also davon auszugehen, dass die Demo nicht mit 4k, sondern mit 1080 oder 1440 gerendert wurde und dann per Upsampling auf 4k aufgebläht wurde. Das Ergebnis ist da so gesehen natürlich beeindruckend, wobei da abzuwarten bleibt inwiefern man das Feature immer anwenden kann, oder ob die Hersteller quasi den Upscaling Mechanismus auf ihr Spiel bzw. ihre Spielszene trainieren müssen (wovon ich fast ausgehe)...

Bei Aussage 2 basiert die Angabe, dass die 2070 schneller ist auf den RTX-Ops als Maßeinheit und dank dem ganzen Tensor und RT Kram auf der RTX Plattform ist es da ja kein Wunder, dass die 2070 schneller ist. Auf Rasterizing Performance alleine kann man da noch nicht rückschließen...

Bei Aussage 3 wird sich der Großteil dieser Angabe darauf beziehen, dass man dort nun auch anstatt Floating Operations Int Operations durchführen kann, die eben schneller abzuarbeiten sind. Das könnte tatsächlich einen größeren Boost bescheren und auch AMD hat diesen Ansatz ja schon im Einsatz - allerdings muss das vom Hersteller explizit eingebaut werden und wird damit nicht automatisch zu einem schnelleren Ergebnis führen, auch wenn hier in der Tat Möglichkeiten für ein Performanceplus liegen, wobei die +50 % da natürlich recht utopisch sind und wahrscheinlich sowas sind wie wenn man fast alle Float- durch Int-Operationen ersetzen würde wäre alles 50 % schneller was für die Praxis natürlich unrealistisch ist...

In meinen Augen ist die Rasterizing Performance da wirklich noch ein Buch mit 7 Siegeln. Ich würde tatsächlich dazu neigen einfach die Anzahl der Shadereinheiten von Turing und Pascal zu vergleichen inklusive der Taktraten. Ich behaupte einfach mal die Rasterizing Leistung ist da grundsätzlich nahezu dieselbe - vielleicht mit kleinen IPC Verbeserungen im 10-20 % Bereich oder einfach weil der GDDR6 Speicher da Vorteile bringt. So gesehen würde ich die 2070 tatsächlich irgendwo im Bereich der 1080 sehen, die 2080 knapp unter der 1080 Ti und die 2080 Ti dann ein gutes Stück vor der 1080 Ti, wobei sich das alles ein wenig zugunsten der RTX Reihe verschieben kann wenn die Entwickler Sachen wie etwa die Nutzung von Int anstatt Float Operationen in Anspruch nehmen, wobei ich glaube, dass das für die hauptsächliche Zeit in der Turing verkauft wird eher ein Nebenschauplatz wird...

GSXR-1000
2018-08-22, 09:32:59
Und wenn AMD keine ähnliche Lösung hat und die nächsten Konsolen wieder eine APU von AMD bekommen ( wovon stark auszugehen ist ) dann wird sich Raytracing auch mittelfristig nicht durchsetzen.
Sagte ich bereits. Wird von den gehypten nv juengern konsequent ignoriert.
Auf etliche jahre hinweg wird RT ein feature sein, welches fuer die entwickler massive mehrarbeit bedeutet, weil es immer nur ein add on feature sein wird (mit entsprechender fragwuerdiger qualitaet), eben kein kernfeature.
Dementsprechend wird es sich auf sehr sehr wenige AAA titel beschraenken. Auch hier wird es wohl eher nachgeliefert werden.
Denn der mainstream sind eben nicht die *80er+ karten, sondern die konsolen und x60er karten und konsolen. Und fuer die wird primaer entwickelt.
Man kann das ganze prima beim thema vr beobachten. Wo ist denn die vor 2 jahren prognostizierte flut an vr titeln geblieben? Selbst das entsprechende forum hier, welches so vehement gefordert wurde wirkt nahezu verwaist.
So gross ist die marktmacht nvidias eben nicht, das man das zum quasi standard erheben koennte.
Vor allem muesste es dazu erstmal im mainstream sinnvoll nutzbar sein und dort auch relevante vorteile bringen.
Es mag dereinst ein gamechanger werden. Aber nicht heute, auch nicht mit der naechsten oder uebernaechsten generation. Vielleicht mal mit der uebernaechsten konsolengeneration in 5 bis 7 jahren. Nur, dann wird keiner mehr seine tolle 2080ti mehr im rechner haben, die dann auch fuer rt nicht mehr ausreichen wuerde.
Wer trotzdem meint er muesse kickstarter like das R+D eines multimilliarden konzerns, der perverse gewinnmargen einfaehrt und eine sehr fragwuerdige firmenpolitik betreibt foerdern, muss das eben tun.
Btw: auch witzig hier immer wieder zu lesen, das RT grundsaetzlich schneller sei, weil rechenzeitsparend: das gegenteil ist der fall: RT braucht gegenueber rasterizing um ein vielfaches mehr rechenleistung,...und das ohne zwingend visuell wahrnehmbar ein besseres ergebnis zu haben.
Aber sowas wird hier ja auch gern geflissentlich ignoriert.
Auch das RT erst dann den wirklichen aha effekt, vergleichbar zu vr oder den ersten voodoo karten haben wird, wenn RT nicht nur punktuell bspw. bei schatten oder spiegelungen eingesetzt wird, sondern generell und flaechendeckend.
Nur wird uns hierfuer auch auf jahre hinaus schlicht die rechenleistung fehlen. Ja. Auch nvidia.2

Loeschzwerg
2018-08-22, 09:35:17
Wird von den gehypten nv juengern konsequent ignoriert.

Wer denn konkret? Das sind doch hier im Thema max. 2-3 Leute.

SKYNET
2018-08-22, 09:39:01
Und dann kommt 8k, irgendwann muss man anfangen die toolbox zu vergrößern um dem her zu werden. Aus "weniger" mehr machen, weil brute-force nicht mehr reicht.

Es wirkt fast so als ob die, die jetzt schreien die gleichen sind die vorher den refresh verteufelten, und nun genau das haben wollen. Die Meinungsdifferenz über Preis und Event ist eine Sache, aber den Fortschritt immer auf "später" schieben zu wollen kann ich nicht nachvollziehen.


mir sinds eigentlich 2 sachen die sauer aufstossen:

1. wtf keine vergleichsbenches mit den vorgängerkarten? sind die tourings also doch soooo schlecht, weil hat ja mit pascal null zutun der chip und wurde wohl wie es bei AMD auch gemacht wird, parallel entwickelt.

2. der preis ist eine grandiose frechheit, könnte mir das teil easy aus den arm schütteln, aber die persönliche schmerzgrenze für nen grafikbeschleuniger ist 800€, und das nur wenn er die speerspitze der linie bildet, heisst die 2. schnellste karte würde ich niemals zu dem kurs kaufen :freak:

Dural
2018-08-22, 09:39:30
wer sagt eigentlich das in den nächsten Konsolen überall AMD drin ist?

Ich wäre mir da nicht so sicher ;)

Sven77
2018-08-22, 09:40:20
Auf etliche jahre hinweg wird RT ein feature sein, welches fuer die entwickler massive mehrarbeit bedeutet, weil es immer nur ein add on feature sein wird (mit entsprechender fragwuerdiger qualitaet), eben kein kernfeature.

Eine Szene ausleuchten mit RT sind ein paar Klicks, RT kommt den Contententwicklern extrem entgegen. Kein zig Pointlights und Cubemaps mehr um zu faken.

Menace
2018-08-22, 09:46:07
Wäre nun auch egal, da von Huang publik gemacht.


Ist hier offtopic, aber durch das NDA ist immer noch festgelegt, wie über Einzelheiten dieses neuen Standards berichtet werden darf.

Rancor
2018-08-22, 09:46:16
wer sagt eigentlich das in den nächsten Konsolen überall AMD drin ist?

Ich wäre mir da nicht so sicher ;)

Wen soll denn sonst eine APU liefern? Weder Intel noch Nvidia( mit Einschänkungen, ARM zählich nicht ;) ) können das.

SKYNET
2018-08-22, 09:47:46
Naja, 30% Chip zu Chip wäre halt auch einfach wenig und auch wenn ich den Weg Richtung RT wichtig und richtig finde... schlecht.

Für mich als 970 Besitzer der jetzt nicht unbedingt die aktuellsten Spiele in 4K und vollen Details spielen muss wäre Turing damit (zusammen mit der wahrscheinlich höheren TDP der 2080 zur 1080) "aussetzbar".

Edit: Quote eingefügt


es werden nichtmal 30% sein... sondern VIEL weniger.

touring ist ja kein nachfolger zu pascal sondern wurde parallel entwickelt und ein komplett eigenständiges produkt, wärend zb. kepler, maxwell & pascal die jeweiligen (z.t. stark aufgebohrten) refreshes der vorgänger generation sind.

von daher kann es sein das der leistungssprung ohne RT sogar nur 5% beträgt :biggrin:

Timbaloo
2018-08-22, 09:48:05
Bezüglich Adaption von Ray-Tracing:
Quelle? Ist das eine industrierelevante Größe oder irgendeine irrelevante Person mit einer Meinung? Von letzteren haben wir viele...

es werden nichtmal 30% sein... sondern VIEL weniger.

touring ist ja kein nachfolger zu pascal sondern wurde parallel entwickelt und ein komplett eigenständiges produkt, wärend zb. kepler, maxwell & pascal die jeweiligen (z.t. stark aufgebohrten) refreshes der vorgänger generation sind.

von daher kann es sein das der leistungssprung ohne RT sogar nur 5% beträgt :biggrin:
5% Chip zu Chip ist Schwachsinn.

SKYNET
2018-08-22, 09:48:41
wer sagt eigentlich das in den nächsten Konsolen überall AMD drin ist?

Ich wäre mir da nicht so sicher ;)

weils schon lange kommuniziert wurde!? :confused: :rolleyes:

Bambuslooter
2018-08-22, 09:52:19
wer sagt eigentlich das in den nächsten Konsolen überall AMD drin ist?


Den Spekuthread haben wir ja hier im 3DC doch auch schon.
Zeichnet sich ab, dass Zen1+Navi kombiniert in 7nm kommt.
An Gerüchten ist immer was dran und dort ist die Richtung schon dahingehend.
Intel und Nv können einfach nix vergleichbares anbieten :)

btt:
Von pixeljetstream angesprochene Feature (Programmierbare Shader) zur Leistungssteigerung wird hoffentlich bald aufgegriffen. Erhoffe mir hierzu gute VR Steigerungen, da mit USB C die neuen 4K HMD's wohl bald anstehen.

Fällt die Leistung in HDR immer noch so ab wie bei Pascal?
10-20% Verlust im Computerbase Test in 4K HDR waren schon deutlich..
Da kann sich Turing hoffentlich verbessern.
Gibt hierzu bloss keine Infos.

Dural
2018-08-22, 09:54:43
Ich könnte mir vorstellen das Intel sehr grosses Interesse hat min. in einer Konsole drin zu sein.

dargo
2018-08-22, 09:56:39
Eine Szene ausleuchten mit RT sind ein paar Klicks, RT kommt den Contententwicklern extrem entgegen. Kein zig Pointlights und Cubemaps mehr um zu faken.
Die müssen trotzdem weiter faken solange RT ein Add-On ist.

unl34shed
2018-08-22, 09:57:44
Ich könnte mir vorstellen das Intel sehr grosses Interesse hat min. in einer Konsole drin zu sein.

Sicher, aber nicht in der kommenden Generation...

MiamiNice
2018-08-22, 09:58:05
Ich könnte mir vorstellen das Intel sehr grosses Interesse hat min. in einer Konsole drin zu sein.

Wäre ein Traum aber wahrscheinlich wird es dann die XBox. Die Xbox ist aber imo die uninteressanteste Konsole von allen Konsolen, wenn man PC Gamer ist. PS mit Intel CPU und RTX GPU wäre richtig nice. Würde ich direkt kaufen für Gran Torismo und Co.

dildo4u
2018-08-22, 09:58:50
HgUFSc7LwHg

Rancor
2018-08-22, 09:59:58
Ich könnte mir vorstellen das Intel sehr grosses Interesse hat min. in einer Konsole drin zu sein.

Dafür haben Sie aber noch nicht die Grafikpower.

Gut, es könnte sein das es Intel+AMD Kombi gibt, also ein Core I-8000g Derivat quasi. Aber selbst wenn, könnte diese Hardware Raytracing ebenfalls nicht beschleunigen.

RT setzt sich durch wenn AMD etwas ähnliches aus dem Hut zaubert und die nächsten Konsolen es nutzen werden. Ansonsten nicht.

dargo
2018-08-22, 10:03:06
Wäre ein Traum aber wahrscheinlich wird es dann die XBox. Die Xbox ist aber imo die uninteressanteste Konsole von allen Konsolen, wenn man PC Gamer ist. PS mit Intel CPU und RTX GPU wäre richtig nice. Würde ich direkt kaufen für Gran Torismo und Co.
Schöne Träume, nur wird sich weder Sony noch Microsoft von einem SoC verabschieden. Die Vorteile sind viel zu groß. Selbst wenn Intel demnächst dGPUs liefern will und womöglich es auch stärkere APUs geben wird ist es fraglich ob die Preisvorstellungen von Intel MS und Sony gefallen.

btw.
AMD hat aktuell sogar Vorteile bei der Fertigung. Vor kurzer Zeit war es noch umgekehrt.

Dural
2018-08-22, 10:05:04
Ich glaube Intel hat deutlich grössere Spielräume was der Preis anbelangt als AMD, da eigene Fertigung. ;)

dargo
2018-08-22, 10:08:47
Dann lebst du in einer Traumwelt.
https://www.pcbuildersclub.com/2018/05/intel-zu-10nm-wir-haben-uns-uebernommen/

dildo4u
2018-08-22, 10:11:51
ruGBTB3mTaI

Rancor
2018-08-22, 10:12:03
Ich glaube Intel hat deutlich grössere Spielräume was der Preis anbelangt als AMD, da eigene Fertigung. ;)

Aber nicht wenn sie VEGA GPUs nutzen und das muss Intel momentan.

http://youtu.be/ruGBTB3mTaI

Läuft schon mal besser, aber nur FHD.

monstar-x
2018-08-22, 10:18:58
Eine Szene ausleuchten mit RT sind ein paar Klicks, RT kommt den Contententwicklern extrem entgegen. Kein zig Pointlights und Cubemaps mehr um zu faken.

Ist doch egal, die Szene muss für die hundert Million Grafikkarten (sprich 99,9999%) die kein RT können so wieso ausgeleuchtet werden und genau hier ist der Punkt.



Die Entwickler müssen jetzt alles doppelt machen, und so lange die Basis mit Grafikkarten GF 930 - GF 1070 kein RayTracing mit > 25 FPS kann, spielt RT keine Rolle, den nicht wir mit unseren 1080/Ti sind die Referenz.

HOT
2018-08-22, 10:25:54
Ich glaube Intel hat deutlich grössere Spielräume was der Preis anbelangt als AMD, da eigene Fertigung. ;)
Intel hätte vor 5 Jahren die Fertigung abstoßen müssen, das hat man einfach verpasst.

xyleph
2018-08-22, 10:28:13
Ein SoC mit Intel und nv ist ja nicht unmöglich. Es ist nur unwahrscheinlicher als eine Komplettlösung von AMD.

Wenn ich mir aber die DIE Größe mit seinen RT- und Tensor-Cores von Turing anschaue, weiß ich nicht, wie man selbst in 7nm einen bezahlbaren SoC in ~350mm^2 inkl. CPU hinbekommen sollte.

Thunder99
2018-08-22, 10:29:28
Wie lange gibt es schon RT was bisher sehr langsam war? Endlich gibt es Hardware die es entsprechend beschleunigen kann. Hut ab vor Nvidia und ihrer R&D Abteilung!

Wer kann eher eine neue Technologie am Markt platzieren? Nvidia oder AMD? Trotz der Konsole glaube ich daß die Markdominanz von Nvidia hier einiges bringen kann. Die neuen Features von Vega werden eher selten genutzt. Gleich 21 Spiele werden aber von Nvidia unterstützt die dann RT haben.
Der Preis ist aber extrem für ein Feature... . Der Durchbruch könnte dann mit 7nm kommen.

Die Konsole kann es nicht aber es gab bei vielen Portierungen extra Grafikeffekte beim PC, wieso nicht auch RT?

HOT
2018-08-22, 10:30:05
Ein SoC mit Intel und nv ist ja nicht unmöglich. Es ist nur unwahrscheinlicher als eine Komplettlösung von AMD.

Wenn ich mir aber die DIE Größe mit seinen RT- und Tensor-Cores von Turing anschaue, weiß ich nicht, wie man selbst in 7nm einen bezahlbaren SoC in ~350mm^2 inkl. CPU hinbekommen sollte.
Das kann man glaube ich nicht vergleichen, da man die Integration auch steigern wird. Das ist ja nur das Erstlingswerk und weit weg von einem fertigen RT-Beschleuniger. Das ist eine GPU mit ein bisschen RT angeflanscht. Wir sind am Beginn einer sehr langen Entwicklung. Da gehen sicher 5 Jahre ins Land bis das mal ausgereift ist. PS6 und XB3 werden sicherlich auch RT beherrschen, bis dahin ist das ein Nischenmarkt.

mironicus
2018-08-22, 10:31:46
In der Realität wird es doch so enden: Die GTX 2070/2080/Ti werden gekauft weil sie das aktuellste und schnellste sind, der Raytracing-Schalter bleibt aber ausgeschaltet, wenn man weiterhin in hoher Auflösung und hohen FPS spielen will. Das Feature wird verkümmern.

robbitop
2018-08-22, 10:34:15
Eine Szene ausleuchten mit RT sind ein paar Klicks, RT kommt den Contententwicklern extrem entgegen. Kein zig Pointlights und Cubemaps mehr um zu faken.
Aber auch erst nur dann, wenn es keinen Fallback mehr gibt. Und das geht IMO erst, wenn die Mehrheit der Kunden GPUs hat, die genug Leistung für flüssigen Einsatz von RT haben. Und auch die Konsolen dies haben.
Wird also noch dauern.

Sven77
2018-08-22, 10:34:29
Die müssen trotzdem weiter faken solange RT ein Add-On ist.

Fakt ist der zusätzliche Aufwand ist gering

w0mbat
2018-08-22, 10:35:08
Die neuen Features von Vega werden eher selten genutzt.

Die "neuen" Features von Vega funktionieren zum Großteil nicht einmal.



Gleich 21 Spiele werden aber von Nvidia unterstützt die dann RT haben.

Nein, da hast du nicht aufgepasst, bzw. hat Nvidia genau das erreicht, was sie erreichen wollten. Von den 21 Spielen die aufgelistet wurden, untersützten die meisten nur das neue AI upsamling (DLSS), nicht RT.


Fakt ist der zusätzliche Aufwand ist gering

Ist es wirklich schon ein Fakt, wenn Nvidia das so sagt? Was sollen sie denn sonst sagen?

Dural
2018-08-22, 10:37:24
Metro sieht einfach nur sehr sehr gut aus, alleine deswegen müsste man fast eine 2080TI kaufen.

@Rancor
Natürlich mit ihrer eigenen GPU, die ab 2020 kommt.

dargo
2018-08-22, 10:37:25
Wer kann eher eine neue Technologie am Markt platzieren? Nvidia oder AMD?

Konsolen.


Gleich 21 Spiele werden aber von Nvidia unterstützt die dann RT haben.

Es sind immer noch 11 Spiele. DLSS hat nichts mit RT zu tun.

Fakt ist der zusätzliche Aufwand ist gering
Fakt ist erstmal, dass 11 Spiele mit RT angekündigt sind. Wie gering der Aufwand ist wird sich zeigen.

btw.
Vor kurzer Zeit war doch DX12 ein viel zu großer Aufwand für Entwickler. ;)

Dural
2018-08-22, 10:38:53
In der Realität wird es doch so enden: Die GTX 2070/2080/Ti werden gekauft weil sie das aktuellste und schnellste sind, der Raytracing-Schalter bleibt aber ausgeschaltet, wenn man weiterhin in hoher Auflösung und hohen FPS spielen will. Das Feature wird verkümmern.

Also ich drehe immer alles auf max, wenn es von der Leistung nicht reicht nehme ich lieber Auflösung oder sogar AA runter. ;)

Rancor
2018-08-22, 10:40:56
Metro sieht einfach nur sehr sehr gut aus, alleine deswegen müsste man fast eine 2080TI kaufen.

@Rancor
Natürlich mit ihrer eigenen GPU, die ab 2020 kommt.

Und du glaubst daran, das sie es dann schaffen aus einer grad entwickelten dedizierten GPU einen SoC zu bauen, zu Kosten, die im Massenmarkt konkurrenzfähig sind und der auch noch Raytracing in Hardware beherrscht und natürlich auch im klassichen Rendering konkurrenzfähige Performance liefert??

Nvidia hat 10 Jahre an der ersten Implementation der RT Cores geforscht und hat damit einen gewaltigen technologischen Vorsprung.
Du vergisst wohl das Intel from scratch anfängt eine dedizierte GPU zu entwickeln. Es ist auch fraglich ob der Termin 2020 überhaupt haltbar ist.

In der übernächten Konsolengeneration, sofern es dann noch eine geben wird, könnte duchaus ein Intel SoC stecken, aber in der PS5 und Co. zu 100% nicht.

r3ptil3
2018-08-22, 10:42:55
In der Realität wird es doch so enden: Die GTX 2070/2080/Ti werden gekauft weil sie das aktuellste und schnellste sind, der Raytracing-Schalter bleibt aber ausgeschaltet, wenn man weiterhin in hoher Auflösung und hohen FPS spielen will. Das Feature wird verkümmern.

Vergiss mal nicht, dass das nicht einfach nur ein Alleingang von Nvidia ist.
Microsoft steht auch dahinter mit DXR und das könnte einen entscheidenden Unterschied ausmachen.

Dural
2018-08-22, 10:43:35
Wartets doch ab, keiner kann mir weis machen das MS oder Sony mit der aktuellen situation zufrieden ist, die können sich Hardware Technisch nicht voneinander wirklich absetzten.

Gerade MS wird nach alternative suchen, da bin ich mir sicher.

xyleph
2018-08-22, 10:44:29
Das kann man glaube ich nicht vergleichen, da man die Integration auch steigern wird. Das ist ja nur das Erstlingswerk und weit weg von einem fertigen RT-Beschleuniger. Das ist eine GPU mit ein bisschen RT angeflanscht. Wir sind am Beginn einer sehr langen Entwicklung. Da gehen sicher 5 Jahre ins Land bis das mal ausgereift ist. PS6 und XB3 werden sicherlich auch RT beherrschen, bis dahin ist das ein Nischenmarkt.

Dafür halte ich die aktuelle Diskrepanz aber für schlicht zu hoch. Die GPUs, die in Konsolen bisher eingesetzt wurden, fanden sich im PC Bereich als Äquivalente von ~250mm².

Schwer vorstellbar, dass die Integration nun so schnell solche Fortschritte macht, dass man an einen Release um 2020 denken kann.

HOT
2018-08-22, 10:45:07
Fakt ist der zusätzliche Aufwand ist gering
Technisch wahrscheinlich ja, künstlerisch liegst du sicher falsch. Es muss halt sowohl als auch funktionieren.

Dafür halte ich die aktuelle Diskrepanz aber für schlicht zu hoch. Die GPUs, die in Konsolen bisher eingesetzt wurden, fanden sich im PC Bereich als Äquivalente von ~250mm².

Schwer vorstellbar, dass die Integration nun so schnell solche Fortschritte macht, dass man an einen Release um 2020 denken kann.

Hm, falsch verstanden? Ich redete von 3nm GAAFET-Konsolen. Vorher wird das nix, das ist klar.

monstar-x
2018-08-22, 10:48:11
Wartets doch ab, keiner kann mir weis machen das MS oder Sony mit der aktuellen situation zufrieden ist, die können sich Hardware Technisch nicht voneinander wirklich absetzten.

Gerade MS wird nach alternative suchen, da bin ich mir sicher.


Die Hardware ist doch egal.
Nicht Hardware sells sondern Software.

MS kann noch die geilste Konsole der Welt bauen, wenn SONY die Top Spiele hat.

Die Menschen kaufen sich dann eine SONY Konsole, weil das Spiel toll ist und keine MS Konsole weil da der Mega SoC drinnen ist.

So einfach ist das.
Siehe Switch, veralteter SoC mit kaum Leistung für FullHD.
Dafür Zelda, Mario etc.

Troyan
2018-08-22, 10:48:38
Raytracing funktioniert einfach. Weil es eben das Licht berechnet. Das ist kein gefake, keine Hacks.

Jedes Spiel mit DX12 und Vulkan kann daher "einfach" per Raytracing erweitert werden. Die Adaption ist vollkommen unabhängig von den Konsolen.

mironicus
2018-08-22, 10:49:45
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Battlefield-5-Nvidia-RTX-2080-Ti-Raytracing-1263364/

BigKid
2018-08-22, 10:50:25
Vergiss mal nicht, dass das nicht einfach nur ein Alleingang von Nvidia ist.
Microsoft steht auch dahinter mit DXR und das könnte einen entscheidenden Unterschied ausmachen.

Ich habs vor ein paar Seiten als "halben Scherz" mal gesagt und dann kam das hier:

In any case, I think there are a few relevant takeaways from the hands-on:
[...]
As presented thus far, RTX in terms of a technology or a platform is fairly confusing for gamers, because includes a few different technologies like real-time ray-tracing and deep learning super sampling (DLSS), but also provides the namesake for the “GeForce RTX” 20-series and “GeForce RTX” branded games (we will explain all this in detail when the time comes)

Wer sagt uns, dass es RTX in Games nicht nur gegen extra Kohle geben wird ? NVidia kassiert Lizenzgebühren (und hilft ggF die Tensor-Cores richtig zu füttern) und das Spiel gibts dann als normal und als RTX Edition (natürlich gegen Aufpreis) [oder inApp purchase ;) ].
Wenn NVidia genug Karten absetzen kann, dann kann sich jeder Spielehersteller ausrechnen ob sich der (extra) Aufwand für ihn lohnt...
Damit könnte sich NVidia wie ein Konsolenhersteller verhalten... Sie schaffen ein eigenes Ökosystem...
Jeder PC mit RTX wäre dann eine "RTX Konsole"...

BlacKi
2018-08-22, 10:50:38
wo bleiben die benches? es ist mittwoch? 15:00 uhr oder was?

ob division1 nicht auch RT nachgerüstet bekommt? die ersten trailer haben jedenfalls die spiegelungen von RT gezeigt. welche dann im spiel abgeschafft wurden.

Sven77
2018-08-22, 10:50:45
Technisch wahrscheinlich ja, künstlerisch liegst du sicher falsch. Es muss halt sowohl als auch funktionieren

Ich gehe davon aus das RT in eigene Framebuffer schreibt und man die Ergebnisse flexibel einsetzen kann, ist ja normal heutzutage. Dann ist es wirklich simpel

xyleph
2018-08-22, 10:51:24
Wartets doch ab, keiner kann mir weis machen das MS oder Sony mit der aktuellen situation zufrieden ist, die können sich Hardware Technisch nicht voneinander wirklich absetzten.

Gerade MS wird nach alternative suchen, da bin ich mir sicher.

Ein Punkt der mir auch schon durch den Kopf ging. Allein schon mit dem Einsatz von nV oder Intel hätte MS die Aufmerksamkeit auf ihrer Seite.

Wenn beide auf AMD setzen, wären sich beide Konsolen, bei gleichen Transistorbudget. wohl ähnlicher als es die PS4 und die One waren. Immerhin wird sich MS dieses mal nicht so ein Ding wie mit dem eSRAM erlauben.

SKYNET
2018-08-22, 10:52:39
Vergiss mal nicht, dass das nicht einfach nur ein Alleingang von Nvidia ist.
Microsoft steht auch dahinter mit DXR und das könnte einen entscheidenden
Unterschied ausmachen.

es wird sicherlich nicht in der versenkung verschwinden wie NVs alleingänge es immer taten, aber trotzdem hat er recht, das keiner der shooter zockt RT "on" haben wird, solange es die performance so runterzieht.

dildo4u
2018-08-22, 10:52:48
wo bleiben die benches? es ist mittwoch? 15:00 uhr oder was?
Die Karten kommen erst in einem Monat,Benches gibt höstens ne Woche vorher.

SKYNET
2018-08-22, 10:55:23
wo bleiben die benches? es ist mittwoch? 15:00 uhr oder was?

ob division1 nicht auch RT nachgerüstet bekommt? die ersten trailer haben jedenfalls die spiegelungen von RT gezeigt. welche dann im spiel abgeschafft wurden.


heute werden den redaktionen und testern erst die NDA regeln mitgeteilt und die testsamples verschickt... heisst vor ende der woche wird nirgendwo nen balken geleakt werden :wink:

BlacKi
2018-08-22, 10:58:04
edit, nicht richtig gelesen

xyleph
2018-08-22, 10:58:52
Die Hardware ist doch egal.
Nicht Hardware sells sondern Software.

MS kann noch die geilste Konsole der Welt bauen, wenn SONY die Top Spiele hat.

Die Menschen kaufen sich dann eine SONY Konsole, weil das Spiel toll ist und keine MS Konsole weil da der Mega SoC drinnen ist.

So einfach ist das.
Siehe Switch, veralteter SoC mit kaum Leistung für FullHD.
Dafür Zelda, Mario etc.

Zelda und Mario gab es auch auf der GameCube und der WiiU. Beides Flops, letztere gar vor dem Herrn.

So einfach ist das also nicht. Nintendo ist starkt davon abhängig, ob man gerade einen Zeitgeist trifft oder nicht. Das funktioniert mal (Wii, Switch) oder geht auch mal in die Hose (Cube, WiiU).

AffenJack
2018-08-22, 11:00:21
Aussage Jensen, Aussage Jensen , Aussage Jensen

Merkst du was? Niemand kann das wiederlegen, der Jensen kann viel erzählen ohne Benchmarks... UND die gibt es nicht!

Es gibt Infiltrator plus das UE4 Ding, wo auch Volta drin ist. Ist also 1 Bench in einer Engine. Dazu eben die Aussagen, andere tolle Benches in einer Nv-Präsentation würden mir auch nix weiter helfen. Es sind Herstellerbenches, wo ich sowieso erstmal skeptisch bin. Da ist mir egal ob es nur eine Aussage oder eine tolle folienangabe mit soundsoviel % mehr ist.

Da musst du aber stets den Kontext im Hinterkopf behalten:
Bei Aussage 1 ging es darum Infiltrator erstmals in 60 fps in 4k zu zeigen (die 78 fps konnten wegen dem 60 Hz Beamer nicht demonstriert werden). Das Ganze wurde jedoch im Zusammenhang mit dem Upsampling gezeigt bzw. direkt davor sah man ja auch diesen Screenshoot vom alten TAA gegenüber dem neuen Ansatz zum Errechnen unbekannter Bildpunkte. Es ist hier also davon auszugehen, dass die Demo nicht mit 4k, sondern mit 1080 oder 1440 gerendert wurde und dann per Upsampling auf 4k aufgebläht wurde. Das Ergebnis ist da so gesehen natürlich beeindruckend, wobei da abzuwarten bleibt inwiefern man das Feature immer anwenden kann, oder ob die Hersteller quasi den Upscaling Mechanismus auf ihr Spiel bzw. ihre Spielszene trainieren müssen (wovon ich fast ausgehe)...


Hier verstehen wir DLSS schonmal ganz anders. Denn DLSS ist kein Upsampling. DLSS ist Postprocessing wie TAA. Das Bild wurd in 4K berechnet, dann wurde TAA oder DLSS drüber laufen gelassen. DLSS basiert nach meinem Verständnis darauf, dass man mit extrem hoher Auflösung, vll 16k ein Netzwerk trainiert. Das dann auf die niedrigere Aufösung anwendet als Post Processing. Beides wäre aber 4k, nur TAA vs DLSS, aber TAA kostet meist nicht viel. Upscaling findet aber nicht statt.


Bei Aussage 2 basiert die Angabe, dass die 2070 schneller ist auf den RTX-Ops als Maßeinheit und dank dem ganzen Tensor und RT Kram auf der RTX Plattform ist es da ja kein Wunder, dass die 2070 schneller ist. Auf Rasterizing Performance alleine kann man da noch nicht rückschließen...

Es ist unklar worauf die Aussage basiert. Die Aussage fiel kurz vor den RTX OPs Folien. Bei diesen ist die 2070 aber mehr als 3 mal so schnell als die TX. Da hätte man das noch stärker herausstellen können, es kann auch genauso bei Rasterisierung sein.

Bei Aussage 3 wird sich der Großteil dieser Angabe darauf beziehen, dass man dort nun auch anstatt Floating Operations Int Operations durchführen kann, die eben schneller abzuarbeiten sind. Das könnte tatsächlich einen größeren Boost bescheren und auch AMD hat diesen Ansatz ja schon im Einsatz - allerdings muss das vom Hersteller explizit eingebaut werden und wird damit nicht automatisch zu einem schnelleren Ergebnis führen, auch wenn hier in der Tat Möglichkeiten für ein Performanceplus liegen, wobei die +50 % da natürlich recht utopisch sind und wahrscheinlich sowas sind wie wenn man fast alle Float- durch Int-Operationen ersetzen würde wäre alles 50 % schneller was für die Praxis natürlich unrealistisch ist...


Ja es geht um FP und INT parallel. Ich würde +50% auch als etwas viel ansehen, aber es ist gut möglich, dass es auch weitere verbesserungen gibt, wie die neuen Shadingtechnologien, von denen man bisher noch gar nix gehört hat. Wieviel davon ohne spezielles programmieren ankommt ist eben die Frage. Da müssen wir noch etwas aberwarten. Aber ich würde es nicht in Stein meisseln, dass die IPC sich nur minimal verändert. Ich kann mir vorstellen, dass einige ganz schön überrascht werden über die Rasterleistung.

dargo
2018-08-22, 11:00:37
Die Hardware ist doch egal.
Nicht Hardware sells sondern Software.

MS kann noch die geilste Konsole der Welt bauen, wenn SONY die Top Spiele hat.

Die Menschen kaufen sich dann eine SONY Konsole, weil das Spiel toll ist und keine MS Konsole weil da der Mega SoC drinnen ist.

So einfach ist das.
Siehe Switch, veralteter SoC mit kaum Leistung für FullHD.
Dafür Zelda, Mario etc.
Vollkommen richtig, als ob die Masse der Konsoleros interessieren würde welche Hardware in der Box steckt. :tongue:

monstar-x
2018-08-22, 11:01:51
Zelda und Mario gab es auch auf der GameCube und der WiiU. Beides Flops, letztere gar vor dem Herrn.

So einfach ist das also nicht. Nintendo ist starkt davon abhängig, ob man gerade einen Zeitgeist trifft oder nicht. Das funktioniert mal (Wii, Switch) oder geht auch mal in die Hose (Cube, WiiU).

Hä das ist doch genau das was ich sage.
Ist die Software gut und das ist bei Zelda und Mario auf der Switch so, dann verkauft sich die Hardware.

Ist sie nicht gut wie auf dem GameCub, dann verkauft es sicht nicht so gut.

Nichts anderes habe ich geschrieben

Software sells Hardware, nicht anders rum.

deekey777
2018-08-22, 11:04:23
Ist doch egal, die Szene muss für die hundert Million Grafikkarten (sprich 99,9999%) die kein RT können so wieso ausgeleuchtet werden und genau hier ist der Punkt.

Das stimmt doch gar nicht. Zumindest dürften alle DX12-GRafikkarten RT können, nur eben langsam.

dargo
2018-08-22, 11:05:41
Das stimmt doch gar nicht. Zumindest dürften alle DX12-GRafikkarten RT können, nur eben langsam.
Wollen wir spielen oder uns Diashows ansehen?

SKYNET
2018-08-22, 11:06:58
Das stimmt doch gar nicht. Zumindest dürften alle DX12-GRafikkarten RT können, nur eben langsam.

und da würd mich eh nicht wundern, wenn es bald ne zusatzkarte von hersteller XYZ zu kaufen gibt, die man in nen 4x PCIe slot stopft und fertig.

=Floi=
2018-08-22, 11:08:31
Was am Ende wirtschaftlich erfolgreicher ist, kann ich nicht beurteilen, davon hab ich zu wenig Ahnung. In jedem Fall aber eine Wette auf die Zukunft.

warum spart man aber am vram?
ich finde den preis zwar abgedreht, aber was dem ganzen die krone aufsetzt ist der gleiche vram. Das deklassiert diese generation schon vor dem launch.
Zu dem preis erwarte ich eine lange nutzbarkeit und die 8gb karten werden das sicher nicht lange bieten können.

:rolleyes:

THEaaron
2018-08-22, 11:11:35
und da würd mich eh nicht wundern, wenn es bald ne zusatzkarte von hersteller XYZ zu kaufen gibt, die man in nen 4x PCIe slot stopft und fertig.

Sieht man ja an Physx wie viel Bock die Leute auf sowas haben.

monstar-x
2018-08-22, 11:11:55
Das stimmt doch gar nicht. Zumindest dürften alle DX12-GRafikkarten RT können, nur eben langsam.

Nur weil man etwas kann, bedeutet es noch lange nicht das es auch Sinnvoll ist.

Ich kann auch via DSR mit 16K spielen, macht nur keinen Sinn, weil 5 FPS.

Und genauso ist es mit RT auf den 99,9999% Grafikkarten der Welt, MACHT KEINEN SINN weil 2-3 FPS.

BlacKi
2018-08-22, 11:12:37
und da würd mich eh nicht wundern, wenn es bald ne zusatzkarte von hersteller XYZ zu kaufen gibt, die man in nen 4x PCIe slot stopft und fertig.
das macht durchaus sinn, denn die RT performance der 2080ti reicht nicht aus um perfekt das spiel mit RT spiegelungen zum laufen zu bringen. selbst wenn die spiegelungen selbst frametime probleme hätten, würde man das nicht merken. der chip ist viel zu groß um die performance selbst unter 7nm massiv steigern zu können.

davon abgesehen, haben die RT spiegelungen ein LoD. d.h. man kann die performance hochdrehen, wenn man auf details von spiegelungen verzichtet. trotzdem würde es wohl besser aussehen.

MiamiNice
2018-08-22, 11:14:36
1. Wasserblock für die 2080TI

https://www.computerbase.de/2018-08/alphacool-eisblock-2080-ti-wasserkuehler-nvidia-rtx-2080-ti/

Jetzt noch einen von EK, dann könnte ich zugreifen, wenn denn die Balken stimmen.
Warum sieht das Zeug von Alphacool eigentlich immer so billig aus?
Wirkt auf mich wie übelster China Plastik Schund.

mironicus
2018-08-22, 11:17:02
warum spart man aber am vram?
ich finde den preis zwar abgedreht, aber was dem ganzen die krone aufsetzt ist der gleiche vram. Das deklassiert diese generation schon vor dem launch.
Zu dem preis erwarte ich eine lange nutzbarkeit und die 8gb karten werden das sicher nicht lange bieten können.

:rolleyes:

Du hast sie durchschaut! Lange Nutzbarkeit! Was wird NVidia wohl als Hauptfeature anpreisen bei der nächsten Generation? Mehr Speicher? Genau. :D

Triniter
2018-08-22, 11:17:52
1. Wasserblock für die 2080TI

https://www.computerbase.de/2018-08/alphacool-eisblock-2080-ti-wasserkuehler-nvidia-rtx-2080-ti/

Jetzt noch einen von EK, dann könnte ich zugreifen, wenn denn die Balken stimmen.
Warum sieht das Zeug von Alphacool eigentlich immer so billig aus?
Wirkt auf mich wie übelster China Plastik Schund.
Ich vermute mal der von Aqua Computer wird auch nicht lange auf sich warten lassen.

By the way and OT: Von denen hatte ich um 2000 rum mal ne Wakü und war sehr zufrieden, kann man da immer noch bedenkenlos zugreifen wenn man heute ne Grafikkarte unter Wasser setzten will?

xyleph
2018-08-22, 11:17:56
Hä das ist doch genau das was ich sage.
Ist die Software gut und das ist bei Zelda und Mario auf der Switch so, dann verkauft sich die Hardware.

Ist sie nicht gut wie auf dem GameCub, dann verkauft es sicht nicht so gut.

Nichts anderes habe ich geschrieben

Software sells Hardware, nicht anders rum.

Nein, das ist nicht genau das was du sagst und das ist auch nicht das was ich schrieb.

MiamiNice
2018-08-22, 11:24:08
Ich vermute mal der von Aqua Computer wird auch nicht lange auf sich warten lassen.

By the way and OT: Von denen hatte ich um 2000 rum mal ne Wakü und war sehr zufrieden, kann man da immer noch bedenkenlos zugreifen wenn man heute ne Grafikkarte unter Wasser setzten will?


Kann ich nicht beurteilen. Von Aqua Computer habe ich nur Steuerungselektronik wie den Aquaero, Durchfluß und Temp Sensoren etc. pp. Kühler und Radis kommen bei mir ausschließlich von EK und da bin ich sehr zufrieden.

MadPenguin
2018-08-22, 11:24:19
Ein Punkt der mir auch schon durch den Kopf ging. Allein schon mit dem Einsatz von nV oder Intel hätte MS die Aufmerksamkeit auf ihrer Seite.

Wenn beide auf AMD setzen, wären sich beide Konsolen, bei gleichen Transistorbudget. wohl ähnlicher als es die PS4 und die One waren. Immerhin wird sich MS dieses mal nicht so ein Ding wie mit dem eSRAM erlauben.

Keine Chance, dass MS oder Sony Nvidia oder Intel in der nächsten Generation verwenden werden :)

RLZ
2018-08-22, 11:25:32
Man kann das ganze prima beim thema vr beobachten. Wo ist denn die vor 2 jahren prognostizierte flut an vr titeln geblieben?
Valve und Oculus haben für Gen 1 eine Million Geräte angepeilt und haben das schon letztes Jahr erreicht. PSVR hat mir ihren 3 Millionen auch scheinbar alle Erwartungen von Sony übertroffen. :D

DinosaurusRex
2018-08-22, 11:29:51
Valve und Oculus haben für Gen 1 eine Million Geräte angepeilt und haben das schon letztes Jahr erreicht. PSVR hat mir ihren 3 Millionen auch scheinbar alle Erwartungen von Sony übertroffen. :D

Mehr als 80 Mio verkaufte PS4 und 3 Mio verkaufte PSVR. Das ist eine Adoption Rate von weniger als 4%. Das ist grauenvoll. PSVR ist ein Riesenflop.

mironicus
2018-08-22, 11:30:08
Ist die RTX2080Ti überhaupt VR-fähig mit eingeschalteten Raytracing?

Grendizer
2018-08-22, 11:33:12
Valve und Oculus haben für Gen 1 eine Million Geräte angepeilt und haben das schon letztes Jahr erreicht. PSVR hat mir ihren 3 Millionen auch scheinbar alle Erwartungen von Sony übertroffen. :D

Sony ist massiv unzufrieden mit den Zahlen.

deekey777
2018-08-22, 11:37:29
Nur weil man etwas kann, bedeutet es noch lange nicht das es auch Sinnvoll ist.

Ich kann auch via DSR mit 16K spielen, macht nur keinen Sinn, weil 5 FPS.

Und genauso ist es mit RT auf den 99,9999% Grafikkarten der Welt, MACHT KEINEN SINN weil 2-3 FPS.
Also alles wie es früher war?

Auch wenn sein Posting auf etwas anderes bezieht, so war es schon immer, dass die höchsten Einstellungen nur mit schnellsten und neuesten Grafikkarten möglich waren. Ja, Arbeits- und Zeitersparnis wird nicht geben, weil alte Techniken trotzdem implementiert werden müssen, aber für neue bessere Einstellungen hätte man mit bissel RT weniger Zeit- und Arbeitsaufwand.

Sven77
2018-08-22, 11:40:12
VR ist doch schon wieder tot

monstar-x
2018-08-22, 11:47:06
VR ist doch schon wieder tot

Ich denke auch das VR so ein Schicksal wie 3D TVs ereilen wird.

DinosaurusRex
2018-08-22, 11:50:23
Stereoskopie wird sich nie durchsetzen. Immer und immer wieder versucht es jemand, seit mehr als 100 Jahren schon, aber jedes Mal floppt es. Irgendwann müssen die es doch mal lernen...

BigKid
2018-08-22, 11:55:25
Stereoskopie wird sich nie durchsetzen. Immer und immer wieder versucht es jemand, seit mehr als 100 Jahren schon, aber jedes Mal floppt es. Irgendwann müssen die es doch mal lernen...
Ich sags mal so:

"Ich glaube an das Pferd. Das Automobil ist eine vorübergehende Erscheinung."

3D ist einfach einer der nächsten Schritte... Wir nehmen unsere Umgebung nunmal in 3D wahr...
Das werden Sie immer wieder versuchen bis man was hat was Massentauglich ist...
Ist ja nicht so dass man es seit 100 Jahren mit der selben Technik versucht...

dargo
2018-08-22, 11:55:57
Sieht man ja an Physx wie viel Bock die Leute auf sowas haben.
Auch hier passt der Spruch "Software sells Hardware".

DinosaurusRex
2018-08-22, 11:58:25
Ich sags mal so:

Der Grund warum Stereoskopie immer wieder floppt ist physikalischer Natur. Es ist physikalisch unmöglich, Stereoskopie angenehm zu machen. Stereoskopie ist unangenehm für die Menschen, weil das dreidimensionale Bild erst im Kopf entsteht. Das Gehirn muss die ganze Zeit die visuellen Informationen überschreiben und das Bild neu zusammensetzen.

Godmode
2018-08-22, 11:58:40
Das heisst in bestimmten Bereichen des Bildschirms leidet die Bildqualität?
So ähnlich wie bei Shadow Warrior mit Multi-Res Shading?

Könnte ich mir schon vorstellen. Ich gehe aber davon aus, dass die Bildqualität nicht leidet, weil sonst ist das Feature nutzlos, da nutzt man dann lieber die Ingame-Regler.

Könnte mir vorstellen, dass das in verbindung mit der AI genutzt wird. Für bestimmte Bildbereiche ist vielleicht eine geringere Qualität ausreichend um daraus auf ein hochqualitatives bild hochzuscalen

Ja oder so ähnlich. IMHO nach RT das spannendste Feature. Mir ist immer noch unklar, warum Jensen 2h über RT geplappert hat, aber fast nichts über die sonstigen Eigenschaften von Turing.

blblalblalba

Du kannst nichts außer schimpfen oder!? Geh doch wo anders hin, wenn dich das Thema kalt lässt. :rolleyes:

BigKid
2018-08-22, 12:00:10
Der Grund warum Stereoskopie immer wieder floppt ist physikalischer Natur. Es ist physikalisch unmöglich, Stereoskopie angenehm zu machen. Stereoskopie ist unangenehm für die Menschen, weil das dreidimensionale Bild erst im Kopf entsteht. Das Gehirn muss die ganze Zeit die visuellen Informationen überschreiben und das Bild neu zusammensetzen.
Hast du da mal einen Link zu ?
Ich dachte bisher das 3 Dimensionale Bild entsteht IMMER im Gehirn... Dafür haben wir 2 Augen... Und jedes Auge für sich sieht meines Wissens nach 2D ...
Es scheitert bisher eher an:
- Zu unhandlich
- Zu geringe Auflösung
- hat Nachteile (Flackert und/oder geringere Helligkeit)
- Content / Zugang zu Content

Grendizer
2018-08-22, 12:01:07
Ja das denke ich auch. Als reine Zusatzkarte würde ich das RT Zeugs auch deutlich geiler sehen. Da wäre man dann auch unabhängiger und könnte das Ding regelmäßiger upgraden. Ich denke das wir in dem Bereich schnell Fortschritte sehen könnten.

Packt sich aber freiwillig jemand eine 500-1000 Euro Zusatzkarte für eine handvoll Spiele in den PC. Wohl eher nicht. Deshalb finde ich den Schritt von nVidia gut, allerdings zu früh und zu teuer. Man hätte da vieleicht einfach noch eine Generation warten sollen. Oder aber beim Preis günstiger sein müssen. So wird es einfach schwer die Technolgie an die Leute zu bringen. Vor allem, wenn einen 2070 FE für 649 Euro gehandelt werden soll. Das ist dann auch der Punkt, wo ich austeige.

dargo
2018-08-22, 12:02:49
Also alles wie es früher war?

Auch wenn sein Posting auf etwas anderes bezieht, so war es schon immer, dass die höchsten Einstellungen nur mit schnellsten und neuesten Grafikkarten möglich waren.
Es ist eben nicht wie früher. Denn selbst die schnellste Gaming Karte für ~1200€ ist zu langsam für höchste Details. Du glaubst doch nicht ernsthaft, dass Spieler X der jetzt in 1440p mit high-fps von sagen wir mal 80+ spielt mit der neuen Karte sich freiwillig 1080p @30-40fps antut oder?

und da würd mich eh nicht wundern, wenn es bald ne zusatzkarte von hersteller XYZ zu kaufen gibt, die man in nen 4x PCIe slot stopft und fertig.
Wäre sowas latenzunkritisch umsetzbar?

BigKid
2018-08-22, 12:04:30
Ja das denke ich auch. Als reine Zusatzkarte würde ich das RT Zeugs auch deutlich geiler sehen. Da wäre man dann auch unabhängiger und könnte das Ding regelmäßiger upgraden. Ich denke das wir in dem Bereich schnell Fortschritte sehen könnten.

Packt sich aber freiwillig jemand eine 500-1000 Euro Zusatzkarte für eine handvoll Spiele in den PC. Wohl eher nicht. Deshalb finde ich den Schritt von nVidia gut, allerdings zu früh und zu teuer. Man hätte da vieleicht einfach noch eine Generation warten sollen. Oder aber beim Preis günstiger sein müssen. So wird es einfach schwer die Technolgie an die Leute zu bringen. Vor allem, wenn einen 2070 FE für 649 Euro gehandelt werden soll. Das ist dann auch der Punkt, wo ich austeige.
80% der Leute steigen da aus ( http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/News/RTX-2080-Ti-2080-2070-Preise-UVPs-Umfrage-1263325/ ) ... Wenn die alle ernst machen hoffe ich dass wir doch noch ne Preissenkung sehen könnten...
RTX ist auch was bei denen die Miner nicht helfen. Selbst wenn die die Karten auch kaufen werden sie keine RTX gebrandeten Spiele kaufen / helfen das Feature zu verbreiten... Wenn RTX aber eine strategische Entscheidung ist (und danach sieht es aus) dann ist eine Marktdurchdringung essentiell...

DinosaurusRex
2018-08-22, 12:04:57
Hast du da mal einen Link zu ?
Das 3 Dimensionale Bild entsteht IMMER im Gehirn... Dafür haben wir 2 Augen... Und jedes Auge für sich sieht meines Wissens nach 2D ...

Deine Augen fokussieren einen Gegenstand, damit du scharf siehst. Das geht bei der Stereoskopie aber nicht. Bei einem VR Headset kannst du immer nur den Screen fokussieren. Dein Gehirn überschreibt diese visuelle Information, damit daraus ein 3D Bild entsteht. Deswegen kriegen die Menschen davon Kopfschmerzen und ihnen wird schlecht.

Piefkee
2018-08-22, 12:05:48
Raytracing funktioniert einfach. Weil es eben das Licht berechnet. Das ist kein gefake, keine Hacks.

Jedes Spiel mit DX12 und Vulkan kann daher "einfach" per Raytracing erweitert werden. Die Adaption ist vollkommen unabhängig von den Konsolen.


Das Raytracing funktioniert steht außer frage, aber warum soll man Geld als spiele Entwickler investieren in eine Technologie, da A) keiner der Konsolen verwenden kann außer AMD implemiert es wie NV und vorallem B) es aktuell auch NV-seitig nur die 2080 und 2080Ti können?

RT ist DOA, meiner Meinung...

Edgecrusher86
2018-08-22, 12:06:58
das macht durchaus sinn, denn die RT performance der 2080ti reicht nicht aus um perfekt das spiel mit RT spiegelungen zum laufen zu bringen. selbst wenn die spiegelungen selbst frametime probleme hätten, würde man das nicht merken. der chip ist viel zu groß um die performance selbst unter 7nm massiv steigern zu können.

davon abgesehen, haben die RT spiegelungen ein LoD. d.h. man kann die performance hochdrehen, wenn man auf details von spiegelungen verzichtet. trotzdem würde es wohl besser aussehen.

Vielleicht könnte hier auch eine Verbindung mit NVLink zustande kommen - Karte und RTX A(ccelerator). Ein Chip mit einem kleinen Turing Core und dem Hauptanteil RT/TC. Verkauft für 750€.
Ich sehe es schon vor mir. Shadow of the Tomb Raider RTX Demo: 2080 Ti @ FHD 30 fps @ RTX - mit RTXA dann satte 60 fps. ;D

Für eine mögliche TITAN könnte man das zusammen mit dem vollen TU102 sowie 24GB auch für only $3999 unters Volk bringen. :freak:



Bezüglich Raytracing wäre sicher der beste Ansatz, wenn das Bild intern zum Beispiel in 720p berechnet wird und per NN + TC dann analog zu DLSS Highres zustande käme. Denn wenn wir ehrlich sind -
die jetzigen (wenn auch unoptimierten) Techdemos dürften vermutlich erst in 10 Jahren mit einer SGPU in 4K120 (samt G-SYNC HDR) laufen, wenn man da nichts grundlegend beschleunigt. ;)

DinosaurusRex
2018-08-22, 12:06:58
https://www.researchgate.net/profile/Stephan_Reichelt/publication/215441550/figure/fig1/AS:305715546738691@1449899674900/Comparison-between-natural-viewing-or-holographic-3-D-display-left-and-stereoscopic.png

BigKid
2018-08-22, 12:10:43
Deine Augen fokussieren einen Gegenstand, damit du scharf siehst. Das geht bei der Stereoskopie aber nicht. Bei einem VR Headset kannst du immer nur den Screen fokussieren. Dein Gehirn überschreibt diese visuelle Information, damit daraus ein 3D Bild entsteht. Deswegen kriegen die Menschen davon Kopfschmerzen und ihnen wird schlecht.
Bedeutet: Es müsste Eye-Tracking her und das müsste simuliert werden ?
Könnte man ja nutzen um Rechenzeit zu sparen weil nur die Bereiche die man Fokussiert scharf gerendert werden müssen ?
PS: Sorry fuer OT...

ChaosTM
2018-08-22, 12:11:09
Sorry für das "OFF Topic" . Konnte nicht widerstehen. Und ja, RT sollte sich zumindest mittelfristig, in 5-10 Jahren durchsetzen


https://i.imgur.com/Jcbb9E0.jpg


VR sehe ich auch noch nicht als tot an. Was fehlt ist eine Killerapplikation. Ich denkt da zb. an ein wirklich gut gemachtes Half Live VR .

DinosaurusRex
2018-08-22, 12:12:17
Bedeutet: Es müsste Eye-Tracking her und das müsste simuliert werden ?
Könnte man ja nutzen um Rechenzeit zu sparen weil nur die Bereiche die man Fokussiert scharf gerendert werden müssen ?

Nein. Es ist physikalisch unmöglich, Stereoskopie angenehm zu machen. Es geht einfach nicht.

Wenn man 3D darstellen möchte, dann muss man holographieren. Ein Hologramm kann man fokussieren, obwohl es nur aus Licht besteht.

BigKid
2018-08-22, 12:20:18
Nein. Es ist physikalisch unmöglich, Stereoskopie angenehm zu machen. Es geht einfach nicht.

Wenn man 3D darstellen möchte, dann muss man holographieren. Ein Hologramm kann man fokussieren, obwohl es nur aus Licht besteht.
Danke... Verstanden...

DinosaurusRex
2018-08-22, 12:22:56
Danke... Verstanden...

Das Problem bei der Stereoskopie ist halt, dass sie auf der Strahlenoptik basiert. Und die Strahlenoptik ist nur ein jahrhundertealte Annäherung and die Realität. Strahlenoptik ist wie gewollt und nicht gekonnt. Holografie ist bspw basierend auf Wellenoptik. Das ist viel krasser: Ein Hologramm einer Lupe vergrößert beim durchgucken genauso wie eine echte Lupe. Das ist sehr sehr krasser scheiß.

ChaosTM
2018-08-22, 12:23:55
Das Problem mit dem Fokusieren sollte auch mit wirklich schnellem Eye-Tracking lösbar sein.

GSXR-1000
2018-08-22, 12:24:09
Du kannst nichts außer schimpfen oder!? Geh doch wo anders hin, wenn dich das Thema kalt lässt. :rolleyes:

Was denn mit dir los? Heute schlechten stuhlgang gehabt? Dann mein beleid.
Wo hab ich geschimpft? Ich habe lediglich begruendet dargelegt, warum ich die relevanz von RT im gaming fuer diese und auch die naechsten generationen von gk fuer nicht gegeben erachte. Du darfst das gerne anders sehen und begruenden. Das waere der diskussion foerderlich. Danke
Cu

DinosaurusRex
2018-08-22, 12:26:18
Das Problem mit dem Fokusieren sollte auch mit wirklich schnellem Eye-Tracking lösbar sein.

Nein. Du kannst immer nur den Bildschirm fokussieren. Eye Tracking macht da überhaupt keinen Unterschied.

ChaosTM
2018-08-22, 12:28:04
Das System weiss dann aber, wo du gerade am Bildschirm hinschaust und kann dadurch die Tiefe berechnen.

HOT
2018-08-22, 12:29:02
VR ist sowas von tot, sowas unpraktisches, echt anstrengendes mit so wenig Effekt... ja ich hab VR schon "genossen". Theorie -> toll, Praxis -> kacke

ChaosTM
2018-08-22, 12:31:21
Das würde dann wegfallen, weil immer das gerade scharf gestellt ist, wo du gerade hinschaust.

DinosaurusRex
2018-08-22, 12:33:06
Das System weiss dann aber, wo du gerade am Bildschirm hinschaust und kann dadurch die Tiefe berechnen.

Da du sowieso nur nix anderes als den Bildschirm anschauen kannst, ist das vollkommen egal. ;)

RLZ
2018-08-22, 12:33:41
Ah ja. VR ist tot :freak:
Das schreien vorallem die Leute, die das schon vor den Releases geschrien haben.
Eigentlich hat es ein recht gesundes Wachstum für eine neue Technologie in ihren Kinderschuhen, die zudem stark angepasste Software braucht. Da war bei vielen (inklusive den ahnungslosen Hypegeneratoren Superdata) vielleicht die Erwartungshaltung komplett übertrieben. Normale Bildschirme wird es nie ersetzen. Genauso wie Spiele keine Filme verdrängen, oder Filme Fotos und Romane, oder Fotos Malereien.
Das Problem mit dem Fokusieren sollte auch mit wirklich schnellem Eye-Tracking lösbar sein.
Oculus hat ja schon einen Prototypen (Half Dome (https://www.roadtovr.com/facebook-oculus-half-dome-prototype-vr-headset-140-degree-varifocal-f8/)) vorgestellt, der den Fokus der Bildebene anpassen kann. Das löst das Problem nicht vollständig aber zu großen Teilen. Für Gen 2 kann man das wohl erwarten.

Falls wir aber nicht über die VR Features von Turing reden wollen, driften wir hier stark ab.

DinosaurusRex
2018-08-22, 12:37:31
Ah ja. VR ist tot :freak:
Das schreien vorallem die Leute, die das schon vor den Releases geschrien haben.

Also ich arbeite für ein Unternehmen, das unter anderem Software für medizinische Zwecke basierend auf AR und VR herstellt. Und ich hatte bisher jedes AR und VR HMD auf der Rübe, selbst die, die noch nicht veröffentlicht wurden. Und bei uns glaubt eigentlich niemand an VR. AR ist im B2B Bereich viel wertvoller und hat auch mehr Potenzial.

RLZ
2018-08-22, 12:38:52
Also ich arbeite für ein Unternehmen, das unter anderem Software für medizinische Zwecke basierend auf AR und VR herstellt. Und ich hatte bisher jedes AR und VR HMD auf der Rübe, selbst die, die noch nicht veröffentlicht wurden. Und bei uns glaubt eigentlich niemand an VR. AR ist im B2B Bereich viel wertvoller und hat auch mehr Potenzial.
Dann sollte das Unternehmen seine Ziele neu definieren oder das Personal ersetzen.

DinosaurusRex
2018-08-22, 12:39:44
Ich werds weitergeben :)

mboeller
2018-08-22, 12:39:46
Das Raytracing funktioniert steht außer frage, aber warum soll man Geld als spiele Entwickler investieren in eine Technologie, da A) keiner der Konsolen verwenden kann außer AMD implemiert es wie NV und vorallem B) es aktuell auch NV-seitig nur die 2080 und 2080Ti können?

RT ist DOA, meiner Meinung...

IMHO nein.

ein wenig grob formuliert:

Wie schon mal ausgeführt. Die RTX-Gamer Karten sind "Abfall" für einige Nerds. Die Zielgruppe für die Karten sind die Content-Entwickler (Profi/Semi-Profi). Deshalb wurden die auch auf der Siggraph zuerst vorgestellt.

Und die Zielgruppe wird Nvidia die Karten aus der Hand reißen. Ein paar Nerds die die Stückzahlen erhöhen und helfen "defekte" Karten zu verkaufen sind ja auch nicht schlecht.

die richtigen RTX-Karten mit 16GB und in 7nm kommen dann nächstes Jahr mit besserer Performance und zu normaleren Preisen.

ChaosTM
2018-08-22, 12:41:04
Da du sowieso nur nix anderes als den Bildschirm anschauen kannst, ist das vollkommen egal. ;)


Es geht ums Fokusieren der entsprechenden Bildebene die ich "Tiefe" nannte. Nicht dumm stellen.. ^^

wolik
2018-08-22, 12:42:32
Sorry für das "OFF Topic" . Konnte nicht widerstehen. Und ja, RT sollte sich zumindest mittelfristig, in 5-10 Jahren durchsetzen


https://i.imgur.com/Jcbb9E0.jpg


VR sehe ich auch noch nicht als tot an. Was fehlt ist eine Killerapplikation. Ich denkt da zb. an ein wirklich gut gemachtes Half Live VR .
Seite 303 (slowspoke) :biggrin:

DinosaurusRex
2018-08-22, 12:42:52
Es geht ums Fokusieren der entsprechenden Bildebene die ich "Tiefe" nannte. Nicht dumm stellen.. ^^

Du kannst NUR den Bildschirm fokussieren.

basix
2018-08-22, 12:43:35
Packt sich aber freiwillig jemand eine 500-1000 Euro Zusatzkarte für eine handvoll Spiele in den PC. Wohl eher nicht. Deshalb finde ich den Schritt von nVidia gut, allerdings zu früh und zu teuer.

Was wenn Turing durchs Band 2x schneller als Pascal ist? Immer noch zu teuer? ;)

Am 20. September wissen wir mehr. Ich habe da eine gewisse positive Vorahnung :D

ChaosTM
2018-08-22, 12:45:01
Du kannst NUR den Bildschirm fokussieren.


Das ist ja klar. Deshalb wird genau der bereich wo ich hinschaue scharf gestellt. Mehr ist da nicht.

Wird OT. deswegen hör ich damit jetzt auf.


Seite 303 (slowspoke)


Bin durch alle neuen Seiten gegengen nach dem Aufstehen. Dass mir das entging !! ? :)

PHuV
2018-08-22, 12:50:06
AR ist im B2B Bereich viel wertvoller und hat auch mehr Potenzial.
Da stimme ich Dir zu. Sobald es massentauglich sein wird, wird es definitiv auch im Alltag das Smartphone, Tablets und Co. ersetzen.