PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - Turing (Pascal-Erbe) Q3/18, 12 nm, GDDR6


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48

Platos
2018-08-15, 01:37:47
Ich halte und wette mit Dir dagegen, daß wir sehr wohl schon früher einen oder mehrere Blockbustertitel mit RT haben werden, und alle werden staunen.

Ihr kapiert alle noch nicht, was RT in Echtzeit hier für ein Gamechanger in Sachen Computergrafik und Spiele ist. Wir erleben wirklich eine Revolution mit. Alle bisherigen Technologien, die bisher für Grafik und Spiel in Echtzeit, sind in Wahrheit nur mangelhafte und kaschierende suboptimale Workarounds gewesen. RT ist physikalisch die einzige Technologie, die annähernd fotorealtische Bilder ermöglich. Alles andere ist, platt gesagt, Käse und schlecht. Spiegelungen, Reflexionen, dynamische Schatten waren so noch nicht möglich, und gegen RT sieht alle das bisherige einfach nur sch..lecht aus. Ganz einfach. Zudem waren diese Workarounds stets aufwendig und komplex, mit RT wird vieles einfacher, weil nicht mehr so viel rumgetrickst werden muß wie bisher, um gewisse Effekte zu erreichen. Die Engineentwickler werden sich darauf stürzen wie frisch geschnittenes Brot. Zudem ist es nach jahrelanger Stagnation endlich wieder mal eine wirklich "neue" und spannende Neuerung im GK-Markt. Leute, es wird nun so abgehen, weil sich alle daran hängen werden, weil es schlichtweg die bessere und effizientere Technologie ist. Nur fehlte dafür bisher eines: Rechenpower! Nix mehr mit aufwendigen Texuturenkleben und Schattenfälschen, schlichtes und simples Rechnen auf hohem Niveau.

Und die haben wir nun mit Turing. Genial, sag ich nur, genial Nvidia.

Trotzdem muss zuerst einmal Hardware (in der Masse) ankommen. Mal sehen, wie es in einer Woche mit den Gamingkarten aussieht und ob die das dann auch verbaut haben oder nur die Spitzenmodelle (oder nur sehr unbedeutend wenig Fläche).

Darkman.X
2018-08-15, 02:28:44
Ich halte und wette mit Dir dagegen, daß wir sehr wohl schon früher einen oder mehrere Blockbustertitel mit RT haben werden, und alle werden staunen.

Ihr kapiert alle noch nicht, was RT in Echtzeit hier für ein Gamechanger in Sachen Computergrafik und Spiele ist. Wir erleben wirklich eine Revolution mit. Alle bisherigen Technologien, die bisher für Grafik und Spiel in Echtzeit, sind in Wahrheit nur mangelhafte und kaschierende suboptimale Workarounds gewesen. RT ist physikalisch die einzige Technologie, die annähernd fotorealtische Bilder ermöglich. Alles andere ist, platt gesagt, Käse und schlecht. Spiegelungen, Reflexionen, dynamische Schatten waren so noch nicht möglich, und gegen RT sieht alle das bisherige einfach nur sch..lecht aus. Ganz einfach. Zudem waren diese Workarounds stets aufwendig und komplex, mit RT wird vieles einfacher, weil nicht mehr so viel rumgetrickst werden muß wie bisher, um gewisse Effekte zu erreichen. Die Engineentwickler werden sich darauf stürzen wie frisch geschnittenes Brot. Zudem ist es nach jahrelanger Stagnation endlich wieder mal eine wirklich "neue" und spannende Neuerung im GK-Markt. Leute, es wird nun so abgehen, weil sich alle daran hängen werden, weil es schlichtweg die bessere und effizientere Technologie ist. Nur fehlte dafür bisher eines: Rechenpower! Nix mehr mit aufwendigen Texuturenkleben und Schattenfälschen, schlichtes und simples Rechnen auf hohem Niveau.

Und die haben wir nun mit Turing. Genial, sag ich nur, genial Nvidia.

Ich glaube, dass du zu sehr gehypt bist. Sicherlich werden ein paar wenige Spiele es in Form von Gameworks bringen, aber "w0mbat" meinte mit "eine Rolle spielen" sicherlich eine breite Unterstützung. Und in der Vergangenheit brauchten Feature immer sehr lange bis zur breiten Einführung, was halt am Maß aller Dinge im Gaming lag/liegt -> Konsolen. Oder das Feature war einfach in der ersten Version noch zu langsam für den breiten Einsatz.

Oder was auch passieren kann, weil auch mehrmals in der Vergangenheit passiert: Neue Features werden von den Entwicklern völlig übertrieben eingesetzt, womit die Spiele dann nicht sehr performant liefen.

wolik
2018-08-15, 05:32:36
Ich halte und wette mit Dir dagegen, daß wir sehr wohl schon früher einen oder mehrere Blockbustertitel mit RT haben werden, und alle werden staunen.

Ihr kapiert alle noch nicht, was RT in Echtzeit hier für ein Gamechanger in Sachen Computergrafik und Spiele ist. Wir erleben wirklich eine Revolution mit. Alle bisherigen Technologien, die bisher für Grafik und Spiel in Echtzeit, sind in Wahrheit nur mangelhafte und kaschierende suboptimale Workarounds gewesen. RT ist physikalisch die einzige Technologie, die annähernd fotorealtische Bilder ermöglich. Alles andere ist, platt gesagt, Käse und schlecht. Spiegelungen, Reflexionen, dynamische Schatten waren so noch nicht möglich, und gegen RT sieht alle das bisherige einfach nur sch..lecht aus. Ganz einfach. Zudem waren diese Workarounds stets aufwendig und komplex, mit RT wird vieles einfacher, weil nicht mehr so viel rumgetrickst werden muß wie bisher, um gewisse Effekte zu erreichen. Die Engineentwickler werden sich darauf stürzen wie frisch geschnittenes Brot. Zudem ist es nach jahrelanger Stagnation endlich wieder mal eine wirklich "neue" und spannende Neuerung im GK-Markt. Leute, es wird nun so abgehen, weil sich alle daran hängen werden, weil es schlichtweg die bessere und effizientere Technologie ist. Nur fehlte dafür bisher eines: Rechenpower! Nix mehr mit aufwendigen Texuturenkleben und Schattenfälschen, schlichtes und simples Rechnen auf hohem Niveau.

Und die haben wir nun mit Turing. Genial, sag ich nur, genial Nvidia.

Wie es mir scheint du spielst letzte Zeit nicht besonders viel ? Zelda bei Switch, Horizon bei PS4Pro, Division bei PC alle diese Titel haben schon "ausreichend" gute Grafik oder wie Zelda brauchen keine... Um millionen Player zu begeistern braucht mann keine Grafik (NMS, Fortnite, Monster Hunter, DS) sondern Spielmechaniken. Und bei eine Präzi Videos zu zeigen (statt Gameplay) ist einfach erbärmlich. ATI hat jetzt ein Chance mit "altbewährte" Technik NV endlich zu übertrumpfen.

HOT
2018-08-15, 07:43:54
Ich halte und wette mit Dir dagegen, daß wir sehr wohl schon früher einen oder mehrere Blockbustertitel mit RT haben werden, und alle werden staunen.

Ihr kapiert alle noch nicht, was RT in Echtzeit hier für ein Gamechanger in Sachen Computergrafik und Spiele ist. Wir erleben wirklich eine Revolution mit. Alle bisherigen Technologien, die bisher für Grafik und Spiel in Echtzeit, sind in Wahrheit nur mangelhafte und kaschierende suboptimale Workarounds gewesen. RT ist physikalisch die einzige Technologie, die annähernd fotorealtische Bilder ermöglich. Alles andere ist, platt gesagt, Käse und schlecht. Spiegelungen, Reflexionen, dynamische Schatten waren so noch nicht möglich, und gegen RT sieht alle das bisherige einfach nur sch..lecht aus. Ganz einfach. Zudem waren diese Workarounds stets aufwendig und komplex, mit RT wird vieles einfacher, weil nicht mehr so viel rumgetrickst werden muß wie bisher, um gewisse Effekte zu erreichen. Die Engineentwickler werden sich darauf stürzen wie frisch geschnittenes Brot. Zudem ist es nach jahrelanger Stagnation endlich wieder mal eine wirklich "neue" und spannende Neuerung im GK-Markt. Leute, es wird nun so abgehen, weil sich alle daran hängen werden, weil es schlichtweg die bessere und effizientere Technologie ist. Nur fehlte dafür bisher eines: Rechenpower! Nix mehr mit aufwendigen Texuturenkleben und Schattenfälschen, schlichtes und simples Rechnen auf hohem Niveau.

Und die haben wir nun mit Turing. Genial, sag ich nur, genial Nvidia.

Das ist nur Blödsinn, das ist das Problem. Das hat man von VR und 3D und was weiss ich auch gesagt. Die Fakten dazu sehen aber sehr ernüchternd aus. RT hat nämlich auch ne ganze Reihe von Problemen, die bisheriges Rasterizing nicht hat, die Lösungen dafür benötigen auch einen anderen Content. Und hier liegt vor allem der Hase im Pfeffer, denn die Spielehersteller machen vielleicht auf NVs Druck ein paar RT-Varianten, aber wie bei VR wird es dabei bleiben und dann verschwindet das wie jeder Hype in seiner Nische und fertig.
Als neues Beleuchtungsmodell hingegen kann es Standard werden, aber langfristig auch nur dann, wenn AMD das auch mitmacht (und Intel steigt ja auch ein). Wenn die das links liegen lassen, scheitert auch das auf ganzer Linie. Und ich rede hier nicht von der nächsten Konsolengeneration, die hat das mit an Sicherheit grenzender Wahrscheinlichkeit nicht. Wir reden hier von 2025+. Vorher passiert da bis auf ein paar Leuchtturmprojekten sowieso nix. NV geht hier ein enormes Risiko ein.

Dr. Lloyd
2018-08-15, 07:46:47
Wie es mir scheint du spielst letzte Zeit nicht besonders viel ? Zelda bei Switch, Horizon bei PS4Pro, Division bei PC alle diese Titel haben schon "ausreichend" gute Grafik oder wie Zelda brauchen keine... Um millionen Player zu begeistern braucht mann keine Grafik (NMS, Fortnite, Monster Hunter, DS) sondern Spielmechaniken. Und bei eine Präzi Videos zu zeigen (statt Gameplay) ist einfach erbärmlich. ATI hat jetzt ein Chance mit "altbewährte" Technik NV endlich zu übertrumpfen.
Was machst du mit deiner anti-progressiven Einstellung zu Ästhetik und Technik eigentlich in diesem Forum?

Die Firma ATI trumpft nie wieder auf, da sie seit 12 Jahren nicht mehr existiert. Und von AMD braucht man in absehbarer Zeit gar nix im Highend-Bereich erwarten. Die haben ihren GPU-Fokus auf Konsolen und Mittelklasse. Da kommt eher Intel in einigen Jahren als neuer Herausforderer von nVidia.

Im Übrigen finde ich es schon arg befremdlich, wie viele User hier negativ gegenüber Raytracing eingestellt sind. Mit dieser konservativen Haltung zu technischem Fortschritt, gäbe es Jahr für Jahr immer nur bessere Pferdekutschen, aber immer noch keine Autos.

Irgendwann musste mal jemand kommen, der Echtzeit-Raytracing ernsthaft in Spielen etablieren will und auch das Können sowie die Marktmacht dafür besitzt. Und nVidia ist da genau die richtige Firma zum richtigen Zeitpunkt!

Timbaloo
2018-08-15, 07:50:32
Ich finde es nicht in Ordnung wie hier intel und AMD als Innovationsbremsen dargestellt werden :)

Adam D.
2018-08-15, 08:00:37
Ich finde es nicht in Ordnung wie hier intel und AMD als Innovationsbremsen dargestellt werden :)
Kommt doch alles wieder von den üblichen Verdächtigen. Hätte AMD als Underdog auf RT gesetzt, wäre es für Horn und Co die Offenbarung und für Bucklew und Co völlig uninteressant und overhypt.

Die Leute hier können einfach nicht ihre Brille abnehmen, das schadet den Diskussionen überall.

RT wird die Spieleindustrie massiv verändern, Nvidia geht halt jetzt bereits die Wette ein. Ob das zu früh war, wird sich mittelfristig zeigen. Zum Glück gibt es ja auch weiterhin mehr Einheiten und höheren Takt, damit die Leute weiterhin "traditionell" profitieren.

Wieso man es dem Marktführer übel nimmt, mal mehr zu liefern als mehr Rohpower, erschließt sich mir überhaupt nicht. Insbesondere in einem Moment, wo er das gar nicht nötig hätte...

Fragman
2018-08-15, 08:08:11
Nv macht das nicht nur wegen den gamern sondern eben auch (oder hauptsaechlich) fuer den professionellen bereich. Renderman und auch arnold werden auf optix setzen, andere schon vorhandenen gpu renderer machens meistens schon. Nv will da vor allem intel ordentlich was abgraben. Gaming faellt doch nur mit ab. Deshalb wird das bleiben und nicht wieder verschwinden.

Korvaun
2018-08-15, 08:10:51
Ich finds auch nen Witz gerade jetzt gegen nV zu schiessen. Da bringen Sie endlich mal was wirklich neues auch für Gamer-Karten (Tensor/RT-Cores) und schon heulen die Leute das das ja alles völlig nutzlos ist und teuer und Platzverschwendung aufm Die und es niemand jemals braucht etc... tztztz.
Wem es nicht gefällt der solls nicht kaufen. Wer meint jetzt ist AMD am Drücker und die fegen mit Navi alles weg der soll warten bis Navi kommt und dem Rest die neuen nV Karten gönnen, ist doch wirklich nicht so schwer ;)

HOT
2018-08-15, 08:57:28
Nv macht das nicht nur wegen den gamern sondern eben auch (oder hauptsaechlich) fuer den professionellen bereich. Renderman und auch arnold werden auf optix setzen, andere schon vorhandenen gpu renderer machens meistens schon. Nv will da vor allem intel ordentlich was abgraben. Gaming faellt doch nur mit ab. Deshalb wird das bleiben und nicht wieder verschwinden.

Durchaus ne gute Erklärung. Die probierens halt und wenns nicht klappt, verschwindet es halt wieder.

Bucklew
2018-08-15, 09:18:50
Kommt doch alles wieder von den üblichen Verdächtigen. Hätte AMD als Underdog auf RT gesetzt, wäre es für Horn und Co die Offenbarung und für Bucklew und Co völlig uninteressant und overhypt.
Danke für den Flame.

Mal überlegt, dass meine Meinung vielleicht nicht am Markennamen, sondern an der Technik liegt, ob man etwas für gut oder schlecht hält? :rolleyes:

Darfst gern mal eine vergleichbare Technik aus den letzten 5 Jahren von AMD nehmen, über die ich negativ gesprochen habe.

Dural
2018-08-15, 09:19:53
Ich finde es nicht in Ordnung wie hier intel und AMD als Innovationsbremsen dargestellt werden :)

Es ist aber seit Jahren Fakt das sich vor allem NV um die Gamer kümmert, und nicht AMD oder Intel. :rolleyes:

Von AMD würde ich im Grafikbereich so wie so kaum noch was erwarten, den da kann man nicht einfach CPUs Die zusammen Kleben und Fertig ist das Produkt... ;) interessanter dürfte da Intel sein, aber wie oft haben die es schon versucht?!

Man muss auch einfach mal einsehen das NV ganz klar die Firma ist mit der meisten Erfahrung und den besten Leuten in dem Bereich. Turing wurde schon vor 10 Jahren intern besprochen und die Entwicklung startete vor 5 Jahren. Wie will man so was aus dem nichts aufholen? Zudem Intel auch kein Fertigungsvorteil mehr hat.

Menace
2018-08-15, 09:21:21
Wieso man es dem Marktführer übel nimmt, mal mehr zu liefern als mehr Rohpower, erschließt sich mir überhaupt nicht. Insbesondere in einem Moment, wo er das gar nicht nötig hätte...

Stimme Dir absolut zu. Komisch, wie sich das Blatt wendet; sonst wurde doch immer AMD vorgeworfen etwas zu implmentieren, was man gar nicht braucht.

Was man wirklich bräuchte wären fps 144+. :rolleyes:

Vielleicht wurde die Frage schon gestellt und beantwortet: Nutzen diese neue Einheiten eigentlich auch GPGPU-Anwendungen?

robbitop
2018-08-15, 09:29:31
Interessant zu wissen wäre, ob Navi bereits HW für Raytracing oder zumindest für das beschleunigte Denoising mitbringt. Da Navi in die nächste Konsolengeneration Einzug halten wird, ist es durchaus relevant dafür, wie schnell und breit RT in die breite Masse der AAA Spiele Einzug halten wird.

Sicherlich kann man es auch ala Gameworks drüberstülpen. Aber ich gehe davon aus, wenn Spiele direkt damit konzipiert werden, ist der optische Eindruck ein besserer/konsistenterer.

Auch ist es für alle wichtig, dass AMD wieder mithalten kann. Denn ansonsten gehen die GPU Preise nur noch aufwärts.

Dural
2018-08-15, 09:31:48
Wieso man es dem Marktführer übel nimmt, mal mehr zu liefern als mehr Rohpower, erschließt sich mir überhaupt nicht. Insbesondere in einem Moment, wo er das gar nicht nötig hätte...

Der Moment für NV ist gerade zu Perfekt, da keine Konkurrenz :wink:

Sie können im moment Die Fläche "verschwenden" und es auch zum nötigen Preis verkaufen. Ich würde behaupten wenn AMD derzeit deutlich stärker wäre würde man jetzt Turing nicht in der Form sehen!

Das hat NV übrigens schon vor Jahren selber gesagt, sie müssen nicht mehr auf andere schauen und können für sich Entwickeln.

Chris Lux
2018-08-15, 09:32:31
100% Power-Limit der RTX6000 Karte:
https://pbs.twimg.com/media/Dkl74bTVsAA9jE3.jpg

270W mit 24GB. Dazu kommen dann noch die 30W von NVLink. /edit: Oder die 30W von NVLink sind da schon enthalten...
Wo kommt das Bild her?

Screemer
2018-08-15, 09:34:22
Twitter :ugly:

Dural
2018-08-15, 09:40:23
könnte schon passen, die 8000 soll ja 300W mit 48GB haben.

AffenJack
2018-08-15, 09:43:52
Kann auch einfach die GPU + RAM TDP sein. Die Board TDP erhöht sich alleine durch Virtual Sync um 30 W und dann sind wir bei den 300W.

Dural
2018-08-15, 09:52:10
Auch möglich, da bleit zu hoffen das die GeForce 12GB bei 250Watt um die 1800MHz+ hat.

mboeller
2018-08-15, 09:55:04
vielleicht hilft es ja bei der Diskussion über Raytracing:

https://www.imgtec.com/blog/tag/ray-tracing/
-> enthält viele Artikel über Raytracing

Und hier mal was zum Stromverbrauch:
https://home.otoy.com/otoy-and-imagination-unveil-breakthrough-powervr-ray-tracing-platform/


Apple und andere Smartphone Hersteller waren leider nicht interessiert.

Slipknot79
2018-08-15, 09:58:05
So groß ist das Risiko ned, was Nvidia mit RT einged.
RT wird einfach auf die GPU geballert, der Kunde zahlt es so oder so mit. Geht der Plan auf, gut, geht er nicht auf, was solls, die GPU kann auch Sprites und 3D.

Anders wäre es wenn Nvidia eine reine RT-GPU-Graka rausgebr8 hätte, die hätte so und so niemand gekauft mangels Spielen oder man hätte eine Spielebasis mit den Entwicklern schaffen müssen, da wäre der Aufwand wohl aber zu groß, dann lieber Lösung 1 mit "dazupacken auf die GPU"

Chris Lux
2018-08-15, 10:01:51
Twitter :ugly:
Gibt es da einen Link?

Troyan
2018-08-15, 10:03:50
Hier: https://twitter.com/Techgage/status/1029490245824212992

Hacki_P3D
2018-08-15, 10:06:06
100% Power-Limit der RTX6000 Karte:
https://pbs.twimg.com/media/Dkl74bTVsAA9jE3.jpg

270W mit 24GB. Dazu kommen dann noch die 30W von NVLink. /edit: Oder die 30W von NVLink sind da schon enthalten...

Ist doch lediglich eine Quadro P6000 mit 24GB, oder? :freak:

Kannst hier bestellen, als Extreme Version:
https://www.workstation-pro.com/Hewlett-Packard/HP-Desktop-Workstations/HP-Z8-G4:::21_22_175.html

Freestaler
2018-08-15, 10:19:43
Kann einer die 10 Gigaray pro Sekunde mal an einem Beispuel einordnen? Raytracing per CPU ist ja schon in CAD App verfügbat seit letztem Jahrtausend. Nur halbwegs arbeitsflüssig (2fps) gings halt nur mit ganz wenigen einsatz ( wenige objekte, einfach strukturen und nur eine Licht Quelle). Alles anderen wurde zumindest bei mir (ideas/ug nx) nur für Abschliessende Schaubilder verwendet und da dürfen die Workstation dann auch mal gerne ein paar Stunden rechnen. Gibts da Beispiel was wie mit wieviel Möglich sein wird bei eben 10 Gigarays? Ich finde auch keine definition der "Gigarays"..

Rancor
2018-08-15, 10:26:14
Vermutlich Milliarden Strahlen Pro Sekunde. Keine Ahnung wieviel Strahlen man pro Pixel braucht?

Bucklew
2018-08-15, 10:31:21
Interessant zu wissen wäre, ob Navi bereits HW für Raytracing oder zumindest für das beschleunigte Denoising mitbringt.
Unwahrscheinlich.

Den Schritt hat so niemand vorhergesehen. Erinnert stark an Fermi und Tessellation. Wobei es da sogar Hinweise in die Richtung gab, ich erinnere nur an den Charly Hoax über die Tessellation-Emulation per Shader, die er vorher für Fermi verkündet hat. Schlussendlich hatte NVIDIA mit Fermi einen so großen Vorsprung in Sachen Geometrieleistung und Tessellation, dass dieser bis heute anhält.

BiZiNiZz
2018-08-15, 10:37:50
Kann einer die 10 Gigaray pro Sekunde mal an einem Beispuel einordnen? Raytracing per CPU ist ja schon in CAD App verfügbat seit letztem Jahrtausend. Nur halbwegs arbeitsflüssig (2fps) gings halt nur mit ganz wenigen einsatz ( wenige objekte, einfach strukturen und nur eine Licht Quelle). Alles anderen wurde zumindest bei mir (ideas/ug nx) nur für Abschliessende Schaubilder verwendet und da dürfen die Workstation dann auch mal gerne ein paar Stunden rechnen. Gibts da Beispiel was wie mit wieviel Möglich sein wird bei eben 10 Gigarays? Ich finde auch keine definition der "Gigarays"..

Über die Technik hab ich leider keine Ahnung. Ich denke mal du spielst auf die Verwendung im Maschinenbau etc. bei Explosionszeichnungen an. Dürfte relativ ähnlich mit dem sein, was nVidia im Stream für Architekten gezeigt:

https://www.youtube.com/watch?v=jY28N0kv7Pk&feature=youtu.be&t=3840

nairune
2018-08-15, 10:40:08
DXR ist den Hardwareherstellern sicher nicht erst seit März bekannt.
Das hängt einzig davon ab, ob AMD das Thema (rechtzeitig) als genauso wichtig eingeschätzt hat.

robbitop
2018-08-15, 10:45:50
Unwahrscheinlich.

Den Schritt hat so niemand vorhergesehen. Erinnert stark an Fermi und Tessellation. Wobei es da sogar Hinweise in die Richtung gab, ich erinnere nur an den Charly Hoax über die Tessellation-Emulation per Shader, die er vorher für Fermi verkündet hat. Schlussendlich hatte NVIDIA mit Fermi einen so großen Vorsprung in Sachen Geometrieleistung und Tessellation, dass dieser bis heute anhält.
Wie vom Vorredner beschrieben. DXR ist den IHVs seit längerem zugänglich. MWn sitzen alle IHVs gemeinsam mit MS in einem Gremium, welches die Standards erarbeitet und verabschiedet.

Entsprechend ist dies sicher auch AMD seit einer Weile bekannt.

Bis DXR weite Verbreitung in AAA Spielen findet, wird man bei AMD (wenn nicht mit Navi, dann mit der Nachfolgegen) sicherlich auch umstellen.
Sicherlich ähnlich zu SM3.0 bei NV40 damals. Als es relevant wurde, unterstützte R520 es dann auch.
Die Pionierphase ist idR nicht immer betriebswirtschaftlich relevant.

firefly83
2018-08-15, 10:46:18
Kann einer die 10 Gigaray pro Sekunde mal an einem Beispuel einordnen? Raytracing per CPU ist ja schon in CAD App verfügbat seit letztem Jahrtausend. Nur halbwegs arbeitsflüssig (2fps) gings halt nur mit ganz wenigen einsatz ( wenige objekte, einfach strukturen und nur eine Licht Quelle). Alles anderen wurde zumindest bei mir (ideas/ug nx) nur für Abschliessende Schaubilder verwendet und da dürfen die Workstation dann auch mal gerne ein paar Stunden rechnen. Gibts da Beispiel was wie mit wieviel Möglich sein wird bei eben 10 Gigarays? Ich finde auch keine definition der "Gigarays"..

Ich hab mal eben einen Test mit Vray Next GPU auf einer 1060 gemacht und bekomme knapp unter 1 MRays raus (siehe Statistik in gelb oben rechts).

Grendizer
2018-08-15, 10:54:32
Bei aller Euphorie: Bis das wirklich relevant wird, werden vermutlich viele Jahre ins Land gehen.

Wichtig wäre ebend, das AMD das auch unterstützt. Ich vermute das das eben bei Navi nicht der Fall sein wird und AMD hier auch keine Ressourcen hat um das hin zu bekommen.

Das jetzt hier die DX 12 Verachter im nVidia Umfeld angeprangert werden ist ehrlich gesagt witzig. Bisher ging es bei DX12 doch nur um bessere Frametimes/mehr FPS durch bessere Auslastung der Karten. Deshalb war bisher DX12 für nVidia relativ überflüssig. Hier sprechen wir aber von zusätzlichen grafischen Effekten, ein Thema, das bisher bei DX12 eben nie ein Thema war.

Ich gehe davon aus das es die nächsten Jahre einige Gameworkseffekte speziell mit Raytracing geben wird, die auf anderen Karten (auch Pascal) nur emuliert werden können oder gar nicht aktivierbar sind.

Damit wäre aber schon ein wichtiges Alleinstellungsmerkmal vorhanden um die neuen Karten zu verkaufen.

Screemer
2018-08-15, 10:59:14
Wieviele rays schafft denn eine vega64 mit pro renderer? Um das Mal in Relation zu setzen.

Dural
2018-08-15, 11:05:27
Wie so wird immer behauptet das es in den Konsolen rein muss? Technologie hat sich immer am PC entfaltet und Entwickelt, und nie in Konsolen! Jedenfalls in jüngerer Zeit nicht.

Konsolen bekommen seit Jahren nur noch veraltete PC Hardware, Sprich es muss einfach günstig und halbwegs brauchbar sein, der Rest interessiert die nicht. Wenn sich die Technologie am PC bewährt wird es von alleine in die Konsolen kommen müssen.

Zudem die Zeit der Konsolen in Hardware so wie wir sie kennen so wie so bald ein ende haben werden, Stichwort Cloud. Da wird zuhause unter dem TV nur noch ein kleiner ARM SoC stehen und fertig. Und jetzt überlegt mal wer die passende Hardware und die Technologie dazu hat ;)

dildo4u
2018-08-15, 11:08:27
Die neue RTX Demo schätze mal UE 4.0.

https://youtu.be/jY28N0kv7Pk?t=1h20m37s

Rancor
2018-08-15, 11:12:28
Das ist einfach nur krass... Mehr kann man dazu nicht sagen

robbitop
2018-08-15, 11:14:22
Wie so wird immer behauptet das es in den Konsolen rein muss? Technologie hat sich immer am PC entfaltet und Entwickelt, und nie in Konsolen! Jedenfalls in jüngerer Zeit nicht.

Konsolen bekommen seit Jahren nur noch veraltete PC Hardware, Sprich es muss einfach günstig und halbwegs brauchbar sein, der Rest interessiert die nicht.

Zudem die Zeit der Konsolen in Hardware so wie wir sie kennen so wie so bald ein ende haben werden, Stichwort Cloud. Da wird zuhause unter dem TV nur noch ein kleiner ARM SoC stehen und fertig. Und jetzt überlegt mal wer die passende Hardware und die Technologie dazu hat ;)
Verbreitung. Die Konsolen haben in Summe die größten Umsätze bei AAA Spielen und sind häufig Lead Plattformen.
Wenn Spiele von Grund auf so konzipiert werden sollen und RT nicht nur optional aufgesetzt sein soll, sollten auch Konsolen es unterstützen.

Streaming und Cloud: wenn es soweit ist, kann man weiterreden. Damit Spielen Spaß macht, darf die Latenz nicht zu hoch sein und das Bild muss scharf und artefaktfrei bleiben. Dafür darf der Spieleserver nicht zu weit weg sein (also enge Serverinfrastruktur) und >90% der Spieler müssen eine entsprechende Leitung haben (die latenzarmes, artefaktfreies Spielen IMMER erlaubt, auch wenn andere Benutzer im Haus Videos schauen, selbst auch via Cloud spielen, surfen, herunterladen etc). Das gilt auch für schlechtes Wetter, volle Zellen, keine Sichtverbindung zum Mast, hohe Entfernung zum Mast etcpp (all das für Internet über Mobilfunkstandards). Bis die Verbreitung leistungsfähiger Internetleitung überall flächendeckend in >90% des Marktes so weit ist, dauert es noch. Und vorher kann die Cloudlösung nur parallel zur echten HW Lösung laufen...

pilzsammler2002
2018-08-15, 11:18:12
Wieviele rays schafft denn eine vega64 mit pro renderer? Um das Mal in Relation zu setzen.

Geht auch V-Ray Benchmark?
https://techgage.com/wp-content/uploads/2017/10/Chaos-V-Ray-Benchmark-1.0.5.png

Source:
https://techgage.com/article/a-look-at-amds-radeon-rx-vega-64-workstation-compute-performance/2/

Screemer
2018-08-15, 11:23:59
Geht auch V-Ray Benchmark?
https://techgage.com/wp-content/uploads/2017/10/Chaos-V-Ray-Benchmark-1.0.5.png

Source:
https://techgage.com/article/a-look-at-amds-radeon-rx-vega-64-workstation-compute-performance/2/
Hilft leider nicht, denn pro renderer nutzt wohl einige amd-gimmicks. kA wie sich die auswirken.

Edit: bei techgage gibt's auch nen "alten" Bench mit pro renderer aber wohl mit ner anderen szene:

https://techgage.com/wp-content/uploads/2018/04/AMD-Radeon-ProRender-Autodesk-3ds-Max-2017.png

Da hat sich schon einiges getan seit August letzten Jahres (vorausgesetzt es ist die gleiche Szene):

https://techgage.com/wp-content/uploads/2017/08/AMD-Radeon-RX-Vega-64-Autodesk-3ds-Max-2017-AMD-ProRender.png

Edit: es ist natürlich nicht die gleiche Szene...

Cubitus
2018-08-15, 11:24:26
Bis DXR weite Verbreitung in AAA Spielen findet, wird man bei AMD (wenn nicht mit Navi, dann mit der Nachfolgegen) sicherlich auch umstellen.
Sicherlich ähnlich zu SM3.0 bei NV40 damals. Als es relevant wurde, unterstützte R520 es dann auch.
Die Pionierphase ist idR nicht immer betriebswirtschaftlich relevant.

ich fand die X1800 Serie machte den Pixelshader 3 erst wirklich relevant.
Aber AMD wird dieses Mal leider keinen Konter hinlegen :freak:

Dural
2018-08-15, 11:24:32
nix

Edgecrusher86
2018-08-15, 11:26:39
Sieht so aus, als wenn 36 SMs (a 128 SPs = 4608 SPs FP32) der Vollausbau bei GT102 sein dürfte oder?

https://abload.de/img/gt102-gpc_sm9uiq3.jpg

Ohne Kritzeleien:

https://abload.de/img/gt102ibecq.jpg


Jeweils in originaler Größe:

https://abload.de/thumb/gt1022livs.jpg (https://abload.de/image.php?img=gt1022livs.jpg)

https://abload.de/thumb/gt102-gpc_smuyejl.jpg (https://abload.de/image.php?img=gt102-gpc_smuyejl.jpg)

Dural
2018-08-15, 11:26:39
Verbreitung. Die Konsolen haben in Summe die größten Umsätze bei AAA Spielen und sind häufig Lead Plattformen.
Wenn Spiele von Grund auf so konzipiert werden sollen und RT nicht nur optional aufgesetzt sein soll, sollten auch Konsolen es unterstützen.

Streaming und Cloud: wenn es soweit ist, kann man weiterreden. Damit Spielen Spaß macht, darf die Latenz nicht zu hoch sein und das Bild muss scharf und artefaktfrei bleiben. Dafür darf der Spieleserver nicht zu weit weg sein (also enge Serverinfrastruktur) und >90% der Spieler müssen eine entsprechende Leitung haben (die latenzarmes, artefaktfreies Spielen IMMER erlaubt, auch wenn andere Benutzer im Haus Videos schauen, selbst auch via Cloud spielen, surfen, herunterladen etc). Das gilt auch für schlechtes Wetter, volle Zellen, keine Sichtverbindung zum Mast, hohe Entfernung zum Mast etcpp (all das für Internet über Mobilfunkstandards). Bis die Verbreitung leistungsfähiger Internetleitung überall flächendeckend in >90% des Marktes so weit ist, dauert es noch. Und vorher kann die Cloudlösung nur parallel zur echten HW Lösung laufen...

Die Konsolen haben noch nie einer Technologie geholfen sich zu etablieren. Mir fällt jedenfalls gerade nichts ein? Das wird nur ständig aus der AMD Ecke behauptet. :rolleyes:

Fakt ist NV Dominiert in sachen GPUs den Markt, und das komplett ohne Konsolen. Und jetzt? Wenn ich schaue was damals als die Deals mit Sony und MS bekannt wurden von einigen behauptet wurden, müsste AMD heute eigentlich in der Situation von NV sein, sie sind es aber bei weitem nicht. :wink:

Sieht so aus, als wenn 36 SM der Vollausbau bei GT102 sein dürfte oder?


Das war fast klar, es sind immer 50% von Gx104 zu Gx102 ;)

dargo
2018-08-15, 11:31:16
Wie so wird immer behauptet das es in den Konsolen rein muss? Technologie hat sich immer am PC entfaltet und Entwickelt, und nie in Konsolen! Jedenfalls in jüngerer Zeit nicht.

Konsolen bekommen seit Jahren nur noch veraltete PC Hardware, Sprich es muss einfach günstig und halbwegs brauchbar sein, der Rest interessiert die nicht. Wenn sich die Technologie am PC bewährt wird es von alleine in die Konsolen kommen müssen.

Zudem die Zeit der Konsolen in Hardware so wie wir sie kennen so wie so bald ein ende haben werden, Stichwort Cloud. Da wird zuhause unter dem TV nur noch ein kleiner ARM SoC stehen und fertig. Und jetzt überlegt mal wer die passende Hardware und die Technologie dazu hat ;)
Träumer... :tongue:


Fakt ist NV Dominiert in sachen GPUs den Markt, und das komplett ohne Konsolen. Und jetzt? Wenn ich schaue was damals als die Deals mit Sony und MS bekannt wurden von einigen behauptet wurden, müsste AMD heute eigentlich in der Situation von NV sein, sie sind es aber bei weitem nicht. :wink:

Wen soll das verwundern wenn der PC softwaremäßig immer noch zum großen Teil lichtjahre den Konsolen hinterher hinkt? Stichwort APIs. Wobei, eigentlich nur eine API... DirectX. OpenGL ist bereits tot.

Dural
2018-08-15, 11:35:08
Ich Träume nicht, einige vergessen offensichtlich das AMD wohl kaum wegen ihrer GPUs in den Konsolen drin ist, sondern weis sie das komplette Packet liefern können und das zu einem Preis/Leistung Verhältnis was keiner könnte/wollte. ;)

Intel fehlt eine vernünftige GPU, NV fehlt die brauchbare CPU. So einfach ist das ;)

iuno
2018-08-15, 11:39:03
Unwahrscheinlich.

Den Schritt hat so niemand vorhergesehen.

Du vielleicht nicht. Für mich wäre alles andere eine Enttäuschung gewesen, nachdem man schon mit compute+denoiser in die Offensive gegangen ist und eine Klitsche wie ImgTec das schon vor 5 Jahren gezeigt hat.

Hoffe jedenfalls dass AMD es hin bekommt, damit auch consumer zeitnah was davon haben.

Edgecrusher86
2018-08-15, 11:39:26
Das war fast klar, es sind immer 50% von Gx104 zu Gx102 ;)

Ja, von 102 zu 104 waren es bisher immer 50%. Bei GK110 zu GK104 87,5% - das dürfte wohl der Rekord bleiben. Aber da gerade oft nicht die volle Auslastung bei Kepler (1920 SPs effektiv im Worst Case) gegeben war, viel die Mehrleistung entsprechend geringer aus.

Einige denken halt, dass es zu wenig Einheiten für die brachialen 754mm² wären. Vermutlich dürfte die GPU in 12nm - nur als aufgeblähter GP102 entworfen - bei grob 540-570mm² landen, denke ich. Eventuell auch etwas mehr, immerhin haben wir z.B. einen verdoppelten L2.
Der Großteil vom Rest werden dann ja wohl die RT einnehmen, wenn die TCs bei >=10% Fläche landen.

dargo
2018-08-15, 11:39:43
Ich Träume nicht, einige vergessen offensichtlich das AMD wohl kaum wegen ihrer GPUs in den Konsolen drin ist, sondern weis sie das komplette Packet liefern können und das zu einem Preis/Leistung Verhältnis was keiner könnte/wollte. ;)

Du verwechselst leider da was. Eine Konsole bekommt ihre TFLOPs deutlich besser auf die Straße als vergleichbare Desktop-Varianten. Ganz einfach weil man dort viel näher am Metal ist und nicht den Bremsklotz vom PC mit sich schleppt.

Dural
2018-08-15, 11:42:02
Du verwechselst leider da was. Eine Konsole bekommt ihre TFLOPs deutlich besser auf die Straße als vergleichbare Desktop-Varianten. Ganz einfach weil man dort viel näher am Metal ist und nicht den Bremsklotz vom PC mit sich schläppt.

Nur kurz da es eh OT ist, aber das hat mit meiner Aussage nichts zu tun. Du kannst mir gerne per PN mitteilen was die Konsolen für Technologie hervorgebracht haben. Danke.

Ex3cut3r
2018-08-15, 11:52:57
Du verwechselst leider da was. Eine Konsole bekommt ihre TFLOPs deutlich besser auf die Straße als vergleichbare Desktop-Varianten. Ganz einfach weil man dort viel näher am Metal ist und nicht den Bremsklotz vom PC mit sich schläppt.

Vlt. wäre so eine Konsole die bessere Alternative für dich. :biggrin:

Troyan
2018-08-15, 11:54:26
Ja. Da kann er dann Monster Hunter World auf einer Xbox One X in 1080p mit 45FPS spielen. Beeindruckend, wenn man überlegt, dass eine GTX1080 90FPS schafft. Lmao.

Edgecrusher86
2018-08-15, 11:54:43
Und eine gemeinsame HW Basis macht es bei den Konsolen auch leichter - entweder es läuft, oder es läuft nicht bzw. mies - manches lässt sich sicher patchen, wenn schlecht optimiert, anderes nicht.

Hach, eine Konsole auf Basis i9-9900K/R7 3700X + GT104 (je herunter getaktet und UV, damit man innerhalb von 200W bliebe) wäre gut für den Fortschritt auch bzgl. PC Games - aber sowas würde auch in den Massen sicherlich mindestens $1000 kosten müssen und man bekäme mal nicht so eben dreistellige Millionen Einheiten auf den Markt geworfen (XB und PS zusammen).

dargo
2018-08-15, 11:55:20
Nur kurz da es eh OT ist, aber das hat mit meiner Aussage nichts zu tun. Du kannst mir gerne per PN mitteilen was die Konsolen für Technologie hervorgebracht haben. Danke.
Du hast wohl die Zeit vergessen als die XBox360 kam und die PC-Ports wie sche... liefen? Das Multithreading kam bsw. von den Konsolen. Heute genießen wir am PC nur den Luxus, dass die Konsolenhersteller begriffen haben, dass sich eine zu teure Konsolenhardware samt starker Subventionierung über Spiele nicht mehr lohnt. Ergo kommt in die Kisten schwächere Hardware zum für die Masse akzeptablen Preis und dementsprechend läuft das ganze dann auch für die Masse am PC recht gut, ohne absolutes High-End kaufen zu müssen. Eine Win-Win Situation sozusagen. Dennoch überdeckt man noch vieles am PC mit der Hardware-Brechstange dank Steinzeit-Apis. Überleg doch mal welche CPUs wir mittlerweile am Desktop haben und was die kleinen Kätzchen der Konsolen im Vergleich von den Rohdaten liefern. Für einige hier müsste die PS5 am besten schon dieses Jahr kommen damit die wach gerüttelt werden.

Godmode
2018-08-15, 11:56:00
Ich habe mir die Metro Raytracing Demo jetzt mal angesehen und das sieht schon deutlich besser und realistischer als ohne RT aus. Hab das bisher zu stark unterbewertet. Ich habe bei 3D Spielen oft das Problem, dass ich mich mit der Tiefenwahrnehmung schwer tue, daher war ich auch ein großer Fan von 3D-Vision. Höchstwahrscheinlich wurde dieses Problem durch die Fake-Beleuchtung verursacht. Ich lehne mich jetzt mal auf dem Fenster: Was Beleuchtung angeht, dürfte das der größte Sprung sein seit Jahren werden.

Cubitus
2018-08-15, 11:59:50
Wen soll das verwundern wenn der PC softwaremäßig immer noch zum großen Teil lichtjahre den Konsolen hinterher hinkt? Stichwort APIs. Wobei, eigentlich nur eine API... DirectX. OpenGL ist bereits tot.

Das sind doch alles dieselben Engines. :confused:

Im Endeffekt ist es nur eine wirtschaftliche Entscheidung warum Konsolenspiele nicht portiert werden.

dargo
2018-08-15, 12:02:20
Das sind doch alles dieselben Engines. :confused:

Wo habe ich ein Wort über die Engines verloren?

AffenJack
2018-08-15, 12:12:56
Wie vom Vorredner beschrieben. DXR ist den IHVs seit längerem zugänglich. MWn sitzen alle IHVs gemeinsam mit MS in einem Gremium, welches die Standards erarbeitet und verabschiedet.

Entsprechend ist dies sicher auch AMD seit einer Weile bekannt.


Da wäre ich mir gar nicht so sicher. Ich habe das Gefühl, dass Nv den Mantleweg gegangen ist und das Ding programmiert hat und dann MS angeboten hat und es dann mit kleinen Änderungen durchging. Da könnte es durchaus sein, dass das Anfang 2017 war und dann in 1 Jahr durchging. Da würde es dann schwer für Navi, wenn man nicht eh damit plant.

Was in meinen Augen dafür spricht? Siehe:


Die komplette Architektur von DXR ist von OptiX kopiert. Die Shader-Stages sind exakt die selben.

Und Vulkan:
https://abload.de/img/rtx1zrcqn.png

Gleiche Struktur wie DXR? Von Nv eingereicht? Sieht stark danach aus, dass beides von Nv kommt.

https://abload.de/img/rtx2cqeq4.png
http://on-demand.gputechconf.com/gtc/2018/presentation/s8521-advanced-graphics-extensions-for-vulkan.pdf

Screemer
2018-08-15, 12:16:40
Ich habe mir die Metro Raytracing Demo jetzt mal angesehen und das sieht schon deutlich besser und realistischer als ohne RT aus. Hab das bisher zu stark unterbewertet. Ich habe bei 3D Spielen oft das Problem, dass ich mich mit der Tiefenwahrnehmung schwer tue, daher war ich auch ein großer Fan von 3D-Vision. Höchstwahrscheinlich wurde dieses Problem durch die Fake-Beleuchtung verursacht. Ich lehne mich jetzt mal auf dem Fenster: Was Beleuchtung angeht, dürfte das der größte Sprung sein seit Jahren werden.
das lighting rettet metro exodus trotzdem nicht. alles andere verhält sich physikalisch völlig inkorrekt und sieht dazu noch teils wirklich schlecht aus. die assets für die pflanzen sehen teilweise aus sie sprites und bewegegen sich alle gleich. beim flug aus der hütte durch das fenster (https://youtu.be/2NsdM1VS5u8?t=94) hab ich ausgemacht. das ist so dermaßen schlecht, es nicht mehr feierlich ist. vom wasser spreche ich erst mal lieber gar nicht. es sieht aus als spiele physik in der szene überhaupt keine rolle. die hätten lieber alles statisch halten sollen.

das video ist schlicht ein perfektes beispiel dafür, dass rt aus einer "perfekt" beleuchteten szene nicht sofort ein glanzstück der gaminghistorie macht.

pilzsammler2002
2018-08-15, 12:21:18
beim flug aus der hütte durch das fenster (https://youtu.be/2NsdM1VS5u8?t=94) hab ich ausgemacht, weil sich die grashalme sowas von unnatürlich bewegt haben, dass es nicht mehr feierlich ist.


Denke mal das ist eher dem "Turf" Effekt geschuldet... Deshalb liegt da ja auch einer "tot" im Gras... Wenn dann muss man ja das komplette Gameworks Portfolio zeigen.... :freak:

Cubitus
2018-08-15, 12:22:55
Wo habe ich ein Wort über die Engines verloren?

Dachte du meinst mit Software die Game-Engines.

robbitop
2018-08-15, 12:24:09
Die Konsolen haben noch nie einer Technologie geholfen sich zu etablieren. Mir fällt jedenfalls gerade nichts ein? Das wird nur ständig aus der AMD Ecke behauptet. :rolleyes:

Das Techlevel der Plattform mit der größten Marktreichweite bestimmt nunmal die Baseline. Das ist schlicht Marktökonomie.

DX9 und x86-32bit wurde man flächendeckend erst mit der PS4/X1 in Multititeln los.

Die große Verbreitung von dynamischer Beleuchtung mit SM3 kam auch erst mit der PS360.

AMD/NV Ecken sind für mich (und jeden objektiven Menschen) sinnlos. Es sind nur Firmen, die Produkte liefern, nichts was jemanden emotional bewegen sollte. Die Technologie und Marktökonomie sind IMO das einzig Interessante.
Ein gesunder Markt braucht Wettbewerb, ansonsten steigen die Preise für den Konsumenten. Das ist für alle schlecht.

RLZ
2018-08-15, 12:25:42
das video ist schlicht ein perfektes beispiel dafür, dass rt aus einer "perfekt" beleuchteten szene nicht sofort ein glanzstück der gaminghistorie macht.
Keine Rendering Technik macht aus einer hässlichen Szene eine schöne Szene (falls man die Szene nicht genau um die Technik herum gebaut hat).

Wir werden sicherlich auch weiterhin teilweise gebackene Beleuchtung bekommen. Es ist ja nicht jetzt nicht so, dass man nun auf alles artefaktfreies Pathtracing draufwerfen kann und alles ist gut...

Cubitus
2018-08-15, 12:29:39
Was mir bei den ganzen Demos wirklich gut gefällt, das ruhige Bild :)
Aliasing und Shaderflimmern auf nimmer wiedersehen.

Fake Beleuchtung who cares... Solange es gut aussieht

Godmode
2018-08-15, 12:30:32
das lighting rettet metro exodus trotzdem nicht. alles andere verhält sich physikalisch völlig inkorrekt und sieht dazu noch teils wirklich schlecht aus. die assets für die pflanzen sehen teilweise aus sie sprites und bewegegen sich alle gleich. beim flug aus der hütte durch das fenster (https://youtu.be/2NsdM1VS5u8?t=94) hab ich ausgemacht. das ist so dermaßen schlecht, es nicht mehr feierlich ist. vom wasser spreche ich erst mal lieber gar nicht. es sieht aus als spiele physik in der szene überhaupt keine rolle. die hätten lieber alles statisch halten sollen.

das video ist schlicht ein perfektes beispiel dafür, dass rt aus einer "perfekt" beleuchteten szene nicht sofort ein glanzstück der gaminghistorie macht.


Hast du auch dieses Video gesehen, weil das zeigt die Unterschiede sehr schön:
https://www.youtube.com/watch?v=5CJCOn5pyuk

Ich habe jetzt nicht auf die Grafik geachtet sondern nur auf die Beleuchtung, bzw. Verschattung.

dildo4u
2018-08-15, 12:35:27
Das ganze wurde nicht umsonst von Microsoft auf der E3 gezeigt,das Game ist ne Super Demo für ihre 4k Konsole.Das runterspielen nur weil AMD keine RT Hardware hat verdient der Entwickler wirklich nicht.

Screemer
2018-08-15, 12:38:15
Was mir bei den ganzen Demos wirklich gut gefällt, das ruhige Bild :)
Aliasing und Shaderflimmern auf nimmer wiedersehen.

du wirst an kanten immer aliasing haben, wenn für die geometrie rasterizing zum einsatz kommt, oder nicht?!

Hast du auch dieses Video gesehen, weil das zeigt die Unterschiede sehr schön:
https://www.youtube.com/watch?v=5CJCOn5pyuk

Ich habe jetzt nicht auf die Grafik geachtet sondern nur auf die Beleuchtung, bzw. Verschattung.
nur weil das prebaked lighting in der hütte mies ist (mir kommt es in der hütte für die paar lichtquellen übrigens massiv zu hell vor mit normalem ssao+ibl) muss das ja nicht heißen, dass man es nicht ohne rt besser hinbekommen könnte. es steht doch gar nicht zur diskussion, dass lighting mit rt sehr gut aussieht und viele probleme die mit rasterizing zusammenhängen damit abgemildert/eliminiert werden können. würd ich ne demo bauen um prebaked mit rt zu vergleichen, dann würde ich auch darauf achten rt in möglichst gutem licht darstehen zu lassen. das untexturierte video ist wesentlich beeindruckender als das von mir verlinkte, denn assets fallen dort nicht so sehr auf.

Rancor
2018-08-15, 12:41:14
Man sollte stark davon ausgehen, das AMD ebenfalls etwas in diese Richtung zeigen wird.

Rampage 2
2018-08-15, 12:45:37
zu 1.) Kann man das Schaubild wirklich exakt/proportional auf die Gaming-Turings übertragen? - also bzw. HW-Konfiguration (ROPs, TMUs, SPs, Speichertakt). Bis jetzt gab es bei Nvidia immer deutliche Unterschiede im Chipaufbau zwischen einer Gaming-GPU und dessen HPC-Pendant (z.B. GP102 vs. GP100). Und übrigens muss der GV100-Vollausbau (5376 SPs, 336 TMUs) mehr als 128 ROPs haben, denn was im Schaubild gezeigt wird, ist der Salvage (5120 SPs, 320 TMUs)! Ich tippe auf 144 ROPs für den vollen GV100 (welcher noch gar nicht existiert...).

zu 2.) Der GT102 Vollausbau *kann* nicht 5120 SPs haben, weil diese Zahl nicht durch 1,5 teilbar ist - das vergessen Einige hier immer wieder;)

Der GT102-Full hat entweder 4608, 5376, 5760 oder 6144 SPs (die letzten beiden Varianten kann man fast 100%ig ausschließen;))

zu 3.) bzgl. der IPC: Kann man hier 20% Mehrleistung ggü. Pascal bei gleicher Anzahl an Einheiten und gleichem Takt erwarten? Immerhin war Pascal keine wirklich neue Architektur sondern nur ein optimierter Maxwell und IPC-mäßig keine signifikante Steigerung. D.h. im Umkehrschluss hatte Nvidia seit Ende 2014 Zeit, an der Architektur für Volta/Turing zu feilen (also satte 4 Jahre) - zumal Pascal ja nur ein Zwischenschieber gewesen sein soll, weil Volta nicht rechtzeitig fertig werden würde...

zu 4.) Was kann man zu der Anzahl der ROPs und zur Taktbarkeit von Turing/Volta sagen? Bei Anandtech habe ich gelesen, dass die ROPs mit Bandbreite gefüttert werden müssen - da bei Turing die Bandbreite anscheinend um mindestens 40% steigen soll (14Gbps versus 10Gbps + evtl. nochmals verbesserte DCC) sollte auch der ROP-Throughput um mindestens 40% steigen (eher 50%), ansonsten wäre das Plus an Bandbreite ja sinnlos! Ist es durchaus möglich, dass GT104 gleich 96 ROPs spendiert bekommt (der 102-Pendant dann 144)?

Und wie sieht es mit der Taktbarkeit aus? Wäre eine 10% höhere Taktbarkeit vgl. mit Pascal realistisch? Also 2.3 GHz für GT104 und 2.2 GHz für GT102 - sollte die Zahl der Recheneinheiten wirklich nur um 20% steigen, wäre das eine sinnvolle Annahme...

R2


Kann jemand dazu was sagen? Ist anscheinend an der allgemeinen Diskussion untergegangen/übersehen worden...

@Robbitop: das Posting in diesem Zitat war eine Antwort/Zitat auf dein Posting - liegt schon ein paar Seiten zurück...

R2

BlacKi
2018-08-15, 12:47:33
Was mir bei den ganzen Demos wirklich gut gefällt, das ruhige Bild :)
Aliasing und Shaderflimmern auf nimmer wiedersehen.

Fake Beleuchtung who cares... Solange es gut aussieht
wollte ich gerade so schreiben. letztendlich bleibt der verlust der chipfläche, damit die bildverschönerer nicht so viel performance kosten. bei AA bin ich noch im boot, aber bei dem ganzen anderen kram, ambient oclusion und den reflectionen, bin ich geteilter meinung wie sinnvoll das opfer war.

pilzsammler2002
2018-08-15, 12:51:48
Also bei dem Metro sieht man halt des öfteren "sehr gut" wie sich anscheinend der Denoiser nicht einig ist. Manchmal (kurz vorm Fenster @1:24) wechselt die ganze Lichszenerie und am anfang sieht man sehr gut im Wasser/Bach dass das Wasser stark hin und her springt/spiegelt/flimmert...

Cubitus
2018-08-15, 12:59:37
du wirst an kanten immer aliasing haben, wenn für die geometrie zum einsatz kommt.



Ja es kommt auch auf den Betrachtungswinkel an, aber die übrige "geringe" Treppchenbildung lässt sich bestimmt erträglich weg filtern.
Ansonsten gehts über eine höhere Auflösung, was definitiv wieder Power kosten würde.

Aber davor muss erstmals eine Szene komplett raytraced werden und nicht nur auf wenige Effekte beschränkt sein.

Ex3cut3r
2018-08-15, 13:00:17
Ist ja noch nicht mal fertig das Game, da kann sich noch viel ändern.

Grendizer
2018-08-15, 13:02:53
Vermutlich wird man aber schneller was vom nVidia RT haben als vom AMD Primitive Shader :biggrin:

dargo
2018-08-15, 13:07:10
Was mir bei den ganzen Demos wirklich gut gefällt, das ruhige Bild :)
Aliasing und Shaderflimmern auf nimmer wiedersehen.

Lass dich da bloß nicht von irgendwelchen Videos blenden. Auch die Infiltrator Demo sieht so aus.

6oXI01eU320

Auf dem eigenen Bildschirm sah man erst wie unscharf die Optik tatsächlich beim Rendering ist. Mit Videos kann man viel tricksen. ;)

dildo4u
2018-08-15, 13:30:43
Hier ist mal ein gutes Beispiel von Echtzeit Artefakte wie es in einem echten Game vorkommen,hier auf ihre beiden Hände achten wie sie die Schatten der Gräser verschwinden lässt.

https://youtu.be/wUlSs8LrYSo?t=7m46s

Wäre cool das mal im Vergleich zu Raytracing Schatten zu sehen.

prinz_valium
2018-08-15, 13:32:58
Kann jemand dazu was sagen? Ist anscheinend an der allgemeinen Diskussion untergegangen/übersehen worden...

@Robbitop: das Posting in diesem Zitat war eine Antwort/Zitat auf dein Posting - liegt schon ein paar Seiten zurück...

R2

Sieht so aus, als wenn 36 SMs (a 128 SPs = 4608 SPs FP32) der Vollausbau bei GT102 sein dürfte oder?

https://abload.de/img/gt102-gpc_sm9uiq3.jpg

Ohne Kritzeleien:

https://abload.de/img/gt102ibecq.jpg


Jeweils in originaler Größe:

https://abload.de/thumb/gt1022livs.jpg (https://abload.de/image.php?img=gt1022livs.jpg)

https://abload.de/thumb/gt102-gpc_smuyejl.jpg (https://abload.de/image.php?img=gt102-gpc_smuyejl.jpg)


Also 4608 Ergibt schon Sinn, wenn nichts groß geändert wurde.
Und es sieht schwer danach aus, dass neue Spezial Einheiten hinzu gekommen sind, aber nicht die normalen groß geändert

Screemer
2018-08-15, 13:34:54
Denke mal das ist eher dem "Turf" Effekt geschuldet... Deshalb liegt da ja auch einer "tot" im Gras... Wenn dann muss man ja das komplette Gameworks Portfolio zeigen.... :freak:
Klar. Sieht halt trotzdem beschissen aus. Die Vegetation vor dem Flug durch die Hütte bewegt sich aber auch schon im Gleichtakt. Wollte damit nur darauf hinaus, dass es durch RT nicht automatisch ein bessere Gesamtbild ergibt.

Menace
2018-08-15, 13:40:10
Ach streitet doch nicht, ob es sinnvoll ist oder nicht. Klar ist es ein Gewinn für die Spieler - ob für alle, ist eine andere Frage (ich suchte gerade das geniale "Oxygen is not included"; da habe ich mehr Stunden in der Beta-Version verbrachten als in den meisten Grafikblendern).

Wenn Vulkan voll unterstützt wird, heißt das, es ist Open Source? :confused:

Cubitus
2018-08-15, 13:43:01
Lass dich da bloß nicht von irgendwelchen Videos blenden. Auch die Infiltrator Demo sieht so aus.

http://youtu.be/6oXI01eU320

Auf dem eigenen Bildschirm sah man erst wie unscharf die Optik tatsächlich beim Rendering ist. Mit Videos kann man viel tricksen. ;)

Vermutlich wird an allen Ecken getrickst wo es nur geht, stimme ich dir zu.

Aber du hast definitiv ein Vorteil bei Raytracing im Bezug auf Aliasing
Bzw. hab hier ein nettes Beispiel gefunden.

https://abload.de/img/2018-08-1513_37_23-ra1wdyd.png (https://abload.de/image.php?img=2018-08-1513_37_23-ra1wdyd.png)

Wie gesagt die Frage ist, wie es Raytracing sinnvoll in ein Spiel schafft.

Blediator16
2018-08-15, 14:05:16
Hast du auch dieses Video gesehen, weil das zeigt die Unterschiede sehr schön:
https://www.youtube.com/watch?v=5CJCOn5pyuk

Ich habe jetzt nicht auf die Grafik geachtet sondern nur auf die Beleuchtung, bzw. Verschattung.

Maximal Einsatz für für die Raytracing Demo vs. minimal Einsatz für die klassische Rendertechnik. Das ist absolut nicht mehr als nur best case vs. worst case. Kompletter PR BS.

Ex3cut3r
2018-08-15, 14:17:37
Na du wirst es ja wissen. Diverse Entwickler und Leute die sich auskennen, sagen das wird ein neuer Sprung in Sachen Grafik werden, aber du (AMD User?) sagt es ist Bullshit? Wie kommst du dadrauf? Hast du es schon live gesehen? :rolleyes:

unl34shed
2018-08-15, 14:20:30
Aber du hast definitiv ein Vorteil bei Raytracing im Bezug auf Aliasing
Bzw. hab hier ein nettes Beispiel gefunden.

https://abload.de/img/2018-08-1513_37_23-ra1wdyd.png (https://abload.de/image.php?img=2018-08-1513_37_23-ra1wdyd.png)

Vektorgrafik hat nichts mit Ray Tracing zu tun.

Linmoum
2018-08-15, 14:22:10
Na du wirst es ja wissen. Diverse Entwickler und Leute die sich auskennen, sagen das wird ein neuer Sprung in Sachen Grafik werden, aber du (AMD User?) sagt es ist Bullshit? Wie kommst du dadrauf? Hast du es schon live gesehen? :rolleyes:
Und wenn's nach dir geht, würde es sowieso nicht kommen, da DX12 Müll ist und abgeschafft gehört. ;)

BlacKi
2018-08-15, 14:22:36
Und wenn's nach dir geht, würde es sowieso nicht kommen, da DX12 Müll und abgeschafft gehört. ;)
es lebe DX13:biggrin:

Blediator16
2018-08-15, 14:24:52
Na du wirst es ja wissen. Diverse Entwickler und Leute die sich auskennen, sagen das wird ein neuer Sprung in Sachen Grafik werden, aber du (AMD User?) sagt es ist Bullshit? Wie kommst du dadrauf? Hast du es schon live gesehen? :rolleyes:

Ich hatte seit 2011 keine AMD Hardware mehr :wink:
Man muss halt durch den PR Mist durchsehen. Ich bin nicht gegen RT. Ich bin gegen Heuchlerei.

Grendizer
2018-08-15, 14:25:48
Und wenn's nach dir geht, würde es sowieso nicht kommen, da DX12 Müll ist und abgeschafft gehört. ;)


Nochmals ... DX12 in der Form zu besseren Auslastung der Recheneinheiten war für Pascal Nutzer kein notwendiges muss und hat auch nicht zur Verbesserung der Grafikqualität geführt. Gibt es ein Spiel, das in DX12/Vulcan bessere grafische Effekte bietet als in DX11 ? Oder dessen Grafik auf Grund von Vulcan bzw. DX12 ein deutlich bessere Grafikerlebniss als vergleichbare DX11 Titel bietet ?

RT ist was vollkommen anderes und kann bei Nutzung und Verbreitung die Grafik verbessern.

Ex3cut3r
2018-08-15, 14:29:03
Und wenn's nach dir geht, würde es sowieso nicht kommen, da DX12 Müll ist und abgeschafft gehört. ;)

Habe ich nie gesagt, ich bin nur teilweise enttäuscht von DX12, es läuft teilweise schlechter als DX11. Und bringt mir in 3440x1440 mit "potenten" i7 so gut wie nichts. Wenn man an Dx12 arbeitet oder ein DX12.1 bringt, gerne. :)

Linmoum
2018-08-15, 14:30:05
Nochmals ... DX12 in der Form zu besseren Auslastung der Recheneinheiten war für Pascal Nutzer kein notwendiges muss und hat auch nicht zur Verbesserung der Grafikqualität geführt. Gibt es ein Spiel, das in DX12/Vulcan bessere grafische Effekte bietet als in DX11 ? Oder dessen Grafik auf Grund von Vulcan bzw. DX12 ein deutlich bessere Grafikerlebniss als vergleichbare DX11 Titel bietet ?

RT ist was vollkommen anderes und kann bei Nutzung und Verbreitung die Grafik verbessern.
Pascal-Nutzer spiel(t)en dabei keine Rolle. Immer wieder konnte man hören, dass DX12 der totale Rohrkrepier ist/wird und es keine Sau braucht. Unabhängig von Nvidia oder AMD. Jetzt mit DXR interessiert's nicht mehr. Verrückt.

dargo
2018-08-15, 14:34:58
Nochmals ... DX12 in der Form zu besseren Auslastung der Recheneinheiten war für Pascal Nutzer kein notwendiges muss und hat auch nicht zur Verbesserung der Grafikqualität geführt.
Das halte ich für ein Gerücht.
https://www.youtube.com/watch?v=5uIZ5nZtYr0&vl=en&t=666s

Wenn man die Probleme von DX11 mit der Brechstange (deutlich schnellere CPU) angeht hast du sicherlich recht.

Grendizer
2018-08-15, 14:36:29
Das halte ich für ein Gerücht.
https://www.youtube.com/watch?v=5uIZ5nZtYr0&vl=en&t=666s

und nochmals ... steigt dadurch die Grafikqualität ? Oder nur die FPS ? Das ist für mich ein Unterschied. Klar sind mehr min. FPS toll.... und evtl. steigt die Qualität,weil man vorher Effekte deaktivieren mußte. Aber insgesamt glaube ich fest daran, das weder Vulcan noch DX12 bisher eine Verbesserung der Grafik durch aufwendigere Effekte usw. erzeugt hat.

BlacKi
2018-08-15, 14:37:14
mit dem waas DX12 bisher brachte(gesammtbild betrachtend) war DX12 auch nur ein rohrkrepierer. die auswirkungen waren oft nur für einen kleinen teil der gamer von vorteil. wenn jetzt ein viel größerer teil der gamer nun einen(vorallendingen optischen) vorteil durch DX12 erreicht, dann ist logischer weise der anklang an DX12 größer. verrückt ? nö, eher logisch.

dargo
2018-08-15, 14:39:12
und nochmals ... steigt dadurch die Grafikqualität ? Oder nur die FPS ?
Seit wann spielt die Performance keine Rolle mehr? Dann können Entwickler gleich die PC-Versionen mit Details zuscheißen damit wir uns Diashows ansehen können.

mit dem waas DX12 bisher brachte(gesammtbild betrachtend) war DX12 auch nur ein rohrkrepierer. die auswirkungen waren oft nur für einen kleinen teil der gamer von vorteil. wenn jetzt ein viel größerer teil der gamer nun einen(vorallendingen optischen) vorteil durch DX12 erreicht, dann ist logischer weise der anklang an DX12 größer. verrückt ? nö, eher logisch.
Größerer Teil der Gamer? ;D

Erstmal muss sich zeigen wie performant das ganze überhaupt unterhalb einer 2080TI tatsächlich ist. Als weiteres guckt jeder Maxwell/Pascal Besitzer in die Röhre. Ich sags ja... Träumer.

BiZiNiZz
2018-08-15, 14:44:00
Seit wann spielt die Performance keine Rolle mehr? Dann können Entwickler gleich die PC-Versionen mit Details zuscheißen damit wir uns Diashows ansehen können.


Größerer Teil der Gamer? ;D

Erstmal muss sich zeigen wie performant das ganze überhaupt unterhalb einer 2080TI tatsächlich ist. Als weiteres quckt jeder Maxwell/Pascal Besitzer in die Röhre. Ich sags ja... Träumer.

Wenn du nur meckern und alles schlechtreden willst und mit Videos ankommst wo schlicht und ergreifend die CPU kotzt und daher die GPU nicht füttern kann, geh bitte.

Savay
2018-08-15, 14:47:00
Aber insgesamt glaube ich fest daran, das weder Vulcan noch DX12 bisher eine Verbesserung der Grafik durch aufwendigere Effekte usw. erzeugt hat.

Wenn man nur auf irgendwelche plakativen Special-Effects schielt und sich daran hochzieht mag das so sein. :rolleyes:

Wahrscheinlich ist es einfach zu Abstrakt, dass eine höhere Objektdichte bei gleichem Performancetarget schlicht ebenfalls eine Verbesserung darstellt....und zwar nicht kurz- sondern lang- und mittelfristig...und zudem nicht nur ein paar wenige User mit zu dickem Geldbeutel bevorteilt! :freak:

Aber das ist IMHO eh das eigentliche Problem...LL-APIs sind nunmal kein Effektschalter den man umlegen und bei dem man einen Einfluss im A/B Vergleich sehen sehen und sich ggf. gar von anderen absetzen kann weil man halt "bessere" Hardware hat.

Wenn du nur meckern und alles schlechtreden willst

Irgendwie hat er da aber nen Punkt! :freak:

Für Echtzeit RT braucht es spezielle Karten mit speziellen Funktionseinheiten damit es halbwegs läuft...und dann noch Software die es sinnvoll nutzt.
Wenn das ganze zudem IHV spezifisch ist, wird es mit der Verbreitung außerhalb einiger Leuchtturmprojekte noch schwerer.

Turing wirkt auf mich vorerst wie das moderne Äquivalent zum NV10 aka GeForce256!
TnL war in Demos und dem ganzen Kram auch echt irgendwie super...hat dem Chip zu "lebzeiten" nur in der Realität nie was gebracht...selbst eine Generationen später war kaum was davon zu bemerken....das ganze auf TnL aufbauende GPU basierte Rendering kam dann erst mit den Pixel/Vertex Shadern und im Endeffekt auch in der Breite erst mit den Unified Shadern richtig ins Rollen.

BTW: keinen Grafikkartenkauf habe ich im nachhinein jemals so bereut wie den der GF256 DDR, weil es einfach nur pure Geldverbrennung war...aber damals habe ich dem nV Markting halt auch noch blind geglaubt! ;D

Freestaler
2018-08-15, 14:48:19
Lassen wir mal den Sandkasten weg, das Video zeigt doch wirklich kein vergleich best vs bestcase. Gibts irgendwo ein Video, bei welchem man auch die Vorteile als Endkunde sieht ( mir mal egal als consument, was einfacher zu programmieren ist). Art ein Ausblick? Vorallem mit der möglichen Leistungen also diesen 10 gigarays/s? Das Raytracing geile Bilder hinkriegt wissen wir seit mehr als 20 Jahren. Kriegt man das nun wirklich in der Masse in Echtzeit hin?

dargo
2018-08-15, 14:48:57
Wahrscheinlich ist es einfach zu Abstrakt, dass eine höhere Objektidichte bei gleichem Performancetarget schlicht ebenfalls eine Verbesserung darstellt....und zwar nicht kurz- sondern lang- und mittelfristig. :freak:
;D

Schön formuliert. ;)

Troyan
2018-08-15, 14:49:45
Lassen wir mal den Sandkasten weg, das Video zeigt doch wirklich kein vergleich best vs bestcase. Gibts irgendwo ein Video, bei welchem man auch die Vorteile als Endkunde sieht ( mir mal egal als consument, was einfacher zu programmieren ist). Art ein Ausblick? Vorallem mit der möglichen Leistungen also diesen 10 gigarays/s? Das Raytracing geile Bilder hinkriegt wissen wir seit mehr als 20 Jahren. Kriegt man das nun wirklich in der Masse in Echtzeit hin?

Was heißt Masse? 1080p@30FPS wird für die Masse möglich sein. Ausreichend? Wer weiß.

Bucklew
2018-08-15, 14:49:47
Wie vom Vorredner beschrieben. DXR ist den IHVs seit längerem zugänglich. MWn sitzen alle IHVs gemeinsam mit MS in einem Gremium, welches die Standards erarbeitet und verabschiedet.

Entsprechend ist dies sicher auch AMD seit einer Weile bekannt.

Bis DXR weite Verbreitung in AAA Spielen findet, wird man bei AMD (wenn nicht mit Navi, dann mit der Nachfolgegen) sicherlich auch umstellen.
Hätte man bei Tessellation auch gedacht. Die erste Generation, die da mit NVIDIA aufholen konnte, war Vega. Fast 10 Jahre nach Fermi.

Natürlich kennt AMD DXR. Aber wo sollten Sie die Diefläche her nehmen? Und wo die notwendige Leistungsaufnahme? AMDs Chip sind schon lange auf Kante genäht, deutlich leistungshungriger und größer, als was NVIDIA liefert. Da kann man sich solch ein Experiment einfach nicht leisten.

dargo
2018-08-15, 14:52:45
Was heißt Masse? 1080p@30FPS wird für die Masse möglich sein. Ausreichend? Wer weiß.
Von welcher Masse sprichst du? Die die sich eine 2080TI holt? ;D Und dann spielt selbstverständlich der 2080TI Besitzer in 1080p mit 30fps in 2018. ;D ;D ;D

Troyan
2018-08-15, 14:53:26
DXR ist so abstrakt, dass die Hardwareimplementierung sich vollständig unterscheiden kann. Wir sehen ja schon bei nVidia, dass die innerhalb von einem jahr drei verschiedene Generation auf dem Markt haben.

Auch ist es lächerlich zu glauben, dass AMD irgendwas bringen könnte, nur weil man vor 6-9 Monate von DXR erfahren habe. Die müssen ja von Null anfangen. Das benötigt alleine 3-4 Jahre, um etwas produktives zu haben.

robbitop
2018-08-15, 14:57:00
Hätte man bei Tessellation auch gedacht. Die erste Generation, die da mit NVIDIA aufholen konnte, war Vega. Fast 10 Jahre nach Fermi.

Natürlich kennt AMD DXR. Aber wo sollten Sie die Diefläche her nehmen? Und wo die notwendige Leistungsaufnahme? AMDs Chip sind schon lange auf Kante genäht, deutlich leistungshungriger und größer, als was NVIDIA liefert. Da kann man sich solch ein Experiment einfach nicht leisten.


Die Frage ist, ob "Aufholen" der Leistung bzw des Rohdurchsatzes das Kriterium ist. Ggf. reicht ja auch erstmal "genug" Leistung in diesem Kriterium um im Realworldeinsatz nicht zum Flaschenhals zu werden. Ich erinnere mich da an Crysis 2 mit sinnlos hohen Tesselationsfaktoren beim Wasser ohne Vorteil der BQ. Häufig waren geringere Tesselationsfaktoren nicht sichtbar.

Tesselation hat übrigens in etwas einfache Vorform bereits Matrox Parhelia 2002 beherrscht. Noch einfacher nPatches oder Truform.

Das ganze unterlag einer Evolution. Bereits R400 bzw Xenos C1 verfügte Möglichkeiten für Tesselation.

Echte DX11 Tesselation bot dann RV870, die etwas eher als Fermi gelauncht wurde. Aber eben nicht gleichschnell. Für die Spiele, die damals vorlagen, war das aber zu 99% kein Bottleneck.

Screemer
2018-08-15, 14:57:22
Na du wirst es ja wissen. Diverse Entwickler und Leute die sich auskennen, sagen das wird ein neuer Sprung in Sachen Grafik werden, aber du (AMD User?) sagt es ist Bullshit? Wie kommst du dadrauf? Hast du es schon live gesehen? :rolleyes:

Bladiator ist ja als amd-shill bekannt :lol:

Menace
2018-08-15, 15:00:08
@Troyan: Ok, gehen wir einmal von 4 Jahren aus. Wie lange dauert es, bis sich das so durchsetzt und spielbar ist, dass man es nicht abschaltet, weil es Leistungseinbußen gibt bei Karten < 2080Ti?

Im Vergleich zu vielen nVidia-Jüngern hier im Forum finde ich es übrigens nicht schlimm, wenn man etwas einführt und es erst in 2+ Jahren nutzen kann. :biggrin: Von daher bin ich in diesem Punkt nvidia sehr dankbar. Konkurrenz führt zu Entwicklung.

robbitop
2018-08-15, 15:00:33
DXR ist so abstrakt, dass die Hardwareimplementierung sich vollständig unterscheiden kann. Wir sehen ja schon bei nVidia, dass die innerhalb von einem jahr drei verschiedene Generation auf dem Markt haben.

Auch ist es lächerlich zu glauben, dass AMD irgendwas bringen könnte, nur weil man vor 6-9 Monate von DXR erfahren habe. Die müssen ja von Null anfangen. Das benötigt alleine 3-4 Jahre, um etwas produktives zu haben.
Das kann gut sein. Dann muss man eben Stück für Stück aus SW Implementierung eine HW Implementierung machen. Allein für AI hat man ja ähnliches wie TC IIRC schon in Entwicklung. Googles TPU hatte die ja noch vor NV. Dann kann man zumindest das Denoising in HW machen.
Bis das ganze dann wirklich breite Unterstützung findet, was ja eine Weile dauert, wird man sicherlich etwas auf dem Weg haben.

Cubitus
2018-08-15, 15:02:39
Vektorgrafik hat nichts mit Ray Tracing zu tun.

Naja aber Vektoren, also der Strahl selbst ist für die Berechnung ja notwendig,
aber okay so gesehen hast du Recht.

Troyan
2018-08-15, 15:02:47
Die Frage ist, ob "Aufholen§ der Leistung bzw des Rohdurchsatzes das Kriterium ist. Ggf. reicht ja auch erstmal "genug" Leistung in diesem Kriterium um im Realworldeinsatz nicht zum Flaschenhals zu werden. Ich erinnere mich da an Crysis 2 mit sinnlos hohen Tesselationsfaktoren beim Wasser ohne Vorteil der BQ. Häufig waren geringere Tesselationsfaktoren nicht sichtbar.

Tesselation hat übrigens in etwas einfache Vorform bereits Matrox Parhelia 2002 beherrscht. Noch einfacher nPatches oder Truform.

Das ganze unterlag einer Evolution. Bereits R400 bzw Xenos C1 verfügte Möglichkeiten für Tesselation.

Echte DX11 Tesselation bot dann RV870, die etwas eher als Fermi gelauncht wurde. Aber eben nicht gleichschnell. Für die Spiele, die damals vorlagen, war das aber zu 99% kein Bottleneck.

Nö. Cypress war ein Failure mit Tessellation. HAWX2 hat es 12 Monate später ja schon bewiesen und nötigte AMD zur Cheateinstellung im Treiber. Das war auch der Beginn ihrer Fud-Kampagne, weil man wusste, dass man nicht per Hardware gewinnen kann.

Das ganze wird natürlich auch auf Raytracing zutreffen. Sobald die ersten Spiele da sind, wird AMD wieder raus kommen und Raytracing verdammen und die gekauften Spieleentwickler tolle Tweets posten lassen. Natürlich bringt AMD dann noch ihre eigenen "Effekte" auf den Markt, die erbärmlich schlecht sind und einzig allein nur nVidia-Karten ausbremsen sollen (siehe das HDAO, TressFX, Geometryzeug etc.).

Rampage 2
2018-08-15, 15:04:48
@Robbitop: kannst du auf meine Fragen eingehen? :) (blättere einfach durch die vergangenen paar Seiten;))

R2

robbitop
2018-08-15, 15:07:41
Nö. Cypress war ein Failure mit Tessellation. HAWX2 hat es 12 Monate später ja schon bewiesen und nötigte AMD zur Cheateinstellung im Treiber. Das war auch der Beginn ihrer Fud-Kampagne, weil man wusste, dass man nicht per Hardware gewinnen kann.

Das ganze wird natürlich auch auf Raytracing zutreffen. Sobald die ersten Spiele da sind, wird AMD wieder raus kommen und Raytracing verdammen und die gekauften Spieleentwickler tolle Tweets posten lassen. Natürlich bringt AMD dann noch ihre eigenen "Effekte" auf den Markt, die erbärmlich schlecht sind und einzig allein nur nVidia-Karten ausbremsen sollen (siehe das HDAO, TressFX, Geometryzeug etc.).
Streng genommen ist es ein Cheat. Allerdings finde ich es sinnfrei, wenn unnötig hohe Tesselationsfaktoren genutzt werden, die dann kaum oder gar keine Auswirkungen auf die BQ haben.
Insofern finde ich einen solchen Schalter optional, wenn die default Einstellung =off ist, sinnvoll.

Außerdem ist das gerade mal 1x Spiel...

Dural
2018-08-15, 15:09:43
Wie so sollte das Navi überhaupt drin haben? Navi ist Mittelkasse, selber von AMD bestätigt.


Und bei AMD würde ich so wie so vermutet das sie zuerst möglichst viele SP in die GPU hauen und das dann über die laufen lassen, mit 7nm haben sie ja die Möglichkeit dazu ;) zudem ist es ja der Weg den Sie seit Jahren(zenten) verfolgen, viel Rohleistung die kaum ausgenutzt werden kann ;)

Grendizer
2018-08-15, 15:13:49
Wenn man nur auf irgendwelche plakativen Special-Effects schielt und sich daran hochzieht mag das so sein. :rolleyes:

Wahrscheinlich ist es einfach zu Abstrakt, dass eine höhere Objektdichte bei gleichem Performancetarget schlicht ebenfalls eine Verbesserung darstellt....und zwar nicht kurz- sondern lang- und mittelfristig. :freak:





Und wo ist das bisher der Fall ?

Bucklew
2018-08-15, 15:17:18
Echte DX11 Tesselation bot dann RV870, die etwas eher als Fermi gelauncht wurde. Aber eben nicht gleichschnell. Für die Spiele, die damals vorlagen, war das aber zu 99% kein Bottleneck.
Eben der entscheidende Punkt. Und ich erinnere mich noch an das Geheule, nur weil ein Dev mal mehr als Tess-Faktor 2 genutzt hat :rolleyes:

Mich würde es sehr stark wundern, wenn AMD eine vergleichbare Lösung in Navi drin hätte. Dafür forscht NVIDIA schon viel zu lange in Richtung Raytracing und investiert hier auch viel HW.

Die Frage für Navi ist schlicht, wo AMD die technischen Voraussetzungen (Diefläche, Leistungsaufnahme) her nehmen möchte. Eigentlich können Sie es sich schlicht nicht leisten, DX11-Leistung für potentielle DX12-Leistung zu opfern.

Du vielleicht nicht. Für mich wäre alles andere eine Enttäuschung gewesen
Jetzt bin ich mal auf dein Posting von vor 3 Monaten gespannt, wo du HW-Raytracing für die nächste Gen versprochen hast ;D

robbitop
2018-08-15, 15:29:27
zu 1.) Kann man das Schaubild wirklich exakt/proportional auf die Gaming-Turings übertragen? - also bzw. HW-Konfiguration (ROPs, TMUs, SPs, Speichertakt). Bis jetzt gab es bei Nvidia immer deutliche Unterschiede im Chipaufbau zwischen einer Gaming-GPU und dessen HPC-Pendant (z.B. GP102 vs. GP100). Und übrigens muss der GV100-Vollausbau (5376 SPs, 336 TMUs) mehr als 128 ROPs haben, denn was im Schaubild gezeigt wird, ist der Salvage (5120 SPs, 320 TMUs)! Ich tippe auf 144 ROPs für den vollen GV100 (welcher noch gar nicht existiert...).


Es kann durchaus sein, dass die Geforcevarianten nicht den Vollausbau bekommen. Wäre ja nicht das erste Mal.


zu 2.) Der GT102 Vollausbau *kann* nicht 5120 SPs haben, weil diese Zahl nicht durch 1,5 teilbar ist - das vergessen Einige hier immer wieder;)

Inzwischen ist durch das Die Foto ja geklärt, dass der Vollausbau von GT102 4608 SPs hat.


zu 3.) bzgl. der IPC: Kann man hier 20% Mehrleistung ggü. Pascal bei gleicher Anzahl an Einheiten und gleichem Takt erwarten? Immerhin war Pascal keine wirklich neue Architektur sondern nur ein optimierter Maxwell und IPC-mäßig keine signifikante Steigerung. D.h. im Umkehrschluss hatte Nvidia seit Ende 2014 Zeit, an der Architektur für Volta/Turing zu feilen (also satte 4 Jahre) - zumal Pascal ja nur ein Zwischenschieber gewesen sein soll, weil Volta nicht rechtzeitig fertig werden würde...

Schwer zu sagen. Volta (mit denen technisch sicherlich Gemeinsamkeiten zu finden sind) war in den Workloads der aktuellen Spiele pro Rohleistung nicht/kaum schneller. Jedoch in Compute und AC schon. Je mehr Anteile davon in Spielen erscheinen, desto mehr steigt die Chance (über die Zeit), dass Turing rohleistungsnormiert schneller wird als Pascal.
Pascal holt halt schon verdammt viel aus der Rohleistung. Eine deutliche Steigerung wie bei Maxwell ggü Kepler wird schwierig. Gesetz des sinkenden Grenzertrags. Ich würde eher auf 5-10% mehr Performance pro Rohleistung tippen mit Tendenz zu mehr in 2019/20.
Aber man hat mehr Einheiten und ggf. auch etwas mehr Takt.


zu 4.) Was kann man zu der Anzahl der ROPs und zur Taktbarkeit von Turing/Volta sagen? Bei Anandtech habe ich gelesen, dass die ROPs mit Bandbreite gefüttert werden müssen - da bei Turing die Bandbreite anscheinend um mindestens 40% steigen soll (14Gbps versus 10Gbps + evtl. nochmals verbesserte DCC) sollte auch der ROP-Throughput um mindestens 40% steigen (eher 50%), ansonsten wäre das Plus an Bandbreite ja sinnlos! Ist es durchaus möglich, dass GT104 gleich 96 ROPs spendiert bekommt (der 102-Pendant dann 144)?
Ich habe keine Angaben zu den ROPs. So schnell werden ROPs aber nicht zum Flaschenhals, da sie die viele Dinge in sehr wenigen Taktzyklen schaffen. Die Berechnung von Quads in modernen Shaderpipelines sind schnell bei mehreren 100ern oder 1000en Takten.
Ich gehe mal davon aus, dass NV Turing ähnlich gut ausbalanciert, wie seine Vorgänger. Also ohne echte gravierende Flaschenhälse.

Und wie sieht es mit der Taktbarkeit aus? Wäre eine 10% höhere Taktbarkeit vgl. mit Pascal realistisch? Also 2.3 GHz für GT104 und 2.2 GHz für GT102 - sollte die Zahl der Recheneinheiten wirklich nur um 20% steigen, wäre das eine sinnvolle Annahme...

R2
Der Grundtakt bei Turing ist höher als bei Pascal IIRC. Kann also gut sein, dass man 5-10% mehr Takt erreicht.
GV100 erzielte trotz 12 nm und neuer mArch keine höheren Taktraten als GP102. Aber die Stichprobengröße war ja auch recht klein.
Also irgendwo zwischen 0-10% wird es sicherlich sein... IMO. Reine Spekulation.

Adam D.
2018-08-15, 15:31:31
https://videocardz.com/77312/nvidia-geforce-20-series-rumor-roundup-3-breaking-the-enigma
Um mal von der ganzen RT-Diskussion ein wenig wegzukommen: inzwischen ist das Bild der neuen Generation recht gut zu zeichnen. Die 8GB werden problematisch zu verkaufen sein. Außerdem fehlt aufgrund fehlender Treiber bisher jede Einschätzung zur Performance. Spannend bleibt auch, ob sich die RT-Hardware für konventionelle Berechnungen einsetzen lässt.

Timbaloo
2018-08-15, 15:31:53
Konkurrenz führt zu Entwicklung.
Eigentlich ist das Gegenteil der Fall. Weil AMD seit Jahren nichts mehr auf die Kette bringt, deutlich größere Chips mit deutlich teurerem Speicherkonzept benötigt, bei trotzdem noch deutlich höherer Leistungsaufnahme, nur deswegen kann NV vollkommen entspannt Turing einschieben, ohne Risiko. Also die faktische Konkurrenzlosigkeit durchbricht sinnfreies "Wettrüsten" und bringt Innovation. Zumindest in diesem Fall.

Dural
2018-08-15, 15:33:25
Genau so ist es, verrückt nicht war?
Das was ich noch mehr bewundere, NV hat das perfekte Timming, die bringen ihr zeug immer wenn es sinnvoll ist. Und ich frage mich immer wieder wie die das machen, den solche sachen dauern Jahre in der Entwicklung.

unl34shed
2018-08-15, 15:36:10
Naja aber Vektoren, also der Strahl selbst ist für die Berechnung ja notwendig,
aber okay so gesehen hast du Recht.

Jedes Polygon, das du in einem 3d Modell hast besteht genauso aus Vektoren. Da gibst man ja auch nur die Eckpunkte im Koordinatensystem an, die Verbindung dießer sind Vektoren.

Wir haben also schon Vektorgrafik, nur kann ein Monitor das nicht anzeigen, da die Anzahl der Pixel endlich ist, und es wird eine Rastergrafik daraus.

Aber wie gesagt ist was anderes.

dildo4u
2018-08-15, 15:36:17
Navi ist 7 nm,wenn sie erstmal nur die 580 ersetzen wollen dürfte man keine sonderlich große Die brauchen.Das ganze wird erst ein Problem wenn sie wieder eine HPC/Gaming GPU bauen müssen.

Kriton
2018-08-15, 15:36:20
Ich denke ihr liegt da falsch. Zum einen wurde schon erwähnt, dass der primäre Markt die Contenterstellung ist, und nicht die gamer, und zum anderen, wenn ihr schon über so viele Jahre die Entwicklung seht: Woher soll man wissen, wie die Konkurrenz dann dasteht?
Ihr tut ja so, als wenn Nvidia gesagt hätte: Keine Konkurrenz, dann können wir das Geld mal für neue Technik rauswerfen...:freak:

Es ist cool, keine Frage, aber man kann das auch ohne eine grüne Brille sinnvoll und positiv einordnen.

BlacKi
2018-08-15, 15:40:52
Erstmal muss sich zeigen wie performant das ganze überhaupt unterhalb einer 2080TI tatsächlich ist. Als weiteres guckt jeder Maxwell/Pascal Besitzer in die Röhre. Ich sags ja... Träumer.
wenn es nicht performanter wäre als die bisherige lösung, würde man es nicht einführen. desweiteren werden die details wohl anpassbar sein und nicht nur einen einfachen an aus schalter haben.

in einem hast du recht, es muss sich erst noch zeigen wie man es umsetzt. aber das potential ist da, schlechtreden muss man es nicht, ich bin auf den montag gespannt.

ob die tester da direkt schon die ganzen benchmarks auffahren dürfen?

dargo
2018-08-15, 15:41:47
Eigentlich ist das Gegenteil der Fall. Weil AMD seit Jahren nichts mehr auf die Kette bringt, deutlich größere Chips mit deutlich teurerem Speicherkonzept benötigt, bei trotzdem noch deutlich höherer Leistungsaufnahme, nur deswegen kann NV vollkommen entspannt Turing einschieben, ohne Risiko. Also die faktische Konkurrenzlosigkeit durchbricht sinnfreies "Wettrüsten" und bringt Innovation. Zumindest in diesem Fall.
Der nächste Träumer? Wo ist Polaris nicht zu GP106 konkurrenzfähig? Deutlich größere Chipfläche? Nach meiner Rechnung sind es 16%. Ohne die Konditionen der Chipfertiger zu kennen ist es eh sinnlos darüber zu diskutieren. Deutlich teureres Speicherkonzept? Wo? Deutlich höhere Leistungsaufnahme? Ja... zum Teil stimmt es, je nach Applikation. Wenn eine RX570 die GTX1060 erreicht (was durchaus in modernen Spielen passiert) dann sehe ich da nichts mehr von deutlich. Bei diesem Punkt sind wir wieder bei der Software @PC.

Oder dreht sich bei dir nur alles um eine 1080TI und Vega?

Troyan
2018-08-15, 15:50:21
Es sind 30% mehr Chipfläche. Der 14nm Prozess von GF/Samsung ist 10% dichter als der 16nm Prozess von TSMC.

Und natürlich ist eine Karte mit 100W mehr Verbrauch und 30% größerem Chip konkurrenzfähig. Schafft Vega ja auch mit GP104. :rolleyes:

Wenn man sehen will, wie konkurrenzfähig Polaris ist, muss man nur zu Polaris11 schauen: GP107 ist 70% effizienter bei ähnlicher Fläche.

dargo
2018-08-15, 15:55:32
Behalte mal deine Fake News für dich.

P10/P20 = 232mm²
GP106 = 200mm²

Bei Troyan zahlt man wohl pro Dichte und nicht Die-Size beim Chipfertiger. :ulol:

N0Thing
2018-08-15, 15:58:47
Der Moment für NV ist gerade zu Perfekt, da keine Konkurrenz :wink:

Sie können im moment Die Fläche "verschwenden" und es auch zum nötigen Preis verkaufen. Ich würde behaupten wenn AMD derzeit deutlich stärker wäre würde man jetzt Turing nicht in der Form sehen!

Das hat NV übrigens schon vor Jahren selber gesagt, sie müssen nicht mehr auf andere schauen und können für sich Entwickeln.

Auch ohne die Situation von AMD war die Entscheidung von Nvidia sicherlich richtig und das Ergebnis beeindruckend. Bis sich RT im Bereich der Spiele durchsetzen wird, dauert es vermutlich 2-3 Generationen, aber auf der anderen Seite haben sie jetzt direkt Interessenten und Abnehmer in der Industrie. Von daher würde ich sagen, Nvidia hat alles richtig gemacht und muss sich auf Grund der Wettbewerbssituation noch nicht einmal sorgen um evtl. Nachteile im Spielesektor machen, die wird es nicht geben.

w0mbat
2018-08-15, 16:10:37
Das mit dem RT ist eben so eine Sache. Es braucht sicherlich noch lange, bis wir RT in einer bedeutsamen Weise sehen werden, aber wenn man nicht anfängt, kommt es nie.

Ich würde lieber 200€ sparen und keine RT oder TC in meiner gaming Graka haben.

Troyan
2018-08-15, 16:16:13
Du sparst doch keine 200€, weil man $10 pro Chip einsparen würde...
Mehr als die Recheneinheiten hättest du so oder so nicht bei Turing bekommen.

Timbaloo
2018-08-15, 16:18:56
Oder dreht sich bei dir nur alles um eine 1080TI und Vega?
Ich beziehe mich natürlich auf Vega und Pascal, also die jeweils aktuellsten Designs auf dem Markt. Vega ~= GP104, ergo ist ein GT104 auch mit TC/RT-Ballast auf absehbare Zeit und in klassichen (non-RT) Workloads konkurrenzlos. Und NV nutzt diesen Vorsprung um Innovationen zu bringen.

Aber auch ein Polaris hat 29% mehr Transistoren also GP106 (Quelle Wikipedia).

Deal with it.

dargo
2018-08-15, 16:23:28
Vega ~= GP104, ergo ist ein GT104 auch mit TC/RT-Ballast auf absehbare Zeit und in klassichen (non-RT) Workloads konkurrenzlos.
Du scheinst dir da ja schon ganz sicher zu sein. :tongue: Schauen wir mal nächstes Jahr.


Aber auch ein Polaris hat 29% mehr Transistoren also GP106 (Quelle Wikipedia).

Bei dir zahlt man also auch schon nach den Transistoren bzw. Packdichte? :freak:

Dural
2018-08-15, 16:24:37
Es hat keinen Sinn mit drago ;)

Vor allem die Hauptprobleme AMD ja nicht mal bei den kleinen Chip hat, sondern bei den grossen! Umso breiter sie werden, umso schlechter skalieren sie. Weil man seit gut 10 Jahren nicht fähig ist ein Frontend zu bringen das für die Grösse vom Chip passt, man stopft lieber noch mehr Einheiten rein ;) jetzt sind sie halt in einer Sackgasse, aber das hat AMD jetzt auch erkannt.

Kriton
2018-08-15, 16:27:24
Ja, die Ingenieure bei AMD sind alles Pfeifen...:freak:

dargo
2018-08-15, 16:28:53
Vor allem die Hauptprobleme AMD ja nicht mal bei den kleinen Chip hat, sondern bei den grossen! Umso breiter sie werden, umso schlechter skalieren sie. Weil man seit gut 10 Jahren nicht fähig ist ein Frontend zu bringen das für die Grösse vom Chip passt, man stopft lieber noch mehr Einheiten rein ;)
Die nächste Fake News? Warum sehe ich davon nichts in einzelnen Spielen wenn Vega an GP102 kratzt bzw. diese leicht überholt? Das "ankratzen" bezieht sich nicht mal zwingend auf eine low level Applikation. Mit dieser Front-End Schallplatte lag man schon bei Tahiti falsch.

Rancor
2018-08-15, 16:33:59
Die nächste Fake News? Warum sehe ich davon nichts in einzelnen Spielen wenn Vega an GP102 kratzt bzw. diese leicht überholt? Das "ankratzen" bezieht sich nicht mal zwingend auf eine low level Applikation. Mit dieser Front-End Schallplatte lag man schon bei Tahiti falsch.

Die 2 von 1000 Spielen wo VEGA mal an GP 102 kratzt führst du als Beispiel an? Ist das dein ernst? In der Regel kann sich VEGA 64 mit GP 104 in Form der 1080 auseinander setzten. :rolleyes:
Du machst dich hier wirklich ziemlich lächerlich, auch mit deinem Fake News Geplärre.

Selbst gavitationsfeld, der ja nun GCN zur genüge aus der Praxis kennt, sagt das Turing ein Game Changer wird. Nimm einfach deine AMD Brille ab und freu dich doch einfach, das es endlich mal richtigen Fortschritt in Sachen Grafik geben wird.

robbitop
2018-08-15, 16:45:27
Bei Vega (V64) muss man ehrlich sein. Das Ding ist zu groß und zu bandbreitenhungrig für das was es in heutigen Spielen leistet.
Polaris war 2016 schon eher konkurrenzfähiger ggü GP106. Brauchte aber mehr Transistoren und mehr Bandbreite - aber nicht in dem Maße.

AMD hat halt aufgrund der schlechten Situation GPU R&D massiv runtergefahren und NV hat es stetig erhöht. Außerdem hat man den Großteil des R&Ds für Zen und die Custom Sparte verwendet. Wenn sich das nicht niederschlagen würde, hätte NV etwas falsch gemacht.

Durch die steigenden Einkünfte aus Produkten mit Zen kann man ggf. mittelfristig wieder aufkohlen. Es wird aber sicherlich dauern, bis man wieder auf Augenhöhe ist. Sofern das dann überhaupt wieder in AMDs Fokus rückt.

Solange hat NV relativ freie Bahn und kann (was ökonomisch sinnvoll ist) die Preise (und somit die Gewinnspanne) oben halten.

Zwei oder mehr starke Wettbewerber wären aber sicherlich nicht schlechter für den Konsumenten. Mal sehen, wie Intel sich dort schlagen wird. Wenn sie es wirklich ernst meinen, könnten sie in 2-3 Gens ein ernsthafter Wettbewerber werden. Die Frage ist, ob sie wirklich ernsthaft in den 3D Bereich wollen, oder es weiterhin hauptsächlich auf HPC/AI absehen.

Loeschzwerg
2018-08-15, 16:46:11
Erstmal muss sich zeigen wie performant das ganze überhaupt unterhalb einer 2080TI tatsächlich ist. Als weiteres guckt jeder Maxwell/Pascal Besitzer in die Röhre. Ich sags ja... Träumer.

Das ist doch letztendlich wie immer mit neuen Techniken. Egal ob das nun z.B. ein Crysis @ DX10 war, Tessellation zu Beginn oder oder oder.

Insofern ja, man sollte schon realistisch bleiben. Andererseits könnte hier wirklich der Startschuss für einen Umbruch gelegt worden sein, was ich zumindest extrem geil finde.

Dural
2018-08-15, 16:49:01
Zwei oder mehr starke Wettbewerber wären aber sicherlich nicht schlechter für den Konsumenten. Mal sehen, wie Intel sich dort schlagen wird. Wenn sie es wirklich ernst meinen, könnten sie in 2-3 Gens ein ernsthafter Wettbewerber werden. Die Frage ist, ob sie wirklich ernsthaft in den 3D Bereich wollen, oder es weiterhin hauptsächlich auf HPC/AI absehen.

Ich glaube kaum das Intel ernsthaft in den Gaming Bereich will, das wäre höchstens ein Zusatz Geschäft für sie.

Ihnen passt NV nicht die immer wie mehr in ihren Bereich eindringen, und genau das dürfte Intel nicht passen ;)

HOT
2018-08-15, 16:49:03
Vega64 wird für die 2070 reichen und preislich wird die 2070 darüber liegen, von daher stimmt doch alles für Vega. Das hätte alles deutlich schlimmer laufen können für AMD.

Dural
Im Gegenteil, dadurch, dass NV kaum Leistung im Corebereich des Gamings vorlegt hat Intel eine Chance hier hineinzuschlagen.

Troyan
2018-08-15, 16:49:31
https://pbs.twimg.com/media/Dkpepw1UYAAhBGA.jpg:large
https://twitter.com/CasualEffects/status/1029740231598125056

robbitop
2018-08-15, 16:50:17
Das ist doch letztendlich wie immer mit neuen Techniken. Egal ob das nun z.B. ein Crysis @ DX10 war, Tessellation zu Beginn oder oder oder.

Insofern ja, man sollte schon realistisch bleiben. Andererseits könnte hier wirklich der Startschuss für einen Umbruch gelegt worden sein, was ich zumindest extrem geil finde.

Schön zusammengefasst. So sehe ich das auch. :)

Vega64 wird für die 2070 reichen und preislich wird die 2070 darüber liegen, von daher stimmt doch alles für Vega. Das hätte alles deutlich schlimmer laufen können für AMD.

Das wird aber knapp. V64 liegt bei GP104 +10%. Die 2070 wird sicherlich ~GP102 Niveau. Liegen ggf. leicht darunter. Ich tippe auf 10-15 % Differenz. Wobei man das über den Preis sicherlich dann regeln kann.

Allerdings könnte V64 was BOM Kosten angeht teurer sein. Dank SI, HBM2 und etw größerem Core.

Locuza
2018-08-15, 16:50:49
Die nächste Fake News? Warum sehe ich davon nichts in einzelnen Spielen wenn Vega an GP102 kratzt bzw. diese leicht überholt? Das "ankratzen" bezieht sich nicht mal zwingend auf eine low level Applikation. Mit dieser Front-End Schallplatte lag man schon bei Tahiti falsch.
AMD weißt selber auf ein Front-End-Limit hin, was die Fill-Time der CUs angeht, dass solltest du mitbekommen haben.
AMD kann pro Shader-Engine nur eine Wave absetzen, je mehr CUs pro Shader-Engine existieren, desto größer die Wahrscheinlichkeit das die CUs bei zu kleinem Workload leer laufen:
https://abload.de/img/amdrate7nuxr.jpg
https://32ipi028l5q82yhj72224m8j-wpengine.netdna-ssl.com/wp-content/uploads/2018/05/gdc_2018_sponsored_engine_optimization_hot_lap.pptx

Genauso passt die Balance bei AMD auch nicht beim Geometriedurchsatz oder dem Pixeldurchsatz, jedenfalls nicht im Vergleich zu den kleineren GPUs oder Nvidia, aber diese Dinge sind bei Spielen wichtig.

Screemer
2018-08-15, 16:52:35
Insofern ja, man sollte schon realistisch bleiben. Andererseits könnte hier wirklich der Startschuss für einen Umbruch gelegt worden sein, was ich zumindest extrem geil finde.
Dass das langfristig geil werden kann steht doch überhaupt nicht zur Diskussion. Da jetzt aber in Freudentränen auszubrechen halte ich für übertrieben. Das können die devs, die seit Jahren auf RT Hardware warten.

Loeschzwerg
2018-08-15, 16:54:33
Dass das langfristig geil werden kann steht doch überhaupt nicht zur Diskussion.

Das kommt in dem Thema aber irgendwie nicht mehr so rüber :freak: Hier gibt es nur noch zwei extreme Fronten und ein paar wenige Technik-Enthusiasten.

Es nervt einfach nur noch abartig... Thema schließen und am Montag wieder auf.

Adam D.
2018-08-15, 16:54:55
Vega64 wird für die 2070 reichen und preislich wird die 2070 darüber liegen, von daher stimmt doch alles für Vega. Das hätte alles deutlich schlimmer laufen können für AMD.
Du bist aber auch wirklich der Einzige, der die 2070 so konservativ einschätzt. RT hin oder her, 2070 als 1080 für teurer ist einfach kein Produkt.

dargo
2018-08-15, 16:58:10
Bei Vega (V64) muss man ehrlich sein. Das Ding ist zu groß und zu bandbreitenhungrig für das was es in heutigen Spielen leistet.

Ich bitte dich... wenigstens von dir hätte ich so einen Quatsch nicht erwartet. Vega ist in keinem Spiel mit Bandbreite unterversorgt. Woher kommen eigentlich diese ganzen Mythen?

AMD weißt selber auf ein Front-End-Limit hin, was die Fill-Time der CUs angeht, dass solltest du mitbekommen haben.

Darum gehts mir doch gar nicht. Es gibt immer irgendwo Limits in der Hardware. Die Frage ist ob ein aufgebohrtes Front-End Vega in ein völlig anderes Performancesegment alleine bringt? Und das halte ich für ein Märchen. Da sehe ich diverse Software immer noch als einen viel größeren Bremsklotz.

Dural
2018-08-15, 17:06:27
Ohha, NV setzt Turing mit der GeForce 256 gleich :eek:

Bucklew
2018-08-15, 17:09:56
Ich bitte dich... wenigstens von dir hätte ich so einen Quatsch nicht erwartet. Vega ist in keinem Spiel mit Bandbreite unterversorgt. Woher kommen eigentlich diese ganzen Mythen?
:facepalm:

Das schrieb er mit keinem Wort dargo. Er schrieb Bandbreitenhungrig und nicht limitiert. Herrje, blockiert der Schaum vorm Mund dir den Blick oder wie?

Ohha, NV setzt Turing mit der GeForce 256 gleich :eek:
Mit GeForce1 kam T&L in Hardware, von daher ist der Vergleich nicht mal so falsch.

robbitop
2018-08-15, 17:10:25
Ich bitte dich... wenigstens von dir hätte ich so einen Quatsch nicht erwartet. Vega ist in keinem Spiel mit Bandbreite unterversorgt. Woher kommen eigentlich diese ganzen Mythen?

Das hast du leider offenbar falsch interpretiert. V64 hat genug Bandbreite. Aber hat für die Leistung die er liefert relativ viel Bandbreite. Bzw braucht relativ viel Bandbreite.


Mit GeForce1 kam T&L in Hardware, von daher ist der Vergleich nicht mal so falsch.
NV10 war damals schon (insbesondere in der DDR Ausführung) ein echtes Brett. Massiv Leistung - insbesondere bei 32 bit Farbtiefe. (wobei R100, wenn er ohne Verspätung gekommen wäre, sicherlich ein heißer Konkurent gewesen wäre :) - auch der Savage 2000 kam ja leider mit Bugs [kaputte TnL Unit und niedrigerer Takt als geplant] und war dennoch recht schnell) Aber inwiefern HW TnL jetzt ein Gamechanger sein soll, weiß ich nicht. Da gäbe sicherlich noch andere HW Implementationen, die ähnlich wichtig oder gut waren. (jegliche Form von Bump Mapping, programmierbare Pixelshader, Tesselation, Computeshader etc)

Wenn man (in Bezug auf NV GPUs) NV10 nennt, sollte man IMO auch G80 nennen. Das Ding war damals brutal. Über doppelte Leistung wie G71 in shaderlastigen Spielen bei gleichem Node.


Darum gehts mir doch gar nicht. Es gibt immer irgendwo Limits in der Hardware. Die Frage ist ob ein aufgebohrtes Front-End Vega in ein völlig anderes Performancesegment alleine bringt? Und das halte ich für ein Märchen. Da sehe ich diverse Software immer noch als einen viel größeren Bremsklotz.
Ja es sind sicherlich mehrere Gründe die für das Ergebnis sorgen. Einheitenauslastung (sowohl Front End als auch Execution) und Bandbreiteneffizienz sind Dinge, an denen kontinuierlich gearbeitet werden muss, damit man dort hinkommt, wo Maxwell und Pascal waren. Auf dem Weg, dies in HW zu gießen, wird AMD mit Navi und Nachfolgern sicherlich auch sein. Es fehlte schlichtweg an Ressourcen.
Bei einigen Spielen sieht man, was möglich ist, wenn handoptimiert wird. Nur tun das 9/10 Studios nicht so intensiv wie id Software das tut. Insofern ist HW, die dafür sorgt, dass Einheiten ausgelastet werden können, sicherlich keine schlechte Lösung.

Ex3cut3r
2018-08-15, 17:15:13
Dargo :facepalm: Chill mal etwas. Diese Schnell Attacken passen gar nicht zu dir.

Troyan
2018-08-15, 17:15:31
Videocardz zum Thema Verbrauch: https://twitter.com/VideoCardz/status/1029680273074663425

30W nicht durch NVLink sondern Virtuallink. Macht irgendwie auch mehr sinn...
Die RTX6000 hätte dann 240W für das Board und 30W für den USB-C Anschluss.

Screemer
2018-08-15, 17:17:31
Das kommt in dem Thema aber irgendwie nicht mehr so rüber :freak: Hier gibt es nur noch zwei extreme Fronten und ein paar wenige Technik-Enthusiasten.

Es nervt einfach nur noch abartig... Thema schließen und am Montag wieder auf.
Das würde ich absolut unterstützen. Das jemand wie dargo bei den ganzen jubelpersern hier im thread auf Granit beißt ist doch abzusehen. Aber nicht Mal bei ihm lese ich raus, dass er RT per se für scheiße hält aber eben skeptisch ist was die RT Leistung von consumer-karten betrifft. In die gleiche Kerbe hab ich gestern Nacht ja auch schon Mal gehauen. Da waren die üblichen Verdächtigen aber wohl schon im Bett ;)

Ich sehe es für AMD als völlig unproblematisch an erst in mid/late 2019 mit rt im consumermarkt daher kommt. So lange sie dann performant unter dxr und vulkan abliefern.

Was ich als viel problematischer ansehe ist, dass AMD im Prosumermarkt wieder mal den Startschuss verpasst hat. NV etabliert derzeit eigene apis/Schnittstellen a la cuda für RT und das scheint bei den großen der Softwarebranche wie Autodesk, siemens, etc. ziemlichen Anklang zu finden, wie eben damals auch cuda im hpc-bereich. AMD setzt dann wieder auf offene Standards wie wie dxr oder den Vulkan Pendant und es interessant nur kein schwein und alle haben wieder Mal schön nen vendorlock eingebaut.

=Floi=
2018-08-15, 17:19:29
Ja, die Ingenieure bei AMD sind alles Pfeifen...:freak:

Ich geh da mal mit.

manchmal könnte man das schon denken. Am ende wird es wohl einfach am viel zu kleinen budget liegen. Zu viele kompromisse und am dies merkt man dem produkt dann auch an.
Deren frontend ist einfach die größte baustelle. Zu viel budget in das custom zeug reingesteckt. Macht doch nen eigenen thread dazu auf.
Vega wäre von der rohleistung sicher auch auf 1080ti höhe, wenn man die leistung auch auf die straße bringen würde.

Bei Navi bin ich froh, wenn die ihre jetzigen baustellen abstellen. Das wäre wichtiger wie RT.


Im profi markt wird NV mit dem RT zeug sicherlich gutes geld verdienen. Ist doch ok, wenn es die karte kann.
Der rest vom produkt ist bisher auch ganz ok.

BlacKi
2018-08-15, 17:22:48
was haltet ihr von der aussage das NV mainstream RTX karten bringen wird? mainstream bedeutet doch auch das midrange karten RT unterstützen werden?

robbitop
2018-08-15, 17:23:36
Deren frontend ist einfach die größte baustelle.
Es ist eine von vielen. Der Shadercompiler und die Kontrolllogik der ALUs ist auch wesentlich für den Durchsatz bei unoptimiertem Shadercode. Auch ist eine ganze Menge relevant für die Bandbreiteneffizienz. DCC+DR funktionieren nur im Tandem wirklich richtig gut. Da scheint noch mind. 1x Komponente zu fehlen, damit dieses Tandem richtig greift. Bei Maxwell war es ggü Kepler ja ein riesen Sprung was Bandbreiteneffizienz angeht. Pascal hat da noch eins oben drauf getan.
Bei Auslastung der ALUs das Selbe.
Da muss die ganze µArch umgekrempelt werden. Es sind IMO keine einzelnen Flaschenhälse. Da fehlte es seit 2011 (Tahiti) einfach vorn und hinten am Personal (IMO).

was haltet ihr von der aussage das NV mainstream RTX karten bringen wird? mainstream bedeutet doch auch das midrange karten RT unterstützen werden?
Gab es nicht einen Leak, der auch der 2060 TCs nachgesagt hat? Insofern würde das auch für GT106 gelten, oder?

dargo
2018-08-15, 17:25:20
Das hast du leider offenbar falsch interpretiert. V64 hat genug Bandbreite. Aber hat für die Leistung die er liefert relativ viel Bandbreite. Bzw braucht relativ viel Bandbreite.

Moment mal... wer sagt denn, dass Vega in den Games in denen deiner Meinung das Teil zu wenig Leistung liefert die vorhandene Bandbreite überhaupt braucht?

Das würde ich absolut unterstützen. Das jemand wie dargo bei den ganzen jubelpersern hier im thread auf Granit beißt ist doch abzusehen. Aber nicht Mal bei ihm lese ich raus, dass er RT per se für scheiße hält aber eben skeptisch ist was die RT Leistung von consumer-karten betrifft. In die gleiche Kerbe hab ich gestern Nacht ja auch schon Mal gehauen. Da waren die üblichen Verdächtigen aber wohl schon im Bett ;)

Immerhin einer versteht mich. :D

prinz_valium
2018-08-15, 17:30:10
Also ich gehe jetzt mal zum Vergleich von dem aus, was ich habe.
Das wäre eine sehr gute Custom 1070.

Die 2080 würde also etwas über 50% mehr Shader haben (1920 vs 3072 im möglichen Vollausbau), gleich viel Speicher und natürlich deutlich mehr Speichertakt.
Beim Takt der 2080 gehe ich von maximal 100Mhz mehr aus. Die Chips sind größer, der Prozess nicht viel anders und bei 2000/2100MHz ist man nun einmal schon ziemlich weit am oberen Limit angekommen. Das ganze muss schließlich auch noch gekühlt werden, damit der Takt weiterhin anliegt.


Wenn also deutlich mehr Leistung kommt, dann erwarte ich das über die Architektur. Alles andere klingt jetzt nicht wirklich toll.
Vor allem muss man die Preise noch in Betracht ziehen.
2016 für 380€ gekauft das Teil.
Die 2080 wird mindestens das Doppelt kosten 2 Jahre später...

robbitop
2018-08-15, 17:30:42
Moment mal... wer sagt denn, dass Vega in den Games in denen deiner Meinung das Teil zu wenig Leistung liefert die vorhandene Bandbreite überhaupt braucht?

AMD hat die GPU/RAM sicherlich nicht ohne Absicht so ausbalanciert.
Hast du Skalierungstests gemacht? :)
Wäre ja mal interessant zu wissen, was passiert, wenn man bei Wolfenstein 2 (was der Bestcase sein dürfte für die GPU, oder?), schaut, was passiert, wenn die Bandbreite reduziert wird.

dargo
2018-08-15, 17:37:57
AMD hat die GPU/RAM sicherlich nicht ohne Absicht so ausbalanciert.

Welche anderen Möglichkeiten hättest du denn? Mit einem Stack die Hälfte, mit drei Stacks +1/3 zu jetzt. Letzteres wäre totaler Overkill, ersteres viel zu wenig.


Wäre ja mal interessant zu wissen, was passiert, wenn man bei Wolfenstein 2 (was der Bestcase sein dürfte für die GPU, oder?), schaut, was passiert, wenn die Bandbreite reduziert wird.
Da laut dem letzten Test der CB Vega64 Referenz leicht vor GP102 steht sehe ich hier keinen Bedarf die Bandbreite zu senken. :)
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

Immerhin hat GP102 die gleiche Bandbreite. Auch bitte nicht vergessen, dass die Implementierung von AC in dem Spiel auf Radeon fehlerhaft ist. Anstatt Radeon zu beschleunigen bremst es etwas. Da das Spiel eh schon sehr schnell performt hatte man keine Lust mehr das zu fixen.

=Floi=
2018-08-15, 17:46:52
Ohha, NV setzt Turing mit der GeForce 256 gleich :eek:


und kein G80 :eek:
Würde G80 auch noch dazuzählen, weil das den größten sprung brachte.
An der GF256 sehe ich jetzt nicht so viel bahnbrechendes. Da bin ich wohl noch zu jung dafür.

Screemer
2018-08-15, 17:51:12
Welche anderen Möglichkeiten hättest du denn? Mit einem Stack die Hälfte, mit drei Stacks +1/3 zu jetzt. Letzteres wäre totaler Overkill, ersteres viel zu wenig.


Da laut dem letzten Test der CB Vega64 Referenz leicht vor GP102 steht sehe ich hier keinen Bedarf die Bandbreite zu senken. :)
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

Immerhin hat GP102 die gleiche Bandbreite. Auch bitte nicht vergessen, dass die Implementierung von AC in dem Spiel auf Radeon fehlerhaft ist. Anstatt Radeon zu beschleunigen bremst es etwas. Da das Spiel eh schon sehr schnell performt hatte man keine Lust mehr das zu fixen.jetzt ist aber langsam echt gut. Man kann gerne Vergleiche mit Vega ziehen oder gern auch drauf spekulieren was die kleines turinga im Vergleich zu Polaris/gp106 abschneidet. Alles andere zu Vega und AMD ist doch echt weit OT.

Bucklew
2018-08-15, 17:58:40
Wenn man (in Bezug auf NV GPUs) NV10 nennt, sollte man IMO auch G80 nennen. Das Ding war damals brutal. Über doppelte Leistung wie G71 in shaderlastigen Spielen bei gleichem Node.
Die Einstufung stammt Auszugsweise von hier (http://www.computerhistory.org/timeline/graphics-games/)

Die haben sogar die "CUDA GPU" aufgeführt, aber im Jahre 2009. Hätte ja eher 2007 sein müssen (G80). Naja, man kann nicht alles haben ;)

crux2005
2018-08-15, 18:00:46
Die NVIDIA Demos zu RTX benutzen 1spp für Denoise und wurden auf der GDC2018 auf einer Titan V dargestellt. Je nach Auflösung sind wird dann bei 0,4 GigaRay/s bis 1,8 GigaRay/s die dafür in Spielen nötig sind. So viel (1/3 der Quadro RTX5000 GigaRay Leistung) sollte die GeForce RTX 2080 doch haben. Alles darüber wird nur für mehr Fotorealismus gebraucht (StarWars, Porsche Demo).

Und noch meine 5c zum VRAM. Falls wirklich nur 8 GiB verbaut sind, kann das eigentlich nur 2 Gründe haben. Samsungs GDDR6 wird für die Quadro's benutzt und es sind keine weiteren Kapazitäten mehr verfügbar also wird bei den GeForce Karten der Micron/SK Hynix Speicher benutzt. Deren GDDR6 Speicher hat laut diversen News Momentan max. 1 Gigabit pro Chip. Oder NVIDIA wollte mehr als 14 Gbps auf der GeForce und deswegen können nur 1 Gigabit Chips benutzt werden.

Linmoum
2018-08-15, 18:11:36
Dann müsste die 2080 aber schon quasi auf dem Niveau einer Titan V liegen. Ansonsten wird sich kaum jemand eine 2080 kaufen, solange er noch eine 1080ti bekommt.

Swissr
2018-08-15, 18:16:23
Sehe ich ebenso.

JaniC
2018-08-15, 18:22:49
Laut den Ashes Benchmarks liegt die RTX 2080 ja auch auf Titan V Niveau.

Aber der Leak wurde hier ja nur 2x gepostet und ist in den ganzen Diskussionen völlig untergegangen.

Ex3cut3r
2018-08-15, 18:24:29
Welcher Ashes Leak?

War der in 5120x2880?

BlacKi
2018-08-15, 18:26:03
Laut den Ashes Benchmarks liegt die RTX 2080 ja auch auf Titan V Niveau.

Aber der Leak wurde hier ja nur 2x gepostet und ist in den ganzen Diskussionen völlig untergegangen.
es ist halt eben komplett ungewiss ob es der 754mm², der kleinere 500mm² oder überhaupt ein turing ist^^ am montag wissen wird mehr.

Fragman
2018-08-15, 18:26:14
An der GF256 sehe ich jetzt nicht so viel bahnbrechendes. Da bin ich wohl noch zu jung dafür.

cubic environment mapping gab es noch als techdemo. das sah wirklich nice aus auf der sphere. :D
hat dann aber glaub ich bis zur 780 gebraucht, um das single pass zu rendern, selbst die g2 ultra konnte das nicht fluessig in einem spiel (und irgendwie hats ja auch kaum einer genutzt).


die zusaetzlichen rt effekte werden aber nicht so lange brauchen.dafuer wird schon gameworks sorgen. full rt ist natuerlich eine andere sache.

Linmoum
2018-08-15, 18:30:52
Laut den Ashes Benchmarks liegt die RTX 2080 ja auch auf Titan V Niveau.

Aber der Leak wurde hier ja nur 2x gepostet und ist in den ganzen Diskussionen völlig untergegangen.
Gibt halt auch nichts, was man einfacher faken kann, als Ashes. Aber zu 'nem GT102 würde Titan V Leistung definitiv passen.

crux2005
2018-08-15, 18:34:31
Ich glaube AotS wird eines der Spiele wo sich Turings uArch Verbesserungen gegenüber Pascal zeigen.

RLZ
2018-08-15, 18:35:00
Aber du hast definitiv ein Vorteil bei Raytracing im Bezug auf Aliasing
Bzw. hab hier ein nettes Beispiel gefunden.
Du verstehst da was falsch. Du erstellst ein Rasterbild für deinen Framebuffer. Ob das nun mit Raytracing oder Rastisierung erzeugt wird, macht für das Aliasing keinerlei Unterschied.

crux2005
2018-08-15, 19:01:46
Dann müsste die 2080 aber schon quasi auf dem Niveau einer Titan V liegen. Ansonsten wird sich kaum jemand eine 2080 kaufen, solange er noch eine 1080ti bekommt.

Sehe ich nicht so schwarz.

Die paar Gebrauchten 1080 Ti's werden schnell ihre Besitzer wechseln. Händler sollte auch nicht mehr viele auf Lager haben.

Bis auf den VRAM sollte die 2080 in jeder Hinsicht besser sein. Schneller, neue uArch, HW RTX Beschleunigung. Wenn der Preis stimmt, ist sie die bessere Wahl. Mal sehen ob es 1080 Ti's für unter 600€ geben wird. :D

unl34shed
2018-08-15, 19:04:00
Um den RT Hype mal etwas zu bremsen... Sind wir doch mal ehrlich. Für wirkliches Realtime RT eines kompletten Spiels und nicht nur AA oder Licht Spielereien ist die RT Leistung von Turing mindestens um Faktor 1000 zu gering.

Das ganze wird mit Turing eine nette Spielerei sein, aber wie die ganzen Gameworks Effekte zu viel Leistung kosten und nur dazu da sein um in Zukunft die alte Generationen auszubremsen bzw zum Neukauf anzuregen indem RT mit irgendwelchen Gameworks effekten übertrieben stark genutzt wird ohne das es visuell etwas bringt. Ähnlich wie Tesselation.
Langfristig (5-10 Jahre) kann das natürlich anders aussehen. Aber da müssen die GPU Architekturen dann auch direkt für RT ausgelegt sein.

crux2005
2018-08-15, 19:05:01
Um den RT Hype mal etwas zu bremsen... Sind wir doch mal ehrlich. Für wirkliches Realtime RT eines kompletten Spiels und nicht nur AA oder Licht Spielereien ist die RT Leistung von Turing mindestens um Faktor 1000 zu gering.

Das ganze wird mit Turing eine nette Spielerei sein, aber wie die ganzen Gameworks Effekte zu viel Leistung kosten und nur dazu da sein um in Zukunft die alte Generationen auszubremsen bzw zum Neukauf anzuregen indem RT mit irgendwelchen Gameworks effekten übertrieben stark genutzt wird ohne das es visuell etwas bringt. Ähnlich wie Tesselation.
Langfristig (5-10 Jahre) kann das natürlich anders aussehen. Aber da müssen die GPU Architekturen dann auch direkt für RT ausgelegt sein.

Und du übertreibst auch.

RLZ
2018-08-15, 19:16:37
Um den RT Hype mal etwas zu bremsen... Sind wir doch mal ehrlich. Für wirkliches Realtime RT eines kompletten Spiels und nicht nur AA oder Licht Spielereien ist die RT Leistung von Turing mindestens um Faktor 1000 zu gering.
Der Knackpunkt ist hier die Kombination von DL-Denoising und Raytracing. Ohne die gigantischen Fortschritte beim Denoising wäre die Raytracing-Leistung von Turing ziemlich nutzlos.

hasebaer
2018-08-15, 19:44:41
Ich erinnere mich noch, das Daniel Pohl von Intel, damals davon schwärmte wie einfach es sei Licht und Schatten per RT zu proggen.
War das damals nur PR Sprech oder ist nicht nur das Ergebniss von RT "organischer" sonder auch der Weg dahin?

HisN
2018-08-15, 19:52:50
Um den RT Hype mal etwas zu bremsen... Sind wir doch mal ehrlich. Für wirkliches Realtime RT eines kompletten Spiels und nicht nur AA oder Licht Spielereien ist die RT Leistung von Turing mindestens um Faktor 1000 zu gering.

Das ganze wird mit Turing eine nette Spielerei sein, aber wie die ganzen Gameworks Effekte zu viel Leistung kosten und nur dazu da sein um in Zukunft die alte Generationen auszubremsen bzw zum Neukauf anzuregen indem RT mit irgendwelchen Gameworks effekten übertrieben stark genutzt wird ohne das es visuell etwas bringt. Ähnlich wie Tesselation.
Langfristig (5-10 Jahre) kann das natürlich anders aussehen. Aber da müssen die GPU Architekturen dann auch direkt für RT ausgelegt sein.


Das ist für NV der weg "zurück" zu MultiGP.
Klassisches RT kann man wundervoll Paralellisieren. Da man mit dem Takt und der Größe der Chips am Ende angekommen ist, geht es (ähnlich wie bei den CPUs) nur noch in die Breite. Und schon wird RT wieder richtig interessant. Langfristig. Genau wie Du es sagst^^

Mancko
2018-08-15, 20:03:42
Genau so ist es, verrückt nicht war?
Das was ich noch mehr bewundere, NV hat das perfekte Timming, die bringen ihr zeug immer wenn es sinnvoll ist. Und ich frage mich immer wieder wie die das machen, den solche sachen dauern Jahre in der Entwicklung.

Das hat ein Stückweit würde ich sagen mit den deutlich größeren Resourcen und der besseren Vernetzung in den einzelnen Märkten zu tun. AMD liefert primär im GPU Markt GPUs für Spieler, bisserl Laptop und eben Semi Custom Designs für bestimmte Kunden. Oft rennt aber der eine ohne den anderen.

Bei Nvidia ist einfach in Summe im GPU Umfeld die Marktdurchdringung erheblich tiefer, da sie nicht nur Gaming und Laptop GPUs liefern sondern eben auch ganz dick in dem HPC, Professional Workstation und AI/DeepLearning Markt unterwegs sind. Defakto haben sie mit HPC und auch AI/DeepLearning maßgeblich zwei Segmente von Anfang an beeinflusst und zum Teil die Märkte erst kreiert und anders als AMD setzen sie überall mit Software auch entsprechende Akzente. Nvidia ist mittlerweile in erheblichen Teilen auch eine Software Company. Und weil das so ist haben die auch mehr Leute mit entsprechenden Ohren am Markt und können m.E. oft besser beurteilen in welche Richtung sich die Märkte entwickeln und oder entwickeln könnten. Das Ganze gepaart mit den eben deutlich größeren Resourcen ist dann schon ein erheblicher Vorteil den AMD einfach in seiner Verfassung nicht mal eben aufwiegen kann. Das ist ja auch nichts was von heute auf morgen entstanden ist sondern Nvidia hat sich diese Position beharrlich mittlerweile seit über 1 Jahrzehnt aufgebaut.

Schlußendlich hat Nvidia in den letzten 10 Jahren auch ein ganzes Stück konsistenter an der eigenen Geschäftsstrategie gearbeitet. Es gab einfach in Summe weniger Hin und Her bzw. Hü und Hott und es gab auch nicht so eine Fluktuation in den Chef Etagen. Insbesondere die persönliche Bindung der Gründer und in Form von Huang sogar die nach wie vor massive operative Tätigkeit in der Geschäftsführung bzw. im Management sind schon ein Brett. Aus eigener Erfahrung bei vielen Kunden ist mein Eindruck, dass Firmen die nach wie vor durch Inhaber beeinflusst bzw. gesteuert werden sehr viel stringenter und konsequenter vorgehen als Unternehmen mit ausschließlich angestellten und bestellten Geschäftsführern die ansonsten keine Bindung zu dem Laden haben. Insofern wundert mich das jetzt eigentlich nicht so wirklich.

Troyan
2018-08-15, 20:10:05
Ich erinnere mich noch, das Daniel Pohl von Intel, damals davon schwärmte wie einfach es sei Licht und Schatten per RT zu proggen.
War das damals nur PR Sprech oder ist nicht nur das Ergebniss von RT "organischer" sonder auch der Weg dahin?

Es ist einfacher. Irgendwo habe ich gelesen, dass Raytracing Bücher dünner sind, weil die Umsetzung der einzelnen Effekte viel einfacher möglich ist. ;D

https://pbs.twimg.com/media/DkqK-93UYAEGq8B.jpg:large
https://twitter.com/CasualEffects

RTX6000 ist fast 50% schneller als Titan V ohne Raytracing. Erklärt, wieso es Gerüchte gibt, dass RT104 auf Titan V Niveau wäre...

Oh und ATAA ist damit ja sogar komplett nutzbar...

tEd
2018-08-15, 20:24:13
Laut den Ashes Benchmarks liegt die RTX 2080 ja auch auf Titan V Niveau.

Aber der Leak wurde hier ja nur 2x gepostet und ist in den ganzen Diskussionen völlig untergegangen.

Laut https://www.youtube.com/watch?v=KlW4woEkdto bei 12:50 ist langsamer als eine 1080ti

Ex3cut3r
2018-08-15, 20:35:40
Laut https://www.youtube.com/watch?v=KlW4woEkdto bei 12:50 ist langsamer als eine 1080ti

Niemand weiß es genau, alles nur Speku. Am Montag wissen wir mehr.

Hübie
2018-08-15, 20:39:45
Der Knackpunkt ist hier die Kombination von DL-Denoising und Raytracing. Ohne die gigantischen Fortschritte beim Denoising wäre die Raytracing-Leistung von Turing ziemlich nutzlos.

Nach der Keynote gab es noch eine Q&A Session in der man selbst sagte, dass die aktuelle Leistung absolut nicht reiche, wenn man es physikalisch korrekt haben möchte, aber so beginnt jeder Pfad. Man gibt sich optimistisch RT in einigen Jahren (ich tippe auf 5-6) flächendeckend und performant einzusetzen.

Mich beschleicht das Gefühl, dass niemand mehr den ersten Beitrag liest. Dort stehen die Specs eigentlich schon ziemlich lang (wenn auch unter dem Spekulationsnomen). ;D

Ich möchte noch einmal anregen was ihr denkt, was interoperability between rasterization sein könnte. :uponder:

Ps: danke an die üblichen für das Derailing, aber könnt ihr die Kacke nicht einfach mal lassen? :rolleyes:

pps: Gestern gab es einen 3,5-stündigen Vortrag über Raytracing. Da hält man also keine Infos zurück, was zeigt wie ernst es NVIDIA und einigen Devs ist. :up:

tEd
2018-08-15, 20:40:03
Niemand weiß es genau, alles nur Speku. Am Montag wissen wir mehr.

Vielleicht gibts ja noch gar keine Benchmarks dann ;)

RLZ
2018-08-15, 21:18:06
Nach der Keynote gab es noch eine Q&A Session in der man selbst sagte, dass die aktuelle Leistung absolut nicht reiche, wenn man es physikalisch korrekt haben möchte, aber so beginnt jeder Pfad. Man gibt sich optimistisch RT in einigen Jahren (ich tippe auf 5-6) flächendeckend und performant einzusetzen.
Ohne Denoising wäre aber die aktuelle Leistung halt für nichts zu gebrauchen. Ich hatte letztes Jahr nochmal ein Projekt mit Embree war absolut ernüchtert was Echtzeit Raytracing für das nächste Jahrzehnt angeht. Das wir das nun darüber reden, dass man in Spielen Raytracing für bestimmt Effekte nutzen zu können, ist für mich schon eine ziemliche Sensation.

Fragman
2018-08-15, 21:33:07
jep,
selbst in filmproduktionen ist raytracing nur mit denoise im einsatz. ob bei disney deren hyperion oder renderman, das muss selbst nach 100 stunden und mehr pro frame noch durch den denoiser, weil es sonst nicht brauchtbar waere. was disney aber auch nv mittlerweile an qualitaet dabei erreichen ist schon beeindruckend.

JaniC
2018-08-15, 21:37:05
Laut https://www.youtube.com/watch?v=KlW4woEkdto bei 12:50 ist langsamer als eine 1080ti

Hmm, ok. wccftech mal wieder Blödsinn erzählt, wie so oft.

Ach, wir warten einfach Montag ab.

Platos
2018-08-15, 21:44:02
Habe das Video jetzt nicht ganz geschaut, aber man sieht ja da nur eine nicht weiter benannte nvdidia GPU. Das wird vermutlich eher das 70-er Modell sein.

btw. wccftech darf man eig. gar nicht als quellenangaben nutzen. Die beweisen ihre Seriösität doch Tag für Tag wieder auf's Neue.

Ex3cut3r
2018-08-15, 22:31:04
Mit 8GB only, könnte es imo ein Speicherkrüppel werden. :biggrin:

KA was Nvdia sich dabei denkt. Finde ich imo ziemlich unsexy. Habe aber schon meine GTX 1070 verkauft, ich brauch was neues so oder so.

gravitationsfeld
2018-08-15, 22:32:08
jep,
selbst in filmproduktionen ist raytracing nur mit denoise im einsatz.
Nein.

Hübie
2018-08-15, 23:22:44
@RLZ: Ich bin mir ziemlich sicher, dass das Denoising auch noch eine ganze Weile bleibt, da es (imo) keine richtigen Nachteile darstellt.

Edit: Die Einträge bei tpu sind dummies...

Troyan
2018-08-15, 23:27:06
DX10-Spiel :rolleyes:

Geh wo anders trollen.

Benutzt Wolfenstein 2 Tessellation? Nein? Bingo.

Sagt alles aus über Konsolenentwickler, dessen Geometrieniveau in Spielen am Ende dieses Jahrzehnts schlechter ist als am Anfang. ;D

/edit: EA Seeds Pica Pica Vergleich mit Volta und Turing:
https://pbs.twimg.com/media/Dkq4XsTVsAAPJRN.jpg:large
https://twitter.com/ZigguratVertigo/status/1029840012743864321

Pica Pica läuft in 1080p@60FPS auf GV100.

PHuV
2018-08-15, 23:34:29
Ich sage Euch, wir sprechen uns hier in 5 und 10 Jahren wieder, und da wird RT so selbstverständlich sein wie AA und Co.

Screemer
2018-08-15, 23:37:07
Ich sage Euch, wir sprechen uns hier in 5 und 10 Jahren wieder, und da wird RT so selbstverständlich sein wie AA und Co.
Und wer hat das jemals bestritten?

Troyan
2018-08-15, 23:42:47
Ich sage Euch, wir sprechen uns hier in 5 und 10 Jahren wieder, und da wird RT so selbstverständlich sein wie AA und Co.

Schau dir den Vergleich von SEED an. AO mit 2spp und Denoiser scheint komplett nutzbar zu sein. nVidia benutzt es so für deren Gameworks RTAO.

Ich glaube, Raytracing wird eher "selbstverständlich" sein als dein Zeitrahmen vorgibt...

gravitationsfeld
2018-08-15, 23:49:13
Benutzt Wolfenstein 2 Tessellation? Nein? Bingo.
Ist Tesselation das einzige DX11/DX12-Feature? Nein? Bingo.

Wolf 2 mit die hoechste Geometrie-Dichte von allen Spielen am Markt. Troll wo anders.

Ich weiss uebrigens nicht wie du das mit deinem Weltbild zusammen bringen wirst, aber ich hab da einen Schocker fuer dich: Tesselation funktioniert nicht mit Raytracing zusammen.

AwesomeSauce
2018-08-15, 23:51:34
GI in 0.35ms? Man kommt da wohl mit einem ziemlich tiefen Sample-Count aus, da GI doch eher ein low-frequency Phänomen ist. Wäre interessant, wie das mit der Szenenkomplexität zusammenhängt.

PHuV
2018-08-16, 00:37:53
Und wer hat das jemals bestritten?
So wie sich einige hier anhören, die das nicht zu würdigen wissen.

Screemer
2018-08-16, 00:44:01
Nur weil nicht alle so gehypt sind wie du und consumerkarten und passende Software erst Mal abwarten wollen? wir haben von allen Seiten schon so viel geblubber gehört in den letzten Jahren und ihr springt auf beherzt auf jeden hypetrain der an euch vorbei tuckert. Kann man angebrachte Skepsis nicht mal als das akzeptieren was sie ist, nämlich in vielen Fällen gut und nicht unbegründet, ohne dass jeder thread von den immer gleichen Leuten kaputt getextet wurde bis man das nächste mal vorbei schaut?

JaniC
2018-08-16, 01:08:37
Colin Barré-Brisebois (EA, SEED) auf Twitter

"Comparing performance of DirectX Raytracing for @SEED's Project PICA PICA, both on @NVIDIA Turing and Volta. Turing numbers were captured on test hardware, early drivers and unmodified code. Our techniques are three to six times (3X-6X) faster on Turing. Slides online soon."

https://pbs.twimg.com/media/Dkq4XsTVsAAPJRN.jpg

https://twitter.com/ZigguratVertigo/status/1029840012743864321

PHuV
2018-08-16, 01:16:43
...
Eine neue Technologie gleich mal per se abwerten und schlechtreden ist erst mal auch keine gute Taktik. Ja, man muß abwarten. Aber wer sich auskennt, weiß, daß RT sich definitiv durchsetzen wird, egal wie Du jetzt skeptisch dreinschauen magst. Ihr versteht schlichtweg nicht, was RT alles vereinfacht. Daher ist es jetzt, wo es möglich ist, der richtige Schritt. Statt dessen von vielen hier nur Rumgemeckle "Bäh, lohnt sich nicht, zu früh, bringt nix", anstatt daß man sich freut, daß endlich mal seit vielen vielen Jahren wieder ein Schlüsseltechnologie, ein neues interessantes Feature gibt, was auch rein praktisch nützlich für künftige Computergrafik in Echtzeit (!) ist. Das würd sich sich auch positiv auf die Spiele auswirken. Und das Ding ist doch jetzt da, wo soll da "Geblubbere" drin sein?
Colin Barré-Brisebois (EA, SEED) auf Twitter

"Comparing performance of DirectX Raytracing for @SEED's Project PICA PICA, both on @NVIDIA Turing and Volta. Turing numbers were captured on test hardware, early drivers and unmodified code. Our techniques are three to six times (3X-6X) faster on Turing. Slides online soon."

https://pbs.twimg.com/media/Dkq4XsTVsAAPJRN.jpg

https://twitter.com/ZigguratVertigo/status/1029840012743864321
Wurde bereits in der Nacht beim Vortrag erwähnt.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11768344&postcount=3169

Screemer
2018-08-16, 01:40:52
@phuv: du solltest vielleicht meine Beiträge hier im thread noch mal lesen. Während du das tust, solltest du noch Mal über eine differenzierte Betrachtungsweise sinnieren. Ernsthaft du hast nicht mal meinen letzten Post aufmerksam geschweige denn unvoreingenommen gelesen.

PHuV
2018-08-16, 01:49:16
Natürlich hab ich das, ich kann doch nichts dafür, daß Du keinen Inhalt bringst. RT wird kommen, ohne wenn und aber. Deine Skepsis ist hier schlichtweg fehl am Platze, weil es kein Hype ist, sondern eine greifbare Verbesserung. Was soll ich da differenzieren? Wie gesagt, Du und andere habt eben nicht die entsprechenden Visionen und Weitblick oder RT-Erfahrung, um das entsprechend zu würdigen. Hier ist wirklich mal ein Meilenstein geschaffen worden, und viele wie Du erkennen das nicht. Das verwundert mich in einem Technikforum doch sehr.

Screemer
2018-08-16, 01:53:58
Du weißt noch nicht mal wie die consumerkarten aussehen aber tanzt schon uns feuer wie Rumpelstilzchen. Niemand sagt das RT nicht der nächste big shot in Games wird. Das hat man aber von anderen Techniken in den letzten Jahren auch behauptet. Du kannst schlicht nicht zwischen angebrachter Skepsis, die sich übrigens sehr schnell legen kann, und schlichtem denial unterscheiden. Proof me wrong and I am fine with it.

gravitationsfeld
2018-08-16, 01:56:04
Niemand sagt das RT nicht der nächste big shot in Games wird.
Ausser alle Grafik-Programmierer die ich kenne.

N0Thing
2018-08-16, 02:02:32
Ausser alle Grafik-Programmierer die ich kenne.

Jetzt ist die Katze aus dem Sack. Das Ding ist ein game changer.

Du kennst dich selber nicht? :D

Oder hast du das nicht überlesen?

Screemer
2018-08-16, 02:03:17
Wie hast du mich denn bei dem Satz verstanden? Trollst du uns seit zwei Tagen?

Jetzt ist die Katze aus dem Sack. Das Ding ist ein game changer.
Ist doch offensichtlich. HW Raytracing.

Das erste große Feature seit D3D9 SM3 das wirklich einen Unterschied machen wird langfristig.

BlacKi
2018-08-16, 02:44:27
RT ist cool, aber es muss halten was es verspricht. alles weitere sehen wir am montag.

EinName
2018-08-16, 03:12:05
Das Feature an sich ist bombe, sollte es allerdings wie vorhergesagt nur auf 3 Karten (2070,2080,2080TI)kommen und die StarWars Demo auf einer 2080 äuivalenten Karte nur mit 24 fps laufen (so wie angeblich berichtet) - dann ist Turing halt nur der erste Schritt, es kommt, wird aber nicht wirklich Ready sein in dieser Gen. Vielleicht kommt ein neues Crysis und die 2080TI Owner können sich dann freuen in FHD 30 FPS zu sehen. Der Rest spielt dann halt ohne bis die nächste Gen einfach P/L verdoppelt... so war es bei Shader 2.0, Shader 3.0 und allem anderen auch. Ist neu, vielleicht bzw. wahrscheinlich kommen ein paar Games die es irgendwie supporten, mal mehr mal weniger - aber performant wird es nur wenn das Game es kaum anwendet; und das Grafikfeuerwerk aka Crysis ruckelt halt. So wie immer mit neuer Tech. Es ist einfach kein Kaufgrund abseits davon die ersten Benches und Games auf 30fps damit zu sehen/spielen. Wirklich performant ist dann frühestens die 2. Gen.

Ich glaube kaum, dass jemand das Potenzial verkennt. Das Problem ist halt 0 Marktdurchdringung, 0 Content, wahrscheinlich grottige Performance zu Beginn. So wie immer.

Geächteter
2018-08-16, 03:55:58
Ich glaube kaum, dass jemand das Potenzial verkennt. Das Problem ist halt 0 Marktdurchdringung, 0 Content, wahrscheinlich grottige Performance zu Beginn. So wie immer.
Nur dass es heute viel länger dauert dank ausgelutschter Halbleiterindustrie und auch in mittelbarer Zeit ganz fertig mit Fortschritt sein kann.

Leonidas
2018-08-16, 07:03:04
Reine Spekulation basierend auf: Quadro RTX 5000 Specs + Preis ($2,300 ESP)
https://nvidianews.nvidia.com/news/nvidia-unveils-quadro-rtx-worlds-first-ray-tracing-gpu

GeForce "RTX 2080":

Basierend auf Turing uArch
26 TCPs
52 SMs
3328 FP32 Cores
104 Tensor Cores (1/32 der CUDA Cores)
2105 MHz GPU Takt
14 TFLOP/s FP32 Peak
2-3 GigaRays/s
208 Texture Units
256 bit SI
8 GiB GDDR6 (kann mir auch 16 GiB vorstellen)


Editiert... Und jetzt haut mich. :P



Ja, ich haue Dich: Mehr als 3072 SE sind nicht drin.

Locuza
2018-08-16, 07:39:44
[...]
Ich weiss uebrigens nicht wie du das mit deinem Weltbild zusammen bringen wirst, aber ich hab da einen Schocker fuer dich: Tesselation funktioniert nicht mit Raytracing zusammen.
Wieso kann man die Geometrie-Modifikation von Tessellation nicht mit der DXR-Pipeline kombinieren?

----------------

Ganz anderes Thema, es gab das Gerücht das Turing der Nachfolger von Volta sein wird und Ampere für Gamer erscheint und sicherlich gab es genau die gegenteilige Berichterstattung, sodass anfangs niemand einen Durchblick hatte, aber zeichnet sich schon ein Bild ab, ob die Geforce GPUs auf Turing basieren werden, wie bei den neulich vorgestellten Quadro-GPUs oder bekommen Gamer eine andere Architekturbasis?

Loeschzwerg
2018-08-16, 07:53:37
Ich gehe davon aus dass Turing so auch für Gamer Bestand haben wird, das wäre sonst doch zu teuer (Masken, Entwicklung usw.) und der Name RTX wird von den Gerüchten auch schon für Geforce ins Feld geführt.

Ampere dann 7nm?

Spasstiger
2018-08-16, 07:56:58
Ich frage mich, ob ein Turing bei vergleichbaren Herstellkosten und konventionellem Rendering überhaupt schneller ist als Pascal.

PHuV
2018-08-16, 07:58:32
Interessant, wenn man sich wieder alte Meldungen anschaut:

02.04.2014 Nvidia: Entwicklung gebremst, Volta wohl noch vor 2020 (https://www.heise.de/newsticker/meldung/Nvidia-Entwicklung-gebremst-Volta-wohl-noch-vor-2020-2160743.html)
Die Titan V kam Dezember 2017, sprich 2 Jahre früher als gedacht.

Ist jemanden schon aufgefallen, daß bei Volta und Turing kein Wort über Unified Memory gefallen ist.

Adam D.
2018-08-16, 08:29:28
Ich frage mich, ob ein Turing bei vergleichbaren Herstellkosten und konventionellem Rendering überhaupt schneller ist als Pascal.
Die fast lächerlich gute Marge, die Nvidia mit Pascal erzielen konnte, wird sich nur durch noch extremere Preise halten lassen mit Turing. NV wird das bestimmt versuchen.

Und natürlich wird Turing schneller in jedem Szenario, was soll denn sonst mit mehr Einheiten und höherem Takt bei vergleichbarer Architektur passieren?

AffenJack
2018-08-16, 08:32:41
Ganz anderes Thema, es gab das Gerücht das Turing der Nachfolger von Volta sein wird und Ampere für Gamer erscheint und sicherlich gab es genau die gegenteilige Berichterstattung, sodass anfangs niemand einen Durchblick hatte, aber zeichnet sich schon ein Bild ab, ob die Geforce GPUs auf Turing basieren werden, wie bei den neulich vorgestellten Quadro-GPUs oder bekommen Gamer eine andere Architekturbasis?

Gaming ist Turing. Wurde auch durch das Teaservideo praktisch bestätigt. Ansonsten basierten die Quadros ja schon immer auf den Gamingkarten. Ampere ist der Volta Nachfolger.

Nur weil nicht alle so gehypt sind wie du und consumerkarten und passende Software erst Mal abwarten wollen? wir haben von allen Seiten schon so viel geblubber gehört in den letzten Jahren und ihr springt auf beherzt auf jeden hypetrain der an euch vorbei tuckert. Kann man angebrachte Skepsis nicht mal als das akzeptieren was sie ist, nämlich in vielen Fällen gut und nicht unbegründet, ohne dass jeder thread von den immer gleichen Leuten kaputt getextet wurde bis man das nächste mal vorbei schaut?

Liegt vielleicht auch daran, dass von den gleichen Leuten die RT jetzt als unwichtig erachten, jedes klitzekleine Vegafeature als die Erlösung überhaupt gehypt wurde.

Es ist klar, dass RT nicht sofort riesengroß kommen wird und erstmal nur in einigen Spielen eingesetzt werden wird. Aber soweit ich das immer verstanden habe, hat RT den Vorteil, dass es einfach zu programmieren ist. Damit hat RT das Potential, dass wir, solange Konsolen RT nicht können, am PC eine Zweiteilung kriegen:
1. Multiplattform 1:1 wie Konsole
2. PC Optimierung mit RT.
Für einen Entwickler kann es eher Sinn machen Dinge wie RT in die Engine einzubauen, da dies als Zukunft betrachtet wird. Er kann das im kleinen Maßstab testen, als sich den Aufwand für andere Grafiksteigerungen am PC zu machen.
Wieviel es am Ende wirklich genutzt wird, das müssen wir eben sehen.

mboeller
2018-08-16, 08:34:20
Wieso kann man die Geometrie-Modifikation von Tessellation nicht mit der DXR-Pipeline kombinieren?


weil du die Geometrie während des Renderings veränderst und damit Raytracing nicht mehr funktioniert.
Tesselation "zerstört" viele Rendering-Techniken. Zum Beispiel auch Raycasting bzw. TBDR ala PowerVR

pilzsammler2002
2018-08-16, 08:53:52
weil du die Geometrie während des Renderings veränderst und damit Raytracing nicht mehr funktioniert.
Tesselation "zerstört" viele Rendering-Techniken. Zum Beispiel auch Raycasting bzw. TBDR ala PowerVR

Dann sollte AMD ja genauso schnell sein wie Nvidia :freak::freak::freak:

Hm im ernst, dadurch müsste ja einiges aus der Nvidia Arch (was bisher Vorteil war) wegfallen bzw liegt brach im Raytracing Einsatz...

PHuV
2018-08-16, 09:06:31
Nvidia Turing: Hinweise auf Geforce RTX 2080 Ti, Kerne, Taktraten und Preise (http://www.pcgameshardware.de/Volta-Codename-266151/Specials/Nvidia-Ampere-Geforce-Informationen-1244366/)

Wenn sich das bewahrheitet, wäre die neue Generation doch sehr "konservativ" ausgestattet wie bisher:

Titan 12 GiB
2080TI 11 GiB, 1.500 MHz Kerntakt, 3.500 MHz Speichertakt, 4.352 Shaderkerne, 272 TMUs und 88 ROPs
2080 8 GiB, mit 1.515-1.525 MHz, 1.515-1.525 Speichertakt, 2.944 Shaderkerne, 184 TMUs und 64 ROPs, 649 USD, schneller als Titan V (15%)

AffenJack
2018-08-16, 09:17:53
Nvidia Turing: Hinweise auf Geforce RTX 2080 Ti, Kerne, Taktraten und Preise (http://www.pcgameshardware.de/Volta-Codename-266151/Specials/Nvidia-Ampere-Geforce-Informationen-1244366/)

Wenn sich das bewahrheitet, wäre die neue Generation doch sehr "konservativ" ausgestattet wie bisher:

Titan 12 GiB
2080TI 11 GiB, 1.500 MHz Kerntakt, 3.500 MHz Speichertakt, 4.352 Shaderkerne, 272 TMUs und 88 ROPs
2080 8 GiB, mit 1.515-1.525 MHz, 1.515-1.525 Speichertakt, 2.944 Shaderkerne, 184 TMUs und 64 ROPs, 649 USD, schneller als Titan V (15%)


Die Performance ist schonmal völlig unglaubwürdig. Ne 2080 wird auf keinen Fall ne Titan V um 15% schlagen. Ansonsten sind die Angaben aber durchaus möglich, aber der Takt ist auch zu niedrig. Die Quadros takten mit ~1700mhz, das wird eher mehr im Desktop. Der Vollausbau von Gt104 entspricht wohl der Quadro RTX5000, daher 3072 Shader. Es wäre nur enttäuschend, wenn die 2080 nichtmal der Vollausbau wird.

robbitop
2018-08-16, 09:20:44
Da laut dem letzten Test der CB Vega64 Referenz leicht vor GP102 steht sehe ich hier keinen Bedarf die Bandbreite zu senken. :)
https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

Immerhin hat GP102 die gleiche Bandbreite. Auch bitte nicht vergessen, dass die Implementierung von AC in dem Spiel auf Radeon fehlerhaft ist. Anstatt Radeon zu beschleunigen bremst es etwas. Da das Spiel eh schon sehr schnell performt hatte man keine Lust mehr das zu fixen.
Bin ich blind? Der Performanceindex in deinem Link zeigt leichten Vorsprung ggü GP104 (1080 Referenz). GP102 (1080ti Referenz) liegt 24% davor in 1440p.
Man kann sich also eher an der Transistorzahl und der Bandbreite von GP104 messen.

ShinyMcShine
2018-08-16, 09:22:21
2080 8 GiB, mit 1.515-1.525 MHz, 1.515-1.525 Speichertakt, 2.944 Shaderkerne, 184 TMUs und 64 ROPs, 649 USD, schneller als Titan V (15%)

Hmm, im Vergleich zur 1080 (die 2560 Shader, 160TMUs und ebenfalls 64 ROPs hat) soll die 2080 so viel schneller sein? Insbesondere wenn ich mir diesen "konservativen" Takt anschaue, kann ich das schwer glauben. Wahrscheinlich beziehen sich diese 15% auf spezielle Fälle. Ich glaube nicht, dass hier die "overall performance" 15% höher liegen wird als bei der Titan V...

Dural
2018-08-16, 09:26:55
Nvidia Turing: Hinweise auf Geforce RTX 2080 Ti, Kerne, Taktraten und Preise (http://www.pcgameshardware.de/Volta-Codename-266151/Specials/Nvidia-Ampere-Geforce-Informationen-1244366/)

Wenn sich das bewahrheitet, wäre die neue Generation doch sehr "konservativ" ausgestattet wie bisher:

Titan 12 GiB
2080TI 11 GiB, 1.500 MHz Kerntakt, 3.500 MHz Speichertakt, 4.352 Shaderkerne, 272 TMUs und 88 ROPs
2080 8 GiB, mit 1.515-1.525 MHz, 1.515-1.525 Speichertakt, 2.944 Shaderkerne, 184 TMUs und 64 ROPs, 649 USD, schneller als Titan V (15%)


Sorry aber das ist doch völliger Blödsinn wenn die Quadro schon mit 1750MHz taktet :rolleyes:

deekey777
2018-08-16, 09:29:34
Als alle noch unschuldig waren: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=407773

dargo
2018-08-16, 09:34:20
Bin ich blind?
Auf "bearbeiten" klicken um einzelne Games isoliert betrachten zu können. Bei Wolf 2 und Battlefront 2 heißt es bei CB Vega64 = ~GP102.

mironicus
2018-08-16, 09:34:45
Ich hoffe doch, das die meisten hier eine GTX 2080 nicht wegen einem neuen Feature kaufen werden, dass man nur in einer Techdemo bewundern kann.

Mangel76
2018-08-16, 09:34:53
Bin ich blind? Der Performanceindex in deinem Link zeigt leichten Vorsprung ggü GP104 (1080 Referenz). GP102 (1080ti Referenz) liegt 24% davor in 1440p.
Man kann sich also eher an der Transistorzahl und der Bandbreite von GP104 messen.

Bitte die ganze Konversation beachten! dargo bezog sich ausdrücklich auf Wolfenstein 2. Man muss in der Liste dieses Spiel auswählen, dann sollte klar werden, worum es geht!

Triniter
2018-08-16, 09:40:13
Als alle noch unschuldig waren: https://www.forum-3dcenter.org/vbulletin/showthread.php?t=407773

10 Jahre ist das her, also die Zeitspanne seit der Nvidia in etwa an Turing arbeitet.

Fragman
2018-08-16, 09:43:09
D und die StarWars Demo auf einer 2080 äuivalenten Karte nur mit 24 fps laufen

das ding hat vor monaten noch 4 karten gebraucht, heute laeuft es auf 1 (!) mit 24 frames, da kann man sich vorstellen was in 2 jahren mit 7nm sein wird, wenn man noch viel platz fuer rt einheiten hat.
aus der sicht von techdemos ist das schon mehr als ueberzeugend und die performance scheint heut schon fuer standardsachen auszureichen, wie sie metro bieten wird.

wie man das alles so negativ sehen kann, erschliesst sich mir nicht. nv zeigt hier wirklich etwas nutzbares und keine reine techdemo.

Bucklew
2018-08-16, 09:44:10
10 Jahre ist das her, also die Zeitspanne seit der Nvidia in etwa an Turing arbeitet.
2008 gab es auch eine Raytracing Demo von NVIDIA:
https://www.hexus.net/tech/news/graphics/15059-nvidia-enters-race-ray-tracing-gpu-demo/

Hab ich damals auf 6 Quadro FX5800 (GT200) laufen lassen ;D

robbitop
2018-08-16, 09:47:22
Ich kann mir kaum vorstellen, dass GT104 in herkömmlichen 3D Pipelines (also alle aktuellen 3D Spiele) schneller ist als eine GV100. Da ist die Differenz der Rohleistung IMO einfach zu groß. In Raytracing mag das stimmen.

Troyan
2018-08-16, 09:51:01
Ich kann mir kaum vorstellen, dass GT104 in herkömmlichen 3D Pipelines (also alle aktuellen 3D Spiele) schneller ist als eine GV100. Da ist die Differenz der Rohleistung IMO einfach zu groß. In Raytracing mag das stimmen.

RTX6000 ist laut nVidia fast 50% schneller als TitanV beim Rasterizing.

pilzsammler2002
2018-08-16, 09:55:31
wie man das alles so negativ sehen kann, erschliesst sich mir nicht. nv zeigt hier wirklich etwas nutzbares und keine reine techdemo.

Also aktuell sind es nur "Videos" bzw feste abläufe... Ich persönlich warte erstmal Games ab wo ich mich abseits der vorgegebenen Wege bewegen kann um es dann zu bewerten... :biggrin:
Raytracing war früher schon sehr interessant aber muss jetzt erstmal Performant laufen, das erkenne ich aber nicht anhand von Youtube Videos die genauso gut vorgerendert sein können :freak:

robbitop
2018-08-16, 10:10:39
RTX6000 ist laut nVidia fast 50% schneller als TitanV beim Rasterizing.

Eine moderne 3D Pipeline besteht aus weit aus mehr als Rasterizen. :)
Die Frage ist, wie es in realen Spielen aussieht. GV100 hat 16,6 TFLOPs und 868 GB/s Bandbreite.
GT104 hat 3072 SPs. Bei ~2 GHz komme ich auf 12,3 TFLOPs und 448 GB/s.
Das sind 35% mehr Rohleistung und 93% mehr Bandbreite. Ich kann mir kaum vorstellen, dass man dann noch schneller sein kann. In normalen 3D Spielen.

Fragman
2018-08-16, 10:12:25
Also aktuell sind es nur "Videos" bzw feste abläufe... Ich persönlich warte erstmal Games ab wo ich mich abseits der vorgegebenen Wege bewegen kann um es dann zu bewerten... :biggrin:
Raytracing war früher schon sehr interessant aber muss jetzt erstmal Performant laufen, das erkenne ich aber nicht anhand von Youtube Videos die genauso gut vorgerendert sein können :freak:

ich denke mal sie werden am montag gleich was zeigen.
skepstisch sollte bleiben, natuerlich, vor allem wieviel die karte auf einmal bewaeltigen kann. aber nv hat das thema seit ueber 10 jahren aufgebaut, ich denke nicht, das die einheiten verbauen, die zu schwach sind fuer ein bisschen extra zeug wie ao und gi mit denoise.

Troyan
2018-08-16, 10:15:42
Eine moderne 3D Pipeline besteht aus weit aus mehr als Rasterizen. :)
Die Frage ist, wie es in realen Spielen aussieht. GV100 hat 16,6 TFLOPs und 868 GB/s Bandbreite.
GT104 hat 3072 SPs. Bei ~2 GHz komme ich auf 12,3 TFLOPs und 448 GB/s.
Das sind 35% mehr Rohleistung und 93% mehr Bandbreite. Ich kann mir kaum vorstellen, dass man dann noch schneller sein kann. In normalen 3D Spielen.

Siehe das Bild von UE4 mit den Leistungswerten.
Auch der Keynote-Vergleich beim Raytracing hat gezeigt, dass Turing bei Rasterizing und Shading erheblich schneller ist als die 33%...

robbitop
2018-08-16, 10:21:52
Ich bin gespannt - aber skeptisch. Gesetz des sinkenden Grenzertrags greift ja leider nahezu überall. Wenn sich das bewahrheitet, wäre das faszinierend und damit eine riesen Leistung der µArch. Nach dem Sprung von Maxwell-> Kepler aber wegen eben dieses Gesetzes nur schwer zu glauben.

Grafikleistung kann man IMO nie genug haben. :) (5K DS auf einem 1440p Monitor mit hoher Refreshrate)

Spannend wird IMO auch, ob Turing HDMI 2.1 inkl. VRR unterstützt (man stelle sich vor auf einem 65" 4K OLED mit 120Hz inkl VRR zu spielen). Das würde aber deren BFGs ggf kanibalisieren. Deshalb bin ich auch hier skeptisch.

dargo
2018-08-16, 10:28:56
@robbitop

Da ich leider die Testszenen der CB nicht kenne habe ich einfach eine beliebige Szene gewählt die ähnliche Framerate liefert wie der Durchschnitt bei CB in Witcher 3. Dort ist die Vega64 minimal vor GP104. PP-Table + Powerlimit der Referenz Vega64 habe ich drin, sowie Bandbreiten von 484GB/s, 402GB/s und 320GB/s. Letzteres entspricht exakt GP104.

https://abload.de/img/witcher3_2018_08_16_11qcvi.jpg

https://abload.de/img/witcher3_2018_08_16_1e0i4f.jpg

https://abload.de/img/witcher3_2018_08_16_1p6dow.jpg

Wie hast du mich denn bei dem Satz verstanden? Trollst du uns seit zwei Tagen?
Jetzt bin ich auch leicht verwirrt. :usweet:

EinName
2018-08-16, 10:41:34
das ding hat vor monaten noch 4 karten gebraucht, heute laeuft es auf 1 (!) mit 24 frames, da kann man sich vorstellen was in 2 jahren mit 7nm sein wird, wenn man noch viel platz fuer rt einheiten hat.
aus der sicht von techdemos ist das schon mehr als ueberzeugend und die performance scheint heut schon fuer standardsachen auszureichen, wie sie metro bieten wird.

wie man das alles so negativ sehen kann, erschliesst sich mir nicht. nv zeigt hier wirklich etwas nutzbares und keine reine techdemo.


Nu is aber gut - ich habe mehrmals betont, dass ich die Technik an sich gut finde und als den Weg in die Zukunft erachte. Hier geht es aber darum warum ich Nvidia mehrere hundert Euro für eine Graka geben soll - und eine knapp 30fps Techdemo zählt eben nicht dazu.

Erinnert mich ein wenig an eine Voodoo 1 - hatte ich damals wie viele andere, richtig gut liefen die games dann aber erst mit der V2. Abseits von "woaaahh, sieht das gut aus!" war mit der Voodoo1 kaum Start zu machen sobald es mal was schneller wurde ;-)

Muss ja jeder für sich selbst entscheiden, aktuell sehe ich halt in RT keinerlei Kaufgrund.

P.S.: Was wird jetzt eigentlich aus den NV 4k HDR sonstwas Displays wenn die Zukunft in FullHD mit RT liegt? ;D

iuno
2018-08-16, 10:51:22
Interessant, wenn man sich wieder alte Meldungen anschaut:

02.04.2014 Nvidia: Entwicklung gebremst, Volta wohl noch vor 2020 (https://www.heise.de/newsticker/meldung/Nvidia-Entwicklung-gebremst-Volta-wohl-noch-vor-2020-2160743.html)
Die Titan V kam Dezember 2017, sprich 2 Jahre früher als gedacht.

Ist jemanden schon aufgefallen, daß bei Volta und Turing kein Wort über Unified Memory gefallen ist.

Siehst doch selbst dass Namen hin und her geschoben werden. Was ursprünglich als Volta angekündigt wurde ist nicht das, was letztlich als Volta kam. Und Unified memory hatte schon Pascal.


Hier geht es aber darum warum ich Nvidia mehrere hundert Euro für eine Graka geben soll - und eine knapp 30fps Techdemo zählt eben nicht dazu.

Mal ganz davon abgesehen dass überhaupt nicht klar ist was da für consumer Varianten kommen ist ja keiner gezwungen irgendwas zu kaufen.

Bucklew
2018-08-16, 11:16:14
Ich bin gespannt - aber skeptisch. Gesetz des sinkenden Grenzertrags greift ja leider nahezu überall. Wenn sich das bewahrheitet, wäre das faszinierend und damit eine riesen Leistung der µArch. Nach dem Sprung von Maxwell-> Kepler aber wegen eben dieses Gesetzes nur schwer zu glauben.
Ein neuer Kepler->Maxwell Sprung ist sicherlich schwierig, aber auch nicht unmöglich.

Ich denke NVIDIA plant inzwischen immer eine Generation mit Architekturverbesserungen ein, um den ausbleibenden Fertigungswechsel zu kompensieren.

Leonidas
2018-08-16, 11:53:25
Ich denke NVIDIA plant inzwischen immer eine Generation mit Architekturverbesserungen ein, um den ausbleibenden Fertigungswechsel zu kompensieren.


Hoffen wir auf das beste (und erwarten das schlimmste).

monstar-x
2018-08-16, 11:58:06
Ausgehend von dem jetzigen Wissenstand über 2080.
Wo kann man die Karte einstufen? Ist sie schneller als eine 1080 TI oder vermutlich 5-10% langsamer.

reaperrr
2018-08-16, 12:02:48
RTX6000 ist laut nVidia fast 50% schneller als TitanV beim Rasterizing.
Wenn ich mir den von Nvidia gezeigten "Die-Shot" (ist ja kein richtiger bzw. bearbeitet, damit man nicht zu viele Details erkennt) von GT102 so ansehe, sieht es danach aus, dass Nvidia die Zahl der GPCs je GPU verdoppelt. GT104 hätte dann 8, wenn man die noch ~14-15% höher taktet als die Titan V, kommt das gut hin.

dildo4u
2018-08-16, 12:05:57
Ausgehend von dem jetzigen Wissenstand über 2080.
Wo kann man die Karte einstufen? Ist sie schneller als eine 1080 TI oder vermutlich 5-10% langsamer.
Schneller als Titan xp.

https://wccftech.com/nvidia-geforce-rtx-2080-alleged-specs-surface-say-hello-to-the-new-gaming-king/

robbitop
2018-08-16, 12:09:01
Auf "bearbeiten" klicken um einzelne Games isoliert betrachten zu können. Bei Wolf 2 und Battlefront 2 heißt es bei CB Vega64 = ~GP102.
Ah ok. Danke. Wobei Dice und id leider nicht der Maßstab sein dürften. Beide haben die besten Leute der Industrie und stecken eine ganze Menge Aufwand in die Optimierung des Shadercodes.

Aber ggf. lässt sich daraus ein Rückschluss in Bezug auf Bandbreiteneffizienz schließen - die hat mit dem Shadercode nicht unmittelbar zu tun. :)

Dennoch wäre es interessant, eine Skalierung der Bandbreite auf die Leistung in generellen Titeln zu machen. Ggf. steht man was Bandbreiteneffizienz angeht dann doch ein gutes Stück besser da.

Ich meine mich erinnern zu können, dass die Einsparung aus dem DSBR aber auch stark unterschiedlich je nach Spiel war. Ggf. kann der Entwickler auch dort etwas dafür tun.

Im 100% Schnitt wird man sich aber nie darauf verlassen können, dass alle Studios für eine bestimmte µArch und entsprechenden Shadercompiler so optimieren wie es id und DICE tun. Insofern ist Kontrolllogik in HW gegossen sicher der richtige Weg, hier auch den Gesamtschnitt zu verbessern. Wie gesagt - ich gehe davon aus, dass AMD daran arbeitet.
---------------
edit: gerade gesehen, dass du in W3 einen Skalierungstest gemacht hast. Scheint sich ja tatsächlich mehr in Bezug auf BB Effizienz getan zu haben @Vega ggü Polaris als ich dachte. :)

yamo
2018-08-16, 12:11:33
Ich empfinde die Diskussion bzgl. RT sehr befremdlich. Ohne Euphorie finde ich in HW gegossenes RT geil und freue mich drauf:freak: Daß dabei Hürden zu überwinden sind ist doch klar. Warum wird immer gemeckert, wenn unerwartet einen technische Innovation erscheint? NV ist leider führend und hätte es eigentlich gar nicht nötig, so einen Change zu bringen.
Ich bin gespannt, wie sich die VR-Leistung der neuen GPU auswirken wird.
Aber ich werde nicht wieder die Flanders Edition kaufen, da warte ich auf die 2080ti. Schön unter Wasser sollte die schon rennen.

robbitop
2018-08-16, 12:20:19
Wenn ich mir den von Nvidia gezeigten "Die-Shot" (ist ja kein richtiger bzw. bearbeitet, damit man nicht zu viele Details erkennt) von GT102 so ansehe, sieht es danach aus, dass Nvidia die Zahl der GPCs je GPU verdoppelt. GT104 hätte dann 8, wenn man die noch ~14-15% höher taktet als die Titan V, kommt das gut hin.

Interessant.

GP100/102 hat 6 GPC und somit im Vollausbau 640 SM/GPC
GV100 hat wohl ebensfalls nur 6 GPCs (gem Anandtech) -> 896 SM/GPC

Wenn das mit der Verdopplung stimmt, hätte GT102 384 SM/GPC (12 GPC bei 4608 SM) und GT104 ebenfalls 384 SM/GPC (8 GPC bei 3072 SM).

Würde die Geometrieleistung erhöhen. Somit mehr Kontrolllogik pro SM. Könnte sein, dass das auch die Effektive Leistung erhöht.

IIRC hat man bei GF104 die GPCs ggü GF100/110 auch verdoppelt. Da kam auch etwas mehr Leistung pro Rohleistung raus.

dildo4u
2018-08-16, 12:23:31
Ah ok. Danke. Wobei Dice und id leider nicht der Maßstab sein dürften. Beide haben die besten Leute der Industrie und stecken eine ganze Menge Aufwand in die Optimierung des Shadercodes.

Aber ggf. lässt sich daraus ein Rückschluss in Bezug auf Bandbreiteneffizienz schließen - die hat mit dem Shadercode nicht unmittelbar zu tun. :)

Dennoch wäre es interessant, eine Skalierung der Bandbreite auf die Leistung in generellen Titeln zu machen. Ggf. steht man was Bandbreiteneffizienz angeht dann doch ein gutes Stück besser da.

Ich meine mich erinnern zu können, dass die Einsparung aus dem DSBR aber auch stark unterschiedlich je nach Spiel war. Ggf. kann der Entwickler auch dort etwas dafür tun.

Im 100% Schnitt wird man sich aber nie darauf verlassen können, dass alle Studios für eine bestimmte µArch und entsprechenden Shadercompiler so optimieren wie es id und DICE tun. Insofern ist Kontrolllogik in HW gegossen sicher der richtige Weg, hier auch den Gesamtschnitt zu verbessern. Wie gesagt - ich gehe davon aus, dass AMD daran arbeitet.
---------------
edit: gerade gesehen, dass du in W3 einen Skalierungstest gemacht hast. Scheint sich ja tatsächlich mehr in Bezug auf BB Effizienz getan zu haben @Vega ggü Polaris als ich dachte. :)
Ich würde nicht viel auf Wolf2 zwei geben das scheint je nach Level anders zu performen.

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11770515&postcount=10426

Was auch Sinn macht meistens nutzt nur der Entwickler der alle stärken und Schwächen der Engine kennt und das Game danach ausrichtet.
Bzw MachineGames kommt mit dem Streaming unter Vulkan nicht klar,Geforce mit 11GB sind weit vor sogar der Vega 64 LC.


GTX1080 4k 48fps,Vega64 LC 66fps,1080Ti 83fps.

https://farm2.staticflickr.com/1820/44019502102_6028b768ab_h.jpg (https://flic.kr/p/2a4RsmN)IMG_20180816_121912_573 (https://flic.kr/p/2a4RsmN) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Edgecrusher86
2018-08-16, 12:25:30
Ich glaube diese Folie gab es hier noch nicht:

https://abload.de/img/dkqljvjucaajjoj2gdwo.jpg

reaperrr
2018-08-16, 12:30:23
Schneller als Titan xp.

https://wccftech.com/nvidia-geforce-rtx-2080-alleged-specs-surface-say-hello-to-the-new-gaming-king/
Die "Expected" Spalte kannst du getrost ignorieren, das ist bloßes Wunschkonzert.
Dass die 2080 in vereinzelten Titel mal vor der Xp landet kann ja sein, aber im Durchschnitt über die meisten Spiele hinweg wohl kaum.

Der Chip (wasauchimmer-104) wird ca. 500mm² groß, deshalb ist es a) sehr wahrscheinlich, dass aus Yield-Gründen diesmal auch bei der 2080 tatsächlich zumindest ein SM deaktiviert ist, und b) bei der Fläche reichen selbst größere Architektur-Verbesserungen nicht aus, um den Chip beim Verhältnis von Takt zu Verbrauch auf geschweige denn über GP104-Niveau zu halten.
Die Referenz-Taktraten werden definitiv eher der Spalte "rumored" entsprechen.
Außerdem liegt Speicherbandbreite und -größe unter der Xp.

Und OC ist kein Argument, das kann man schließlich auch bei der 1080 und Xp.

Wegen der überproportional ansteigenden Speicherbandbreite und Architekturverbesserungen wird die 2080 sicher ~25-30% vor der 1080 landen, und damit in einigen Titeln auf 1080Ti-Niveau, aber darüber höchstens in speziellen Fällen, die unverhältnismäßig von den Architektur-Verbesserungen profitieren.

Dural
2018-08-16, 12:35:48
Ich wäre mir da nicht so sicher ;)