PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : Diskussion zu: Hardware- und Nachrichten-Links des 23. November 2018


Leonidas
2018-11-24, 11:15:36
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-23-november-2018

cat
2018-11-24, 12:10:27
Völlig richtig, wie soll ein Strahl für z.B. korrekte Global-Illumination Teile der Szene berühren, wenn diese schon beim CPU- EarlyZ- oder wann auch immer vorher schon ge-culled, also verworfen wurden.

Das ist der Grund warum "vorerst" zumindet mit aktuellem Stand der Technik (Hardware/Software/Algomythmen) kein Games mit RT-GI kommen werden.

Das hat mindesten 2 Gründe auf der HW-seite:
1.)
Man kann nicht so stark durch aktuelle Culling-Techniken der Rasteriser-Technik sparen, das treibt die Millisekunden hoch.

Selbst deutlich schnellere Karten (2-fach) als eine 2080Ti hätten vermutlich immernoch Probleme, auch auf der RT-seite

iamthebear
2018-11-24, 12:49:23
Ein Problem von Raytracing ist, dass der Aufwand linear mit der Anzahl der Pixel steigt d.h. man wird sich auch langfristig zwischen 4K und Raytracing entscheiden müssen und so viel sind die paar Spiegeleffekte dann doch nicht wert.

Troyan
2018-11-24, 13:35:32
Stimmt, die "paar" Spiegelungen. Dir ist schon klar, dass 4K nicht 4K ist, wenn es zu den "paar" Spiegelungen kommt? Das Vergleichsvideo zeigt ziemlich eindeutig, wie wenig 4K im Bild ist, wenn Entwickler anfangen viel mehr visuell auf Reflektionen zu setzen.

Dein 4K ist dann in vielen Bereichen ein verpixeltes, undefiniertes 4K Bild.

Nur weil man 4K einstellt, bekommt man in vielen Fällen kein richtiges 4K: Post-AA und niedrig aufgelöste Screen-Space Effekte zerstören den Zugewinn der 4x Pixelanzahl gegenüber 1080p.

Dino-Fossil
2018-11-24, 13:36:09
Ist schon ironisch - da gibt es jetzt endlich langsam "echte" 4K Karten und schon kommt ein neues fps-Killer-Feature, dass den Fortschritt wieder zunichte macht. :biggrin:

Wie auch immer. Es ist dann doch interessant zu sehen, wie gut auch die "Fake"-Techniken letztenendes sein können. Damit wird es angesichts der fps-Einbrüche natürlich noch schwerer, sich als Spieler pro-RT zu entscheiden.

Gast
2018-11-24, 14:33:19
Raytracing bei der 7nm Consolengeneration wäre locker möglich. Schließlich wurde schon vor Jahren eine Raytracing GPU in 28nm (https://www.imgtec.com/blog/imagination-technologies-the-ray-tracing-pioneers/) mit nur 2W Verbrauch für mobile Geräte (https://www.youtube.com/watch?v=LyH4yBm6Z9g) entwickelt. Nvidias ineffizienten Raytracing-Versuch (100-facher Verbrauch für die gleiche RT-Performance) sollte man nicht als Maßstab nehmen.

Fusion_Power
2018-11-24, 15:26:36
Schon seit gefühlt 20 Jahren kocht das Thema "Raytracing in Spielen" hoch, gab schon für Quake 3 entsprechende Demos. Nach wie vor sehe ich aber keinen wirklichen Sinn darin, sowas aufwendiges in Spiele einzubauen, noch dazu in schnelle Egoshooter wo garantiert kein Mensch auf die korrekte Umgebunsreflexion in Pfützen achtet. Ehr stellen die Spieler Details runter um noch mehr FPS rauszuholen. Solange es richtiges Raytracing nicht "kostenlos" in Mainstream-Grafikkarten gibt, wird sich das für Spiele nicht durchsetzen. Einfache Kosten-Nutzen-Rechnung.
Ich persönlich mag Raytracing da wos hingehört: wenn ich in Blender auf F12 drücke und meine Szenerie möglichst photorealistisch gerendert wird. :)

Gast
2018-11-24, 17:37:06
Völlig richtig, wie soll ein Strahl für z.B. korrekte Global-Illumination Teile der Szene berühren, wenn diese schon beim CPU- EarlyZ- oder wann auch immer vorher schon ge-culled, also verworfen wurden.



Der RT-Pass ist unabhängig vom Raster-Pass.
Early-Z braucht es beim Raytracing nicht, da dieses quasi automatisch vorhanden ist, der Strahl trifft immer auf das nächste sichtbare Dreieck und nicht auf ein Dreieck, welches durch ein anderes verdeckt ist, und Early-Z im beim Rasterizing stört den RT-Pass auch überhaupt nicht, weil dieser davon unabhängig ist.

Vereinfacht gesagt ist lösen Rasterizing und Raytracing ja das selbe Problem von 2 unterschiedlichen Seiten aus.

Beim Rasterizing wirft man Dreieck für Dreieck in die Renderpipeline und ermittelt wo am Bildschirm diese im Ende zu sehen sind (oder auch nicht, da es zu diesem Zeitpunkt ja noch keine Informationen über mögliche Verdeckungen gibt).
Beim Raytracing ist der Ausgangspunkt dagegen das zu berechnende Pixel, und der Algorithmus ermittelt das dazugehörige Dreieck.

Im Grunde ist Raytracing nichts anderes als ein Suchalgorithmus, dieser sucht nur nicht irgendeinen Wert in einer Datenbank sondern das richtige Dreieck aus dem großen Haufen an Dreiecken, welche die gesamte Szene ausmachen.
Das große Optimierungspotential ist diesen Suchalgorithmus möglichst effizient zu gestalten. Und um effizient zu suchen muss man die zu durchsuchenden Daten irgendwie sortieren, ansonsten bleibt nur der ineffiziente weg alle Daten auf mögliche Treffer zu durchsuchen.
Der Schlüssel ist also die zu durchsuchende Datenstruktur möglichst effizient zu gestalten, und zusätzlich, je nachdem wie dynamisch diese Daten sind muss es auch effizient möglich sein die Datenstruktur zur Laufzeit zu ändern.

Bei Battlefield liegt da mit Sicherheit noch einiges an Optimierungspotential brach. Auffällig ist beispielsweise der teilweise extrem niedrige Verbrauch der Grafikkarten. Als die RTX-Karten veröffentlicht wurden, war die Befürchtung da, dass die Taktraten unter Raytracing deutlich abnehmen würden, da dann mehr Hardware im Einsatz ist die auch Strom braucht.

Aktuell ist es aber umgekehrt, während die RTX-Karten in "normalen" Spielen praktisch immer am Powerlimit hängen, ist das in Battlefield mit Raytracing überhaupt nie der Fall (die 2080Ti kommt da teilweise auf unter 200W), die gesamte GPU wird also mit Raytracing deutlich weniger ausgelastet.
Da liegt wohl sowohl bei der Software und evtl auch beim Grafiktreiber noch einiges Brach und macht Hoffnung auf deutliche Performanceverbesserungen mit Raytracing.

F4USt
2018-11-24, 21:44:54
Raytracing bei der 7nm Consolengeneration wäre locker möglich. Schließlich wurde schon vor Jahren eine Raytracing GPU in 28nm (https://www.imgtec.com/blog/imagination-technologies-the-ray-tracing-pioneers/) mit nur 2W Verbrauch für mobile Geräte (https://www.youtube.com/watch?v=LyH4yBm6Z9g) entwickelt. Nvidias ineffizienten Raytracing-Versuch (100-facher Verbrauch für die gleiche RT-Performance) sollte man nicht als Maßstab nehmen.

Das mit dem Raytracing bei 2 Watt Verbrauch wurde schon mehrmals erwähnt. Warum greift das niemand auf?

Gast
2018-11-25, 00:50:34
Das mit dem Raytracing bei 2 Watt Verbrauch wurde schon mehrmals erwähnt. Warum greift das niemand auf?

Weil es ein blödsinniger Vergleich ist.

Bei den 2 Watt Verbrauch waren glaub ich 100MRays/s oder so drinnen, die 2080Ti erreich 10GRays/s.

Vor allem ist es ein ziemlicher Äpfel/Birnen-Vergleich.

Nazar
2018-11-25, 03:11:37
Der Artikel liest sich seltsam. Es klingt so, als ob zuerst aus Leistunggründen ein Kugel ausgehöhlt wurde und nun, da man mehr Leistung hat, diese Kugel wieder füllt, nur das man vergisst, dass die Füllung gar keinen Sinn/Vorteil ergibt. Die Lesitung ist nämlich gar nicht groß genug, um RT ohne Verluste auf das jetzt schon erreichte aufzudeckeln und viel schlimmer noch ist, dass RT im Spiel überhaupt keine Vorteile bringt!
AA = Kantenklättung = ruhigeres Bild
AF = mehr Details und Schärfe in der Entfernung
Höhere Auflösung = mehr Bildinhalt = mehr Immersion durch die stetige Annäherung an ein natürliches Sichtfeld.
RT = nur bemerkbar wenn es Vergleichsbilder gibt und man sich die Szene in Ruhe immer und immer wieder ansieht.
AA, AF und mehr Pixel sind sofort in der BQ und für die Immersion bemerkbar, wenn sie nicht oder vorhanden sind, bei RT ist es nur bemerkbar, wenn man nur noch "ordentliche" FPS in 1080p hinbekommt.
Ich habe den Eindruck, dass nVidia ordentlich ins Klo gegriffen hat, ähnlich wie AMD mit der Vega und ein paar deren Features, nur das nV den Mist nun noch versucht positiv zu vermarkten, bis die RTX Karten alle abverkauft sind.
Vielleicht haben sie ja den Dreh bei der nächsten Generation raus aber warum sollte jemand nun seine 4K Monitor einstampfen, um wieder in 1080p zu zocken, um RT Effekte nur über Vergleichsbilder erkennen zu können?
Lustig war, dass 7 von 10 Kollegen sogar das Bild ohne RT besser fanden, weil die dunklen Szenen natürlicher aussahen, mehr Details erkennbar waren und die drei, die das RT Video gut fand, davon überzeugt waren, dass dadurch die Farbdarstellung "natürlicher" für sie rüberkam, sie aber von den Spiegelungen, etc. gar nichts mitbekommen hatten.
Ich hatte nämlich niemaden gesagt worum es bei den Videos geht...

Jeder konnte aber sofort sagen, dass AA on oder of war, auch die Bildausschnittgröße viel sofort auf, einzig beim AF war es nicht sofort erkennbar. Zwar wurde das Bild als unschärfer in der Entfernung wargenommen aber man kontne nicht genau sagen, dass es am fehlenden AF lag.
Ob RT on oder of war, ist keinem einzigen aufgefallen!

Und ich gehe jede Wette ein, wenn man den "Experten" hier auch so ein "Blindverkostung" servieren würde, wäre das Ergebnis ähnlich. Keine Standbilder, keine Parallelvideos, einfach zwei Ingame Szenen kurz nacheinander abspielen und dann bewerten, ohne zu wissen ob wirklich irgendwo RT oder sonst was on oder off war!

Aber klar, RT ist ja sowas von der Bringer...... vielleicht in 5-10 Jahren. ;)

Megatron
2018-11-25, 16:51:29
Also manche Ansichten hier sind wirklich "aufschlussreich"... (1)

Die ersten 3D "Beschleuniger" waren damals so grottig, da mag sich heute kaum mehr einer dran erinnern.
Auch die erste Voodoo wäre ja nach der Ansicht einiger als totaler fail einzuordnen. Nur 640x480 Pixel und 16bit farbausgabe. Dabei ging zu der Zeit an 1280x1024 px Mainstream zu werden. Die guten Monitore hatten 1600x1200px, Grafikkarten 24 bzw. 32 Bit Farben.
Auch die erreichbare Bildwiederholrate bei z.b. quake 1 war sehr weit weg von 3-stellig. Da waren schon über 30fps ein Grund zur Freude.
Heute steht die erste Generation RT weit besser da im Verhältnis, aber die Reaktionen sind in der Breite gefühlt doch deutlich verhaltener als damals.

(1) aufschlussreich insofern, dass die Nörgler doch deutlich jünger sind oder einfach schon so alt, dass es mit dem erinnern wohl langsam schwieriger wird 😉

Gast
2018-11-25, 17:46:47
RT = nur bemerkbar wenn es Vergleichsbilder gibt und man sich die Szene in Ruhe immer und immer wieder ansieht.


Sorry, also wenn man den Unterschied nicht sieht muss man auf beiden Augen blind sein.

Vor allem die fehlenden Artefakte, wenn man mit der Waffe auf die Spiegelungen zoomt sind ja wohl m ehr als offensichtlich.

Freilich, ist der Performanceverlust aktuell zumindest für Multiplayer zu groß, was aber nichts daran ändert, dass sich die Qualität der Spiegelungen extrem steigert.

Gast2
2018-11-25, 18:21:30
Weil es ein blödsinniger Vergleich ist.

Bei den 2 Watt Verbrauch waren glaub ich 100MRays/s oder so drinnen, die 2080Ti erreich 10GRays/s.


Das ist kein blödsinniger Vergleich. Der 2W PowerVR Raytracer hat 300 MRays. Jensens "jijarays" hingegen sind reines Marketing.
Die 260W 2080TI ist beim Raytracing mit 426 MRays 6x schneller (https://cdn.wccftech.com/wp-content/uploads/2018/10/NVIDIA-DirectX-Simple-Ray-tracing-Benchmark-RTX-2080-Ti-RTX-2080.jpg) als eine 980Ti. Der 2W PowerVR Raytracer in 28nm ist mehr als 5x mal schneller (https://www.youtube.com/watch?v=ND96G9UZxxA&t=120) beim Raytracing als eine 980Ti. Würde man diesen auf die gleiche Chipgröße wie Turing mit 12nm und 1800 Mhz skalieren, hätte man etwa die 50x RT-Leistung. In 7nm bekäme man etwa 200x RT-Leistung und damit etwa 480 Rays pro Pixel bei 60fps in 1080p. Bereits 2016 reichte es immerhin schon für rauschfreie 20fps in 1080p. (https://www.youtube.com/watch?v=uxE2SYDHFtQ)


Vor allem ist es ein ziemlicher Äpfel/Birnen-Vergleich.

Ist es nicht, da es sich bei beiden GPUs, um dedizierte Raytracer handelt. Dass die dedizierte RT-Hardware bei Turing nur ~4x effizienter als die Nutzung von GPGPU-Raytracing bei Pascal ist, zeigt aber auch unabhängig davon die niedrige Effizienz von Turing.

Mega-Zord
2018-11-25, 19:00:43
Also manche Ansichten hier sind wirklich "aufschlussreich"... (1)

Die ersten 3D "Beschleuniger" waren damals so grottig, da mag sich heute kaum mehr einer dran erinnern.
Auch die erste Voodoo wäre ja nach der Ansicht einiger als totaler fail einzuordnen. Nur 640x480 Pixel und 16bit farbausgabe. Dabei ging zu der Zeit an 1280x1024 px Mainstream zu werden. Die guten Monitore hatten 1600x1200px, Grafikkarten 24 bzw. 32 Bit Farben.
Auch die erreichbare Bildwiederholrate bei z.b. quake 1 war sehr weit weg von 3-stellig. Da waren schon über 30fps ein Grund zur Freude.
Heute steht die erste Generation RT weit besser da im Verhältnis, aber die Reaktionen sind in der Breite gefühlt doch deutlich verhaltener als damals.

(1) aufschlussreich insofern, dass die Nörgler doch deutlich jünger sind oder einfach schon so alt, dass es mit dem erinnern wohl langsam schwieriger wird 😉

Kurz: Nein :D

Also die Voodoo Graphics 1996 kam, entwickelte sich 1280x960 (ja, die Röhren waren 4:3 und nicht 5:4) mit Sicherheit noch nicht zum Standard. An mehr als 640x480 war in 3D-Games auch überhaupt nicht zu denken. Die erste Voodoo hatte ja noch nicht einmal Konkurrenz. 32 Bit war NV-Marketing gegen die Voodoo2 1998. Spielbar lief ein damals aktuelles Game in 32 Bit auch selten mit einer NV-Karte.
Es kamen um die Jahrtausendwende 19er und 21er CRTs die 1600x1200 fut darstellen konnten. Gezockt hat mit dieser Auflösung aber wohl kaum jemand ein Spiel, was damals aktuell war.1280x1024 wurde Standard, als die TFTs bezahlbar wurden. 16 oder 32 Bit ware selbst zu GeForce2 Zeiten noch ein Thema.

Aber die Nörgelei am Raytracing kann ich aber auch nicht verstehen. Einer der Hersteller muss ja den Schritt mal machen. AMD ist ja offenbar seit Jahren nicht in der Lage oder willens, Enthusiast-Hardware zu entwickeln. Und jetzt kommen die ganzen Hater aus ihren Löchern gekrochen und werfen den NV Usern vor, dass sie sich nur verarschen lassen.

Megatron
2018-11-25, 19:33:49
Kurz: Nein :D

Also die Voodoo Graphics 1996 kam, entwickelte sich 1280x960 (ja, die Röhren waren 4:3 und nicht 5:4) mit Sicherheit noch nicht zum Standard. An mehr als 640x480 war in 3D-Games auch überhaupt nicht zu denken. Die erste Voodoo hatte ja noch nicht einmal Konkurrenz. 32 Bit war NV-Marketing gegen die Voodoo2 1998. Spielbar lief ein damals aktuelles Game in 32 Bit auch selten mit einer NV-Karte.
Es kamen um die Jahrtausendwende 19er und 21er CRTs die 1600x1200 fut darstellen konnten. Gezockt hat mit dieser Auflösung aber wohl kaum jemand ein Spiel, was damals aktuell war.1280x1024 wurde Standard, als die TFTs bezahlbar wurden. 16 oder 32 Bit ware selbst zu GeForce2 Zeiten noch ein Thema.

Aber die Nörgelei am Raytracing kann ich aber auch nicht verstehen. Einer der Hersteller muss ja den Schritt mal machen. AMD ist ja offenbar seit Jahren nicht in der Lage oder willens, Enthusiast-Hardware zu entwickeln. Und jetzt kommen die ganzen Hater aus ihren Löchern gekrochen und werfen den NV Usern vor, dass sie sich nur verarschen lassen.

Ich bin mir nicht mehr 100% sicher, wann ich mir meine 19" Röhre geholt hatte. Es könnte auch '97 gewesen sein. Allerdings war das ein Aldi Teil und damit ausgesprochen Mainstreamig ;) (aus heutiger Sicht ja schon nicht mal mehr das)
Aber für die 1280x1024 px als maximale Auflösung lege ich meine Hand ins Feuer.
Im 2D-Bereich waren die 32Bit damals zwar "der heiße Scheiß" aber durchaus am durchsetzen, weil langsam der Grafikspeicher vorhanden war auch im günstigeren Segment.
Dementsprechend sah gutes 2D-Artwork noch etliche Jahre deutlich besser aus, als viele 3D Umgebungen.

Zumindest sind wir uns ja aber drüber einig, dass der Schritt hin zu RT was gutes ist. Unabhängig davon, ob jetzt schon die Leistung da ist, dass mit der Brechstange in 4k mit HDR bei 144FPS laufen zu lassen.
(Brechstange, weil es da sicher noch ein bisschen Optimierungspotential für die aktuelle Hardware gibt)

Gast
2018-11-25, 19:38:07
Aber die Nörgelei am Raytracing kann ich aber auch nicht verstehen. Einer der Hersteller muss ja den Schritt mal machen. AMD ist ja offenbar seit Jahren nicht in der Lage oder willens, Enthusiast-Hardware zu entwickeln. Und jetzt kommen die ganzen Hater aus ihren Löchern gekrochen und werfen den NV Usern vor, dass sie sich nur verarschen lassen.
Das tun sie nicht, sie kritisieren lediglich das Finanzierungsmodell und die Gewinnmarge, was bei jedem weiteren Kauf nV einfach nur bestätigt, noch mehr zu nehmen und einen draufzustetzen. Vllt. hat ein Redaktuer genug Geld sich für 1-2k eine Graka zu leisten, ein normaler Arbeiter hat das nicht und das treibt die Schere genau in diesem Bereich weiter auseinander. Letztlich wird dann auch nur für eine Luxusfeature entwickelt, trägt aber auch der Enthusiast gegenüber seiner Community eine Verantwortung. Das scheint den meisten von Euch aber egal zu sein. So wie im wirklichen Leben vermutlich auch. Ein paar haben doch den Kontakt zur Basis längst verloren. IPhone, IMac und NVidiakarten sind nur noch ein Besserstellungsmerkmal, gespickt mit Gimmicks, die sich sonst niemand leisten kann. Bei NVidia fing das schon mit der ersten Titan an und sie treiben dieses Spielchen immer weiter. Wenn demnächst eine 3080 1,5k kostet ist bei euch alles wieder i.O..

Traurig den Rest der Community dann mit Schmutz zu bewerfen, die dann mit einer MUSS 2070 in FHD bei 30fps für 600-700 Euronen vor sich hin ruckeln. Wie blind muss man eigentlich sein das nicht zu erkennen. Auf CB liest man jedenfalls nichts davon! Friede Freude Eierkuchen...kleine weiße Friedenstaube.

NVidia hätte auch GTX und RTX 2000 Karten bringen können, mal sehen welche schneller rasteriziert hätte, wenn man das Gimmick RTX weggelassen oder die Fläche für Shader genutzt hätte. Vermutlich würden dann auch 4k und 5k Panels Sinn machen und man bräuchte Gaming-RT noch gar nicht.

Soll ich jetzt wieder 15 Jahre warten bis nVidia sich entscheidet RTX wie PhysX fallenzulassen und bis dahin auf FHD umherzuschruppen, wie einst auf 640x480? Sicher nicht und wo bleibt dort der Fortschritt, wenn für ein paar besser sichtbare Schatten genau diese lange Durststrecke durchlebt wurde und ungefiltert wiederkommt. Was mache ich jetzt mit meinem 4K Display. Mit bleibt nur auf einer 2080ti für 1,2-1,5K RTX dann abzuschalten und was macht das dann für einen Sinn? Ein teures aber nicht nutzbares feature, wo niemand weiß ob sich das überhaupt durchsetzt? Wenn das keine Verarsche ist, weiss ich nicht was sonst. Dieses ganze Schöngerede von den Redaktionen die sich nVidia bereits verschrieben haben nervt nur noch, NDA=keine Kritik erlaubt. Merkt ihr nicht selbst das ihr euch längst abhängig gemacht habt und sei es nur in Form von Testmodellen die euch kostenlos zur Verfügeng gestellt werden und damit geldwertlose Repressialien?

Ich kann euch nicht mehr Ernst nehmen, 3dcenter bleibt die letzte Plattform wo man noch seine eigene Meinung schreiben kann. Und was das Testen und Testpacours angeht, erinnere dich mal an euer 2700x Desaster wo ihr Bock, Stock und Bein behauptet habt alles i.O.. Den Bullshit habt ihr zwei Wochen lang ungefiltert ins www weitergereicht, hat sich längst in die Köpfe der Daus eingebrannt.

Vor euer Tür gibt es also genug zu fegen, danach könnt ihr gerne bei mir kommen. Und dein AMD Gehate kannst du gerne stecken lassen! Unter aller Sau ist sowas von einem gestandenen Redakteur.

Mod und bitte nicht feige, veröffentlichen!

2B-Maverick
2018-11-26, 09:10:58
Aber die Nörgelei am Raytracing kann ich aber auch nicht verstehen. Einer der Hersteller muss ja den Schritt mal machen. AMD ist ja offenbar seit Jahren nicht in der Lage oder willens, Enthusiast-Hardware zu entwickeln. Und jetzt kommen die ganzen Hater aus ihren Löchern gekrochen und werfen den NV Usern vor, dass sie sich nur verarschen lassen.

Ich bin erst mal geschockt, wie gering der visuelle Fortschritt beim RT ist - das Vergleichsvideo sagt IMHO ja alles.

Da wären die 50% zusätzlichen Transistoren für Tensor-Cores und RT in herkömlichen Shadern zur allgemeinen Performanceverbesserung erheblich besser angelegt gewesen. Da hätten dann wenigstens die 4K und VR-User was von gehabt.

So hat ja keiner was davon..... Ausser NV: die nehmen nen Arm und nen Bein für quasi keine Mehrleistung.

Megatron
2018-11-26, 10:54:52
Die Preisdiskussion ist aber ja ein ganz anderer Punkt.
Ja, ich finde den Preis für die erste RTX Generation auch total abgehoben (wir reden nochmal drüber, wenn die 300€ Marke unterschritten wird).
Andererseits hat die Preislage für NVidia den doppelten Vorteil, dass man a) Pascal noch mit Gewinn gut abverkaufen kann und b) für die neue RTX Serie richtig fett Marge mitnimmt.
Aus unternehmerischer Sicht machen die leider alles richtig. Zumindest solange es keine Konkurrenz gibt. Scheinbar ist ja der Markt an Leuten, die das Geld für eine RTX ausgeben groß genug, sonst würden sich die Preise auf einem anderen Niveau befinden.

Und gerade als VR User ist RT nochmal ein richtig guter Schritt nach vorn. Da fällt schlechte Beleuchtung/Schatten nämlich deutlich stärker auf, als so schon. Wenn es hier erstmal eine ordentliche Engine gibt, die das umsetzen kann, bringt das am Ende mindestens genauso viel mehr an Immersion.

Da RT ja nun als Standard in DX umgesetzt ist, wird hier auch kein Nvidia was fallen lassen. Es ist nur schade, dass es wohl vor 2020 nicht so richtig spannend werden kann. Denn wenn Navi ohne RT Einheiten kommt (und das deutet sich ja bei der Informationslage schwer an), kann sich das ja frühestens beim Nachfolger ändern.

Gast
2018-11-26, 18:46:34
Ich bin erst mal geschockt, wie gering der visuelle Fortschritt beim RT ist - das Vergleichsvideo sagt IMHO ja alles.


Blind auf beiden Augen wenn man nicht sieht wie jedes mal die Spiegelungen verschwinden, wenn man man die Waffe über sie zieht bzw. heranzoomt?

Mega-Zord
2018-11-27, 11:53:03
Ich bin mir nicht mehr 100% sicher, wann ich mir meine 19" Röhre geholt hatte. Es könnte auch '97 gewesen sein. Allerdings war das ein Aldi Teil und damit ausgesprochen Mainstreamig ;) (aus heutiger Sicht ja schon nicht mal mehr das)
Aber für die 1280x1024 px als maximale Auflösung lege ich meine Hand ins Feuer.
Im 2D-Bereich waren die 32Bit damals zwar "der heiße Scheiß" aber durchaus am durchsetzen, weil langsam der Grafikspeicher vorhanden war auch im günstigeren Segment.
Dementsprechend sah gutes 2D-Artwork noch etliche Jahre deutlich besser aus, als viele 3D Umgebungen.

Zumindest sind wir uns ja aber drüber einig, dass der Schritt hin zu RT was gutes ist. Unabhängig davon, ob jetzt schon die Leistung da ist, dass mit der Brechstange in 4k mit HDR bei 144FPS laufen zu lassen.
(Brechstange, weil es da sicher noch ein bisschen Optimierungspotential für die aktuelle Hardware gibt)

Du hattest 1997 aber mit Sicherheit keine Grafikkarte die in 1024p @ 32 Bit spielbare Frameraten lieferte.

Du kannst hier (http://galerie.lanhost.de/v/User/mettlock/grakas/) ja mal schauen, welche Grafikkarte du zu dieser Zeit hattest. Damals war es aber auch möglich, andere Auflösungen gut auf einem Monitor darzustellen. Bei TFTs hat man dann später eine native Auflösung gehabt, die man besser immer benutzt. In 3D, und da bleibe ich bei, waren 1280x1024 eine Phantasievorstellung im Jahre 1997.
Und ja, die CRTs konnten 1280x1024 aber für ein geometrisch korrektes Bild musste man da Ränder links und rechts lassen.

Ich bin erst mal geschockt, wie gering der visuelle Fortschritt beim RT ist - das Vergleichsvideo sagt IMHO ja alles.

Da wären die 50% zusätzlichen Transistoren für Tensor-Cores und RT in herkömlichen Shadern zur allgemeinen Performanceverbesserung erheblich besser angelegt gewesen. Da hätten dann wenigstens die 4K und VR-User was von gehabt.

Wir werden uns daran gewohnen müssen, dass der visuelle Fortschritt bei Spielen immer kleiner wird und sich nur auf Details beschränkt. RT sieht imo auch nicht einmal besser aus, es macht eine Spieleszene aber realistischer. Wenn NV weiter machen würde wie bisher, könnten Sie auch Diesel-PKWs herstellen.

Megatron
2018-11-27, 13:28:16
Du hattest 1997 aber mit Sicherheit keine Grafikkarte die in 1024p @ 32 Bit spielbare Frameraten lieferte.

Du kannst hier (http://galerie.lanhost.de/v/User/mettlock/grakas/) ja mal schauen, welche Grafikkarte du zu dieser Zeit hattest. Damals war es aber auch möglich, andere Auflösungen gut auf einem Monitor darzustellen. Bei TFTs hat man dann später eine native Auflösung gehabt, die man besser immer benutzt. In 3D, und da bleibe ich bei, waren 1280x1024 eine Phantasievorstellung im Jahre 1997.

Von 3D in der Auflösung habe ich nie geredet. Ich schrieb ja selbst, dass die erste Voodoo nur 640x480px hatte (ok, ohne Z-Buffer auch bis 800x600). Es ging mir hier ja eher darum, dass schon damals kein Spielen in voller Auflösung möglich war sondern man auch damals nur 1/4 der vollen Auflösung nutzen konnte für halbwegs spielbare Frameraten. Das wird halt am Ende auch gern verklärt.
Erst mit der Voodoo 3 bzw. Geforce 2 kam man dann in Gefilde, wo auch die 1280x1024 langsam in Spielen nutzbar waren. Und da war nichts mit alle Regler nach rechts...
Gerade einige Konsolenparameter von Quake 1 waren erst etliche Jahre später wirklich nutzbar, weil die Hardware schnell genug war. (Spiegel, transparentes Wasser, Schallberechnung).

Die komfortable Situation, dass man bei einem neuen Spiel mal einfach alle Regler nach rechts ziehen kann, ist einfach mal ein "Kuriosum" der heutigen Zeit und ein Sonderfall in der Entwicklung.

PS: Parallel zur Diamond Voodoo 1 werkelte damals eine Karte von InteGraphics (https://en.wikipedia.org/wiki/InteGraphics_Systems) mit 4MB in meinem System, damit der Desktop in voller Auflösung laufen konnte.

Mega-Zord
2018-11-27, 15:06:23
Ah ok, dann habe ich dich falsch verstanden. Die Voodoo hat ja auch kein 2D gemacht und daher war mehr als 640x480 einfach nicht nötig. 1280x1024 mit AA, AF und scharfer Soße war dann wohl mit einer GF6 oder 7 und entsprechenden ATI-Karten möglich.

Ich habe kürzlich eine Trident Karte von 1995 bekommen, die maximal XGA @ 16 Bit kann. Die hat aber noch nicht einmal eine 3D-Einheit. :D

Gast
2018-11-27, 22:22:48
Ich verstehe ehrlich gesagt nicht warum sich alle über die Raytracing-Performance aufregen. Die jungen Leute sind heute einfach viel zu verwöhnt. Früher mal war es die Norm, dass man bei neuen Spielen erst mal eine oder sogar mehrere Hardwaregenerationen gebraucht hat um alle Regler auf Anschlag stellen zu können. Und das in einer Zeit in der zwischen 2 Hardwaregenerationen oft noch mehr als die doppelte Performance unterschied war. Heute will jeder alle Regler auf Anschlag stellen und das natürlich in 4k und noch in mindestens 120fps, ansonsten heißt es *mimimi*.

Nur mal zum Vergleich, Crysis damals auf der damals schnellsten Grafikkarte, einer 8800Ultra hat in 1024x768@max details gerade mal 23fps average geschafft.

Eine 2080Ti schafft heue in 1920x1080 mit RT low meistens über 60fps, und mit RT Ultra immer noch über 30fps.

Für eine erste Generation eines komplett neuen Features, ist die Performance von Turing geradezu grandios.

Lehdro
2018-11-28, 08:10:14
Ich verstehe ehrlich gesagt nicht warum sich alle über die Raytracing-Performance aufregen. Die jungen Leute sind heute einfach viel zu verwöhnt. Früher mal war es die Norm, dass man bei neuen Spielen erst mal eine oder sogar mehrere Hardwaregenerationen gebraucht hat um alle Regler auf Anschlag stellen zu können. Und das in einer Zeit in der zwischen 2 Hardwaregenerationen oft noch mehr als die doppelte Performance unterschied war. Heute will jeder alle Regler auf Anschlag stellen und das natürlich in 4k und noch in mindestens 120fps, ansonsten heißt es *mimimi*.

Nur mal zum Vergleich, Crysis damals auf der damals schnellsten Grafikkarte, einer 8800Ultra hat in 1024x768@max details gerade mal 23fps average geschafft.

Eine 2080Ti schafft heue in 1920x1080 mit RT low meistens über 60fps, und mit RT Ultra immer noch über 30fps.

Für eine erste Generation eines komplett neuen Features, ist die Performance von Turing geradezu grandios.
Könnte vielleicht daran liegen das man Crysis mit 30 FPS noch als spielbar bezeichnen kann, während das bei modernen Spielen das reinste Stotterfest ist. Gerade alte Spiele behalten bei niedrigen FPS viel von Ihrer Spielbarkeit, während sich neuere Spiele schon bei knapp unter 60 FPS richtig komisch anfühlen...

Gast
2018-11-28, 20:16:48
Könnte vielleicht daran liegen das man Crysis mit 30 FPS noch als spielbar bezeichnen kann, während das bei modernen Spielen das reinste Stotterfest ist. Gerade alte Spiele behalten bei niedrigen FPS viel von Ihrer Spielbarkeit, während sich neuere Spiele schon bei knapp unter 60 FPS richtig komisch anfühlen...

Damit hat es wenig zu tun.
Crysis war hauptsächlich Singleplayer und im SP kommt man heute auch mit niedrigen FPS klar. Im MP braucht man mindestens 60FPS klar, und auf einem 144Hz Bildschirm ruckeln niedrige FPS einfach viel mehr.