PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 [12] 13 14 15 16 17 18 19

Fragman
2018-12-05, 09:37:47
Habe ich das richtig verstanden, dass die jetzt festlegen, welches Objekt die Rays abkommt und wer nicht? Sollte das so sein, ist das doch eine Menge arbeit.



Das ist doch alles in Gruppen, die dann einfach eine flag bekommen und gut ist.
Wenn die alles einzeln anfassen müssten, stimmt in deren pipeline etwas nicht.

Cubitus
2018-12-05, 13:35:08
Ich zock Battlefield native mit 1080p, unabhängig von RTX.
wäre cool wenn es mit Raytracing um die 100-120 FPS gebe..

Troyan
2018-12-05, 13:37:20
Mit einer GTX2080TI schafft "Low" nach dem Patch fast 100FPS:https://www.guru3d.com/news-story/december-4-battlefield-v-raytracing-dxr-performance-patch-released-(benchmarks).html

Kein Plan welche Map. Wäre es Rotterdamm, laufen die anderen Maps mit weit mehr als 100FPS.

JVC
2018-12-05, 14:06:09
"Hitman 2: Beeindruckende Raytracing-Nachbildung im Techniktest"
http://www.pcgameshardware.de/Hitman-2-Spiel-6334/Specials/PC-Benchmark-Test-Review-Release-1269180/
"- interessanterweise kommt bei den feinen Echtzeitspiegelungen nicht etwa Nvidias Hybrid-Raytracing RTX zum Einsatz. IO Interactive hat einen anderen Weg gefunden, die Spiegelungen umzusetzen -"

"So können NPCs beispielsweise die Reflexion eines unvorsichtigen Spielers in einem Spiegel erkennen und Alarm schlagen."
"Doch natürlich können Sie den kühlen Auftragskiller auch so platzieren, dass Sie selbst einen taktischen Vorteil aus den Spiegelungen ziehen können"

Es funktioniert auch ohne extra RTX Einheiten :wink:

m.f.g. JVC

SKYNET
2018-12-05, 14:26:47
"Hitman 2: Beeindruckende Raytracing-Nachbildung im Techniktest"
http://www.pcgameshardware.de/Hitman-2-Spiel-6334/Specials/PC-Benchmark-Test-Review-Release-1269180/
"- interessanterweise kommt bei den feinen Echtzeitspiegelungen nicht etwa Nvidias Hybrid-Raytracing RTX zum Einsatz. IO Interactive hat einen anderen Weg gefunden, die Spiegelungen umzusetzen -"

"So können NPCs beispielsweise die Reflexion eines unvorsichtigen Spielers in einem Spiegel erkennen und Alarm schlagen."
"Doch natürlich können Sie den kühlen Auftragskiller auch so platzieren, dass Sie selbst einen taktischen Vorteil aus den Spiegelungen ziehen können"

Es funktioniert auch ohne extra RTX Einheiten :wink:

m.f.g. JVC


der erste richtige vorteil für mich von "RT"... macht das spielen kniffliger :cool:

Atma
2018-12-05, 17:34:01
Du wirst unnötig persönlich!

Und ja, sowas ist ein Unding, das weiss man deutlich früher wenn man einen Termin nicht halten kann.

Das Spiel ist bereits verkauft, unfertig, und man hat im Endeffekt seinen Teil des Vertrages nicht erfüllt.
Wenn bis zuletzt versucht wird den Patch fertigzustellen ist es ein Unding vor dem Release offiziell mitzuteilen, dass man es nicht schafft? Ah ja, was für eine Logik :crazy:

Ein Unding ist aktuell viel eher Just Cause 4! Das Spiel ist nahezu komplett broken, trotzdem wurde es veröffentlicht und man hört nichts von den Entwicklern. Gemessen an den Richtlinien von Steam, dass die Bilder im Shop das Spiel auch tatsächlich repräsentieren, könnte man schon fast von Betrug reden bei JC4.

oldgamer
2018-12-05, 18:26:06
[I]Es funktioniert auch ohne extra RTX Einheiten :wink:

Zitat aus dem Link:
... Technisch hat das Verfahren natürlich nichts mit dem Werfen von Lichtstrahlen zu tun...
Faszinierend, man braucht also keine RTX-Einheiten wenn man kein Raytracing nutzt.

dargo
2018-12-06, 08:54:33
Haha..., aus dem neuen RTSS. ;)

· Fixed issue with the latest NVIDIA Adaptive Shading update of Woflenstein II: The New Colossus locking on startup. Please take a note that now Woflenstein II: The New Colossus is presenting frames from compute queue in NVIDIA codepath similar to AMD codepath. Due to that reason, On-Screen Display rendering is performance expensive and disabled by default in such environment. Experienced users, understanding and accepting On-Screen Display related performance penalty, may reenable it with PresentFromCompute profile switch

https://forums.guru3d.com/threads/rtss-6-7-0-beta-1.412822/page-80#post-5611350

Ex3cut3r
2018-12-06, 09:04:38
X-D

Mal später den neuen RTTS installieren. :)

Raff
2018-12-06, 09:13:04
Das RTSS-Update ist witzig. Nun sieht man das OSD zwar zwischenzeitlich während des Ladens, aber in-game ist's dann (auf meiner Kiste hier) wieder weg. Beendet man das Spiel, wird's kurz angezeigt, bis man auf dem Desktop ist. :ugly:

MfG,
Raff

Dural
2018-12-06, 09:48:24
Komisch, wie so ist den die 2070 plötzlich schneller, die 2080 fällt mit dem neuen Patch aber zurück. Ohne RT.

https://www.techpowerup.com/reviews/Performance_Analysis/Battlefield_V_Tides_of_War_RTX_DXR_Raytracing/3.html

Mangel76
2018-12-06, 10:21:00
Und wieso ist (bei der 2080) Ultra teilweise schneller als High und Medium schneller als Low???

Raff
2018-12-06, 11:13:40
Frische PCGH-Benchmarks: http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/Specials/Battlefield-5-Day-1-Patch-Direct-X-12-Nvidia-RTX-1269296/#a4

Ohne Bug Results. ;)

MfG,
Raff

JaniC
2018-12-06, 11:35:28
1400€ für 60 min fps in nur Full HD ist immer noch indiskutabel, aber wie du schon schreibst: We're getting there. :)

RTX 3000 wird gut. Mehr raw Power, mehr Zeit für Optimierungen.

Werewolf
2018-12-06, 13:34:40
Hab ne Asus Dual OC RTX 2080 für 650€ geschossen mit einer Verpackung so schön wie ein Kürbis nach Halloween und was mir bei den kranken aktuellen Preisen ein wenig wie ein Schnäppchen vorkam erübrigt sich mit dem Kühler. Bin im Gaming Mode (GPU Tweak II) und 1990Mhz (PT 120 eingestellt, sonst nix) bei 84° . 23 Grad Zimmertemp und 70% Lüfterspeed. :freak:

Dies nach 1h Witcher 3 mit E3FX oder 1h GTA 5 bei 144Hz und 1440p

Matrix316
2018-12-06, 13:34:54
Also wenn man genau hinschaut sieht RTX schon minimal besser aus, aber ob das jemals jemand in einem Spiel so richtig bemerken wird? Kommt mir vor wie 3D im Kino, wo man bei der Haribo Werbung noch Ahhh und Ohhh sagt aber nach spätestens 10 Minuten Film das komplett vergessen hat.

Raff
2018-12-06, 14:01:14
Hab ne Asus Dual OC RTX 2080 für 650€ geschossen mit einer Verpackung so schön wie ein Kürbis nach Halloween und was mir bei den kranken aktuellen Preisen ein wenig wie ein Schnäppchen vorkam erübrigt sich mit dem Kühler. Bin im Gaming Mode (GPU Tweak II) und 1990Mhz (PT 120 eingestellt, sonst nix) bei 84° . 23 Grad Zimmertemp und 70% Lüfterspeed. :freak:

Dies nach 1h Witcher 3 mit E3FX oder 1h GTA 5 bei 144Hz und 1440p

Wie heiß wird sie denn mit 100 Prozent Bauerlimit, also 225 Watt? Was du schreibst klingt nach Defekt, irgendwas mit dem Kühler. Ich habe hier eine Karte, die im Werkszustand nur 72 °C bei rund 50 % PWM und 225 Watt TDP erreicht. Evtl. hat die Karte auch etwas abbekommen. Drehen beide Lüfter? ;)

MfG,
Raff

hlynska
2018-12-06, 14:30:43
@Raff:
Hast Du sie mal ins Gehäuse eingebaut?

Troyan
2018-12-06, 14:32:11
Ich hatte die RTX2080TI Variante davon. Der "Zero-Modus" war okay. Kein Vergleich zum Jet meiner Gigabyte Gaming Karte. Aber der Kühler ging überhaupt nicht. Die 2,7 Slots haben Probleme mit meiner Soundkarte gemacht und unter Last war die Karte ein bisschen besser als die Founders Edition.

Raff
2018-12-06, 14:37:56
@Raff:
Hast Du sie mal ins Gehäuse eingebaut?

Nope, aber die Unterschiede dadurch werden generell überbewertet, denn ein ordentlicher Gaming-PC hat einen leichten Durchzug.

Sollte dieser bei Werewolf fehlen, wäre das natürlich eine Erklärung. :)

MfG,
Raff

Werewolf
2018-12-06, 15:04:41
Enthoo Evolv ATX (3.Fenster bei der Radiatorschiene zugeklebt damit keine heiße Luft zurück ins Gehäuse kommt). Hinteres Dingsbums unterm Deckel entfernt.

2x140mm SW3 Front 40%
1x140mm SW3 Hinten 40%
Auf der CPU ein Kraken X61 mit 2x140mm Noctua NFA14 PWM nach oben durch blasend. Da machen auch 40% nicht viel Unterschied.

Beide Lüfter der Karte drehen, manchmal dreht der rechte langsamer, siehe Verlauf im GPU Tweak. Manuelle Anpassung hilft da aus. Muss nochmal prüfen ob dies konstant passiert.

Teste mal heute Abend bei 100% PT.

cR@b
2018-12-06, 16:27:37
Also bei ner 2080 Ti hätte ich gesagt ok ja kommt trotz guter Belüftung in manchen Games vor aber mit ner 2080 hmm... evtl. hatte Jemand schonmal den Lüfter unten und dann keine Wärmeleitpaste wieder drauf.

ich auch
2018-12-06, 17:26:24
es geht doch wie man sieht.

Battlefield V mit DXR: Update beschleunigt Raytracing massiv

Ein neuer Treiber und ein Patch sollen Raytracing in Battlefield V deutlich beschleunigen. Die Redaktion wirft mit einer GeForce RTX 2080 Ti einen Blick auf die Performance und auf die Bildqualität. In der Tat zeigt sich eine spürbar bessere Geschwindigkeit, aber nicht nur dies.


https://www.computerbase.de/2018-12/...tch-benchmark/

dildo4u
2018-12-06, 17:28:53
Die Frametimes unter DX12 sind dort deutlich besser geworden,auch ohne DXR.

gravitationsfeld
2018-12-06, 17:32:48
Das RTSS-Update ist witzig. Nun sieht man das OSD zwar zwischenzeitlich während des Ladens, aber in-game ist's dann (auf meiner Kiste hier) wieder weg. Beendet man das Spiel, wird's kurz angezeigt, bis man auf dem Desktop ist. :ugly:
Das liegt daran, dass im Ladebildschirm die Presents von Compute Queue aus sind.

Cubitus
2018-12-07, 00:08:51
Gerade ne Runde Amsterdam hinter mir

Boost ist beachtlich ich hatte mit der TI@2GHZ bei 1080p knapp über 100 FPS :)
also die RTX Effekte kommen echt gut, riecht stark nach Zukunft.

Allerdings lenkt Battlefield in Ultra zu sehr ab ^^

=Floi=
2018-12-07, 03:38:24
wurde DX12 gefixt?

dargo
2018-12-07, 08:40:24
Nein.

Cubitus
2018-12-07, 08:56:07
Naja man hat nicht mehr so häufig komplett Aussetzer,
aber im Gegensatz zu vor dem Patch läuft es "fast" rund. Es ist jedenfalls ordentlich spielbar.

chiller
2018-12-07, 10:16:31
Aussetzer unter DX12? Die hab ich auch unter DX11.

Liegt aber bestimmt an dem madigem 1809, dass läuft einfach nur unrund bei mir.

cR@b
2018-12-07, 10:40:26
Läuft bei mir unter 1803 genauso kacke. Denke BFV ist einfach noch unausgereift.

Cubitus
2018-12-07, 10:53:07
Mit was für Auflösungen/Settings spielt Ihr es denn?

Also nahezu flüssig läuft es bei mir mit DX11, 1080p, 144hz und allem auf Low bis auf die Texturen :freak:
Zocke es an meinem kleinen 24.5 Zöller und bin damit eher kompetitiv unterwegs..

RLZ
2018-12-07, 13:15:19
Also wenn man genau hinschaut sieht RTX schon minimal besser aus, aber ob das jemals jemand in einem Spiel so richtig bemerken wird?
Subjektive Wahrnehmung ist immer so ein Ding. Für die einen hat sich seit Mario 64 nichts mehr bei der Grafik getan und andere sehen beim RTX Support noch gewaltige Fortschritte.

Lowkey
2018-12-07, 13:18:09
Der Widerspruch ist der, dass fortschrittliche Qualität Leistung kostet. Die User wollten 100fps und nun 100fps mit RT. Fortschritt ist nur dann akzeptiert, wenn er keine Nachteile hat.

BF V sieht auf Ultra toll aus, aber mit den FPS kann man schwerer Gewinnen.

Fragman
2018-12-07, 13:26:43
Der Widerspruch ist der, dass fortschrittliche Qualität Leistung kostet. Die User wollten 100fps und nun 100fps mit RT.

Aber wo kommt diese Einstellung her, das war ja nie so. Ich kann mich zumindest an kein Feature erinnern, das direkt so performt hat?

Lowkey
2018-12-07, 13:28:39
Du siehst es doch in den Angeboten zur 2000er Serie deutlich, dass viele Leute die 2000er nicht kaufen würden, weil RT kaum gut läuft. Hätte Nvidia RT nicht beworben, dann zählten nur die FPS und da hätte es vermutlich positivere Resonanz gegeben. Ich erwarte nach Weihnachten eigentlich einen Preisverfall, wo doch Pascal verschwindet.


Mich persönlich stört nur, dass die 2000er Serie in der FE als OC kommt und damit der Abstand zu den alten Referenz/FE Versionen anders ausfällt. So ist meine 1080 Ti aktuell in meinen Spielen schneller als meine 2080.

cR@b
2018-12-07, 16:32:46
Mit was für Auflösungen/Settings spielt Ihr es denn?

Also nahezu flüssig läuft es bei mir mit DX11, 1080p, 144hz und allem auf Low bis auf die Texturen :freak:
Zocke es an meinem kleinen 24.5 Zöller und bin damit eher kompetitiv unterwegs..

Auch FHD hier aber das Game hat einfach noch derbe technische Macken. Keines meiner Games läuft so grottig wie BFV. Das geht in Zeiten von G-Sync und Co. wesentlich sauberer!!! Bei BFV merke ich gerade wie verwöhnt meine Augen bereits sind. Übel :ugly:

TurricanM3
2018-12-07, 17:18:06
Ich brauch ne Karte jetzt

https://abload.de/img/kryographics_rtx_20801ifb0.jpg (https://abload.de/image.php?img=kryographics_rtx_20801ifb0.jpg)

https://abload.de/img/kryographics_rtx_2080z0ebg.jpg (https://abload.de/image.php?img=kryographics_rtx_2080z0ebg.jpg)

:freak:

Cubitus
2018-12-07, 18:32:22
Ich brauch ne Karte jetzt

https://abload.de/img/kryographics_rtx_20801ifb0.jpg (https://abload.de/image.php?img=kryographics_rtx_20801ifb0.jpg)

https://abload.de/img/kryographics_rtx_2080z0ebg.jpg (https://abload.de/image.php?img=kryographics_rtx_2080z0ebg.jpg)

:freak:

Ziemlich edel.. :)

Auch FHD hier aber das Game hat einfach noch derbe technische Macken. Keines meiner Games läuft so grottig wie BFV. Das geht in Zeiten von G-Sync und Co. wesentlich sauberer!!! Bei BFV merke ich gerade wie verwöhnt meine Augen bereits sind. Übel :ugly:

Also das beste Spiel Erlebnis habe ich ATM bei Black OPS, dass läuft wie Butter..

Troyan
2018-12-08, 11:43:29
Subjektive Wahrnehmung ist immer so ein Ding. Für die einen hat sich seit Mario 64 nichts mehr bei der Grafik getan und andere sehen beim RTX Support noch gewaltige Fortschritte.

Liegt wohl daran, dass Kanäle wie Digitalfoundry jedes AAA in Bezug auf Grafik in den Himmel loben. Hier mal die Demo zu DMC5 auf der Xbox One X: https://www.youtube.com/watch?v=yxAh9LPqkCE

Auf dem ersten Blick sieht man schon, dass das grafisch komplett veraltet ist für ein AAA-Spiel. Aber schließt man die Augen, müsste man denken, dass wäre mit das beste, was es gibt.

Als Beispiel nur der "Fließenboden", der ein paar 3D-Steine hat. Statt klar solche Fake-Fails zu kritisieren, wird es als "toller Effekt" für eine 3D-Dimensionierung von einer Platten 2D Texture gelobt. Da fällt einem auch nichts mehr ein. :rolleyes:

SKYNET
2018-12-08, 12:07:18
Ich brauch ne Karte jetzt

https://abload.de/img/kryographics_rtx_20801ifb0.jpg (https://abload.de/image.php?img=kryographics_rtx_20801ifb0.jpg)

https://abload.de/img/kryographics_rtx_2080z0ebg.jpg (https://abload.de/image.php?img=kryographics_rtx_2080z0ebg.jpg)

:freak:


wäre der deckel komplett aus pom oder von mir aus auch stahl oder am besten kupfer, ja... aber plexi... ihhh :frown:

Emil_i_Lönneberga
2018-12-08, 14:02:40
Elegante Delrin-Variante als Option
Neben der hier gezeigten Version wird es eine sehr elegante Version mit Delrin-Deckel ohne Aluminiumeinfassung geben. Die Option für eine vernickelte Bodenplatte besteht bei beiden Varianten. Zudem arbeiten wir an einer verchromten Backplate - ebenfalls ein Wunsch von vielen Kunden.


https://forum.aquacomputer.de/wasserk-hlung/108610-neu-kryographics-next-2080-und-kryographics-2080-ti-update/

SKYNET
2018-12-08, 18:15:22
https://forum.aquacomputer.de/wasserk-hlung/108610-neu-kryographics-next-2080-und-kryographics-2080-ti-update/


sehr schön... plexi altert einfach und wird spröde... ausserdem mags temparaturschwankungen nicht so gerne, zieht wasser(2%) usw.

crux2005
2018-12-08, 22:39:19
Also das beste Spiel Erlebnis habe ich ATM bei Black OPS, dass läuft wie Butter..

Black Ops 4? WutFace :eek:

yamo
2018-12-09, 01:06:35
Habe mir aus ner Laune raus die Palit Gaming bestellt. Hat leider nur die niedere e04 DNA.
Lustig: per auto oc ging die im AF auf 2,1 GHZ. 3dmark und Crysis ließen mich das mal anpassen. Aber immerhin macht der Chip fast durchgängig 1,9 GhZ bei voller Lüfterstärke mit....
Bei Temps um die 56 Grad, mit Wakü liege ich da locker 10 C drunter (CPU/Chipsatz/GraKa).
Ich glaube, ich behalte das Baby. Ist zwar obszön teuer, aber ich wollte immer mal ne "ti" haben.

Troyan
2018-12-09, 09:34:09
Läuft die wirklich stabil über 2000Mhz? Maine Gigabyte Gaming OC schafft keine 2000Mhz. Scheint eine Taktmauer zu haben...

Dafür läuft sie stabil mit 1960-1980Mhz...

hq-hq
2018-12-09, 13:48:01
sehr schön... plexi altert einfach und wird spröde... ausserdem mags temparaturschwankungen nicht so gerne, zieht wasser(2%) usw.

mein Ausgleichsbehälter von 2006 zeigt keine Alterungserscheinungen, wenn man nicht gerade mit der Chemie im Kühlwasser spielt sollte das Material so an die 30 Jahre optisch nahezu unverändert bleiben

Thunder99
2018-12-09, 13:56:29
Denke ich wie Pascal. Einige machen es mit, andere nicht. Egal was auf der Verpackung steht (sprich OC xxx Model)

TobiWahnKenobi
2018-12-09, 16:08:48
mein Ausgleichsbehälter von 2006 zeigt keine Alterungserscheinungen, wenn man nicht gerade mit der Chemie im Kühlwasser spielt sollte das Material so an die 30 Jahre optisch nahezu unverändert bleiben

mach einen rahmen drum :)

btw
ich kenne keine plexi-waküteile, die nicht irgendwann spröde und unansehnlich wurden. muss ja nicht bedeuten, dass es auch undicht wird.

btt
turing ist toll, aber in letzter zeit spiele ich mehr auf volta im wohnzimmer.


(..)

mfg
tobi

Lowkey
2018-12-09, 16:13:39
Was hast du dann im Kinderzimmer und im Gästeklo installiert?

hq-hq
2018-12-09, 18:00:34
mach einen rahmen drum :)

btw
ich kenne keine plexi-waküteile, die nicht irgendwann spröde und unansehnlich wurden. muss ja nicht bedeuten, dass es auch undicht wird.

mfg
tobi

Jetzt kennst du ja eines. ( Symbolbild http://www.drako.it/drako_catalog/imagemagic.php?img=ntHTyNDiYWBhZ5GilKLOY5dfn9TZ&w=200&h=200&page=prod_info )

Für PKW Scheinwerfer wirds ja auch verwendet, kann man also auch UV Lichtbeständig herstellen. Chemiekeulen und Temperatur >80°C hält es halt nicht unbegrenzt stand...

crux2005
2018-12-09, 18:26:05
Was hast du dann im Kinderzimmer und im Gästeklo installiert?

Pascal und Maxwell.

TurricanM3
2018-12-09, 18:59:33
mein Ausgleichsbehälter von 2006 zeigt keine Alterungserscheinungen, wenn man nicht gerade mit der Chemie im Kühlwasser spielt sollte das Material so an die 30 Jahre optisch nahezu unverändert bleiben

Ja, wer das ernsthaft 2018 noch behauptet...
Habe selbst zwei über 8 Jahre altes Plexiteile im KR, 0 Probleme. Die sehe auch noch aus wie am ersten Tag. Und Kühler mit Plexiglas nutze ich seit es die gibt, das sind nicht erst 5 Jahre. Nicht ein einziges Problem und im Bekanntenkreis laufen die teils weiter.

TobiWahnKenobi
2018-12-09, 19:51:44
im kinderzimmer einen ryzen5 1500X mit 1050ti, aber das ist auch nicht mein kind und es ist erst 9.

den wohnzimmerrechner benutze ich jetzt vorrangig, weil ich den erst neulich umgebaut habe. irgendwo musste die GV100 ja hin. ist jetzt ein x470 mit 2600x und 32gib ram geworden. ein rift und kodi-pc und seit den neuesten updates reichts sogar für bfv @wqhd mit RTX ON *THUMBS UP*

auf dem klo sind analoge dinge installiert.. alte madhefte und LTBs aus den neunzigern.


(..)

mfg
tobi

Slipknot79
2018-12-09, 21:35:34
Jetzt kennst du ja eines. ( Symbolbild http://www.drako.it/drako_catalog/imagemagic.php?img=ntHTyNDiYWBhZ5GilKLOY5dfn9TZ&w=200&h=200&page=prod_info )

Für PKW Scheinwerfer wirds ja auch verwendet, kann man also auch UV Lichtbeständig herstellen. Chemiekeulen und Temperatur >80°C hält es halt nicht unbegrenzt stand...


Den Shice hatte ich auch vor dunno 10 Jahren? Ist tatsächlich spröde geworden. :mad: :rolleyes:

Digidi
2018-12-09, 22:19:57
Es gibt doch 1000 arten von durchsichtigen Kunsststoffen kennen das die Kühlerhersteller nicht?

Dural
2018-12-10, 09:34:30
Es muss halt billig sein ;)
Die Alphacool / Cape Plexi Sachen waren übelst billig, ich kenne sogar mehrere fälle wo die teile undicht wurden.

akuji13
2018-12-10, 09:43:39
Manchmal scheint nicht alles so einfach zu sein wenn ich mich an weiße Kunsttoffe erinnere.

Für PKW Scheinwerfer wirds ja auch verwendet, kann man also auch UV Lichtbeständig herstellen.

Könnte man sicherlich...aber gerade im PKW Bereich klappt es häufig nicht.
Neulich ist hier ein 3 Jahre alter BMW durchgefallen weil die Streuscheiben UV Licht sei Dank hinüber waren.

Hat schon seine Gründe warum hochwertigen Markenlampen speziell UV reduziert sind gegenüber dem Supermarkt/Baumarkt Schrott.

Ich bin kein Freund dieses Werkstoffes:
Damals hatte ich undichte Deckel bei den Pumpengehäusen und bei Kühlkörpern mag ich schon die Optik nicht.

Werewolf
2018-12-10, 15:02:36
Haben RTX 2080 und 2080 TI die gleichen Lochabstände? Dann hau ich einen herumliegenden Morpheus II drauf. Auf die TI soll er passen mit den AMDholes.

hq-hq
2018-12-11, 18:53:33
@Slipknot79

naja es funktioniert und ist relativ leise... seit ein paar Monaten ist es aber stromlos jedoch noch befüllt, bekommt halt nur Glykol (Scheibenklar und Frostschutz für Scheibenwaschanlage), entmineralisiertes Wasser und Brennspiritus rein.

@akuji13

Behaupte ich mal mit Handwäsche wäre das nicht passiert, entweder Herstellungsfehler/Materialfehler oder Waschstrasse (insb. mit Bürsten). Probleme machen aber auch Insektenentferner oder andere (falsche) Reinigungsmittel bei der Handwäsche.


Weiss ja nicht was ihr so ins Wasser schüttet, IMHO sollte das Plexi des Kryographics nach Jahrzehnten nicht vergilben oder eintrüben. Wer auf diese farbigen Wasserzusätze setzt könnte wohl Probleme bekommen.
Naja schön blöd wenns gerade bei denen Probleme gibt die ein Seitenfenster haben und auf Bunti-Bunti-Leucht-Leucht stehen... so gesehen habt ihr natürlich recht.

SKYNET
2018-12-12, 00:32:54
@Slipknot79

naja es funktioniert und ist relativ leise... seit ein paar Monaten ist es aber stromlos jedoch noch befüllt, bekommt halt nur Glykol (Scheibenklar und Frostschutz für Scheibenwaschanlage), entmineralisiertes Wasser und Brennspiritus rein.

@akuji13

Behaupte ich mal mit Handwäsche wäre das nicht passiert, entweder Herstellungsfehler/Materialfehler oder Waschstrasse (insb. mit Bürsten). Probleme machen aber auch Insektenentferner oder andere (falsche) Reinigungsmittel bei der Handwäsche.


Weiss ja nicht was ihr so ins Wasser schüttet, IMHO sollte das Plexi des Kryographics nach Jahrzehnten nicht vergilben oder eintrüben. Wer auf diese farbigen Wasserzusätze setzt könnte wohl Probleme bekommen.
Naja schön blöd wenns gerade bei denen Probleme gibt die ein Seitenfenster haben und auf Bunti-Bunti-Leucht-Leucht stehen... so gesehen habt ihr natürlich recht.


reiner Alkohol den ich als Zusatz nehme... hat meinen plexi ab damals nach 2 tagen milchig werden lassen... ok, allerdings war die mische auch 50/50 ;D

Troyan
2018-12-12, 17:38:20
Final Fantasy 15 bekommt bald den DLSS Patch: https://www.nvidia.com/en-us/geforce/news/final-fantasy-xv-dlss-game-ready-driver/

akuji13
2018-12-13, 08:16:53
Behaupte ich mal mit Handwäsche wäre das nicht passiert, entweder Herstellungsfehler/Materialfehler oder Waschstrasse (insb. mit Bürsten). Probleme machen aber auch Insektenentferner oder andere (falsche) Reinigungsmittel bei der Handwäsche.

Kannst du gerne behaupten.

Ich hingegen glaube da den Langzeittests der Hersteller (egal ob von Waschanlagen, Glühlampen oder Reinigern).
Außerdem gibts ja auch Gegenbeispiele die unter den gleichen Bedingungen keine Probleme machen.
Deshalb, du erwähnst es ja auch, dürfte es ganz klar ein Problem bei der Herstellung sein.

Um zum eigentlichen Thema zurück zu kommen: Ich selbst nutze gar keine Farbzusätze.

Davon halte ich nichts, die die gut aussehen setzen gerne die Kühler zu.
Zumal sie mangels entsprechender Kühlkörper oder Schläuche (Norprene) sowieso nicht zur Geltung kommen würden.

Habe zwar auch ein Seitenteil mit (Echtglas)Fenster, das aber wegen der Anzeige im CPU Kühler.

lilgefo~
2018-12-13, 08:22:32
Final Fantasy 15 bekommt bald den DLSS Patch: https://www.nvidia.com/en-us/geforce/news/final-fantasy-xv-dlss-game-ready-driver/

Hmm habe mir das Vergleichsvideo da angeschaut und DLSS flimmert schon ziemlich krass. Besser als gar nichts aber irgendwie hatte ich mir da mehr erwartet.

JVC
2018-12-13, 11:04:41
Final Fantasy 15 bekommt bald den DLSS Patch: https://www.nvidia.com/en-us/geforce/news/final-fantasy-xv-dlss-game-ready-driver/

Zu mindestens Fps-Technisch scheint es einiges zu bringen.
Mich stört aber immer noch der Gedanke daran,
das ich nur verwenden kann was NV auch "vorkaut".
( das DLSS Feature ist sehr abhängig vom Wohlgefallen des Herstellers )

Sollte jedoch für jedes Spiel eine breite Unterstützung kommen,
wäre das eine gute Sache.

m.f.g. JVC

KORE
2018-12-13, 11:20:53
Ja es sollte offen sein so das man im Seti-boonc-style für sein Projekt/Spiel chrunchen kann. ^^

Troyan
2018-12-13, 13:42:07
Hmm habe mir das Vergleichsvideo da angeschaut und DLSS flimmert schon ziemlich krass. Besser als gar nichts aber irgendwie hatte ich mir da mehr erwartet.

Flimmert auch mit TAA an einigen Stellen ziemlich.

Über die Qualität mit einem 4K Monitor kann ich nichts sagen, aber als Downsampling-Methode ist es ziemlich gut. Hier mal der Vergleich zwischen 1440p/TAA/125% Rendering und 2160p(DSR)/DLSS:

TAA: https://s15.directupload.net/images/181213/96m9aqsq.png
DLSS: https://s15.directupload.net/images/181213/sr6b84e4.png

Ähnliche Leistungswerte. DLSS sieht erheblich besser aus.

Das Spiel hat deutliche Probleme, wenn die Auflösung nicht sehr hoch ist. TAA hat da wohl nicht genug Informationen und verblurrt alles unter 4K.

SKYNET
2018-12-13, 14:57:55
besser als TAA ja, aber trotzdem siehts ggü. nativ verkackt aus... damit meine nicht das flimmern, sondern die hässlichen artefakte dies zt. hat, sieht aus als wäre die GPU zu hoch getaktet. X-D

KORE
2018-12-13, 15:06:33
Wie ist denn jetzt der Stand, wird an den jeweiligen Spielen weiter Gerechnet und es kommen weitere Verbesserungen per Treiber oder ist es der letzte Stand? Und kann man einen Einblick darüber erhalten für welche Software antrainiert wird, wie lange und bis zu welchem Stand?

Für mich ist es ziemlich undurchsichtig.

Geächteter
2018-12-13, 16:16:41
Für mich ist es ziemlich undurchsichtig.
Das DLSS ist nur ein krampfhafter Versuch, die Entwicklung der Tensor-Cores auch im Mainstreammarkt zu Geld zu machen.
Im Prinzip sind beiden neuen Features der Turing-Generation für den Endanwender Müll.

Razor
2018-12-13, 18:22:52
Ähnliche Leistungswerte. DLSS sieht erheblich besser aus.
Subjektiv ja... ich empfinde die Schrift mit TAA als deutlich schärfer, als mit DLSS.

Ist aber auch klar, schließlich wird QHD gerendert und auf 4k hochgerechnet.
Eigentlich müsste DLSS schneller sein, ist es aber interessanter Weise nicht...

Ein weiterer Nachteil von DLSS: GFE ist Pflicht und da gibt's von mir klares: Nö!

Razor

RainingBlood
2018-12-13, 19:22:52
Flimmert auch mit TAA an einigen Stellen ziemlich.

Über die Qualität mit einem 4K Monitor kann ich nichts sagen, aber als Downsampling-Methode ist es ziemlich gut. Hier mal der Vergleich zwischen 1440p/TAA/125% Rendering und 2160p(DSR)/DLSS:

TAA: https://s15.directupload.net/images/181213/96m9aqsq.png
DLSS: https://s15.directupload.net/images/181213/sr6b84e4.png

Ähnliche Leistungswerte. DLSS sieht erheblich besser aus.

Das Spiel hat deutliche Probleme, wenn die Auflösung nicht sehr hoch ist. TAA hat da wohl nicht genug Informationen und verblurrt alles unter 4K.

das "besser" sieht mir nur nach einer simplen Überschärfung aus

Troyan
2018-12-13, 19:37:52
Wird geglättet:
2160(DSR) ohne AA: https://s15.directupload.net/images/181213/pyv4made.png
2160(DLSS): https://s15.directupload.net/images/181213/p2tniqdx.png

Nazar
2018-12-13, 21:56:00
Flimmert auch mit TAA an einigen Stellen ziemlich.

Über die Qualität mit einem 4K Monitor kann ich nichts sagen, aber als Downsampling-Methode ist es ziemlich gut. Hier mal der Vergleich zwischen 1440p/TAA/125% Rendering und 2160p(DSR)/DLSS:

TAA: https://s15.directupload.net/images/181213/96m9aqsq.png
DLSS: https://s15.directupload.net/images/181213/sr6b84e4.png

Ähnliche Leistungswerte. DLSS sieht erheblich besser aus.

Das Spiel hat deutliche Probleme, wenn die Auflösung nicht sehr hoch ist. TAA hat da wohl nicht genug Informationen und verblurrt alles unter 4K.

Naja, man muss schon blind sein, um die Unterschiede nicht zu sehen. Mit DLSS verliert man viele Details und auch besonder erzeugen die Texturen keine "Tiefe" mehr.
Man schaue sich nur die Haare der Chars an. Was soll daran toll sein? :confused:
Und dann die Bodentexturen. Schärfe macht noch lange kein gutes Bild. Das sieht man dann auch an der Hauttexture. Die Tiefenwirkung geht komplett flöten. Alles man mit den Texturen aufgepinselt hat, ist futsch. Überhaupt nicht schön. DLSS hat noch einen weiten Weg vor sich..... so geht es mal gar nicht.

AffenJack
2018-12-13, 22:36:19
Naja, man muss schon blind sein, um die Unterschiede nicht zu sehen. Mit DLSS verliert man viele Details und auch besonder erzeugen die Texturen keine "Tiefe" mehr.
Man schaue sich nur die Haare der Chars an. Was soll daran toll sein? :confused:
Und dann die Bodentexturen. Schärfe macht noch lange kein gutes Bild. Das sieht man dann auch an der Hauttexture. Die Tiefenwirkung geht komplett flöten. Alles man mit den Texturen aufgepinselt hat, ist futsch. Überhaupt nicht schön. DLSS hat noch einen weiten Weg vor sich..... so geht es mal gar nicht.

Das mit dem blind sein hätte ich eher in die andere Richtung formuliert. Mit DLSS sieht das Bild viel besser aus und man sieht viel mehr Details. Das andere ist furchtbar geblurt und sieht einfach nur schrecklick aus. Ich würde da sofort DLSS wählen bei der Auswahl.

Atma
2018-12-13, 22:48:14
Das mit dem blind sein hätte ich eher in die andere Richtung formuliert. Mit DLSS sieht das Bild viel besser aus und man sieht viel mehr Details. Das andere ist furchtbar geblurt und sieht einfach nur schrecklick aus. Ich würde da sofort DLSS wählen bei der Auswahl.
Kann ich so nur unterschreiben. Habe DLSS bisher nur im FF XV Bench ausprobiert und es sieht in Bewegung richtig, richtig gut aus. Massiv besser als das blurry TAA des Spiels.

dildo4u
2018-12-13, 22:53:47
Naja, man muss schon blind sein, um die Unterschiede nicht zu sehen. Mit DLSS verliert man viele Details und auch besonder erzeugen die Texturen keine "Tiefe" mehr.
Man schaue sich nur die Haare der Chars an. Was soll daran toll sein? :confused:
Und dann die Bodentexturen. Schärfe macht noch lange kein gutes Bild. Das sieht man dann auch an der Hauttexture. Die Tiefenwirkung geht komplett flöten. Alles man mit den Texturen aufgepinselt hat, ist futsch. Überhaupt nicht schön. DLSS hat noch einen weiten Weg vor sich..... so geht es mal gar nicht.
Hast du das Game?Das TAA ist ne Katastrophe möglich das DLSS in anderen Games weniger bringt aber hier kann es nur besser werden.

Troyan
2018-12-14, 14:08:03
Nicht nur das TAA ist schlecht, alleine die bis zu 40% Mehrleistung in 4K aufzuholen, resultiert in einer erheblich schlechteren Qualität. Habe mir mal den Spaß gemacht. Das DLSS-Bild ist Maximum an dem, was man in FF15 einstellen kann. Bei TAA wurden alle Gameworks-Effekte deaktiviert und weitere Einstellungen reduziert.

DLSS: https://s15.directupload.net/images/181214/adns5ruk.png
TAA: https://s15.directupload.net/images/181214/nicfe5lo.png

Natürlich könnte nun jemand meinen, man könnte ja "upscaling" betreiben (bzw. in meinem Fall Downsampling) von 1800p. Sieht dann so aus:

TAA/1800p: https://s15.directupload.net/images/181214/nytu56ad.png

4K ist mitnichten also ein Qualitätsmerkmal, wenn man überhaupt relevante Frames in einer Grafikqualität haben will, die nicht als veraltet erscheint. Es ist also erstmal fragwürdig, ob man unbedingt jeden einzelnen Pixel wirklich berechnen muss. Techniken wie "Variable Rate Shading" und DLSS zeigen dann Wege, wie man in 4K ähnliche Qualität bei geringerem Aufwand erreichen kann.

wolik
2018-12-15, 01:20:18
Ich habe null Ahnung wo man Vorteile von DLSS sieht. Leistung mit bessere Grafikqualität? nö. Bessere Grafik? nö... Hammermässig sieht FFXV in 8K (4K 200%) +TAA. Soll man Strom Leitungen beobachten. Mit DLSS kommt noch dazu komische verzehr Effekt bei Türmen in Bewegung.
Und GFE als MUSS für DLSS (FFXV) letzte Frechheit. (MS mit DX12 lässt grüßen)

GSXR-1000
2018-12-15, 02:30:15
Ich habe null Ahnung wo man Vorteile von DLSS sieht. Leistung mit bessere Grafikqualität? nö. Bessere Grafik? nö... Hammermässig sieht FFXV in 8K (4K 200%) +TAA. Soll man Strom Leitungen beobachten. Mit DLSS kommt noch dazu komische verzehr Effekt bei Türmen in Bewegung.
Und GFE als MUSS für DLSS (FFXV) letzte Frechheit. (MS mit DX12 lässt grüßen)

Ich seh den vorteil auch nicht, aber keine bange, troyan wird ihn uns hier noch dutzende male vorbeten.
Bis auch der letzte widerstand gebrochen ist.

Blaire
2018-12-15, 03:21:59
Ich habe null Ahnung wo man Vorteile von DLSS sieht. Leistung mit bessere Grafikqualität? nö. Bessere Grafik? nö... Hammermässig sieht FFXV in 8K (4K 200%) +TAA. Soll man Strom Leitungen beobachten. Mit DLSS kommt noch dazu komische verzehr Effekt bei Türmen in Bewegung.
Und GFE als MUSS für DLSS (FFXV) letzte Frechheit. (MS mit DX12 lässt grüßen)

GeForce Experience ist nicht erforderlich! NVIDIA NGX ist separat auswählbar im Treiber-Installations-Setup und funktioniert auch problemlos. Falls nicht, dann wurden nicht alle Treiberreste korrekt entfernt. :)
https://abload.de/img/41735x6ezp.png
Ich hätte mir DLSS 2x eher gewünscht, echte 3840x2160 sind natürlich besser, erst Recht mit TAA (weniger ausfransen der Kanten und das detailreichere Bild bei feineren Strukturen...) aber wenn man die Performance-Kosten mit einbezieht, ist DLSS dann doch ein sehr guter Kompromiss.
https://abload.de/thumb/tjo1qectc.png (https://abload.de/image.php?img=tjo1qectc.png)https://abload.de/thumb/tjo2laccm.png (https://abload.de/image.php?img=tjo2laccm.png)

Razor
2018-12-15, 20:51:11
Jup, kann ich bestätigen... und bei mir ist GFE nicht mal für die Installation vorhanden :)
Aber "Kompromiss" ist schon hart untertrieben, sorry.

Habe zwar nur einen FullHD-Moni, aber DSR im Treiber.
Ergo:
- 4k + TAA = 32-33fps
- 4k "ohne" = 34-35fps
- QHD + DLSS upscaling ("quasi" 4k) = 43-44fps

Allerdings finde ich es seitens nVidia etwas übertrieben für "NGX" einen Aufgabenplaner mit täglichem Update einzurichten.
Habe ich bei mir auf "manuell" gestellt...

Razor

yamo
2018-12-15, 21:33:24
Hab ich das jetzt richtig verstanden:
DLSS funzt bei 1080p-Moni @4k DSR?

Dachte da, wäre nativ ein 4k-Moni Pflicht.

Troyan
2018-12-15, 21:57:00
Nur 4K als Einstellung. Funktioniert also bestens mit DSR.

yamo
2018-12-15, 23:27:52
Nur 4K als Einstellung. Funktioniert also bestens mit DSR.

Das wurde dann aber völlig falsch kommuniziert. Zumindest hatte auf es mich, als erfahrenen Anwender, den Eindruck man müßte einen 4kMonitor besitzen.

So ist ja alles gut. Aber das wissen wohl die meisten gar nicht:freak:

Razor
2018-12-16, 09:48:09
Dass man kein GFE "braucht", um DLSS zu nutzen, wusste ich bis vor kurzem auch nicht :)
Überhaupt sind alle Infos rund um Turing mehr als "schwergängig"...

Über diesen Weg konnte ich dann auch sehen, dass FFXV eben DLSS in QHD/FHD nicht unterstützt, nur 4k/QHD.

Razor

basix
2018-12-16, 15:10:02
Das mit dem NGX direkt zur Auswahl im Treiber lese ich auch zu ersten Mal. GFE ist für mich ein No-Go. So passt es für mich.

Godmode
2018-12-16, 17:44:12
Ich hätte ein 2080 zu verkaufen, falls jemand eine braucht, siehe Signatur.

Lowkey
2018-12-16, 17:51:44
Wieso? Eine 2080 ist doch toll :>

aufkrawall
2018-12-16, 17:54:30
Die ganzen Kackspiele laufen damit zumindest ziemlich schnell.

Raff
2018-12-16, 18:04:23
Das mit dem NGX direkt zur Auswahl im Treiber lese ich auch zu ersten Mal.

Dann hast du definitiv die falschen Artikel gelesen. :) -> http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/4/#a3 (Stand: 20.09.2018)

Ich hätte mir DLSS 2x eher gewünscht, echte 3840x2160 sind natürlich besser, erst Recht mit TAA (weniger ausfransen der Kanten und das detailreichere Bild bei feineren Strukturen...) aber wenn man die Performance-Kosten mit einbezieht, ist DLSS dann doch ein sehr guter Kompromiss.

DLSS 2x ist ja eh ein Phantom. Wurde das mal irgendwo gezeigt? Bis auf die Versprechen hat man da bisher nix gesehen. Okay, ist beim "normalen" DLSS ja fast genauso. :ugly:

MfG,
Raff

basix
2018-12-16, 20:12:18
OK, danke :) Demfall einfach "feinkörniger" per Geforce Experience. Da Treiber aber eh sehr oft aktualisiert werden für mich kein Problem, einen neuen zu installieren. Ein separates Downolad-Package bestehend aus "NGX-Profilen" wäre natürlich noch besser.

DLSS 2x ist für mich interessanter. 4k wird mit den nächsten GPU-Generationen zum neuen Standard werden (abseits von 120fps). Und ein sehr gutes AA, welches Flimmern etc. deutlich bekämpft nehme ich sehr gerne.

Razor
2018-12-16, 22:42:46
Nö... ich zitiere:
Die Tensor-Kerne der Turing-Grafikkarten wenden das Wissen des Supercomputers dann in Echtzeit an Ihrem Computer an. Nvidia plant jedoch auch eine Integration ins hauseigene Tool Geforce Experience. Hier sollen die DLSS-Profile feinkörnig aktualisiert werden - also pro Spiel und nicht in Form eines kompletten Treiber-Downloads. Ob man langfristig zweigleisig fahren wird, ist unklar.
"Feinkörnig" aktuell per Aufgabenplaner... 1x pro Tag und das vollkommen unabhängig von GFE.
Sollten sie (nVidia) das mal ändern und GFE zur Pflicht machen, ist das Zeug nicht nur aktuell nutzlos, sondern tot - für mich.

Razor

P.S.: ich frage mich sowieso, warum DLSS überhaupt Performance kostet... krasse 25% immerhin... sollte es nicht über einen eigenen Core laufen?
- QHD = 57-58fps
- QHD + TAA = 54-55fps
- QHD + DLSS upscaling ("quasi" 4k) = 43-44fps

P.P.S.: und das hier (gleicher Artikel ;-) war ja wohl ein Schuss in den Ofen...
"Die Liste der DLSS-Titel fällt bereits umfangreich aus, sodass Käufer einer Geforce RTX 2080 Ti oder RTX 2080 DLSS alsbald ausprobieren können."

basix
2018-12-17, 01:21:42
P.S.: ich frage mich sowieso, warum DLSS überhaupt Performance kostet... krasse 25% immerhin... sollte es nicht über einen eigenen Core laufen?
- QHD = 57-58fps
- QHD + TAA = 54-55fps
- QHD + DLSS upscaling ("quasi" 4k) = 43-44fps

Ich vermute mal, dass die Tensorcores ebenfalls Energie benötigen ;) Hängt man am Power Budget, wird es dementsprechend langsamer. Andere Erklärungen können auch Bottlenecks auf dem Chip sein oder VRAM-Bandbreite, welche eng wird mit aktivierten Tensorcore-Berechnungen. Für mich ist es eigentlich absolut klar, dass es langsamer ist als natives QHD. Die Frage ist wie gross der Performance-Hit ist. Anscheinend schenkt es gut ein.

Lowkey
2018-12-17, 01:48:24
Powerlimit 2080: 250 Watt
Powerlimit 1080 Ti: 375 Watt

(per Regler)

Erklärt aber auch den Vorsprung meiner 1080 Ti.

Razor
2018-12-17, 06:43:33
Erklärt aber auch den Vorsprung meiner 1080 Ti.
Bahnhof? "Vorsprung" bei was?
Der einzige "Vorteil", den ich bei eienr 1080ti sehe, ist der VRAM und der hat so rein gar nichts mit dem Powertarget zu tun...
Ich vermute mal, dass die Tensorcores ebenfalls Energie benötigen ;) Hängt man am Power Budget, wird es dementsprechend langsamer. Andere Erklärungen können auch Bottlenecks auf dem Chip sein oder VRAM-Bandbreite, welche eng wird mit aktivierten Tensorcore-Berechnungen. Für mich ist es eigentlich absolut klar, dass es langsamer ist als natives QHD. Die Frage ist wie gross der Performance-Hit ist. Anscheinend schenkt es gut ein.
Aber wofür oder was soll dann dieses "Feature" gut sein?
Wenn man 'eh im GPU-Limit sitzt hat man also die Wahl zwischen "gutem" 4k + TAA oder "schlechtem" QHD + DLSS upscaling.
Man gewinnt bei durchaus sichtbarem Qualitätsverlust so etwa 33% an Leistung...

Und das ist also das, was die "tollen" Tensor-Cores leisten?
"For Free" ist der Qualitätsverlust also nur, wenn die Chips sowieso nicht ausgelastet sind?

Was ist denn das für eine hirnverbrannte Technik?
:confused:

Razor

cR@b
2018-12-17, 07:54:43
Ich muss sagen, dass sich bisher die Features als sehr ernüchternd abzeichnen. Raytracing in BFV zeigt sich von keiner guten Seite und jetzt DLSS...

Immerhin ist die Leistung der Ti ganz nett aber zu welchem Preis? Wenn die Features überzeugt hätten, wäre dieser evtl. einigermaßen gerechtfertigt gewesen aber so hat Turing einen extrem faden Beigeschmack.

Naja vielleicht muss man noch etwas Zeit ins Land ziehen lassen und sehen wie sich das alles entwickelt.

Rancor
2018-12-17, 08:22:31
Raytracing geht doch mittlerweile, also seit dem Patch ist es durchaus brauchbar.

lilgefo~
2018-12-17, 08:44:21
Bei GamersNexus gibts ein Video zu DLSS in FF. Kurzfassung ist das es Müll ist. Wäre mal interessant FF mit DLSS2x zu sehen.

Fragman
2018-12-17, 09:44:11
Bei GamersNexus gibts ein Video zu DLSS in FF. Kurzfassung ist das es Müll ist. Wäre mal interessant FF mit DLSS2x zu sehen.

Müll im Vergleich zu was, also unter welchen Vorraussetzungen?

dildo4u
2018-12-17, 10:21:01
Bei GamersNexus gibts ein Video zu DLSS in FF. Kurzfassung ist das es Müll ist. Wäre mal interessant FF mit DLSS2x zu sehen.
Sein Fazit ist besser als 1440p TAA und schlechter als 4k TAA,da es wie 1440p performt ein Gewinn.

Armaq
2018-12-17, 10:25:02
Schön reden muss man nichts. 1200 € für eine Grafikkarte deren Features nichts bringen.

Dlss sollte schneller sein als natives 4k,alles andere ist völliger Müll. Zur Vorstellung wurden x Titel genannt und manche haben sich sogar aus der Abzocke raus genommen [hitman].

lilgefo~
2018-12-17, 10:34:12
Sein Fazit ist besser als 1440p TAA und schlechter als 4k TAA,da es wie 1440p performt ein Gewinn.

Ja das Fazit hab ich jetzt für mich selbst gezogen. Geringere Auflösung, mehr flimmern -> crap.

Troyan
2018-12-17, 10:43:44
Ja das Fazit hab ich jetzt für mich selbst gezogen. Geringere Auflösung, mehr flimmern -> crap.

Logik? Natives 4K flimmert wie Hölle. Da ist DLSS viel besser. :rolleyes:

BigKid
2018-12-17, 10:49:55
Dann hast du definitiv die falschen Artikel gelesen. :) -> http://www.pcgameshardware.de/Geforce-RTX-2080-Ti-Grafikkarte-267862/Tests/Review-1265133/4/#a3 (Stand: 20.09.2018)



DLSS 2x ist ja eh ein Phantom. Wurde das mal irgendwo gezeigt? Bis auf die Versprechen hat man da bisher nix gesehen. Okay, ist beim "normalen" DLSS ja fast genauso. :ugly:

MfG,
Raff
Ich habe die letzten Seiten gerade überflogen, aber es las sich jetzt so als ob man im Prinzip sowas "selbst" machen kann:
Zielauflösung 4k mit dlss und dann Downsampling per Treiber auf WQHD oder FullHD ?

][immy
2018-12-17, 11:04:49
Ja das Fazit hab ich jetzt für mich selbst gezogen. Geringere Auflösung, mehr flimmern -> crap.
Also das mit der geringeren Auflösung stört mich jetzt nicht mal so. Aber das Flackern und die Artefakte sind einfach nicht mehr zeitgemäß. Ich wollte es ja schon auf die YouTube-Komprimierung schieben, aber die ist es nicht.
So sieht es aus als wenn man noch ein Post-Filter drüber schalten müsste um das Flackern zu beheben. Dafür Transistoren zu Opfern ist beim aktuellen Stand vollkommen unverständlich.
Wie viel Platz nehmen die Tensor-Cores ein und wie viel "normale"-Hardware hätte man stattdessen dazu tun können. Oder alternativ die RT-Hardware breiter aufstellen.

Die Geschwindigkeit der Hardware ist nach wie vor klasse und der Preis rechtfertigt sich allein durch die relativ schwache AMD Hardware. Aber die beiden großen Features entpuppen sich immer mehr als überflüssig.

Ja ich weiß der neue BFV patch macht es ein wenig erträglicher, aber RT ist nur dann von Vorteil für die Entwickler wenn es auch auf kleiner Hardware gut läuft. So ist RT nur zusatzaufwand und DLSS macht scheinbar alles schlimmer. Gut gibt aktuell nur den einen DLSS Titel, aber ich kann mir nicht vorstellen das es bei anderen Titeln besser aussehen wird. Je kleiner die Details desto schlimmer dürfte das Flackern und die Artefakte werden. Wenn sogar ein ruhiges Standbild anfängt zu flackern ...

Digidi
2018-12-17, 11:11:22
[immy;11878003']
Die Geschwindigkeit der Hardware ist nach wie vor klasse und der Preis rechtfertigt sich allein durch die relativ schwache AMD Hardware. Aber die beiden großen Features entpuppen sich immer mehr als überflüssig.



Das musst du mir jetzt genauer erklären wie sich das rechtfertigt? Du suchst wohl eher nach einer rechtfertigung.

Am ende ist es nämlich der Kunde der solche Preise rechtfertigt nicht AMD!

][immy
2018-12-17, 11:18:14
Das musst du mir jetzt genauer erklären wie sich das rechtfertigt? Du suchst wohl eher nach einer rechtfertigung.

Am ende ist es nämlich der Kunde der solche Preise rechtfertigt nicht AMD!
Ich finde ich Preise nicht gut, aber da es keine Konkurrenz gibt, gibt es auch nichts wirklich zu Meckern. Da kann nvidia quasi jeden Preis verlangen. Auch wenn ich es persönlich blöd find ;)
Solange es gekauft wird, wird nvidia daran auch nichts ändern. Und es gibt genug Leute die so viel Geld in die Hardware stecken, das es sich wohl für nvidia Lohnen wird.

Ein Test mit TAA und 1800p würd mich noch interessieren. Schade das man das in dem gamer-Nexus Video nicht verglichen hat. Die Performance dürfte dann eigentlich noch besser sein als mit DLSS und die Bildqualität ebenfalls.

Troyan
2018-12-17, 11:34:21
1800p sieht erheblich schlechter aus. Bilder habe ich im Thread ja schon gepostet.

Es ist auch faszinierend, dass Leute das TAA als besser empfinden: Farbverfälschungen, das Wegschmieren von feinen Details, fehlendes AA bei feiner Geometrie, fehlendes AA bei Objekten hinter transparenten Objekten, Artefakte bei schnellen Bewegungen in Kombination mit geringen Frames, das Verblurren von Details von Objekten aus der Nähe...

Godmode
2018-12-17, 11:56:17
Wieso? Eine 2080 ist doch toll :>

Die Karte wurde nur zu Testzwecken gekauft.

cR@b
2018-12-17, 11:58:53
Raytracing geht doch mittlerweile, also seit dem Patch ist es durchaus brauchbar.

Ähm nein...

Rancor
2018-12-17, 13:06:46
Ähm nein...
Wieso nicht? 1440P mit ~70 FPS auf einer 2080 sind doch i.O. Besser als die ~40 vorher ;D

Fragman
2018-12-17, 13:39:08
Man sollte sich hier einfach nicht mehr trollen lassen.
Als ich heut morgen gelesen hab, das die TI in einem neuen 3DMark für RT NUR 51 Frames erreicht, war am Montag morgen eigentlich schon wieder alles gesagt. :rolleyes:

Rancor
2018-12-17, 14:02:25
Vor allem lief die Karte mit 2.640 MHZ.... :D Also 100% N2 Kühlung.

cR@b
2018-12-17, 15:27:18
Wieso nicht? 1440P mit ~70 FPS auf einer 2080 sind doch i.O. Besser als die ~40 vorher ;D

Mag sein aber die 70fps laufen alles andere als flüssig und das trotz G-Sync. Zudem die Grafikfehler bei nassen Oberflächen in dunklen Bereichen wie z.B. Rotterdams Seitengassen. Ganz ehrlich aber ich nutze das Feature nichtmal für den SP und schon garnicht für den MP. Einfach schlecht umgesetzt und wenn ihr Euren Turing rechfertigen möchtet, dann bitte an anderer Stelle. Ich wie gesagt kann lediglich die Performance loben, das wars aber leider auch schon...

mkh79
2018-12-17, 15:56:19
War das nicht Ironie? :D

Mangel76
2018-12-17, 16:01:20
1800p sieht erheblich schlechter aus. Bilder habe ich im Thread ja schon gepostet.

Es ist auch faszinierend, dass Leute das TAA als besser empfinden: Farbverfälschungen, das Wegschmieren von feinen Details, fehlendes AA bei feiner Geometrie, fehlendes AA bei Objekten hinter transparenten Objekten, Artefakte bei schnellen Bewegungen in Kombination mit geringen Frames, das Verblurren von Details von Objekten aus der Nähe...


Allerdings kann DLSS nicht darüber hinwegtäuschen, dass die native Auflösung reduziert wird. Und das bringt zwei Nachteile mit sich. Der erste betrifft den Detailgrad der Darstellung, denn während manche Oberflächen mit DLSS zwar schärfer aussehen, wirken andere aufgrund der geringeren Auflösung zugleich weniger detailliert.
...Der zweite Nachteil betrifft die eigentliche Kantenglättung, denn der KI-Algorithmus kann die geringere Auflösung hier nicht kompensieren. Während Ultra HD mit TAA ein zwar teils unscharfes, dafür aber ruhiges Bild erzeugt, flackern mit DLSS einige Objekte deutlich mehr. Das gilt insbesondere für Gebäude und Zäune.
Quelle: CB (https://www.computerbase.de/2018-12/final-fantasy-xv-nvidia-dlss-test/)

Ich fürchte, jede Art der "Glättung" hat seine Vor- und Nachteile. Und die Beurteilung ist dann eben subjektiv!

Troyan
2018-12-17, 16:07:38
TAA blurrt massiv. Man erkauft sich also weniger Flimmern mit mehr Unschärfe. Da TAA nicht adaptiv eingesetzt wird, sind Objekte in der Nähe der Kamera deutlich unschärfer. Außerdem erfasst TAA keine feine Geometrie, die sehr weit von der Kamera entfernt ist und aus deutlich wenigern Pixel besteht. So verschluckt TAA einfach mal Stromkabel und -mästen, die in der nativen Berechnung alle vorhanden sind und auch mit DLSS dargestellt werden.

Aber wie Computerbase auf die Idee käme, dass DLSS das Farbschema ändere, ist mir unbegreiflich. TAA sieht klar anders aus als nativ. Vieles wird aufgrund der Farbvermischung deutlich anders dargestellt. DLSS ist in vielen Bereich näher an der nativen 4K Darstellung dran.

Deswegen ist es gut Alternativen zu haben. Als RTX-User kann man nun spielen, wie man möchte.

Lowkey
2018-12-17, 16:09:27
Wie bekomme ich den Regler beim MSI Afterburner für den Speicher erhöht? Bei 1950 läuft der Test und 3Dmark immer noch durch. Weiter aufdrehen kann ich den Takt nicht. Im 3Dmark Results ist aber schon wer auf 2000 gekommen.

Cubitus
2018-12-17, 16:19:03
Ich muss sagen, dass sich bisher die Features als sehr ernüchternd abzeichnen. Raytracing in BFV zeigt sich von keiner guten Seite und jetzt DLSS...

Immerhin ist die Leistung der Ti ganz nett aber zu welchem Preis? Wenn die Features überzeugt hätten, wäre dieser evtl. einigermaßen gerechtfertigt gewesen aber so hat Turing einen extrem faden Beigeschmack.

Naja vielleicht muss man noch etwas Zeit ins Land ziehen lassen und sehen wie sich das alles entwickelt.

Ich finde es ist alles eine Sache des persönlichen Anspruches.

Wieso müssen es denn 4K Auflösungen sein, oder brutale High End Monitore? Klar es sieht besser aus, aber 1080p und 1440p max reichen im Prinzip auch noch aus, diese Auflösungen benötigen keine TI, 1080p klappt auch noch ab ner 1060GTXer. Schaut man den aktuellen Konsolen zu, sind die leistungs technisch meilenweit hinter den jetzigen Grafikchips und die Spiele dort sind sehr Kompromiss belastet, sehen aber dennoch sehr brauchbar aus.

Man weiß einfach nicht wohin mit der Leistung und steckt diese ins Raytracing, klar kann man so machen. Dafür und für die 18,2 Mrd Transistoren bezahlt man eben höhere Preise, es wird zukünftig eben alles komplexer und nicht billiger.

Erschwerend kommt hinzu das Nvidia sich eben nicht im Preiskampf befindet, unabhängig davon wird es keine "günstigeren" HighEnd Lösungen mehr geben, dass kann man einfach komplett vergessen..

Nazar
2018-12-17, 17:02:55
Ich finde es ist alles eine Sache des persönlichen Anspruches.

Wieso müssen es denn 4K Auflösungen sein, oder brutale High End Monitore? Klar es sieht besser aus, aber 1080p und 1440p max reichen im Prinzip auch noch aus, diese Auflösungen benötigen keine TI, 1080p klappt auch noch ab ner 1060GTXer. Schaut man den aktuellen Konsolen zu, sind die leistungs technisch meilenweit hinter den jetzigen Grafikchips und die Spiele dort sind sehr Kompromiss belastet, sehen aber dennoch sehr brauchbar aus.

Man weiß einfach nicht wohin mit der Leistung und steckt diese ins Raytracing, klar kann man so machen. Dafür und für die 18,2 Mrd Transistoren bezahlt man eben höhere Preise, es wird zukünftig eben alles komplexer und nicht billiger.

Erschwerend kommt hinzu das Nvidia sich eben nicht im Preiskampf befindet, unabhängig davon wird es keine "günstigeren" HighEnd Lösungen mehr geben, dass kann man einfach komplett vergessen..
Deine Aussage (von mir hervorgehoben) ist auf was bezogen? Der Rest deiner Aussage ist eine Pauschalisierung.
Für wen gibt es denn die Mehrleistung, die man dann in RT stecken kann?
Hier werfe ich eine sehr intelligente Aussage AMDs in den Raum (O-Ton): "So lange RT nicht für alle Leistungsklassen Sinn macht, ist es nichts wert."
Und genauso verhält es sich mit DLSS, zumal DLSS, genauso wie RT, immer noch mit vielen "Kinderkrankheiten" zu kämpfen haben. RT ist bisher den meisten Probanden viel zu dunkel/unrealistisch (besonders gut bei der RT Demo von METRO zu sehen). DLSS verfälscht, der Technik geschuldet, dass Original und macht es "platter" (Details für die Tiefendarstellung gehen verloren).

Schlimmer als all das wiegt aber, dass nV wieder mal einen Alleingang hinlegt und wieder mal versucht ein "Krieg" anzustiften, wo eigentlich Kooperation viel wichtiger wäre.

Wenn RT wirklich einen klaren visuellen Vorteil gegenüber RZ haben sollte, wird es auch kommen, da bin ich mir sicher. So aber, wie es bisher aufgestellt ist, wiegen die Nachteile (schlechteres/unnatürlicheres Bild, gepaart mit schlechterer Performance) viel zu stark, als das RT in nächster Zeit (5+ Jahre) den Markt erobern würde. Gott sei Dank gibt es noch AMD, ansonsten möchte ich nicht wissen, mit was für einer Scheißgraphik wir rumlaufen müssten, nur damit nV diesen BS verkaufen kann (Grafik wir als Basis schlechter, damit es dann mit DLSS und RT besser aussieht).
DLSS ist noch viel schlimmer, weil es derzeit nur darauf aus ist, aus "sehr gut" ein "so lala" zu machen. Auf die Idee muss man erst einmal kommen.
Man beschäftigt Supercomputer, die dann etwas umständlich berechne, was vor der Berechnung deutlich besser aussah, um es dann so schlecht zu machen, dass es mit (wenn vorhanden) ingame Einstellungen genauso aussehen würde.
Das muss man sich mal auf der Zunge zergehen lassen! Die Spielhersteller müssen bei nV angekrochen kommen, nur damit der Spieler aus einem spitzen Bild ein beschissenes, von der KI berechnetes, Bild machen kann? Echt jetzt?
Das nennt man dann wohl aus Scheiße Gold machen?
Nun könnte man ja sagen, dass ja gerade die leistungsschwachen GPU davon profitieren aber das wäre wohl eine freche Lüge, denn die können leistungsmäßig eh nicht das DS bewältigen, welches benötigt wird, um dann das "Leistungsplus" + „bessere“ Graphik umsetzen zu können!

Das ist mal schweinegeil.... wenn man den Kunden so richtig das Fell über die Ohren ziehen kann.... und der sich auch noch dafür bedankt! ;D

Armaq
2018-12-17, 18:50:33
Ich finde es ist alles eine Sache des persönlichen Anspruches.

Wieso müssen es denn 4K Auflösungen sein, oder brutale High End Monitore? Klar es sieht besser aus, aber 1080p und 1440p max reichen im Prinzip auch noch aus, diese Auflösungen benötigen keine TI, 1080p klappt auch noch ab ner 1060GTXer. Schaut man den aktuellen Konsolen zu, sind die leistungs technisch meilenweit hinter den jetzigen Grafikchips und die Spiele dort sind sehr Kompromiss belastet, sehen aber dennoch sehr brauchbar aus.

Man weiß einfach nicht wohin mit der Leistung und steckt diese ins Raytracing, klar kann man so machen. Dafür und für die 18,2 Mrd Transistoren bezahlt man eben höhere Preise, es wird zukünftig eben alles komplexer und nicht billiger.

Erschwerend kommt hinzu das Nvidia sich eben nicht im Preiskampf befindet, unabhängig davon wird es keine "günstigeren" HighEnd Lösungen mehr geben, dass kann man einfach komplett vergessen..
Also der Sprung von FHD zu WQHD war deutlich sichtbar. Spiele mit vielen Details wie bspw. The Witcher 3 oder The Division sehen in WQHD bedeutend besser aus als in FHD. Wenn 4k ähnlich zu WQHD ist, dann würde ich das gerne machen. Allerdings reicht die Performance in neuen Releases oft nicht aus, wird hier im Forum ja auch beklagt.

DLSS sollte spürbare Entlastung an der Front bringen, aber es kostet sogar Leistung. Sorry, das ist einfach ein Reinfall.

x-force
2018-12-17, 19:01:48
DLSS sollte spürbare Entlastung an der Front bringen, aber es kostet sogar Leistung. Sorry, das ist einfach ein Reinfall.

informier dich lieber nochmal was dlss ist und macht.

wolik
2018-12-17, 19:12:50
https://abload.de/img/screenshot2018-12-1710ei9g.png

aufkrawall
2018-12-17, 19:16:05
informier dich lieber nochmal was dlss ist und macht.
Es ist langsamer als WQHD und sieht schlechter aus als natives 4k mit gutem TAA (was FF nicht hat).
Einfach nur überflüssig, genau so wie das halbgare RT.

Digidi
2018-12-17, 19:49:29
[immy;11878014']Ich finde ich Preise nicht gut, aber da es keine Konkurrenz gibt, gibt es auch nichts wirklich zu Meckern. Da kann nvidia quasi jeden Preis verlangen. Auch wenn ich es persönlich blöd find ;)
Solange es gekauft wird, wird nvidia daran auch nichts ändern. Und es gibt genug Leute die so viel Geld in die Hardware stecken, das es sich wohl für nvidia Lohnen wird.



Dann musst du doch aber die Leute verurteilen die Ihr ihr Geld gerne unnötig ausgeben und nicht AMD...

cR@b
2018-12-17, 19:52:58
Es ist langsamer als WQHD und sieht schlechter aus als natives 4k mit gutem TAA (was FF nicht hat).
Einfach nur überflüssig, genau so wie das halbgare RT.


So siehts leider aus!

Du sagmal du bist doch Reshade Spezialist. Kann man TAA in BFV irgendwie gänzlich aushebeln?

aufkrawall
2018-12-17, 20:04:25
Ich nix ReShade-Spezialist. :)
Das Programm kann aber keine in-game Effekte abschalten oder unterdrücken. So wie es nach kurzer Google-Recherche aussieht, hat Dice TAA offenbar "hardcoded" aktiviert und man kann es auch nicht abschalten.
In Mirror's Edge konnte man noch die Screen Space Reflxionen gesondert dauerhaft abschalten, geht in BF5 auch nicht mehr. Kann man noch in die user.cfg reinschreiben, nach einem Respawn ist die Einstellung in-game aber wieder überschrieben. Die hassen wohl PC-Spieler einfach nur noch. :freak:

cR@b
2018-12-17, 20:18:02
Ich nix ReShade-Spezialist. :)
Das Programm kann aber keine in-game Effekte abschalten oder unterdrücken. So wie es nach kurzer Google-Recherche aussieht, hat Dice TAA offenbar "hardcoded" aktiviert und man kann es auch nicht abschalten.
In Mirror's Edge konnte man noch die Screen Space Reflxionen gesondert dauerhaft abschalten, geht in BF5 auch nicht mehr. Kann man noch in die user.cfg reinschreiben, nach einem Respawn ist die Einstellung in-game aber wieder überschrieben. Die hassen wohl PC-Spieler einfach nur noch. :freak:

Hmm jo kacke :( Ich hatte auch gegoogled aber no way. Viele forderten ein TAA off bereits zu Alpha/Beta Zeiten... Naja ich dachte evtl. wäre über Reshade außer Lumasharpen mehr möglich.

basix
2018-12-17, 21:58:16
FHD auf WQHD war ein deutlicher Sprung obwohl zusätzlich 24" -> 27". Bei gleichbleibender Diagonale auf 4K wechseln wäre relativ gesehen nochmals der grössere Sprung. Leider sind 4K +120fps +HDR+ VRR sauteuer sowie GPU-Hersteller gebunden...

Schrotti
2018-12-17, 22:03:43
Ich finde es ist alles eine Sache des persönlichen Anspruches.

Wieso müssen es denn 4K Auflösungen sein, oder brutale High End Monitore? Klar es sieht besser aus, aber 1080p und 1440p max reichen im Prinzip auch noch aus, diese Auflösungen benötigen keine TI, 1080p klappt auch noch ab ner 1060GTXer.


Wenn man mal in 4K gezockt hat, geht man freiwillig nicht wieder auf 1080p oder eben 1440p zurück.

Troyan
2018-12-17, 22:57:04
Ich finde es ist alles eine Sache des persönlichen Anspruches.

Wieso müssen es denn 4K Auflösungen sein, oder brutale High End Monitore?


Weil die Leute sich die Notwendigkeit einreden. Gleichzeitig senken sie Effekte, die die BQ deutlich steigern, um auf genug Frames zu kommen.

Bei Computerbase gibt es ein Vergleichsvideo. Habe ich mir gerade auf meinen 4K Fernsehr aus zwei Metern angeschaut. Die Unterschiede sind so dermaßen minimal, dass es einfach lächerlich ist mit 4K+TAA in FF15 zu spielen.
Lustigerweise sieht das DLSS Bild subjektiv besser aus, weil es einige Teile viel schärfer darstellt werden. Neben ein paar Fails (Sonnenblende beim Auto) ist es vor Allem die (Über-)Schärfe, die viele das DLSS Bild wählen lassen würden.

Lowkey
2018-12-17, 23:20:11
Wenn man mal in 4K gezockt hat, geht man freiwillig nicht wieder auf 1080p oder eben 1440p zurück.

Na das stimmt nicht ganz. Diverse Leute sehen 100hz oder mehr als wichtiger an und rüsten von 4k runter auf 3440x1440 oder 2560x1440. 4k sieht auf Standbildern gut aus.

Razor
2018-12-18, 06:10:17
Wenn man mal in 4K gezockt hat, geht man freiwillig nicht wieder auf 1080p oder eben 1440p zurück.
Jain... hab mich hier einem Selbsttest unterzogen... ist aber schon länger her.

FHD-BD/-Videos sehen unter 4k nunmal schlechter aus... nicht so schlimm, wie seinerzeit SD zu HD, aber ähnlich (native 4k dagegen fantastisch).
Würde die Filmindustrie nicht wieder die gleiche Abzocke hinlegen, wäre es eine Überlegung wert, so aber nicht!

Der Performance-Impact in Games ist zu heftig: 4-fache Auflösung im vergl. zu FHD oder 2,25-fache im vergl. zu WQHD!
Selbst WQHD im vergl. zu FHD möchte schon das 1,78-fache an Auflösung + HDR + xHz...
Aber zu erwarten, dass die GPU-Technik mal eben einen derartigen Satz macht? Nö!

Desktop, 2D-Anwendungen... sorry, aber hier muss derart viel interpoliert und skaliert werden, dass es nicht mehr wirklich "hübsch" ist.
Gut, dass Win10 wenigstens derartige Skalierungsoptionen mitbringt, aber wirklich "schön" ist das nicht.
Insofern müssen auch OS und Anwendungen noch hinterher kommen und native 4k-Unterstützung liefern!

Zu viele Kompromisse und nur, damit Games... wenn denn die Leistung reicht... ein bissel besser aussehen.

Und ein anderes Problem gibt es natürlich auch noch... hat man erst einmal einen 4k-Moni, sieht FHD (z.Bsp.) auch nicht mehr gut aus.
Hier rate ich den Leutz sich das einfach mal auf einem nativen FHD-Moni anzuschauen... dann sehen sie, wie schlecht der eigene 4k skaliert :)

Razor

Linmoum
2018-12-18, 07:36:14
Na das stimmt nicht ganz. Diverse Leute sehen 100hz oder mehr als wichtiger an und rüsten von 4k runter auf 3440x1440 oder 2560x1440.
Wer erachtet >100Hz als wichtiger, kauft sich aber 'nen 60Hz UHD nur um dann wieder abzurüsten? Wenn mir das wichtig(er) ist, geh ich gar nicht erst auf 60Hz.

4k sieht auf Standbildern gut aus.
Genauso wie in Bewegung. Die Unterschiede bei der Bildqualität sind massiv. Auflösung ist durch nichts zu ersetzen.

woodsdog
2018-12-18, 08:33:34
Wer erachtet >100Hz als wichtiger, kauft sich aber 'nen 60Hz UHD nur um dann wieder abzurüsten? Wenn mir das wichtig(er) ist, geh ich gar nicht erst auf 60Hz.


Genauso wie in Bewegung. Die Unterschiede bei der Bildqualität sind massiv. Auflösung ist durch nichts zu ersetzen.

Definiere "Gut".

1440p mit >=100Hz bietet _in Bewegung_ effektiv mehr Details ggü 60Hz 4k. Stichwort: Hold-Type Blur

Wenn man Top-Down Strategie-Spiele oder CardGames zockt, ist 4k sicher die bessere Wahl... Aber alles mit viel Bewegung - First Person, Racing, Platformer - profitiert enorm von höherer Wiederholrate - am besten in Verbinung mit ASync/GSync.

Fragman
2018-12-18, 08:39:07
Wer erachtet >100Hz als wichtiger, kauft sich aber 'nen 60Hz UHD nur um dann wieder abzurüsten? Wenn mir das wichtig(er) ist, geh ich gar nicht erst auf 60Hz.


Genau das zeigt ja, wie eng der Blickwinkel einiger hier ist.
Wer hat denn zb einen 144 UHD Screen, um vernüntig zu spielen? Weil die 60Hz kann man sich doch nicht mehr ernsthaft antun, zumindest nicht die Zielgruppe, über die hier geredet wird. Die UHD Diskussion ist aktuell unrealistisch, weil zum einen günstige Monitore fehlen und auf absehbare Zeit auch fehlen werden, die zb 144Hz können und dann natürlich das fehlen entsprechender Grafikkarten. Nv muss sich nicht beeilen und ATI wird noch mind 2 Jahre brauchen für High End, von dem allerdings nur gehofft wird, das sie liefern werden können. Nv zeigt mit Turing, was aktuell möglich ist und wo die Grenzen liegen, selbst wenn man bereit ist, fast 3k Euro aus zugeben.

RainingBlood
2018-12-18, 09:27:23
ich hab von einem FHD 144 Hz Display auf ein UHD mit 60 Hz "abgerüstet". Ja, kompetetive Shooter spielen sich nicht mehr so gut, aber alles sieht verdammt gut aus. Ich geh ganz sicher nicht mehr zurück. Pro UHD Fraktion.

Hoffe die 2080 fällt bis April auf ~550€, dann rüste ich auf

Lowkey
2018-12-18, 09:54:50
Wer erachtet >100Hz als wichtiger, kauft sich aber 'nen 60Hz UHD nur um dann wieder abzurüsten? Wenn mir das wichtig(er) ist, geh ich gar nicht erst auf 60Hz.

Genauso wie in Bewegung. Die Unterschiede bei der Bildqualität sind massiv. Auflösung ist durch nichts zu ersetzen.


Die letzte VR Brille hat flüssiges Bild mit 90hz deklariert. Langfristig haben wir also definitiv mehr als die 60hz. 4k mit 60hz ist eben nicht flüssig. Die competitive gamer bzw streamer setzen nach und nach auf 240fps und das auch nur bei Full HD. Das widerspricht natürlich dem Wunsch nach mehr Qualität und ist ein wenig extrem mit low Details.

Andersrum sind 100fps mit 100hz auf 4k derzeit kaum machbar. Der Kompromis sind 100hz bei einer Auflösung unterhalb von 4k.


Die Preise fallen:
https://www.notebooksbilliger.de/acer+nitro+xv273kp?nbb=45c48c



PS: meine 2080 geht selbst mit Luftkühlung immer höher. 2080 Mhz ist mit +1000 Memory und +10% PT äußerst stabil. Samsung ist deutlich besser als Micron bei den Speicherchips.

Rancor
2018-12-18, 09:57:10
Erst wird 4k von den Herstellern gehypt und jetzt wo es die eigenen Karten mit den neuen Effekten nicht mehr schaffen, wird wieder die Notwendigkeit abgesprochen. Lächerlich im ² ist das, mehr nicht..

Lowkey
2018-12-18, 10:08:46
Erst wird 4k von den Herstellern gehypt und jetzt wo es die eigenen Karten mit den neuen Effekten nicht mehr schaffen, wird wieder die Notwendigkeit abgesprochen. Lächerlich im ² ist das, mehr nicht..


Der Fail ist der, dass man die neuen Karten mit unfertigen Effekten ausliefert. Der Marketing Zug hätte die 2080 Ti als erste 4k Karte verkaufen müssen, aber nun schaut jeder auf RT und DSLL.

Fragman
2018-12-18, 10:10:09
Hoffe die 2080 fällt bis April auf ~550€, dann rüste ich auf

Dann wird es interessant, preislich, ja.

fulgore1101
2018-12-18, 10:12:22
Hat vielleicht jemand Erfahrungen oder ein Review zur MSI RTX 2080 Ventus? Wie schlagen sich die Lüfter im Punkt Lautstärke?

Ätznatron
2018-12-18, 10:37:15
Der Marketing Zug hätte die 2080 Ti als erste 4k Karte verkaufen müssen, aber nun schaut jeder auf RT und DSLL.

Damit hätten sie aber niemals den Preissprung rechtfertigen können.

Der Versuch ist halt in die Hose gegangen...

gbm31
2018-12-18, 10:42:36
1080Ti -> 2080: -3GB
1070Ti -> 2060: -2GB

und trotzdem wird gekauft... :rolleyes:

Ätznatron
2018-12-18, 10:50:52
1080Ti -> 2080: -3GB
1070Ti -> 2060: -2GB

und trotzdem wird gekauft... :rolleyes:

Mag sein...aber ganz bestimmt nicht von mir. ;)

Und ich bezweifel, dass die Verkaufszahlen den Erwartungen gerecht werden.

pilzsammler2002
2018-12-18, 10:57:26
Und ich bezweifel, dass die Verkaufszahlen den Erwartungen gerecht werden.

Wenn es sich nicht "lohnen" würde, hätten sie schon lange was geändert :)

Ätznatron
2018-12-18, 11:05:26
Der wichtigste Indikator für Zufriedenheit ist der Börsenkurs.

Der von NV im Verlauf der letzten 6 Monate sagt wohl alles.

Rancor
2018-12-18, 11:07:46
Und das vollkommen zu Recht. Mondpreise und halbgare Features zu releasen und dann noch Wucherpreise zu nehmen. Nur die Hardcore Fanboys oder die, die eine neue Grafikkarte brauchen ( durch defekt der Alten zB. ), kaufen sich das doch. Keine Konkurrenz zu haben ist einfach Mist.

JVC
2018-12-18, 11:11:07
Der Marketing Zug hätte die 2080 Ti als erste 4k Karte verkaufen müssen, aber nun schaut jeder auf RT und DSLL.
Performancetechnisch hat sich NV nicht gerade mit Ruhm bekleckert.
( die 2080Ti ist grad mal 15-25% schneller als die 1080Ti )
Ich hätte mir auch eine Karte mit echt fett Rohleistung für 4K+ gewünscht.
Aber NV musste ja den Platz dafür "verschwenden" ...

Damit hätten sie aber niemals den Preissprung rechtfertigen können.
Jup mit +25% Leistung sind schwerlich +100% preis zu rechtfertigen ^^

Ich sehe ehrlich gesagt Garnichts an Tu was diese horrenden Preise rechtfertigt.
( abgesehen von fehlender Konkurrenz und weil es NV hald machen kann )

m.f.g. JVC

Daredevil
2018-12-18, 11:21:46
Der wichtigste Indikator für Zufriedenheit ist der Börsenkurs.

Der von NV im Verlauf der letzten 6 Monate sagt wohl alles.
Das ist Unsinn. Es ist vielleicht ein Indikator für Investoren, aber keinesfalls von Konsumenten.
Oder hat Nvidia mit der Zugabe von neuen Karten nun ein besseres oder ein schlechteres Lineup als im Juli? ;)

Der Börsenpreis ist keine direkte Spiegelung der Kundenzufriedenheit oder der Qualität des Portfolios.

dildo4u
2018-12-18, 11:23:17
Der wichtigste Indikator für Zufriedenheit ist der Börsenkurs.

Der von NV im Verlauf der letzten 6 Monate sagt wohl alles.
Die komplette Technologie Branche bricht gerade ein.
Wenn die Software Firmen schrumpfen gibt es weniger Nachfrage nach Hardware.

https://www.theguardian.com/business/2018/nov/19/stock-market-latest-us-losses-apple-google-tech-companies

SKYNET
2018-12-18, 11:31:27
Die komplette Technologie Branche bricht gerade ein.
Wenn die Software Firmen schrumpfen gibt es weniger Nachfrage nach Hardware.

https://www.theguardian.com/business/2018/nov/19/stock-market-latest-us-losses-apple-google-tech-companies


also AMD und MS halten sich ziemlich stabil seit mitte oktober, auch intel... einzig apple und NV gehen derzeit massiv den bach runter... nur um mal "die komplette technologie banche" zu entkräften... :wink:

und wegen software: siehe microsoft, der grösste software hersteller der welt ist im steigflug und das derzeit wertvollste unternehmen der welt...

Troyan
2018-12-18, 11:33:53
Jap, sehr stabil dieses AMD. Von $35 auf $18.

dildo4u
2018-12-18, 11:34:05
MS ist erster weil Apple massiv verloren hat,davon ab hat das ganze hat nix mit Endusern zu tun,sondern mit US Investoren die Angst haben,das es mehr Strafzölle für Produkte aus China gibt.

SKYNET
2018-12-18, 11:39:30
Jap, sehr stabil dieses AMD. Von $35 auf $18.

kurzer höhenflug, danach kommt immer nen fall, war nie anders, wird nie anders sein... und trotzdem seit juni +, im gegensatz zu apple oder NV :P

MS ist erster weil Apple massiv verloren hat,davon ab hat das ganze hat nix mit Endusern zu tun,sondern mit US Investoren die Angst haben,das es mehr Strafzölle für Produkte aus China gibt.

und zu guter letzt weil apple die verkaufszahlen der einzelnen produkte nicht mehr liefern will... sowas mögen investoren garnicht...

und trotzdem ist MS im steigflug, ganz unabhängig von apple.

Ätznatron
2018-12-18, 11:41:35
Der massive Einbruch bei nVidia begann genau mit RTX-Release. Alles Zufall?

Linmoum
2018-12-18, 11:45:20
Jap, sehr stabil dieses AMD. Von $35 auf $18.
AMD ist seit Ende Oktober/Anfang November ziemlich stabil bei +-$20, wohingegen Nvidia von über $210 auf unter $145 eingebrochen ist. Jap sieht total identisch aus.

dildo4u
2018-12-18, 11:45:35
Ist hier eh OT aber es kommt noch dazu das Beide wegen des Minings zu viel GPUs gebaut haben,ich meine bei Mindfactory gibt grad HBM2 Karten für 340€.
Kein Plan wo dort die Gewinnspanne für AMD sein soll,Nvidia muss dort nur Karten mit GDDR5 verkaufen wie die 1070.

Troyan
2018-12-18, 11:52:40
AMD ist seit Ende Oktober/Anfang November ziemlich stabil bei +-$20, wohingegen Nvidia von über $210 auf unter $145 eingebrochen ist. Jap sieht total identisch aus.

Aha. Gestern brach AMD um 5% ein, nVidia um 2%. Sehr stabil dieses AMD. :rolleyes:

Gott, trollt endlich woanders.

Rancor
2018-12-18, 12:30:25
Ich liebe diesen Kerl :D

][immy
2018-12-18, 13:01:56
Der massive Einbruch bei nVidia begann genau mit RTX-Release. Alles Zufall?
Ein wenig sehr off topic, aber ja, einige Aktionäre haben mehr erwartet und gehofft das nvidia noch stärker steigt. So ist das nun mal am Aktienmarkt. Dürfte aber nichts wirklich mit dem Unternehmen selbst zu tun haben.
Die RTX karten sind stark. Nur die versprochenen Features sind halt nicht so wie sie gerne verkauft werden. Nvidia scheint einfach nur ein weiteres Verkaufsargument gesucht zu haben, denn die 1080Ti ist ja immer noch eine verdammt schnelle Karte. Und nur über die Performance erreicht man möglicherweise nicht alle early-Adopters. Da muss das was neues her, selbst wenn man es später wieder vergessen sollte, weil es dann doch nicht adaptiert wird.
Wenn man sich den Aktienkurs anschaut sieht man auch so eine kleine Blasenentwicklung. Nicht wirklich wurde das Unternehmen mehr Wert, sondern die Aktionäre hatten einfach auf einen kleinen Boom gehofft. Mehr isses nicht. Nvidia wird dadurch nichts verlieren.

Auch die Sony Aktie wird vor der PS5 durch die Decke gehen um sich dann irgendwann wieder zu normalisieren.

Aktiengeschäfte haben sich leider schon lange von der realen Lage eines Unternehmens abgekoppelt da jeder nur noch auf schnelle Gewinne hofft, was nicht dem ursprünglichen Sinn des Aktienmarktes entspricht langfristig Unternehmen zu unterstützen und darüber Gewinne zu erzielen.

Eventuell sollte mal ein Mod dieses Thema in einen andern Thread auslagern.

robbitop
2018-12-18, 13:36:12
Also zum DLSS:

1.) die Güte der Implementierung von TAA ist je nach Spiel sehr unterschiedlich. In FF ist es offenbar nicht so toll. In Wolfenstein 2 empfand ich es in Kombination mit etwas Nachschärfung im Ingameregler extremst gut.
2.) Der Vergleich mit 1440p ist aus BQ Sicht unpassend. Es kostet laut CB so viel wie 1800p. Gutes TAA und etwas Nachschärfung und schon wird es für DLSS deutlich schwieriger
Leider werden häufig absolute Müllfilter zum Up/Dowmscaling genutzt. DSR nutzt bei geraden Faktoren lineare Interpolation und bei ungeraden Point Sampling mit einem vorgeschalteten Gaussfilter (urks). Denke mal dass viele Spiele da nicht unbedingt besser sind. Gedosato hatte richtig tolle Filter zur Verfügung die 1800p-> 2160p Scaling sicherlich auch nochmal besser machen würden.
3.) Ein noch würdigerer Gegner wäre IMO eine gute Implementierung von Checkerboard Upscaling (Horizon Zero Dawn) oder aber temporales Upscaling (Ratchet and Clank).

Im Endeffekt haben alle Verfahren prinzipbedingt Vor- und Nachteile. Es ist ein interessantes Verfahren - aber der Vorteil und das Ergebis ist weit davon so gut zu sein, wie es viele hier im Forum zum Turing Launch erträumt haben.

wolik
2018-12-18, 18:01:15
Man kann jetzt RTX Titan kaufen.

Raff
2018-12-18, 18:11:27
Mmmh. Eben hatte ich 10 Stück (Höchstmenge, normaler Haushalt eben) im Warenkorb. Leider gibt's keinen Mengenrabatt.

MfG,
Raff

Ex3cut3r
2018-12-18, 18:22:50
Mmmh. Eben hatte ich 10 Stück (Höchstmenge, normaler Haushalt eben) im Warenkorb. Leider gibt's keinen Mengenrabatt.

MfG,
Raff

Go for it! :biggrin: :wink:

gravitationsfeld
2018-12-18, 18:57:37
Der massive Einbruch bei nVidia begann genau mit RTX-Release. Alles Zufall?
Alle Tech-Stocks sind in den letzten Wochen massiv eingebrochen. Wenn man das rausrechnet ist es fast nicht der Rede wert.

AffenJack
2018-12-18, 19:22:03
AMD ist seit Ende Oktober/Anfang November ziemlich stabil bei +-$20, wohingegen Nvidia von über $210 auf unter $145 eingebrochen ist. Jap sieht total identisch aus.

Jupp sieht es. AMD Crash nach Quartalszahlen und Ernüchterung vom Mining im Oktober. Nvidia Crash nach Quartalszahlen und Ernüchterung vom Mining im November.

Außer, dass die Nvidia Aktionäre gehofft haben, dass Mining Nvidia nicht so betrifft, gibts keinen großen Unterschied. Beide crashen wegen Mining bei den Zahlen und laufen seitdem seitwärts.

pixeljetstream
2018-12-18, 19:24:31
Die Nachricht um das Inventar wegen Mining war eher das Problem beim Kurseinbruch.
Edit: zu langsam ;)

c001
2018-12-18, 20:05:53
Mmmh. Eben hatte ich 10 Stück (Höchstmenge, normaler Haushalt eben) im Warenkorb. Leider gibt's keinen Mengenrabatt.

MfG,
Raff

Bei caseking kannst auch 99 in den Warenkorb legen, das sollte reichen :biggrin:

https://www.caseking.de/caseking-blog/jetzt-bei-caseking-die-nvidia-titan-rtx-3355.html

just4FunTA
2018-12-18, 20:08:30
sieht schon edel aus, aber 2700€ ist einfach krank. ::freak:

Screemer
2018-12-18, 20:11:15
Titan v hat doch ähnlich viel gekostet, oder?

c001
2018-12-18, 20:15:08
Titan v hat doch ähnlich viel gekostet, oder?

Ja, zuerst 3100 € später 3200 €

Screemer
2018-12-18, 20:17:15
Na dann ist doch alle in Butter.

c001
2018-12-18, 21:04:25
Nachfolgend sieht man wie der 2080 TI in BF V mit DXR regelmäßig der VRAM ausgeht und die FPS stark einbrechen, die Rechenleistung wäre für 4K eigentlich akzeptabel

https://www.youtube.com/watch?v=MzlRR0t01Xg

Troyan
2018-12-18, 22:02:46
Kann auch der tolle DX12 Pfad mit seinen Sekunden hängern sein. :rolleyes:

Raff
2018-12-18, 22:05:27
Der Speicher geht mit DXR definitiv aus. Die Belegung ist deutlich größer als ohne Raytracing.

MfG,
Raff

aufkrawall
2018-12-18, 22:09:35
Man sieht ja auch, dass offenbar fleißig in den RAM ausgelagert wird.
"Kauft euch eine 2080 statt 1080 Ti, die ist zukunftssicherer." :freak:

gravitationsfeld
2018-12-18, 22:14:29
Ist sie auch. Pascal hat einige Hardware-Schwaechen die im Moment von Entwicklern noch beachtet werden, weil NVIDIA so eine riesige Install-Base hat. Wenn man z.B. anfaengt constant buffers zu ignorieren bricht dir Pascal gerne mal um 30% ein. Wuerde ich keinen Cent mehr dafuer ausgeben.

aufkrawall
2018-12-18, 22:19:22
Dann kauft man wohl besser gar nicht, denn 8GB sind schon lange nur noch Midrange.
Und wenn RT wirklich prinzipbedingt noch mehr frisst, ist Turing mit der Ausstattung um so kackendreister.

gravitationsfeld
2018-12-18, 22:20:09
Korrekt. Ich wuerde mir auch keine 8GB-Karte mehr kaufen. Wartet auf die 7nm-Generation ist mein Ratschlag.

Ex3cut3r
2018-12-18, 23:38:12
Dann wartet mal, ich zocke hier mit meiner RTX 2080 OC sehr genüsslich in 3440x1440. Die 1070 war unbefriedigend in der Auflösung.

yamo
2018-12-19, 00:26:29
Dann wartet mal, ich zocke hier mit meiner RTX 2080 OC sehr genüsslich in 3440x1440. Die 1070 war unbefriedigend in der Auflösung.

Glückwunsch(y). Ich wollte endlich mal´ne Ti besitzen und habe mir die Palit Gaming Pro gegönnt. Gab´s vor ein paar Tagen bei Computeruniverse für ~1229€. A-Chip, gutes PL 330W und gute/leiser 2,5 Kühler, sowie Samsung Ram. Unter Luft mit 100% ging selbst Ram@8000Mhz bei ~1950-2000.
Im Vergleich zu den Konkorrenten ist das superbillig.
Heute umgebaut auf den Heatkiller+BP.
Nach dem Alptraum (Zusammenbau, bewässern, entlüten)...
WOW. Nichts über 43° im 3dmark (Timespy+4k/Firestrike+4k).
Boost bei 2145, aber dann schlägt das PL zu:freak:

Das fiese KFA² Bios grinst mich schon an. Auch wenns Unsinn ist.

Echt heftig, was das Brett mit macht.
Für den Preis, klare Empfehlung.

Grüße

just4FunTA
2018-12-19, 01:30:29
Nachfolgend sieht man wie der 2080 TI in BF V mit DXR regelmäßig der VRAM ausgeht und die FPS stark einbrechen, die Rechenleistung wäre für 4K eigentlich akzeptabel

https://www.youtube.com/watch?v=MzlRR0t01Xg


40fps sind im mp von Battlefield !nicht akzeptabel!

c001
2018-12-19, 02:39:01
40fps sind im mp von Battlefield !nicht akzeptabel!

Da stimme ich zu!
BF V dient hier nur als Beispiel für ein Spiel welches DXR in Kombination mit 4K nutzt, bei welchem offensichtlich wird, dass das Verhältnis VRAM zur Rechenleistung der 2080 TI unausgeglichen ist.
Wäre es der singleplayer mode von BF V oder ein anderes singleplayer Spiel mit DXR in 4K könnte man mit den 40+ FPS ja leben.
Mehr FPS wären ganz klar besser!
Leider wird bei der 2080 TI in 4K mit DXR meist der VRAM vor der Rechenleistung limitieren, was eigentlich schade ist.
Hier dürfte die Titan RTX ein ausgeglicheneres Spieleerlebnis liefern.

gnomi
2018-12-19, 06:51:14
Ist halt die erste Generation.
Allerdings bin ich schon überrascht, dass Dice die Performance so schnell (wenngleich mit Kompromissen optimiert) derart steigern konnte.
Das Problem ist imho eher DX 12. Wo außerhalb von Shadow of the Tomb Raider und einigen MS Produktionen (die dann nicht auf Win 7 laufen Dank Store) läuft das überhaupt unkompliziert? Insgesamt bleibt es mit Blick auf bisher ein ähnlicher Reinfall wie DX 10 seinerzeit.
Also falls man wegen Auflösungen jenseits von WQHD nicht mehr Leistung braucht, erledigt Pascal den Job bis zur deutlich schnelleren nächsten GPU locker.
Dafür mag ich nicht mehr solche Mond Preise hinlegen.
Der grafische Fortschritt hängt auch mehr am Budget und den Fähigkeiten der Studios muss man sagen.
Selbst aktuell könnte ich jedes maximierte Game noch locker auf High zurückgestellt genießen, weil mich die kleinen Unterschiede kaum stören.
Zwischen Einstellungen mit 3 GB VRAM Bedarf und welchen mit 6 ist auch kaum ein Unterschied.
Meistens sind saubere Frametimes und optimierte Spiele ohne zig Patches das neue Luxusgut. ;D

Razor
2018-12-19, 07:19:07
Dice? Ich denke mal eher, dass nVidia hier die Finger im Spiel hatte... wortwörtlich :)

Razor

Dr.Doom
2018-12-19, 09:12:48
Glückwunsch(y). Ich wollte endlich mal´ne Ti besitzen und habe mir die Palit Gaming Pro gegönnt. Gab´s vor ein paar Tagen bei Computeruniverse für ~1229€. A-Chip, gutes PL 330W und gute/leiser 2,5 Kühler, sowie Samsung Ram. Unter Luft mit 100% ging selbst Ram@8000Mhz bei ~1950-2000.
Im Vergleich zu den Konkorrenten ist das superbillig.
Heute umgebaut auf den Heatkiller+BP.
Nach dem Alptraum (Zusammenbau, bewässern, entlüten)...
WOW. Nichts über 43° im 3dmark (Timespy+4k/Firestrike+4k).
Boost bei 2145, aber dann schlägt das PL zu:freak:

Das fiese KFA² Bios grinst mich schon an. Auch wenns Unsinn ist.

Echt heftig, was das Brett mit macht.
Für den Preis, klare Empfehlung.

Grüße
Wow... ich sehe schon die RTX 3080 Ti für über 2000€ Begeisterungsstürme auslösen und frohlockende Käufer, wenn sie ein Karte für 1980€ kaufen können... It's a mad world.

Rancor
2018-12-19, 09:24:28
Wenn AMD nicht so langsam aus dem Arsch kommt, dann wird das so seien.
Wobei Intel will in dem Markt ja auch mitmischen.

Troyan
2018-12-19, 09:45:09
Da stimme ich zu!
BF V dient hier nur als Beispiel für ein Spiel welches DXR in Kombination mit 4K nutzt, bei welchem offensichtlich wird, dass das Verhältnis VRAM zur Rechenleistung der 2080 TI unausgeglichen ist.
Wäre es der singleplayer mode von BF V oder ein anderes singleplayer Spiel mit DXR in 4K könnte man mit den 40+ FPS ja leben.
Mehr FPS wären ganz klar besser!
Leider wird bei der 2080 TI in 4K mit DXR meist der VRAM vor der Rechenleistung limitieren, was eigentlich schade ist.
Hier dürfte die Titan RTX ein ausgeglicheneres Spieleerlebnis liefern.

Ich habe mich gestern durch eine Runde Rotterdam gequält und es "läuft" wie in 1440p. Man sollte sich hier also nicht vom kaputten DX12 Pfad irritieren lassen.

mkh79
2018-12-19, 10:05:08
Vielleicht liegt es an meiner CPU, aber DX12 läuft hier butterweich mit einer 2080TI, RT an läuft wirklich extrem schlecht, viele Miniruckler und extrem unruhige Frametimes.

Troyan
2018-12-19, 10:25:06
Die Hänger gibt es auch im normalen DX12 Modus. Mit RT scheint es umfänglicher zu sein. Aber es gibt hier kein Unterschied zwischen 1440p und 2160p, trotzdem der Speicher bei 2160p um 10,5GB liegt.

mkh79
2018-12-19, 10:33:13
Muss ich nochmal beobachten, unter 1440p ist mir gar nicht aufgefallen, dass ich mit dem VRAm am Ende wäre.
Das unruhige Spiel mit RT macht mir jedenfalls keinen Spaß, mit DX12 empfinde ich es als flüssig genug.

Troyan
2018-12-19, 10:37:25
Seit dem neusten Patch ist für mich alles über 60FPS flüssig in BF5. Daher spielt sich RT auch ziemlich gut (bis ein paar Ausnahmen auf Rotterdam). Aber es ging ja darum, dass angeblich der Speicher für 4K nicht reichen würde. Das habe ich gestern nicht gesehen.

pixeljetstream
2018-12-19, 11:30:27
Dice? Ich denke mal eher, dass nVidia hier die Finger im Spiel hatte... wortwörtlich :)

Razor
Beide Firmen arbeiten eng zusammen. Es ist learning by doing für beide Seiten. Man kann imo dice da keinen Vorwurf machen, noch behaupten NV hätte alles "gelöst" (dauert immer Jahre bis best practices sich etablieren, war aber vorher auch so).

Alle Beteiligten (MS, IHVs und sw Entwickler) sind sich einiger der Probleme in dx12 bewusst, nur sind die nicht so trivial zu lösen. Man arbeitet aber konsequent an Verbesserungen, nur ziehen sich solche Prozesse einfach hin.

gbm31
2018-12-19, 11:32:39
Wenn AMD nicht so langsam aus dem Arsch kommt, dann wird das so seien.
Wobei Intel will in dem Markt ja auch mitmischen.

Genau! AMD! Und Intel! Hauptsache die anderen. Ja nicht selber einfach mal nicht kaufen...

Rancor
2018-12-19, 11:38:48
Genau! AMD! Und Intel! Hauptsache die anderen. Ja nicht selber einfach mal nicht kaufen...

Hab ich doch auch garnicht gemacht :confused:

Ich würde mir nur eine RTX kaufen wenn meine jetzige VGA den Geist aufgibt und das auch nur weil ich nen G-Sync Monitor habe.

pixeljetstream
2018-12-19, 12:05:29
Haben gerade noch mehrere RTX 8000 bekommen zum testen. 48 GB ist schon krank... Auch immer traurig was jetzt hier so verstaubt https://photos.app.goo.gl/UB3q8p6cinre6PsF9
Das sind glaube ich 128 GB vram in total inklusive ganz links die vorserien turings die nun nur noch Briefbeschwerer sind weil es für die Boards keine Treiber/vbios mehr gibt. Alles für die Tonne.

gbm31
2018-12-19, 12:32:35
Hab ich doch auch garnicht gemacht :confused:

Ich würde mir nur eine RTX kaufen wenn meine jetzige VGA den Geist aufgibt und das auch nur weil ich nen G-Sync Monitor habe.


DU nicht, sorry, aber genug andere, mit der Ausrede AMD habe nichts.

Dabei sind die meisten von ihrer 1070/1070Ti/1080/1080Ti umgestiegen.

SamLombardo
2018-12-19, 12:42:20
DU nicht, sorry, aber genug andere, mit der Ausrede AMD habe nichts.

Dabei sind die meisten von ihrer 1070/1070Ti/1080/1080Ti umgestiegen.
Welche Grafikkarte würdest du denn aktuell jemandem empfehlen, der in 4k spielen will?

just4FunTA
2018-12-19, 13:29:15
titan rtx

SKYNET
2018-12-19, 13:59:05
Welche Grafikkarte würdest du denn aktuell jemandem empfehlen, der in 4k spielen will?


2080Ti / rtx titan... aber auch nur bedingt, ist immernoch keine nativen 4k karten, aber zumindest die, die am ehesten dran sind.

Godmode
2018-12-19, 14:19:59
Der Speicher geht mit DXR definitiv aus. Die Belegung ist deutlich größer als ohne Raytracing.

MfG,
Raff

Das Ding ist viel zu teuer. Für 1.500 könnte man ja überlegen, aber so nicht.

Lowkey
2018-12-19, 14:48:23
Wer hat überhaupt hier eine neue Titan bestellt? Hat der bekannte Käufer solcher Produkte eigentlich schon seine Titan V verkauft bekommen?

Wenn AMD in 6 Monaten mit Pseudo 7mm ankommt, dann müßte es 2019 schon den Refresh der 2000er geben?

gbm31
2018-12-19, 15:00:49
Welche Grafikkarte würdest du denn aktuell jemandem empfehlen, der in 4k spielen will?

Als allererstes würde ich selten jemandem raten, zum Zocken auf 4K zu gehen. ;-) Ich würde erst umsteigen wenn Panels und GPU-Performance passen, und da sind wir noch lange nicht.

Wenn einer sich aber schon so ein Display angetan hat, dann hat er auch schon eine 1080Ti (hoffentlich). Der kann nur auf eine 2080Ti gehen, wenn er absoluten Leistungsdruck hat, oder seine Grafikkarte defekt werden sollte.

Ansonsten wäre common sense die überhöhten Preise schlicht zu boykottieren. Wir reden hier nicht von lebensnotwendigem.
Durch Annahme der Preise wird nur weiter an der Spirale gedreht.

Selbst ein 4K-Display kann skalieren (mehr oder weniger gut)...

pixeljetstream
2018-12-19, 15:12:23
4k gaming kommt nicht nur von 4k Monitor. Ich hab z.bsp 3xFHD für racing games, und denke auch das manche wqhd oder fhd höher rendern für Bildqualität.
Aber ja wie du sagst wer das macht hat schon was ordentliches.

Troyan
2018-12-19, 15:18:28
Nicht unbedingt. Da 4K viel günstiger wird, haben viele einen 4K Monitor wegen Office/Desktop. Spiele werden dann eben auch einfach hoch skaliert.

Lowkey
2018-12-19, 15:19:45
Bei Fernsehern bekommst du nur noch 4k, aber das TV Programm kennt meist nur 720p und außer Bluerays bekommt man nichts auf 4k. Selbst Netflix auf 4k zickt.

Und bei Monitoren beklagt man doch nur die fehlenden 100-144hz, die recht teuer sind. Der Trend zu 4k hat 2013/2014 begonnen, aber bis heute ist er nicht erreicht. In 5 Jahren ist 4k 144hz sicherlich der neue Standard, aber bis dahin kaufen wir alle nur Übergangsmonitore.

Alle Welt versucht zB. Full HD bei 27" auszureden, aber ehrlich gesagt ist mir ein großer Monitor lieber als ein kleiner Monitor und die Auflösung ist letztlich für Gaming nahezu unwichtig, während man beim Arbeiten nicht genug Auflösung und Fläche haben kann.

pixeljetstream
2018-12-19, 15:26:12
Kommt aufs game an. Bin von 24 fhd auf 27 wqhd umgestiegen und die Schärfe an Details ist schon ne echte Erfahrung für Titel wo Sichtweite wichtig ist. Macht definitiv mehr Spaß.

SKYNET
2018-12-19, 16:03:48
Kommt aufs game an. Bin von 24 fhd auf 27 wqhd umgestiegen und die Schärfe an Details ist schon ne echte Erfahrung für Titel wo Sichtweite wichtig ist. Macht definitiv mehr Spaß.


DSR und du hast die gleichen details auch auf FHD... :smile:

Rancor
2018-12-19, 16:08:03
Alle Welt versucht zB. Full HD bei 27" auszureden, aber ehrlich gesagt ist mir ein großer Monitor lieber als ein kleiner Monitor und die Auflösung ist letztlich für Gaming nahezu unwichtig, während man beim Arbeiten nicht genug Auflösung und Fläche haben kann.
Alter..... Noch mehr schönreden geht aber nicht mehr oder?
Die Auflösung ist für Gaming nahezu unwichtig. Dann spiel doch weiter in 320x240..... :rolleyes:

Unfassbar..

SKYNET
2018-12-19, 16:48:57
Alter..... Noch mehr schönreden geht aber nicht mehr oder?
Die Auflösung ist für Gaming nahezu unwichtig. Dann spiel doch weiter in 320x240..... :rolleyes:

Unfassbar..


dank DSR hat er eigentlich nicht so unrecht, viel wichtiger ist die pixeldichte... und da ist nen 24" FHD einem 32" 1440p halt vorraus ;)

Lowkey
2018-12-19, 16:49:47
Jeder hat andere Ansprüche, nur das Problem ist immer das Vorschreiben und dein Schönreden von nicht notwendigen Vorstellungen.

Ein Freund von mir hat es letztens so ausgedrückt: bei 4k siehst du zuviele Details. Das Bild ist zu scharf. Die Augen werden schneller müde.

SKYNET
2018-12-19, 17:04:08
Jeder hat andere Ansprüche, nur das Problem ist immer das Vorschreiben und dein Schönreden von nicht notwendigen Vorstellungen.

Ein Freund von mir hat es letztens so ausgedrückt: bei 4k siehst du zuviele Details. Das Bild ist zu scharf. Die Augen werden schneller müde.


ermüdene augen liegt eher an der grösse, weil gehe nicht davon aus das er 4k auf 27" hat bei nem meter sitzabstand? ;)

kenne das von der glotze, wenn ich untem am boden sitze, ca. 1.2m von der glotze entfernt, brennen mir nach ner stunde die augen... weil die augen die ganze zeit am spiken sind um jede ecke zu erfassen... wenn ich aber normal sitze = 3.8m entfernt, brennen mir die glubscher auch nach 6h nicht :smile:

Ex3cut3r
2018-12-19, 18:23:39
DSR und du hast die gleichen details auch auf FHD... :smile:

Sieht besser aus ja, kommt aber an Nativ 1440p oder 2160p @27" nicht im Leben ran.

Kann man aber nur wissen, wenn beides hatte/hat.

Glückwunsch(y). Ich wollte endlich mal´ne Ti besitzen und habe mir die Palit Gaming Pro gegönnt. Gab´s vor ein paar Tagen bei Computeruniverse für ~1229€. A-Chip, gutes PL 330W und gute/leiser 2,5 Kühler, sowie Samsung Ram. Unter Luft mit 100% ging selbst Ram@8000Mhz bei ~1950-2000.
Im Vergleich zu den Konkorrenten ist das superbillig.
Heute umgebaut auf den Heatkiller+BP.
Nach dem Alptraum (Zusammenbau, bewässern, entlüten)...
WOW. Nichts über 43° im 3dmark (Timespy+4k/Firestrike+4k).
Boost bei 2145, aber dann schlägt das PL zu:freak:

Das fiese KFA² Bios grinst mich schon an. Auch wenns Unsinn ist.

Echt heftig, was das Brett mit macht.
Für den Preis, klare Empfehlung.

Grüße

Danke. Habe ich aber schon seit September. =D

Dir aber auch viel Spaß mit der Ti. :up:

Godmode
2018-12-19, 18:32:33
Wer hat überhaupt hier eine neue Titan bestellt? Hat der bekannte Käufer solcher Produkte eigentlich schon seine Titan V verkauft bekommen?

Wenn AMD in 6 Monaten mit Pseudo 7mm ankommt, dann müßte es 2019 schon den Refresh der 2000er geben?

Das Problem wird sein, dass du eine 3,2k Karte schwer los wirst. Bei den alten Titanen ging das gut. Jetzt müsste er wohl eher Richtung 2k gehen.

basix
2018-12-19, 19:50:16
Das Problem wird sein, dass du eine 3,2k Karte schwer los wirst. Bei den alten Titanen ging das gut. Jetzt müsste er wohl eher Richtung 2k gehen.

Jop, nur doppelter Speicher und etwas mehr Leistung war früher der Unterschied 600 zu 1000 Euro und nicht 1400 zu 2700 Euro. Relativ gesehen nicht so ein riesen Unterschied, absolut aber fast 1000 Euro. Eigentlich alles pervers das ganze mit den Preisen. Bei einer Titan V konnte ich das 3000 Euro Preisschild knapp noch "verstehen", auch wenn 2000 Euro gereicht hätten.

Razor
2018-12-19, 20:13:37
Kommt aufs game an. Bin von 24 fhd auf 27 wqhd umgestiegen und die Schärfe an Details ist schon ne echte Erfahrung für Titel wo Sichtweite wichtig ist. Macht definitiv mehr Spaß.
Klar... Knick in der Wahrnehmung?
Siehe Anhang - sind nicht mal 20%.

dank DSR hat er eigentlich nicht so unrecht, viel wichtiger ist die pixeldichte... und da ist nen 24" FHD einem 32" 1440p halt vorraus ;)
Nö... siehe 2. Screen :rolleyes:

Razor

Ex3cut3r
2018-12-19, 20:45:22
90 vs 110 PPi klingt zwar nicht viel, der unterschied ist aber größer als die Zahl es suggeriert. 4K @ 27" dann nochmal natürlich weit höher/schärfer.

Ihr braucht mich da auch nicht vom gegenteil zu überzeugen, hatte selbst alles hier, und habe noch sehr gute Augen (keine Brille) und bin unter 30 Jahre.

SKYNET
2018-12-19, 21:37:01
Sieht besser aus ja, kommt aber an Nativ 1440p oder 2160p @27" nicht im Leben ran.

Kann man aber nur wissen, wenn beides hatte/hat.




wer sagt das ichs nicht verglichen hatte? ;)

basix
2018-12-19, 21:43:18
Also ich fand den subjektiven Schärfeunterschied zwischen 1920x1200 vs. 2560x1440 schon sehr deutlich wahrnehmbar. Deswegen schaue ich mich schon länger nach einem 4k Monitor um. Mit Freesync gibt es gar nicht so schlechte Modelle, leider nur 60Hz. Das System dazu wäre da...

-=Popeye=-
2018-12-19, 21:51:01
Ich kann mit (siehe Anhang) ganz gut leben, ok nicht ganz so scharf wie UHD@27" aber deutlich schärfer als FHD@24".

Ex3cut3r
2018-12-19, 22:29:34
wer sagt das ichs nicht verglichen hatte? ;)

Wenn, dann hättest du DSR halt nicht gebracht.

SKYNET
2018-12-19, 22:38:28
Wenn, dann hättest du DSR halt nicht gebracht.

doch, aber die farben auf dem 1440p waren verkackt... hätte den gratis(war irgend nen samsung geschwür) haben können vom kollegen der auf 4k umgestiegen ist....


darum lieber bei meinen 1920*1200 geblieben auf 24", da stimmen wenigstens alle farben :cool:

Ex3cut3r
2018-12-19, 23:03:16
Ok alles klar, als ob keine 1440p oder 4K @ 27 mit ansändigen Farben gibt. :rolleyes:

SKYNET
2018-12-20, 01:52:15
Ok alles klar, als ob keine 1440p oder 4K @ 27 mit ansändigen Farben gibt. :rolleyes:


bis 25" genau einen in 1440p(Dell UP2516D), in 4k garnix...

fulgore1101
2018-12-20, 12:06:26
Hat vielleicht jemand Erfahrungen oder ein Review zur MSI RTX 2080 Ventus? Wie schlagen sich die Lüfter im Punkt Lautstärke?

Niemand?

Lowkey
2018-12-20, 12:21:51
Niemand!

Es wird der Nachfolger der Armor Serie sein. Das was ich dazu finden kann: die Preisdifferenzen spiegeln die Leistung wieder, also je weniger bei MSI die Karte kostet, desto langsamer ist sie. Man kann höchstens die paar Prozent auf den Preis draufrechnen und dann ist die teurere Karte in Sachen P/L schlechter, aber laut den Infos sind die teuren Karten auch leiser bzw. haben den dickeren Kühler. Solange nur A GPUs auf dem Markt sind, solange kann man die günstigen Karten gut übertakten? Oder gibt es da eine Sperre? Samsung Speicher ist besser als Micron Speicher. Die Samsung Modelle kommen wohl in unterschiedlicher Farbe.

fulgore1101
2018-12-20, 13:00:52
Niemand!

Es wird der Nachfolger der Armor Serie sein. Das was ich dazu finden kann: die Preisdifferenzen spiegeln die Leistung wieder, also je weniger bei MSI die Karte kostet, desto langsamer ist sie. Man kann höchstens die paar Prozent auf den Preis draufrechnen und dann ist die teurere Karte in Sachen P/L schlechter, aber laut den Infos sind die teuren Karten auch leiser bzw. haben den dickeren Kühler. Solange nur A GPUs auf dem Markt sind, solange kann man die günstigen Karten gut übertakten? Oder gibt es da eine Sperre? Samsung Speicher ist besser als Micron Speicher. Die Samsung Modelle kommen wohl in unterschiedlicher Farbe.

Preis und Leistung sind mir bekannt. Ich möchte gerne wissen was das Kühlkonzept taugt. Übertakten ist mir nicht wichtig. Wichtig ist, dass die Karte in Spielen eine angemessene Lautstärke von sich gibt. Dass eine 100€ teurere Karte deutlich leiser sein kann ist mir bewusst, aber günstig muss nicht immer gleich einen Höllenlärm bedeuten.

SKYNET
2018-12-20, 14:41:09
Niemand!

Es wird der Nachfolger der Armor Serie sein. Das was ich dazu finden kann: die Preisdifferenzen spiegeln die Leistung wieder, also je weniger bei MSI die Karte kostet, desto langsamer ist sie. Man kann höchstens die paar Prozent auf den Preis draufrechnen und dann ist die teurere Karte in Sachen P/L schlechter, aber laut den Infos sind die teuren Karten auch leiser bzw. haben den dickeren Kühler. Solange nur A GPUs auf dem Markt sind, solange kann man die günstigen Karten gut übertakten? Oder gibt es da eine Sperre? Samsung Speicher ist besser als Micron Speicher. Die Samsung Modelle kommen wohl in unterschiedlicher Farbe.


also meine 1080 armor ging wie die pest, mit dem standardkühler über 2150MHz GPU bei 1.06V... und sie hielt den boost auch durchweg(dank der beiden 120er lüfter direkt unter der graka). :cool:

wolik
2018-12-20, 15:26:29
Welche Grafikkarte würdest du denn aktuell jemandem empfehlen, der in 4k spielen will?
RTX 2080Ti eigentlich keine schlechte 4K Karte. Eine oder andere Einstellung runterregeln, und schon läuft Spiel mit 4K/60fps.
Ich denke man hätte mehr Hype erzeugt, hätte man nebenbei RT und DLSS erwähnt... Sonst zur Zeit sieht Heilige Gral nach Holy Shit aus. (FFXV=DLSS oder BFV=RT)

Wer hat überhaupt hier eine neue Titan bestellt? Hat der bekannte Käufer solcher Produkte eigentlich schon seine Titan V verkauft bekommen?

Wenn AMD in 6 Monaten mit Pseudo 7mm ankommt, dann müßte es 2019 schon den Refresh der 2000er geben?
Gibts fast seit ein Monat ein Angebot.
https://www.ebay-kleinanzeigen.de/s-anzeige/nvidia-titan-v-volta-12gb-hbm2-dhe/991779873-225-2910
Wer braucht, so was jetzt? Nicht mal (IMXO) in ein Jahr, wird das gleiches Bild mit RTX Titan sein... 3080 (7Nm, 16Gb +30% Leistung...)

Razor
2018-12-20, 17:57:01
3080 (7Nm, 16Gb +30% Leistung...)
Wovon träumst Du denn?
Und wann soll das kommen?
2020?
:rolleyes:

Razor

basix
2018-12-20, 21:10:14
Q3/Q4 2019 könnte sein. 1 Jahr nach Turing Release und 7nm bei TSMC schon einigermassen eingespielt. So unwahrscheinlich finde ich das jetzt nicht. AMD bringt auch um den Dreh rum Navi. Ist nur die Frage wie gross der Chip dann wird. Wäre wohl doch ein ca. 350-400mm2 Brummer.

gravitationsfeld
2018-12-20, 21:25:36
Von 14/12nm auf 7nm wird es mehr als einen 30% Leistungs-Sprung geben. Das sind zwei Nodes.

Ex3cut3r
2018-12-20, 21:43:37
Jop, 7nm allein sollte schon 15-20% bringen, ich sage +50% von der 2080Ti ausgehend. Ende 2019 oder Anfang 2020. Bei 384 Bit Speicherinterface gibt es einen VRAM Sprung von 22GB ab Werk, die non Ti Karten wie die 3080 wird 16GB spendiert bekommen.

basix
2018-12-20, 22:00:18
7nm allein bringt schon +100% Steigerung der Energieeffizienz bei selben Taktraten ;) Diesen Performance-Boost sehe ich aber eher als Obergrenze an, da sich die Chipgrössen sicher verringern werden, da 7nm teuer ist. Maxwell vs. Pascal ist vermutlich eine gute Referenz: +70%

Den Start wird aber irgendeine Gx104 Karte machen. Und dort sind die +30% gegenüber GT102 wohl nicht verkehrt.

Troyan
2018-12-21, 00:57:19
Mal ein Vergleich zwischen 1440p/TAA und DLSS in FF15: https://www.youtube.com/watch?v=j2CGsbAJTdo

Wenn ich mir das so ansehe, dann macht DLSS in kleineren Auflösungen noch mehr Sinn. Ohne genug Pixelinformationen ist das TAA in FF15 eigentlich unbrauchbar, außer man steht auf verblurrte Unkenntlichkeit.

robbitop
2018-12-21, 04:23:06
Wie gesagt ist der Vergleich mit 1440p ein sinnfreier. Ausgehend davon wie viel Leistung dlss kostet scheint die Ausgagnsauflösung von 4K DLSS deutlichst höher zu liegen und eher 1800p zu sein. Warum mit 1440p verglichen wird ist mir schleierhaft. Man müsste mit 1800p vergleichen.

Razor
2018-12-21, 07:00:15
Die Verkleinerung von Strukturen bringt erst mal rein gar nichts...
Dadurch werden erst einmal nur die Schaltkreise kleiner und die Energieeffizienz steigt ein bissel, that's it.

Kann also gut sein, dass der "Refresh" einfach nur günstiger wird und man ob geringeren Energieaufnahme vielleicht 10% drauf legt.
Erst wenn man die heutigen Monster-Chips lässt und diese mit deutlich mehr Transistoren "füttert", kommt Leistung heraus...
...aber natürlich nur, wenn der Takt konstant bleibt - was die 5GHz bei den CPU's sind, scheinen die 2GHz bei den GPU zu sein.

Aber warum sollte das ein Hersteller wie nVidia tun?
Hängt wohl alles davon ab, was AMD raus haut und wenn die Luschen wieder nur LowEnd bringen sieht's düster aus für Eure 30, 50 oder gar 100% "Steigerung".

Wie gesagt ist der Vergleich mit 1440p ein sinnfreier. Ausgehend davon wie viel Leistung dlss kostet scheint die Ausgagnsauflösung von 4K DLSS deutlichst höher zu liegen und eher 1800p zu sein. Warum mit 1440p verglichen wird ist mir schleierhaft. Man müsste mit 1800p vergleichen.
Warum sollte man?

nVidia selbst sagte, dass sie von WQHD auf UHD hoch skalieren... und eben auch von FHD auf WQHD, was man bis dato noch nicht gesehen hat.
Wäre dann für z.Bsp. RT-Titel interessant, denen schon bei WQHD die Luft ausgeht :)

Der Vergleich ist also absolut legitim!

Razor

robbitop
2018-12-21, 08:09:12
Schaue dir einfach an wie viel Performance das kostet. Völlig egal was NV behauptet. 4K DLSS ist viel teurer als 1440p. Dass es besser aussieht ist dann auch keine Kunst. BQ/Perf ist interessant und nichts anderes.

Btw: hat NV explizit gesagt, dass dlss auf 1440p basiert? CB zweifelt das nämlich an.

Bei gleicher Performance hat es DLSS sicherlich deutlich schwerer gegen 1800p+vernünftiges TAA (nicht FF - eher richtung doom/wolfenstein2)+etwas Nachschärfen (geht oft ingame oder aber über nvs gamefilter oder über reshade)
Noch schwieriger wirds gegen eine gute Implementierung von Checkerboardrendering (vgl horizon zero dawn).

Was ich damit sagen will: perf/bq ist (zumindest in ffv dlss) sehr unbeindruckend für den ganezn Aufwand (supercomputer, tensor cores, viele mannstunden für die Entwicklung der Schnittstelle und der AI uswusf)

BigKid
2018-12-21, 08:56:43
nVidia selbst sagte, dass sie von WQHD auf UHD hoch skalieren... und eben auch von FHD auf WQHD, was man bis dato noch nicht gesehen hat.

Stimmt nicht ganz... Die Infiltrator Demo (Star Wars Elevator Scene) - da wurde letzteres wohl auch schon gezeigt/genutzt.

pilzsammler2002
2018-12-21, 09:07:45
Die Infiltrator Demo (Star Wars Elevator Scene) - da wurde letzteres wohl auch schon gezeigt/genutzt.
Link?

Was genau meinste denn jetzt? Infiltrator oder Star Wars? Oder wurde biedes 1080p "Upscaled"?

BigKid
2018-12-21, 09:09:24
Schaue dir einfach an wie viel Performance das kostet. Völlig egal was NV behauptet. 4K DLSS ist viel teurer als 1440p. Dass es besser aussieht ist dann auch keine Kunst. BQ/Perf ist interessant und nichts anderes.

Btw: hat NV explizit gesagt, dass dlss auf 1440p basiert? CB zweifelt das nämlich an.

Die Aussage von NV war dazu bestimmt unbestimmt... Es war von einer "variablen Renderauflösung" die Rede von der aus dann mit DLSS hochskaliert wird. Eventuell wird das pro Spiel entschieden... Vielleicht sogar pro Spiel und Karte ?
Wenn man die alten Folien anschaut dann war NV ja überzeugt davon, dass DLSS einen Schub um die 25% bringt gegenüber dem Rendern in Nativer Zielauflösung + herkömmlichem AA...
Aber komisch ist das schon... Denn bisher deutete ja alles daraufhin, dass DLSS selbst quasi gratis ist und der Performance-Schub durch die niedrigere Renderauflösung quasi zu 100% hängen bleibt...

BigKid
2018-12-21, 09:21:15
Link?

Was genau meinste denn jetzt? Infiltrator oder Star Wars? Oder wurde biedes 1080p "Upscaled"?
Ich meinte beide...
https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47617-leistung-und-leistungsaufnahme-von-dlss-und-rtx-effekten-analysiert.html
Was da leider fehlt ist ein direkter Vergleich DLSS gegen ohne DLSS bei gleicher Auflösung...
Ferner muss man IMHO immer ein bisschen aufpassen bei Raytracing denn in der Theorie sollte RT stärker von der niedrigeren Render Auflösung durch DLSS profitieren als reines Rasterizing...
In welcher Ausflösung konkret gerendert wird vorm upscaling durch DLSS ist übrigens auch hier geraten... Man weiß nur, dass es niedriger ist als die Zielauflöung... Es könnte aber auch sein das von 720p->WQHD und von 1080p->4k hochgerechnet wird...
Mir gings nur um die Aussage dass man DLSS in WQHD noch nicht gesehen hätte - das stimmt so nicht...

Troyan
2018-12-21, 09:31:18
Wie gesagt ist der Vergleich mit 1440p ein sinnfreier. Ausgehend davon wie viel Leistung dlss kostet scheint die Ausgagnsauflösung von 4K DLSS deutlichst höher zu liegen und eher 1800p zu sein. Warum mit 1440p verglichen wird ist mir schleierhaft. Man müsste mit 1800p vergleichen.

Das Erstellen der neuen Bildpunkte benötigt ebenfalls Leistung. Die interne Auflösung in FF15 ist 1440p. Erkennt man an den SSR, die nicht höher aufgelöst sind.

AffenJack
2018-12-21, 09:32:10
Von 14/12nm auf 7nm wird es mehr als einen 30% Leistungs-Sprung geben. Das sind zwei Nodes.

Sind es beim ersten DUV Prozess nicht. Einzig der Mobileprozess kommt halbwegs in die Nähe von so anderthalb Nodejumps, aber auch nur bei der Fläche. 7nm HPC sind, wie man schon an V20 sieht, ein stinknormaler Nodesprung mit nichtmal großer Leistungssteigerung, 28nm zu 16nm war ein deutlich größerer Sprung. Dazu kostet 7nm bei gleicher Fläche viel mehr, so dass es nichtmal große Ersparnisse gibt.

Deshalb tippe ich auch drauf, dass Nv 7nm DUV überspringt und erst mit 7nm EUV einsteigt. Da könnte der HPC Prozess einen größeren Sprung als der Mobileprozess machen.

Mangel76
2018-12-21, 09:38:36
7nm allein bringt schon +100% Steigerung der Energieeffizienz bei selben Taktraten ;) Diesen Performance-Boost sehe ich aber eher als Obergrenze an, da sich die Chipgrössen sicher verringern werden, da 7nm teuer ist. Maxwell vs. Pascal ist vermutlich eine gute Referenz: +70%

Den Start wird aber irgendeine Gx104 Karte machen. Und dort sind die +30% gegenüber GT102 wohl nicht verkehrt.


100% Steigerung der Energieeffizienz bedeutet aber nur gleiche Leistung zum halben Verbrauch!!! Die Leistung steigt bei gleichem Verbrauch aber nur um 25-30%! Und wenn in 7nm die Preise pro Transistor nicht sinken, wird die nächste Generation eher kleiner ausfallen, also auch keine Transistorverdoppelung bei konstantem Verbrauch. Daher wird der Leistungsschub wohl deutlich kleiner werden als die genannten 70%

][immy
2018-12-21, 10:53:40
Wie gesagt ist der Vergleich mit 1440p ein sinnfreier. Ausgehend davon wie viel Leistung dlss kostet scheint die Ausgagnsauflösung von 4K DLSS deutlichst höher zu liegen und eher 1800p zu sein. Warum mit 1440p verglichen wird ist mir schleierhaft. Man müsste mit 1800p vergleichen.
sehe ich ebenfalls so. Aber FF XV bietet diese Auflösung ja scheinbar nicht. Ob das nun Absicht ist (ist schließlich ein nvidia-unterstütztes spiel) oder nicht ist eine andere frage.
Aber ja, der Leistungsverlust passt in etwa zu 1800p, allerdings ist der Detailgrad deutlich geringer. Aber vielleicht verwendet nvidia auch nur ein erzwungenes supersampling (1,25x1,25) und schärft ein wenig nach. Das würde auch zum Leistungsprofil passen. Allerdings nicht zu den Artefakten.

Ich verstehe Ernsthaft nicht wie DLSS überhaupt ein "Ding" sein kann. Denn im Grunde ist es das, was früher die Cheating-Debatten ausgelöst hat, wenn ATI/AMD und nvidia sich bei den AF-Filtern gegenseitig in den "Optimierungen" übertroffen haben.
Artefaktbildung (und ich meine nicht die minimalen Zähnchen-Artefakten wie bei Checkerboard-Rendering) ist etwas was einfach noch nie bei AA verfahren ging. Hier kommt es nicht nur zu Artefakten bei bewegten Bildern, sondern auch bei stand-Bildern. Das mit den flimmernden feinen Strukturen (z.B. Zäune) ist auch etwas was heutzutage nicht mehr geht. Hier hätte man zumindest ein seichtes Post-Processing zur Bildberuhigung drüber bügeln können. Dafür gab es in der Vergangenheit ja auch schon Mechanismen MSAA mit Post-AA zu verbinden um Flimmern zu unterbinden.

Troyan
2018-12-21, 10:59:31
FF15 bietet 125% Rendering an. Damit ist 1800p von 1440p aus möglich. Und 1800p liegt weit weg von der Qualität von DLSS.

Das Flimmern von Zäunen entsteht aus der Sichtbarkeit der Details, die bei TAA nicht vorhanden sind. Außerdem verfälscht TAA massiv die Farbgebung, um überhaupt die Übergänge zwischen den Objekten realisieren zu können.

Es ist erstaunlich, wie viele Leute ein verblurrtes Bild mehr akzeptieren als minimales Flimmern. Immerhin verliert man durch Post-AA Details, die man im Voraus durch eine höhere Auflösung erst berechnet hat.

SKYNET
2018-12-21, 11:02:05
FF15 bietet 125% Rendering an. Damit ist 1800p von 1440p aus möglich. Und 1800p liegt weit weg von der Qualität von DLSS.

Das Flimmern von Zäunen entsteht aus der Sichtbarkeit der Details, die bei TAA nicht vorhanden sind. Außerdem verfälscht TAA massiv die Farbgebung, um überhaupt die Übergänge zwischen den Objekten realisieren zu können.

Es ist erstaunlich, wie viele Leute ein verblurrtes Bild mehr akzeptieren als minimales Flimmern. Immerhin verliert man durch Post-AA Details, die man im Voraus durch eine höhere Auflösung erst berechnet hat.

warum nehmt ihr überhaupt das grüsel TAA aus dem game, wenns im treiber mehr optionen gibt? :confused: