PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : AMD/ATI - Radeon RX 5700 & RX 5700 XT Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 [14] 15 16

Showers
2020-01-23, 10:26:13
http://higgie67.de/Superposition2.png
Habe auch mal undervoltet und auf 160 Watt gesetzt.:D
Noobfrage:

Wie kommt man den auf solche Punktezahlen?

Ich bekomme mit i5-6600k@3,9GHz 16GB RAM und einer MSI RX 5700 (non XT) auf gerade mal 5020 Punkte bei "4k Optimized" und 4490 Punkte bei 1080p Extreme.

Was genau bringt bei dir die mehr als doppelte Performance?

Daredevil
2020-01-23, 12:14:09
"4k optimized" bei WQHD Auflösung ist halt wie da schon steht Custom und nicht "4k".
Verstehe nicht, wieso man sich einfach nicht an die Presets hält. :<

Showers
2020-01-23, 12:36:08
"4k optimized" bei WQHD Auflösung ist halt wie da schon steht Custom und nicht "4k".
Verstehe nicht, wieso man sich einfach nicht an die Presets hält. :<
Sind meine Werte bei 1080 Extreme dann "normal"?

Daredevil
2020-01-23, 12:53:07
Kannste ja mal hier vergleichen: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12055139#post12055139

senator
2020-01-23, 14:23:12
"4k optimized" bei WQHD Auflösung ist halt wie da schon steht Custom und nicht "4k".
Verstehe nicht, wieso man sich einfach nicht an die Presets hält. :<
Ich hatte die selben Einstellungen gewählt wie dargo, zum Vergleich,da es fast dasselbe System war.

Showers
2020-01-23, 15:46:22
Kannste ja mal hier vergleichen: https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12055139#post12055139
thx!

Showers
2020-01-23, 21:34:02
Graka ist ne Referenz MSI 5700 mit XT BIOS.

https://abload.de/img/superposition_benchmaeakwg.png

Hott3X
2020-01-24, 06:57:33
Ich komme mit meiner Gigabyte mit 2000Mhz@1050mV und 170W PL auf ~7000 Punkte in 4K Auflösung und Preset 4K Optimized.

Showers
2020-01-24, 07:06:12
Ich komme mit meiner Gigabyte mit 2000Mhz@1050mV und 170W PL auf ~7000 Punkte in 4K Auflösung und Preset 4K Optimized.
Mkay, habe UV noch nicht versucht. Muss mich da erst reinlesen. Bei 4K Optimized sieht es bei mir aktuell so aus:

https://abload.de/img/superposition_benchmaa2jb3.png

VfBFan
2020-01-28, 17:18:58
Lösung: Ich habe mein Problem selber gelöst indem ich unter Anzeige eine benutzerdefinierte Auflösung erstellt habe und hier bei Timing-Standard die CVT-verringerte Austastung eingestellt habe. Nun taktet auch der Speicher bei 144 Hz runter.

Danke für den Tipp des Monats.
Nach der benutzerdefinierten Einstellung springt bei mir die Anzeige für die Farbtiefe auf 6 Bit zurück und lässt sich auch nicht mehr auf 8 bzw. 10 Bit ändern. ist das bei dir auch so? Anzeigebug?
Ich konnte nach einem Neustart nämlich auf diesem Testbild (http://www.bealecorner.org/red/test-patterns/Gradient-16bit.png) kein Unterschied (Banding) trotz angeblicher 6 Bit Farbtiefe feststellen.

GerryB
2020-01-28, 19:29:43
Was hast Du für einen Moni, vllt. kann der nur 8 bit ab Werk?
Mein CHG70 kann eigentlich auch nur 8 bit+FRC und schaltet bei CVT ver.A. dann auf
8 bit + Dithering. 10bit wäre aber noch anwählbar.

zucee
2020-01-28, 19:31:53
Danke für den Tipp des Monats.
Nach der benutzerdefinierten Einstellung springt bei mir die Anzeige für die Farbtiefe auf 6 Bit zurück und lässt sich auch nicht mehr auf 8 bzw. 10 Bit ändern. ist das bei dir auch so? Anzeigebug?
Ich konnte nach einem Neustart nämlich auf diesem Testbild (http://www.bealecorner.org/red/test-patterns/Gradient-16bit.png) kein Unterschied (Banding) trotz angeblicher 6 Bit Farbtiefe feststellen.
Da hast du Glück, dass ich gerade jetzt rein gucke. Ich habe die Karte wieder zurück geschickt, aber ja, das war bei mir auch so. 6bit, keine Unterschiede festgestellt. Irritiert hat mich das trotzdem, am Ende lief der Monitor mit 120 Hz.

Leider gab es noch einiges was nicht so funktioniert hat wie gewünscht. Hauptsächlich auf Softwareseite. Daher muss ich jetzt noch sechs Monate überbrücken.

VfBFan
2020-01-29, 12:29:11
Was hast Du für einen Moni, vllt. kann der nur 8 bit ab Werk?

LG 27GL850.
Mit diesem ist ohne benutzerdefinierte Auflösung die Einstellung der Farbtiefe mit 10 Bit möglich.

Leider gab es noch einiges was nicht so funktioniert hat wie gewünscht. Hauptsächlich auf Softwareseite.
Ohne das MorePowerTool hätte ich die Karte auch schon zurückgeschickt, da die ZeroFan-Regelung und Ansteuerung der Lüfter von der Red Dragon 5700 einfach nur dämlich ist. Lüfter an, aus, an, aus... und das im Desktopbetrieb.

zucee
2020-01-29, 21:51:39
Hatte die Pulse und die Karte fand ich wirklich gut. Das meiste lief super mit dem AB, nur gab es trotzdem Probleme mit 144 Hz und black screens. Da lohnt es sich für mich nicht ~400 Euro auszugeben und auf Besserung zu hoffen.

Cyberpunk 2077 wurde verschoben, mein Hauptgrund zum Kartenkauf. Somit warten und hoffen auf Besseres.

GerryB
2020-01-30, 09:11:56
LG 27GL850.
Mit diesem ist ohne benutzerdefinierte Auflösung die Einstellung der Farbtiefe mit 10 Bit möglich.

Bei dem steht auch 8bit+FRC da. Sollte eigentlich genauso wie bei mir sein.
K.A.warum dann nur 6bit geht.

Vllt. mal erst auf 8bit umstellen und dann als Zweites erst CVT verringerte A.?

VfBFan
2020-01-30, 16:53:12
Egal wie ich die Einstellungen vornehme bleibt bzw. springt die Anzeige der Farbtiefe auf 6-Bit.

dildo4u
2020-02-03, 12:43:13
Asus passt seine 5700 TUF Kühler an.


https://wccftech.com/asus-revises-the-rx-5700-and-rx-5700-xt-series-tuf-gaming-graphics-card/

aufkrawall
2020-02-03, 12:47:50
Meinetwegen können sie auch aufhören, Grafikkarten zu produzieren. Wer kauft den Schrott? Es gibt wahrscheinlich für beide GPU-Marken genug Hersteller, die gleichzeitig besser und billiger sind.

dargo
2020-02-03, 18:40:23
Hat jemand heute früh die Sapphire Pulse RX 5700XT bei MM für die 349€ abgestaubt? ;)

Denniss
2020-02-03, 20:26:46
In letzter Zeit war die Kombination von Asus mit AMD-GPU in der Regel Mist da die auf eine eigentlich gute Platine oft einen miserablen Kühler montiert hatten. Da gab es so Böcke wie liegt nicht richtig auf, der Speicher wurde nicht richtig gekühlt (wenn überhaupt) und k.A. was noch alles. Dazu noch Vollgas beim Stromverbrauch ohne wirklichen Effekt in der Taktrate.
Vielleicht läst Asus das jetzt endlich mal richten oder das ist wieder nur gequirlter Mist aus der Marketingabteilung.

horn 12
2020-02-03, 20:46:25
@Dargo

Hast bitte ein Foto von deiner verbauten Hardware
vor Allem zwecks deiner 5700 Pulse

horn 12
2020-02-04, 01:14:01
@Daredevil

Hast du die 5700 XT TUF von Asus noch?
Wie hoch taktet jene und wie sind nun die Finalen! Temperaturen.
TUF wird ja nun NEU aufgelegt und BIG Navi kommt wohl bereits Mitte April.

Daredevil
2020-02-04, 02:27:37
Ne, die TuF schmort in der Hölle. :X
Das schlimme war imho nicht die Temp, aber die Drehzahl und alleine dieses "Ich bin ne 3-Slot Karte mit nem 2-Slot Kühldesign", dafür gehört Asus erstmal die nächste Zeit gemieden. :D

hardtech
2020-02-04, 07:24:01
Hat jemand heute früh die Sapphire Pulse RX 5700XT bei MM für die 349€ abgestaubt? ;)

339 € sind es gewesen.

hb die bestellt aber im nachgang gelesen, dass die 5700 xt pulse nicht so gut sein soll, weil der kühler grenzwertig gebaut ist und die karte bei games laut ist.

meine gtx1070 strix höre ich nicht. mhhm, schwierig dann die pulse zu behalten.

horn 12
2020-02-04, 07:30:04
Habe die 5700 Pulse Ohne XT und Lüfter laufen um die 1900 bis 1950 U/Min
GPU 74 - 76 Grad
Tjunction 85 Grad

nairune
2020-02-04, 08:51:56
1900?? Das fände ich extrem laut, aber jedem das Seine.
@hardtech: in diesem Thread gibt es dutzende Seiten Erfahrungsaustausch zur Pulse und wie man sie leise bekommt. Wenn dir MorePowerTool und/oder Wattman Settings nicht zu viel sind, wirst auch du das schaffen.

HOT
2020-02-04, 09:02:20
Meinetwegen können sie auch aufhören, Grafikkarten zu produzieren. Wer kauft den Schrott? Es gibt wahrscheinlich für beide GPU-Marken genug Hersteller, die gleichzeitig besser und billiger sind.

Die Strix ist zufällig die beste Karte auf dem Markt... Die TUF hatte ja in erster Linie einen schrottigen Kühler. Ist doch supi wenn man das fixt.

hardtech
2020-02-04, 11:43:40
1900?? Das fände ich extrem laut, aber jedem das Seine.
@hardtech: in diesem Thread gibt es dutzende Seiten Erfahrungsaustausch zur Pulse und wie man sie leise bekommt. Wenn dir MorePowerTool und/oder Wattman Settings nicht zu viel sind, wirst auch du das schaffen.

1900 u/min finde ich auch laut.

@nairune
du meinst, dass der kühler der xt pulse per se nicht unbrauchbar ist, sondern einfach ein feintuning braucht?

irgendwas um die 1000 u/min wäre super.

evtl. kann ich die fps beschränken im game? world of tanks hat ca 90 fps auf der gtx1070. die 5700 xt sollte schneller sein. da kann ich doch auf 70 fps einstellen. sollte doch weniger dadurch verbrauchen.

ich dachte, die könne man durch den treiber von amd regeln? braucht es heute dazu wirklich noch extra tools?
ich kenne nur den msi afterburner.

kabe
2020-02-04, 11:53:38
Habe die 5700 Pulse Ohne XT und Lüfter laufen um die 1900 bis 1950 U/Min
GPU 74 - 76 Grad
Tjunction 85 Grad

Habe auch die kleine 5700 Pulse, leicht übertaktet mit 1840 MHz. Die Lüfter laufen max. bei 1450 U/min und die GPU klebt bei 72 Grad. :confused:

dargo
2020-02-04, 11:56:31
@nairune
du meinst, dass der kühler der xt pulse per se nicht unbrauchbar ist, sondern einfach ein feintuning braucht?

irgendwas um die 1000 u/min wäre super.

1000 RPM sind imho Quatsch. Selbst die 1100RPM (~zwei Wochen Einlaufzeit nicht vergessen!) höre ich hier aus dem Gehäuse praktisch nicht heraus. Meine läuft aktuell mit knapp 1300RPM bei 150W. Für 1100RPM würde ich schon eher Richtung ~130W gehen wenn der Hotspot vom Speicher nicht über 90°C gehen soll, der Sommer kommt ja noch. Das wird dann eh die heißeste Stelle.

hardtech
2020-02-04, 12:29:11
wird der speicher durch die beiden lüfter mitgekühlt?

mit welchen tools definierst du die 150w maximal-last?
geht das nicht mit dem amd treiber und den darin enthaltenen tools?

ich möchte so wenig wie möglich zusätzlich installieren.

spiele aktuell nur ein spiel. mehr brauche ich nicht. as easy as possible.

achja, und wie fps auf 70 limitieren? >> sollte ja auch leistung sparen?

Hott3X
2020-02-04, 12:38:16
Du kannst die 150Watt entweder mit dem MorePowerTool einstellen oder über den Treiber indem du mit dem Schieberegler dein PT reduzierst. Bei Meiner Gigabyte mit 200W wären 150W dann -25%.

Die FPS kannst du mit Chill auf 70 stellen (entweder Global oder für das eine Spiel) Andere Möglichkeit wäre der Ingame Limiter.

Ich habe bis auf dem AMD Treiber auch keine weiteren Tools laufen.

nairune
2020-02-04, 16:02:19
Das MorePowerTool läuft übrigens auch nicht die ganze Zeit, es schreibt nur in die Registry. Mir geht es ähnlich, ich will auch nichts bzw. möglichst wenig an Drittprogrammen dauerhaft laufen haben.
Um die Watt zu begrenzen reicht aber auch der Wattman, MPT verwende ich nur für die Lüftersteuerung.

horn 12
2020-02-04, 20:17:57
Nun, was zockt ihr denn mit 1100 bis 1450 U/Min
Full HD und Tetris ?

nairune
2020-02-04, 20:34:33
Wir haben die Karte einfach ein bisschen schlauer im Hinblick auf Kosten (Lautstärke, Wärmeerzeugung) und Nutzen eingestellt.

horn 12
2020-02-04, 20:39:26
Welche Spannung und welche Settings bitte im Wattman
Zudem zockt mal Metro Exodus in alles Max und WHQD

nairune
2020-02-04, 20:43:14
Es ist völlig egal was man zockt, wenn der Stromverbrauch=Wärmeabgabe limitiert wird. Im Bereich 150-170W (auf den XT-Kühler bezogen) bleiben, dann drehen auch die Lüfter nicht so hoch.

horn 12
2020-02-04, 20:46:18
Habe das Stock Bios (180 Watt) und gar eine 5700 Pulse OHNE XT

Langlay
2020-02-04, 20:53:59
@nairune
du meinst, dass der kühler der xt pulse per se nicht unbrauchbar ist, sondern einfach ein feintuning braucht?

Ich hab ne Referenz 5700 und die ist mit UV und angepasster Lüfterkurve auch angenehm leise. In 1440p Witcher 3 biste da so bei ~135W GPU Power und ~1400-1500 RPM.

Und kaum ne Karte sollte einen schlechteren Lüfter als die Referenz haben.

horn 12
2020-02-05, 00:30:27
Nun, 1850 Mhz eingestellt bei der Sapphire 5700 Pulse und Lüfter auf max. 1580 U/Min fixiert
Siehe da viel Leiser und Temperaturen so gut wie gleich.
Vielleicht 1 bis 2 Grad wärmer, aber dies wars dann.
Takt auch so gut wie konstant zwischen 1810 und 1822 Mhz, und nie unter 1800 Mhz.

Karte profitiert vom zu beförderten Luftstrom und höheren Drehzahlen der eigenen Lüfter
kaum.

Daredevil
2020-02-05, 00:47:20
Ich hab ne Referenz 5700 und die ist mit UV und angepasster Lüfterkurve auch angenehm leise. In 1440p Witcher 3 biste da so bei ~135W GPU Power und ~1400-1500 RPM.

Und kaum ne Karte sollte einen schlechteren Lüfter als die Referenz haben.
Sag das mal Asus. :D

Wiseman
2020-02-05, 01:24:43
Welche Spannung und welche Settings bitte im Wattman
Zudem zockt mal Metro Exodus in alles Max und WHQD

Ich hab Metro Exodus in Ultra und 4k lite (= 3264x1836) durchgespielt. Das ist schon noch ein bisschen anspruchsvoller als WQHD, nämlich 4k @85%. Ich spiel meine Games nur noch in 4k oder 4k lite, je nachdem.

Guck mal meinen angehängten Screenshot an und achte besonders auf die RPM. Ich komm auf nicht mehr als maximal 1450 RPM in Spielen wie Metro Exodus. Das ist angenehm leise. In weniger anspruchsvollen Spielen sind es natürlich deutlich weniger RPM. Da wird meine Nitro+ dann lautlos.

Meine Nitro+ läuft @stock im Silent-BIOS. Da verbraucht sie im Durchschnitt 195 Watt. Ansonsten habe ich keine einzige Veränderung vorgenommen. Weder im Wattman noch per externe Tools.

Wenn dir die 180 Watt deiner Non-XT Pulse zu viel sein sollten, dann schieb mal im Wattman das "Power Limit" (auf Deutsch "Leistungsgrenze") auf -20%. 144 Watt sollten eigentlich fürs Spielen in WQHD ausreichen. Power Limit bzw Leistungsgrenze findest du unter Leistung -> Konfiguration -> Manuell -> Leistungs-Tuning. Die 36 Watt weniger machen in vielen Spielen das Kraut auch nicht mehr fett, aber sie reduzieren den Verbrauch und die RPM.

Ravenhearth
2020-02-10, 01:13:02
Mag mal jemand diese Crysis 3-Stelle mit Navi/Vega im CPU-Limit abknipsen?
https://abload.de/thumb/crysis3_2020_01_21_18exjb3.png (https://abload.de/image.php?img=crysis3_2020_01_21_18exjb3.png)
"map fields" in die Konsole eingeben und bis dahin durchlaufen.

Ist mit R5 3600 1660 Super. Mit Navi und Vega waren es an der Stelle ~50fps, mit Polaris wesentlich mehr. Irgendwie bekommt AMD das nicht mehr geschissen, eine weitere Bestätigung wär aber ganz nett...
Besser spät als nie :redface:

https://i.imgur.com/zKjdF4p.png

R5 2600 und Vega 56 in 1080p Very High SMAA 2Tx

Dino-Fossil
2020-02-14, 01:15:53
Falls hier Navi-Nutzer mit Freezes/Black-Screen-Problemen sind, hier ist eine Umfrage vom AMD-Treiber Team dazu:

https://www.surveymonkey.com/r/CBYB5BX

(siehe AMD-Reddit (https://www.reddit.com/r/Amd/comments/f3dabe/looking_for_a_quick_survey_response_for_navi_gpu/))

w0mbat
2020-02-14, 10:11:51
Hat hier jemand ein Problem damit? Ich hab meine 5700 XT seit September und absolut keine Probleme.

Effe
2020-02-14, 10:22:34
Ich habe seit einer guten Woche eine 5700XT und bisher zwei Blackscreens. Einen mit Lock nach Treiberupdate, wobei ich keinen Neustart machte(also selber schuld) und einen bei Chrome, den ich mit Schließen und Chrome neustarten gelöst hatte.

Bisher nix Schlimmes. Kurzes Flackern bei RDR2 hatte ich, vielleicht 2 Sekunden bei 2h Spielzeit.

Sonst läuft die Karte (MSI Gaming X) super.

dildo4u
2020-02-15, 11:00:24
Asus Strix Karten hatten vermutlich wegen zum geringem Anpressdruck eine beschiedene Kühlungs Performance in den 2019 Tests.


https://rog.asus.com/articles/gaming-graphics-cards/notice-thermal-performance-and-cooler-mounting-pressure-for-rog-strix-radeon-rx-5700-series-graphics-cards/

Effe
2020-02-15, 11:25:09
Das hat doch schon HW-Unboxed gezeigt. Nix vermutlich. Die Schrauben waren zu lang. ASUS-Qualität zum Premiumpreis.

dildo4u
2020-02-15, 11:28:21
Asus meint sie haben sich nur an die AMD Angaben gehalten die offensichtlich nix taugen.Könnte daran liegen das AMDs OEM Kühler vermutlich halb so schwer sind.

aufkrawall
2020-02-15, 11:31:07
Das konnte man natürlich nicht merken, bevor man die Massenfertigung startete. :freak:

dildo4u
2020-02-15, 11:44:50
Da geht es ja auch um die Haftung,das fällt jetzt auf Asus nicht mehr auf AMD.
Schon verständlich wenn sie sich erstmal an die Specs halten.

DeadMeat
2020-02-15, 12:02:17
Da geht es ja auch um die Haftung,das fällt jetzt auf Asus nicht mehr auf AMD.
Schon verständlich wenn sie sich erstmal an die Specs halten.


Ja grundsätzlich schon, aber wenn sie einen Komplett anderen Kühler verbauen ist es halt so oder so nicht mehr Referenz und müsste eventuell vorher mal überprüft werden. Ist ja schon fast so gut wie bei den paar AM4 Mainboards wo unter den VRM Kühlern noch der Plastikstreifen auf den Pads waren.

Effe
2020-02-15, 12:25:11
Asus meint sie haben sich nur an die AMD Angaben gehalten die offensichtlich nix taugen.Könnte daran liegen das AMDs OEM Kühler vermutlich halb so schwer sind.
So doof kann man nur sein, wenn man keine Qualitätskontrolle besitzt. Produkt vor Auslieferung testen? Iwo, kostet ja Geld. Aber bitte immer 50€ teurer als der Rest sein.

dargo
2020-02-28, 11:47:43
Ich hatte vor einigen Tagen mal wieder Lust auf den MP von BFV was ich mit Navi noch gar nicht gespielt hatte und nun stellt sich heraus, dass mein UV-Setting mit...

P1 = 772mV @1414Mhz
P2 = 1050mV @2030Mhz
PT = 150W


in diesem Spiel doch nicht stabil ist. Das Game hatte sich irgendwann immer mal auf den Desktop verabschiedet. Alles andere lief einwandfrei. Nun war ich also gezwungen mir ein neues UV-Setting zu suchen. Dieses heißt aktuell...

P1 = 768mV @1400Mhz
P2 = 1030mV @2000Mhz
PT = 150W


Damit läuft nun auch BFV einwandfrei. Offenbar waren die Spitzen beim Takt (diese sieht man mit nem Afterburner eh nicht) das Problem die durch eine Verringerung vom Maximaltakt nun abgemildert sind. Positiv... die Karte ist dadurch nicht langsamer.

btw.
Eine Sache finde ich aber komisch. Vor wenigen Wochen hatte ich den Speichertakt von 1750Mhz auf 1800Mhz erhöht da ich keine Auffälligkeiten in Games bemerkt hatte. Afaik gabs diese erst mit 1830Mhz. Nun stelle ich fest, dass mit 1800Mhz Speicher manche YT-Videos in einem Abstand von ca. 2-3 Sekunden minimal flackern. Also das ganze Bild dann, nicht nur das YT-Videofenster. Kann sich das einer erklären? Im Prinzip nicht dramatisch da die leichte Erhöhung der Bandbreite eher Kosmetik als Mehrleistung bedeutet. Dennoch bin ich etwas überrascht, dass in Games mir nichts auffällt. Mit Default 1750Mhz flackert nichts.

aufkrawall
2020-02-28, 23:34:21
Da gerät dann offenbar etwas mit dem Timing der VRAM-Taktanpassungen durcheinander, diese dürfen wegen Flackerns nicht zusammen mit dem Refresh des Displays auftreten.
Alte AMD-Baustelle, mit Navi offenbar zu etwas wie Stuttgart 21 mutiert...

dargo
2020-02-28, 23:51:20
Der Vram läuft mit voller Frequenz beim Video.

aufkrawall
2020-02-29, 00:03:49
Kann auch falsch oder ungenau ausgelesen werden, Stichwort Polling Rate. Dummerweise hat AMD ja unter Windows den Usern einfach ohne Begründung das Feature weggenommen, den Maximaltakt zu erzwingen.
Kann natürlich auch an etwas komplett anderem liegen. Hier flackerte es, wie mal erwähnt, mit 75Hz durch Lüfterkurve via AB, afair auch bei Standard-Takt. Natürlich, obwohl die Karte/der Treiber dabei schon zu dumm für dynamische VRAM-Taktung war.... :freak:

dargo
2020-02-29, 09:01:49
Dummerweise habe ich nicht daran gedacht mir zu merken bei welchem YT-Video dieses leichte Flackern im Takt von etwa 2-3 Sekunden auftrat. Entweder betraff es nur bestimmte Videos oder AMD hat das Problem mit dem Adrenalin 20.2.2 behoben. Jedenfalls flackert nun hier mit dem neuen Treiber bisher kein YT-Video mit 1800Mhz Speicher. Ich behalte das mal im Auge.

btw.
Irgendwas scheint AMD im neuen Treiber bezüglich Lüftersteuerung geändert zu haben. Ich komme mit meiner Custom-Lüfterkurve vom AB nicht mehr unter ~750RPM (24%). Ist jetzt nicht schlimm, selbst mit dieser Drehzahl höre ich hier nichts aus dem Gehäuse, fällt halt nur auf da ich vorher ~600RPM hatte. Auch ist auffällig, dass ich im MPT mit dem neuen Treiber nun Zero Fan deaktivieren muss damit ich kein Zero Fan habe. Vorher hatte ich kein Zero Fan obwohl es im MPT aktiviert war. Möglicherweise war das vorher aber nur ein Bug der diesmal behoben ist.

PS: erstaunlich... jetzt boostet die Karte trotz "nur" max. 2Ghz bis zu 1972Mhz hoch in BFV laut AB.

horn 12
2020-02-29, 10:19:22
Guter Treiber oder nicht optimal
Zudem Blackscreen Passee oder doch noch vorhanden …

nairune
2020-02-29, 10:38:23
Steht doch in den patch notes, dass die Lüftersteuerung angegangen wurde. Soweit ich sehe, wird jetzt das im VBIOS (bzw. per MPT geänderte) PWM Minimum auch bei custom Lüfterkurve beachtet. Vorher konnte man da weniger einstellen, als der Hersteller ins BIOS geschrieben hatte.
Ich habe das ja schon immer über das MPT gemacht und kann im Wattman nun genau den Wert minimal eintragen, wenn ich auf "manuelle Kurve gehe", den ich im MPT eingestellt hatte.

dargo
2020-02-29, 11:05:55
Jepp... kann ich bestätigen. PWM Minimum mit MPT auf 10% anstatt 15% geändert und schon habe ich meine alten RPM vom AB wieder.

Edit:
Das mit dem Flackern kann ich nun etwas eingrenzen.

Das passiert offenbar nur wenn der Speicher mit voller Frequenz läuft. Normalerweise läuft der hier bei Videos im Browser mit 200Mhz. Ich vermute der lief vorher mit voller Frequenz weil Origin und BFV im Hintergrund liefen. Da Origin aktuell down ist kann ich es nicht gegenprüfen.

gedi
2020-03-02, 15:55:03
https://www.igorslab.de/red-bios-editor-bios-eintraege-anpassen-optimieren-und-noch-stabiler-uebertakten-navi-unlimited/

Hott3X
2020-03-31, 10:19:03
Ich habe gestern die Zeit mal genutzt und wieder ein wenig UV betrieben. Habe meine Karte nun
auf 150W PT gestellt, 970mV bei 1900Mhz. Hab damit nur im Division 2 Benchmark nur 700 Punkte eingebüßt. Das entspricht 5,5% weniger Leistung , bei 17% weniger Leistungsaufnahme.

Raff
2020-03-31, 11:11:48
... und bist damit immer noch schneller als mit einer Referenzkarte out-of-the-box. :)

MfG
Raff

Hott3X
2020-03-31, 11:38:43
... und bist damit immer noch schneller als mit einer Referenzkarte out-of-the-box. :)

MfG
Raff

Ja, mit den Einstellungen würde die Referenz bestimmt auch viel leiser sein. Meine Gigabyte hört man jetzt gar nicht und die Tjunktion ist auch nicht mehr so hoch. Kann leider nicht genau sagen wie hoch, da mein AMD Overlay nach 30min in Destiny 2 weg war und nicht mehr zurück gekommen ist. Gibt es eine Möglichkeit die Maxwerte vom Overlay in eine Textdatei schreiben zu lassen?

Menace
2020-04-01, 08:17:07
Wieso braucht die 5700 bei Multimonitor noch immer so viel? Und kann man das ändern? Fast 20 Watt mehr. Hoffe Big Navi macht das wieder anders.

Meine Vega 56 Nano ist dank Folding@home kaputt, aber die Karte war angenehmer und leiser bei Standard- und reguläre Arbeit als Powercolor Red Dragon 5700 (die auch sehr leise ist und vor allem beim Spielen durch erstaunliche Sparsamkeit und Ruhe glänzt; nur ich spiele viel seltener, als dass ich am PC arbeite).

Hakim
2020-04-01, 12:06:16
Wieso braucht die 5700 bei Multimonitor noch immer so viel? Und kann man das ändern? Fast 20 Watt mehr. Hoffe Big Navi macht das wieder anders.



Das ist genau etwas was mich davon abgehalten hat mir eine 5700 (xt) zu besorgen um mal AMD wieder eine Chance zu geben. Was juckt mich der UV beim Zocken gegenüber permanenten ~20-25w mehrverbrauch in meinem 24/7 idle ( glaube auch das heutzutage die meisten mehr als ein Display dran haben).

Und die meisten testseiten interessiert sich auch nicht für. Großes Lob an techpowerup die es immer messen und AMD immer für kritisieren.

aufkrawall
2020-04-01, 12:28:55
Kann eigentlich nur so zu erklären sein, dass beim Display Controller oder dem Treiber-Part dafür etwas grundlegend schiefgegangen ist.
Andererseits ist es auch eine chronische Geschichte bei AMD: Mit der RX 560 blockierten Cursor-Bewegungen unter Windows die Bildausgabe, sofern der VRAM nicht mit höchstem Takt lief. Mit der RX 580 musste ich unter Windows Display-Timings erhöhen, damit es bei manchen VRAM-Taktwechseln kein schwarzes Flackern gab. Mit Navi gibts den Vsync + HW-Cursor-Bug und auch 1440p 75Hz forciert den VRAM in den höchsten State. Mit Vega (II) gibts auch viele Berichte über schwarzes Flackern mit zumindest Multi-Monitor.

Hier merkt man imho krass, wie unterbesetzt AMD teilweise ist. Nvidia hingegen hat die harten Ruckler gefixt, die auftraten, wenn der VRAM in den niedrigsten State wechselt. Hab wieder eine 1070 eingebaut und der Display- und Stromspar-Kram funktioniert einfach anständig, ohne irgendein Gefrickel o.ä.

Menace
2020-04-01, 15:27:54
Ich danke euch. Ich hatte es in Erinnerung, dass AMD das Problem angehen wollte, hat sie aber wohl nicht geschafft.

Ich hoffe wirklich dass meine Vega 56 Nano nochmals repariert werden kann. Es ist einfach eine extrem runde und tolle Grafikkarte gewesen mit sehr guter Leistung bei OpenCl-Anwendungen. Überlegte mir auch noch, ob es eine VII wird, aber zu teuer.

Also warte ich jetzt auf BigNavi und schaue, ob dann die 5700 eine Ersatz-GraKa wird.

Raff
2020-04-01, 15:34:19
Und die meisten testseiten interessiert sich auch nicht für. Großes Lob an techpowerup die es immer messen und AMD immer für kritisieren.

Das wird auch von so mancher deutschsprachigen Seite gemessen und wiederholt kritisiert (https://www.pcgameshardware.de/Radeon-RX-5600-XT-Grafikkarte-275784/Tests/Benchmark-Kaufen-Preis-Release-Review-1341275/2/#a1). ;) Gehört sich auch so, denn anscheinend steht das auf keiner To-do-list von AMD.

MfG
Raff

Hakim
2020-04-01, 15:41:18
Entschuldige bitte :). Halt etwas entäuscht weil es bei release so rüberkam als ob das mit einem Treiber Update behoben wird, glauben tu ich nicht mehr dran. Hoffentlich tut sich bei Rdna2 mal was diesbezüglich

Raff
2020-04-01, 15:49:14
Nee, da kommt betimmt nichts mehr für die aktuellen Dinger. Das klang Mitte 2019 so, als käme da noch was. Bei ein paar Nutzern hat sich auch was getan, aber eine sparsame Dual-Moni-Konfig scheint da die absolute Ausnahme zu sein.

MfG
Raff

Menace
2020-04-01, 19:19:49
Nee, da kommt betimmt nichts mehr für die aktuellen Dinger. Das klang Mitte 2019 so, als käme da noch was. Bei ein paar Nutzern hat sich auch was getan, aber eine sparsame Dual-Moni-Konfig scheint da die absolute Ausnahme zu sein.


Danke Dir für Deine Antwort. Jetzt spare ich halt dadurch, dass ich die Monitore häufiger ausmache, aber Sinn und Zweck ist das nicht. Ich finde ja schon die Dual-Biose, Untervolten, etc. sehr nett, aber so bleibt das eine Zwischenlösung. RNDA2 dürfte wirklich früher kommen, wobei ich nicht sicher bin ob die GPU-OpenCl-Leistung dadurch nicht noch weiter sinkt.

Edit: Bei Vega haben sie es ja gelöst bekommen.

nairune
2020-04-01, 19:49:47
Das Ganze hängt ja bekanntermaßen am Speicher und Vega hatte HBM... bezweifle dass da ein Fix kommt, Polaris trägt es ja auch seit Jahren mit sich rum.

VfBFan
2020-04-02, 17:05:13
Das vermute ich ja schon seit längerem. Nur die mit HBM bestückten Karten waren von den neueren AMD-Karten diesbezüglich wirklich unproblematisch und sparsam.

hmmm
2020-04-03, 11:38:52
Naja, 2 mal zb 60hz sind ja oft eh nicht das Problem. Bei mir geht auch eine Navi mit 1xFullHD 144Hz und 1xWQHD 75Hz bei 8W Idle, das schafft die 2070 nicht.

Also wenn man sowas testet, sollte man schon mehrere Konfigurationen testen.

aufkrawall
2020-04-03, 11:41:44
Bei mir ging nicht 1x 1440p 75Hz mit Idle-VRAM und das hatte mir hier auch ein anderer User bestätigt.

nairune
2020-04-03, 12:06:49
Bei einem Display ist es schon ein Bug, dachte der wäre auch behoben worden?
UWQHD @100Hz war nie ein Problem. Das letzte Mal meinte jemand, die Karte würde mit Multimonitor auch runtertakten, wenn beide Displays die exakt selbe Wiederholrate haben.

aufkrawall
2020-04-03, 12:12:10
Bei einem Display ist es schon ein Bug, dachte der wäre auch behoben worden?

War jedenfalls erst kürzlich:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12231184&postcount=15


Das letzte Mal meinte jemand, die Karte würde mit Multimonitor auch runtertakten, wenn beide Displays die exakt selbe Wiederholrate haben.
Das war vielleicht ich? :)
Ich hab allerdings nur gesagt, dass das die Voraussetzung wäre, damit sie synchronisiert werden können. Ich weiß nicht, ob das in der Praxis auch wirklich korrekt funktioniert.
Wenn es mit NV und den gleichen Geräten ohne Custom Resolutions geht und mit Radeons nicht, wär diese Notwendigkeit zum Gefrickel natürlich trotzdem kritikwürdig.

Afair läuft 1440p 144Hz mit Navi aber auch immer noch mit vollem VRAM-Takt (siehe einen Post von VfBFan über dem verlinkten), mit Turing angeblich nicht.

dargo
2020-04-03, 12:21:55
Afair läuft 1440p 144Hz mit Navi aber auch immer noch mit vollem VRAM-Takt (siehe einen Post von VfBFan über dem verlinkten), mit Turing angeblich nicht.
Hier nicht.

Hott3X
2020-04-03, 12:28:41
Bei mir läuft die 5700xt bei 1440p mit 240hz mit 800mhz Ramtakt laut AMD Treiber.

hmmm
2020-04-03, 12:40:56
Bei mir läuft die 5700xt bei 1440p mit 240hz mit 800mhz Ramtakt laut AMD Treiber.
Wlcher Monitor ist das bitte? Kannst du mal einen Screen von den "Anzeigenspezifikationen" im Treiber machen?

Hott3X
2020-04-03, 13:12:52
Wlcher Monitor ist das bitte? Kannst du mal einen Screen von den "Anzeigenspezifikationen" im Treiber machen?

Ist der HP Omen X27.

dargo
2020-04-03, 14:12:53
Bei mir läuft die 5700xt bei 1440p mit 240hz mit 800mhz Ramtakt laut AMD Treiber.
Sicher, dass du vom Speichertakt sprichst und nicht vom GPU-Takt der falsch angezeigt wird? Die 5700XT hat keinen P-State mit 800Mhz beim Speicher. Es gibt 200Mhz, 1000Mhz, 1250Mhz und 1750Mhz.

hmmm
2020-04-03, 14:25:22
Sicher, dass du vom Speichertakt sprichst und nicht vom GPU-Takt der falsch angezeigt wird? Die 5700XT hat keinen P-State mit 800Mhz beim Speicher. Es gibt 200Mhz, 1000Mhz, 1250Mhz und 1750Mhz.
Das stimmt so nicht mehr, bei mir taktet der VRam auch mit deutlich mehr Taktstufen, da ist von 200, 240,300,310,400, usw alles dabei. wurde scheinbar geändert. auch sehe ich bei der NetzteilApp die W Änderungen und in GPUz die Taktraten.
GPU Chip Power Draw geht dann auch 8W,10W,14W,12W usw

Hott3X
2020-04-03, 14:34:58
Sicher, dass du vom Speichertakt sprichst und nicht vom GPU-Takt der falsch angezeigt wird? Die 5700XT hat keinen P-State mit 800Mhz beim Speicher. Es gibt 200Mhz, 1000Mhz, 1250Mhz und 1750Mhz.

Die 800Mhz Zeigt er mit unter Metrik für den RAM an, im Leistungsfenster sind es 200Mhz. Ich guck gleich nochmal im GPU-Z

Hott3X
2020-04-03, 14:41:10
Hier aus GPU-Z

hmmm
2020-04-03, 15:00:00
GPU-Z Log
(Einige doppelte Zeilen wegen der Übersicht gelöscht!)

hmmm
2020-04-03, 15:39:53
Sieht man auch so im Wattman:

dargo
2020-04-03, 16:38:10
Hier aus GPU-Z
Passt alles, Metrik-Anzeigefehler offenbar.

hmmm
2020-04-03, 17:20:17
Passt alles, Metrik-Anzeigefehler offenbar.

Hä?

Hakim
2020-04-03, 17:48:20
hab ich das richtig verstanden, zwei Monis mit selber Wiederholfrequenz funzen im Sparmode? Hab hier einen 24er Samsung (1200), einen Dell 27er (1440p), der Eizo ist nur an wenn ich arbeiten will (die anderen beiden sind fast nonstop an). Würde das jetzt gehen oder ist das ein Glücksspiel?

dargo
2020-04-03, 19:11:07
Hä?
Ho?

hmmm
2020-04-03, 20:36:15
hab ich das richtig verstanden, zwei Monis mit selber Wiederholfrequenz funzen im Sparmode? Hab hier einen 24er Samsung (1200), einen Dell 27er (1440p), der Eizo ist nur an wenn ich arbeiten will (die anderen beiden sind fast nonstop an). Würde das jetzt gehen oder ist das ein Glücksspiel?
Wie gesagt, bei mir funktionieren 1FHD@144Hz und 1WQHD@75Hz mit ~8W (ASIC) mit der Navi 5700XT, hier macht die 2070 Probleme.
Aber das ist scheinbar bei jedem anders, auch bei nvidia geht es nicht immer.
Schade finde ich nur die mangelnde Info der Hersteller (BEIDE) was wie Funktioniert.

gedi
2020-04-07, 15:04:59
Ich hab ne Strix unter Wasser gesetzt. Geht eigentlich relativ gut das Ding, 2.168G (richtige 2.11G) bei 1.12V und 2.26G (richtige 2.21G)bei 1.25V. Verbrauch beim 2.11G ~ 190W bei 2.21G ~ 325W, was ohne LM nicht zu kühlen ist, da die Hotspottemp explodiert.

Gut am neuen Treiber finde ich, dass der WM sich nicht mehr beschwert, obwohl ich ihn eh nie benutzt habe. Zudem scheint das Layout etwas fixer zu sein als das Alte.

Schlecht ganz klar die Oberfläche - totale Grütze, was ein Müll. ESync scheint selbst nach einem halben Jahr noch nicht zu funktionieren :mad: und der Ram taktet hier nur bei 60Hz runter :mad::mad:

Stabil scheint der Treiber zu sein, allerdings finde ich es eine Unverschämtheit, dass alte Bugs nicht gefixt werden.

gedi
2020-04-09, 21:52:43
Für die Strix gibts ein neues Vbios. Änderungen belaufen sich wie folgt: Vsoc nun 1050mV statt 1200mV und die Leistungsaufnahme wurde gedrosselt von 220W auf 210W.

Das Vbios bringt hier einiges: 2.25G@1.206V :eek: bei max. 270W was real unter 4k 2.16-2.2G ergibt. Das tolle PCB fühlt sich unter Wasser erwartungsgemäß richtig wohl :) - zudem glaube ich, dass die GPU einen sehr hohen ASIC-Wert hat. Default stehen lediglich 1.137V an. 2.1G (real 2.04G) gehen mit 1.075V - hatte ich noch nie!

horn 12
2020-04-09, 22:22:55
Und welche Karte meinst du, 5700XT Strix für wieviel Euro

gedi
2020-04-10, 08:25:27
Ich hatte sie für 459€ bei Proshop geordert und noch von EKWB nen Kühler für 130€ draufgeschnallt. So ist se deutlich schneller als ne originale XT. Die Performance liegt im Bereich einer nicht übertakteten 2080 bei etwa gleichem Verbrauch.

gedi
2020-04-13, 12:46:38
Also - genügend getestet. Die Strix unter Wasser ist ein Biest. In F1 2019 liege ich mit identischen Settings gerade mal 12% hinter einer 2080Ti, ebenfalls unter Wasser. 4k - maxed out 95 FPS. Nur braucht die Matrix hierfür 360W, die Strixx macht es für 240W+. Leider geht der Vram nicht wie bei der Nitro bis 2000, aber ansonsten - Hui geht das Ding ab. Stabilität - 0,0 Probleme, da in einem separaten Wakü-Kreislauf eingebunden, keinen Lärm und für 570€ spottbillig.

Raff
2020-04-13, 12:49:46
Du kannst mit Navi 10 keinen TU102 killen. Es geht einfach nicht ohne flüssiges Helium. Dennoch hast du natürlich im Rahmen des Machbaren eine sehr schnelle Radeon-Grafikkarte. :)

MfG
Raff

P.S: Wenn du noch einen Benchmark suchst, der gezielt AMD-GPUs bevorzugt: Red Dead Redemption 2. Nur ist das halt weit ab vom Querschnitt und somit nichts für absolutistische Aussagen. ;)

gedi
2020-04-13, 13:25:36
Del

gedi
2020-04-13, 13:27:19
Mit dem was ich an Spielen zur Verfügung habe, läuft se wirklich toll. 1000% High-Asic da zu viel Vcore kontraproduktiv ist. Aber in 4k immer zwischen 2.16G und 2.20G bei 240W (real ~270W) für ne Grafikkarte, welche gerade mal 1/3 der Matrix gekostet hat - da liegt se erstaunlich nah dran.

Klar habe ich eigentlich nur LL-API Games auf dem Rechner, aber hier rockt die Strix. Und Hammer aussehen tut se sowieso:

https://s12.directupload.net/images/200413/temp/y59f9hk9.jpg (https://www.directupload.net/file/d/5788/y59f9hk9_jpg.htm)

https://s12.directupload.net/images/200413/temp/7vkc45af.jpg (https://www.directupload.net/file/d/5788/7vkc45af_jpg.htm)

dildo4u
2020-04-14, 09:08:51
Das einzige was hier auffällt Doom rennt extrem gut auf Turing kein Plan warum,oder es ist ein AMD Treiber Probelm.


45Q8TVmzHI8

dargo
2020-04-14, 09:36:48
Hat Nvidia bei Borderlands 3 ein Treiberproblem? Immerhin ist die 5700XT für weniger Geld 37% schneller dort, bei 1% low sogar 49%. :rolleyes:

dildo4u
2020-04-14, 09:46:08
Naja AMD gesponsertes Game 7.2 vs 9.3Tflops,Doom fällt da deutlich mehr auf da es Low Level ist AMD kann da eigentlich nicht so viel versauen.

dargo
2020-04-14, 10:13:42
Keine Ahnung welche 2060S bei dir 7,2 TFLOPs hat. Zumindest diese beiden hier liegen bei etwa 8,2-8,35 TFLOPs.
https://www.computerbase.de/2019-07/geforce-rtx-2060-super-gigabyte-gaming-oc-palit-js/

Raff
2020-04-14, 13:32:01
Mit 7,8 TFLOPS kann man praktisch mindestens rechnen, die meisten Designs rangieren bei normaler Last über 8 TFLOPS (GPU-Boost über 1,8 GHz). (https://www.pcgameshardware.de/Geforce-RTX-2060-Super-Grafikkarte-275184/Specials/8-GiByte-Grafikkarten-zwischen-350-und-450-Euro-1347670/)

MfG
Raff

aufkrawall
2020-04-14, 13:42:08
Hat Nvidia bei Borderlands 3 ein Treiberproblem?
Eher ein Testerproblem, denn DX12 ist in dem Spiel wahrscheinlich aus gutem Grund für Nvidia-GPUs im Gegensatz zu Radeons nicht die Standardeinstellung.
Die Spielbarkeit ist aber auch auf Radeons mit DX11 wegen Anti-Lag besser, sofern man nicht den integrierten fps-Limiter nutzt.

dildo4u
2020-04-14, 14:23:43
Im Grafik Menü steht immer noch das,würde mich auch sehr wundern wenn Gearbox vor Epic eine bessere DX12 Implementierung hat.


https://live.staticflickr.com/65535/49772460693_7300077419_k.jpg (https://flic.kr/p/2iQdSw2)2020-04-14 (3) (https://flic.kr/p/2iQdSw2) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

gedi
2020-04-14, 20:05:11
Keine Ahnung welche 2060S bei dir 7,2 TFLOPs hat. Zumindest diese beiden hier liegen bei etwa 8,2-8,35 TFLOPs.
https://www.computerbase.de/2019-07/geforce-rtx-2060-super-gigabyte-gaming-oc-palit-js/

Naja, die 2060s ist auch ne ziemliche Krücke. Witzig, dass die GPU gegen XT gestellt wird. Ist doch eher non XT-Performance - außer vielleicht bei PCGH, wo bestimmt eine Stelle im Game gefunden wird, wo die Radeon kaum gegen eine 9500GT ankommt :freak:

Denniss
2020-04-14, 20:57:16
Warum 2060S vs 5700XT?
Schau mal auf die Löhnung die für die typischen Vertreter dieser beiden Karten verlangt wird.

hmmm
2020-04-14, 22:53:20
Naja, die 2060s ist auch ne ziemliche Krücke. Witzig, dass die GPU gegen XT gestellt wird. Ist doch eher non XT-Performance - außer vielleicht bei PCGH, wo bestimmt eine Stelle im Game gefunden wird, wo die Radeon kaum gegen eine 9500GT ankommt :freak:
Für mich der einzig richtige Vergleich. Ein normalo kauft wohl nach dem was er bereit ist für sein "Hobby" auszugeben und da trifft die 2060S eben auf die 5700XT.
Eigentlich zeigt genau dies den "Witz" an nvidias Preisgestaltung. Würde die "presse" genau dies öfter machen, wäre auch der druck auf nvidias absurden Preise stärker.

Raff
2020-04-14, 23:04:42
Naja, die 2060s ist auch ne ziemliche Krücke. Witzig, dass die GPU gegen XT gestellt wird. Ist doch eher non XT-Performance - außer vielleicht bei PCGH, wo bestimmt eine Stelle im Game gefunden wird, wo die Radeon kaum gegen eine 9500GT ankommt :freak:

Was hat dir PCGH eigentlich getan? Gerne per PN. Das ist ein ernstgemeintes Angebot, denn ich will verstehen, woher dein Unmut gegenüber fairen, transparenten Messungen kommt. Dabei gibt es immer Sieger und Verlierer und verschiedenen Disziplinen. Zu behaupten, PCGH sei gegen AMD, ist einfach haarsträubend - vor allem angesichts von Artikeln, bei denen klar 5700-XT-Karten als PL-Sieger dargestellt werden (https://www.pcgameshardware.de/Geforce-RTX-2060-Super-Grafikkarte-275184/Specials/8-GiByte-Grafikkarten-zwischen-350-und-450-Euro-1347670/).

MfG
Raff

P.S: Was HWU da macht, ist wohl ein preislicher Vergleich. Da ist eine 5700 XT immer noch günstiger als eine 2060S. Daher diese Kontrahenten - und nicht, um die 5700 XT oder deren Nutzer zu kränken.

Dampf
2020-04-14, 23:34:34
Sobald DX12U Traction bekommt, ist mit RDNA1 sowieso Feierabend. Versteh nicht warum diese Karten überhaupt noch gekauft werden.

w0mbat
2020-04-15, 00:40:48
Sobald DX10.1 Traction bekommt, äh sobald DX11, äh nein, sobald DX12 äh sorry, sobald Vulkan, äh nein :D

Was für ein dummer Kommentar von dir. Sorry das jetzt so direkt zu sagen. Du bist anscheinend neu in der Welt der GPUs.

Und nein, DX12U wird keinerlei Auswirkungen auf Navi haben. Keine Sorge :)

Raff
2020-04-15, 00:56:47
Ab 2021 wird man mit allen, das kein Raytracing beherrscht - egal ob DX12(U) oder Vulkan - immer öfter in die Röhre schauen. RDNA 1 wird dabei neben Pascal die beste Figur machen, aber eben nicht mit maximalen Details. Darüber muss man sich im Klaren sein, wenn man heute 50–100 Euro sparen will.

MfG
Raff

w0mbat
2020-04-15, 02:05:20
Ich bezweifle stark dass wir schon nächstes Jahr wirklich viel RT sehen werden, vor allem in einem Umfang den eine 2060S bedienen kann.

dargo
2020-04-15, 06:55:32
Eben... performantes RT 2021 im 400€ Segment wird Wunschdenken bleiben.

Mr. Lolman
2020-04-15, 08:01:13
Ab 2021 wird man mit allen, das kein Raytracing beherrscht - egal ob DX12(U) oder Vulkan - immer öfter in die Röhre schauen.

Geh Raff. Der Schmäh ist nun 20 Jahre alt (TnL) und du fällst immer noch drauf rein. :rolleyes:

Bucklew
2020-04-15, 08:57:39
Ab 2021 wird man mit allen, das kein Raytracing beherrscht - egal ob DX12(U) oder Vulkan - immer öfter in die Röhre schauen.
This.

Es gibt bei RT auch mehr Stufen als nur Ultra :rolleyes:

Raff
2020-04-15, 09:05:26
Geh Raff. Der Schmäh ist nun 20 Jahre alt (TnL) und du fällst immer noch drauf rein. :rolleyes:

Wir sind bei Raytracing jetzt schon weiter, als eine GeForce 256 es zu Lebzeiten je geschafft hat (auch, weil man RT eben nicht per CPU durchführen kann). Nicht alles, was hinkt, ist ein Vergleich. Aber ich merk schon, dass ich im falschen Thread/Mikrokosmos bin. Sagt später aber nicht, dass man euch nicht gewarnt hätte. :D Das gilt übrigens auch für die zahlreichen Pascal-Gebrauchtkäufer.

MfG
Raff

Dampf
2020-04-15, 09:10:21
Sobald DX10.1 Traction bekommt, äh sobald DX11, äh nein, sobald DX12 äh sorry, sobald Vulkan, äh nein :D

Was für ein dummer Kommentar von dir. Sorry das jetzt so direkt zu sagen. Du bist anscheinend neu in der Welt der GPUs.

Und nein, DX12U wird keinerlei Auswirkungen auf Navi haben. Keine Sorge :)

Hast du dich mal informiert was Mesh Shading für Auswirkungen auf die Geometrie Pipeline hat? Was Raytracing alles für die Entwickler leichter macht? Was Sampler Feedback für Auswirkungen auf das Memory Management hat? Warum Microsoft DX12U überhaupt entwickelt hat? Um eine uniforme API zu schaffen, damit Entwickler ihre Games super easy zwischen Xbox und PC porten können.

Erstmal wirds nur bei Grafikverbesserungen und mehr Performance bleiben das ist wahr, direkt hat die API erstmal keinen Einfluss auf Navi 1 (nur indirekt, eben dass DX12U Karten bessere Grafik und Performance bekommen) . Nach der Cross Gen Phase wird sich das allerdings ändern. Bis dahin wirds aber auch genügend DX12U Systeme geben.

Diese Features sind enorm wichtig, das kann man nicht mit Dx10.1 oder vielleicht sogar DX11 vergleichen. Ich sags mal so: Versuch mal ein Dx11 Spiel auf einer DX10 Karte zu starten 😉

dargo
2020-04-15, 09:38:17
Wir sind bei Raytracing jetzt schon weiter, als eine GeForce 256 es zu Lebzeiten je geschafft hat (auch, weil man RT eben nicht per CPU durchführen kann). Nicht alles, was hinkt, ist ein Vergleich. Aber ich merk schon, dass ich im falschen Thread/Mikrokosmos bin. Sagt später aber nicht, dass man euch nicht gewarnt hätte. :D
Vor was genau willst du uns warnen? Wenn der Zeitpunkt reif ist wird einfach eine neue Graka gekauft und fertig.

Raff
2020-04-15, 09:48:12
Das ist natürlich die beste Lösung. :D Aufrüsten für die Zukunft geht hingegen oft schief, weil man nie genau weiß, was sich in welcher Form durchsetzt. Aber der Übergang ist fließend. Wartet ihr auf eine Killer App?

MfG
Raff

w0mbat
2020-04-15, 09:55:58
@Dampf; Wenn RT so vieles einfacher machen würde, wieso sehen wir noch nichts davon? Die einzige brauchbare RT implementierung gibt es aktuell in Control und das ist immer noch nicht auf Steam verfügbar. Das gleicht gilt doch auch für DLSS. Erst ist es schlechter als normales upscaling und jetzt gibt es zwei Spiele oder so wo es ganz nett ist. Nach so langer Zeit.

Wenn du auch nur ein kleines bisschen Erfahrung hast wüsstest du wie das läuft. Ist nämlich nicht das erste Mal, dass ein neues Feature alle andere sehr bald obsolet macht. Ist dann aber doch nie passiert.

Bis DX12U irgendeine Auswirkung haben wird ist meine 5700 XT mindestens zwei Jahre alt. Ich denke, wenn die neuen Konsolen ein Jahr am Markt waren und es eine zweite holiday season gab wo sie verkauft wurden und die Marktdurchdringung von DX12U GPUs auch gestiegen ist wird es langsam Fahrt aufnehmen.

Raff
2020-04-15, 10:01:17
@Dampf; Wenn RT so vieles einfacher machen würde, wieso sehen wir noch nichts davon?

Ganz einfach: Niemand schreibt mal eben "from scratch" ein Triple-A-Spiel für ein paar Hunderttausend potenzielle Kunden, selbst wenn Nvidia Geldkoffer da lässt. Der Verzicht auf die ganze Shadow-Map- und Point-Light-Fakerei mit Prebaking etc. könnte wegfallen, da die Beleuchtung automatisch kommt. Das würde unterm Strich trotz der zusätzlichen Berechnungen und besseren Grafik wohl auch Speicher sparen, wenn man es rigoros umsetzt.

MfG
Raff

dargo
2020-04-15, 10:02:08
Wartet ihr auf eine Killer App?

Also ich warte auf eine "Killer"-Performance mit RT.

Raff
2020-04-15, 10:03:54
Ist schon da. DLSS 2.0. RDNA 2 wird das auch nicht besser können.

MfG
Raff

dargo
2020-04-15, 10:05:17
Ganz einfach: Niemand schreibt mal eben "from scratch" ein Triple-A-Spiel für ein paar Hunderttausend potenzielle Kunden, selbst wenn Nvidia Geldkoffer da lässt.
Und genau das ist doch das Kernproblem. Lass die neuen Konsolen das eine oder andere Jährchen am Markt, die alten am besten nicht mehr bedienen dann können wir über RT reden. Nur haben wir dann eher 2022+.

Ist schon da. DLSS 2.0.
DLSS 2.0 interessiert mich nicht da IHV-spezifisch, kein Konsolen-Feature, ergo auch keine flächendeckende Zukunft.

Raff
2020-04-15, 10:09:51
Das ist aber die Art "cleverer Cheat", mit der man das Feature Realtime-Raytracing (die Betonung liegt auf dem "Realtime") nutzbar macht. Zusammen mit den vielen anderen, teilweise sehr interessanten Performance-Kniffen, welche u. a. im Kontext Minecraft RTX erläutert werden. Da wird so viel weggelassen, dass sich die Balken biegen, aber nur so wird die schöne neue Welt langsam, aber sicher betretbar. :)

MfG
Raff

Bucklew
2020-04-15, 10:13:06
Vor was genau willst du uns warnen? Wenn der Zeitpunkt reif ist wird einfach eine neue Graka gekauft und fertig.
Ich dachte FineWine und so....?

Mr. Lolman
2020-04-15, 10:34:40
Ganz einfach: Niemand schreibt mal eben "from scratch" ein Triple-A-Spiel für ein paar Hunderttausend potenzielle Kunden, selbst wenn Nvidia Geldkoffer da lässt. Der Verzicht auf die ganze Shadow-Map- und Point-Light-Fakerei mit Prebaking etc. könnte wegfallen, da die Beleuchtung automatisch kommt. Das würde unterm Strich trotz der zusätzlichen Berechnungen und besseren Grafik wohl auch Speicher sparen, wenn man es rigoros umsetzt.

MfG
Raff

RT ist zur Grafikerzeugung einfach nur ineffizient und in vielen Fällen bloß Verschwendung von Rechenleistung. Aus diesem Grund gibts ja die Screenspaceeffekte. Echtzeitbeleuchtung bei statischen Lichtquellen ist übrigens genauso ineffizient. John Carmack hat das auch schon erkannt. ;)

Aber Techfreaks brauchen halt hinundwieder eine Sau, die sie durchs Dorf treiben können -gerade wenn der Markt dermaßen langweilig ist.

Troyan
2020-04-15, 10:34:41
Ich bezweifle stark dass wir schon nächstes Jahr wirklich viel RT sehen werden, vor allem in einem Umfang den eine 2060S bedienen kann.

Wir haben es heute schon. Nächstes Jahr wird es noch viel mehr Spiele geben - von kostenlosen UE4-Spielen bis hin zu AAA-Games.

Eine 2060S schafft Control mit DLSS2.0 und allen RT-Effekten bei vernünftiger Qualität und knapp 60FPS:
https://www.nvidia.com/content/dam/en-zz/Solutions/geforce/news/control-nvidia-dlss-2-0-update/control-2560x1440-ray-tracing-nvidia-dlss-2.0-quality-mode-performance.png
https://www.nvidia.com/en-us/geforce/news/control-nvidia-dlss-2-0-update/

DLSS2.0 ist so gut, dass der Nachteil durch den qualitativen Gewinn von RT mehr als ausgeglichen wird.

RT ist zur Grafikerzeugung einfach nur ineffizient und in vielen Fällen bloß Verschwendung von Rechenleistung. Aus diesem Grund gibts ja die Screenspaceeffekte. Echtzeitbeleuchtung bei statischen Lichtquellen ist übrigens genauso ineffizient. John Carmack hat das auch schon erkannt. ;)

Aber Techfreaks brauchen halt hinundwieder eine Sau, die sie durchs Dorf treiben können -gerade wenn der Markt dermaßen langweilig ist.

Genauso das sinnlose Berechnen von Pixel und das nachträgliche Vermischen von Farbwerten. Hindert die Leute trotzdem nicht daran in einer höhreren nativen Auflösungen spielen zu wollen.
Achja, fun Fakt: SSR sind meisten nur 1/4 der nativen Auflösungen und führen zu Artefakten in Bewegungen. Sinnvoller ist das Deaktivieren. Dann hat man wenigsten komplett die berechnete native Auflösung.

Dampf
2020-04-15, 10:38:54
Und genau das ist doch das Kernproblem. Lass die neuen Konsolen das eine oder andere Jährchen am Markt, die alten am besten nicht mehr bedienen dann können wir über RT reden. Nur haben wir dann eher 2022+.


DLSS 2.0 interessiert mich nicht da IHV-spezifisch, kein Konsolen-Feature, ergo auch keine flächendeckende Zukunft.

Ja, von Grund auf RT wird noch ne Weile dauern. In der Zwischenzeit werden sich Entwickler aber immer mehr auf RT konzentrieren, da eben die Installbase mit RDNA2 und den Next Gen Konsolen wächst. Es ist möglich, dass die Entwickler dann einfach bei den Rasterisierung einsparen, d.h. gebackene Lichteffekte werden nicht mehr so gut aussehen wie es heute der Fall ist.

Ich kann mir aber durchaus Szenarien vorstellen, bei denen die Grundauf-RT Entwicklung schon früher stattfinden wird und einige Raster-Effekte wie SSAO, SSR und GI ersetzt werden. Nämlich dann wenn Raytracing performanter und skalierbarer läuft, auch auf nicht Hardware-Unterstützten Plattformen. Die neue RTXGI SDK beispielsweise bietet Tricks um die Performance um 2.50fach zu steigern im Gegensatz zur bisherigen Implementation und ist sogar bis zu einer GTX 1060 runter-skalierbar.

DLSS 2.0 sollte dich aber interessieren. Irgendwann wirds dafür sowieso ne offene Alternative geben per DirectML. Das hat aber kein Nachteil für RTX-Nutzer, da eben auch auf die Tensor Kerne zugegriffen werden kann. So gesehen wird sich nichts ändern, das DL Modell kann auf Turing immer noch wesentlich effizienter inferenced werden als auf RDNA2, bietet also höhere Modellkomplexität (= bessere Bildqualität) und eine höhere Performance eben genau wie DLSS 2.0. Ich hoffe ja, dass RDNA3 auch ein Tensor Core Equivalent zu bieten hat.

Die XSX ist jetzt auch nicht so schlecht aufgestellt was ML angeht, immerhin bietet sie 97 TOPS INT4 Leistung. Sollte für vieles ausreichen. Obs auch für gute Image Reconstruction ausreicht, weiß ich nicht.

@Troyan: witzig ist, dass einige Raster-Effekte in Control dermaßen viel Leistung fressen ohne die Bildqualität maßgeblich zu beeinflussen. Volumetrics von high auf medium macht einen großen Unterschied in der Framerate aus (höher als so mancher RT Effekt) und den bemerkt man nur wenn man sich in ausgewählten Szenen die Volumetrics ganz genau anschaut, denn erst dann sieht man dass der Nebel ein bisschen niedriger aufgelöst ist :D

w0mbat
2020-04-15, 10:40:21
54FPS avg und 30FPS low (laut Nvidia) in upscale 1440p mit einer $450 GPU :ugly:

Sorry, "Wir haben es heute schon." und dann ein Bsp. nennen dass es noch nicht einmal auf Steam gibt ist einfach lächerlich.

Bucklew
2020-04-15, 10:44:07
RT ist zur Grafikerzeugung einfach nur ineffizient und in vielen Fällen bloß Verschwendung von Rechenleistung.
Hat man bei den ersten Grafikspielen gegenüber Textadventures auch gesagt :ulol:

Bin überrascht, wie Technik-feindlich viele hier eingestellt sind.

Dampf
2020-04-15, 10:48:04
54FPS avg und 30FPS low (laut Nvidia) in upscale 1440p mit einer $450 GPU :ugly:

Sorry, "Wir haben es heute schon." und dann ein Bsp. nennen dass es noch nicht einmal auf Steam gibt ist einfach lächerlich.

Bitte mal genau lesen. Das sind die Average Framerates mit DLSS on (55 FPS) und DLSS off (30 FPS)

Wie ich schon erwähnt hab, Volumetrics von high auf medium und du hast stabile 60 FPS mit allen RT Effekten (die btw einen großen Unterschied machen) auf einer 2060 Super mit einer 1440p Bildqualität, die teils besser aussieht als nativ (DLSS Quality)

Was Steam jetzt damit zu tun haben soll, weiß ich auch nicht. Epic Game Store kann man sich doch gratis runterladen.

dildo4u
2020-04-15, 10:49:16
Jetzt zu kaufen macht hier wie da kein Sinn,es ist offensichtlich das Preis Leistung massiv besser werden muss wenn man die Hardware der neuen Konsolen sieht.Das ist komplett unabhängig von DLSS/Raytracing etc.

w0mbat
2020-04-15, 10:49:22
@Dampf: also sind die min. FPS vielleicht sogar noch niedriger? OMG!

Und als nächstes erzählst du mir, dass ich mit low settings und upscaling in 480p dann spielbare FPS bekomme? Krass, Nvidia ist so advanced!

Dampf
2020-04-15, 10:50:19
Also sind die min. FPS vielleicht sogar noch niedriger? OMG!

Und als nächstes erzählst du mir, dass ich mit low settings und upscaling in 480p dann spielbare FPS bekomme? Krass, Nvidia ist so advanced!

Rekonstruktion =/ Upscaling.

Ach, ich gebs auf. Glaub halt was du möchtest.

hmmm
2020-04-15, 10:51:32
Ja genau. Bei DLSS 1.0? (oder Beta? PreRelase?) wurde genau das selbe gelabert. Letztlich war es Schrott und wurde von einem clever platziertem Schärfe-Shader + GPU Scalling lächerlich gemacht.

Mr. Lolman
2020-04-15, 10:52:28
Hat man bei den ersten Grafikspielen gegenüber Textadventures auch gesagt :ulol:

Bin überrascht, wie Technik-feindlich viele hier eingestellt sind.

Nicht technikfeindlich, sondern verschwendungsfeindlich. Mir geht halt keiner dabei ab, wenn ich gefühlt rund 500€ meiner 800€-Karte in ein Feature investiere, was in Bewegung zT nicht mal sonderlich auffällt.

w0mbat
2020-04-15, 10:53:01
Rekonstruktion =/ Upscaling.

Ach, ich gebs auf. Glaub halt was du möchtest.
Genau, BurgerKing Burger ist nicht gleich McD Burger, großer Unterschied!

Und welche Spiele haben aktuell denn DLSS? Ich hätte gerne mal ne Liste.

Tarkin
2020-04-15, 10:56:34
Ist schon da. DLSS 2.0. RDNA 2 wird das auch nicht besser können.

MfG
Raff

WOW - toll. Und von wie vielen Games wirds unterstützt? Die kann man an einer Hand abzählen derzeit.

Und schon wieder ein Anti-AMD Unterton - du merkst das gar nicht, oder?

Woher nimmst du dieses "Wissen"?

Ich an deiner Stelle würde solche Aussagen VORHER mal hinterfragen.

hmmm
2020-04-15, 10:57:54
Und welche Spiele haben aktuell denn DLSS? Ich hätte gerne mal ne Liste.
DLSS 1.0(?) ist doch tot, DLSS 2.0 braucht eine neue Implementierung daher nützt eine Liste mit DLSS Spielen sowieso nichts.

Bucklew
2020-04-15, 11:04:10
Nicht technikfeindlich, sondern verschwendungsfeindlich.
Was hat realistische statt gefakte Beleuchtung mit Verschwendung zu tun?

Und schon wieder ein Anti-AMD Unterton - du merkst das gar nicht, oder?
Da ist kein Unterton, auch wenn ihr euch den einbildet :rolleyes:

Ich an deiner Stelle würde solche Aussagen VORHER mal hinterfragen.
Bei Polaris/Navi sollte die angebliche Langlebigkeit doch bitte in jedem Testbericht erwähnt werden. Aber wehe die NVIDIA Karten unterstützen heute Features, die wichtig sind und wichtiger werden und AMD nicht :ulol:

Dampf
2020-04-15, 11:04:26
WOW - toll. Und von wie vielen Games wirds unterstützt? Die kann man an einer Hand abzählen derzeit.

Und schon wieder ein Anti-AMD Unterton - du merkst das gar nicht, oder?

Woher nimmst du dieses "Wissen"?

Ich an deiner Stelle würde solche Aussagen VORHER mal hinterfragen.

Einfach mal logisch überlegen. Das hat nix mit Anti-AMD zu tun. Wir kennen RDNA2 bereits von der Xbox Series X.

Die Rekonstruktion AI braucht Compute-Leistung, die bei Nvidia eben durch die Tensor Kerne geliefert wird. RDNA2 hat diese nicht, daher müssen hier die Shader Cores aushelfen, die aber schon mit der Grafik des Spiels beauftragt sind. Folglich muss(!) die Komplexität des AI-Modells leiden, wenn man das selbe DLSS 2.0 bzw ein Äquivalentes Deep Learning Modell auf RDNA2 ausführen möchte OHNE dass die Performance komplett in den Keller geht.

Ist doch ganz einfach. RDNA2 wird trotzdem ne tolle Architektur, keine Frage, da sie über ein aktuelles Featureset verfügt (schon die halbe Miete)

w0mbat
2020-04-15, 11:06:53
"Die Rekonstruktion AI braucht Compute-Leistung"

Du weißt schon, dass das keine echte AI sondern Marketing ist? Und nochmal die Frage, welche Spiele haben denn funktionierendes DLSS?

hmmm
2020-04-15, 11:10:22
Eine 2060S schafft Control mit DLSS2.0 und allen RT-Effekten bei vernünftiger Qualität und knapp 60FPS:

Nein, ok man kann sich nun streiten was "knapp 60FPS" sein sollen. Aber bitte wer will das den so spielen? Was sagt momentan nividia selbst:"FRAMES WIN GAMES". Ist doch eigentlich ein Witz oder?

Aber eine RTX Karte ist definitiv schon raus bevor es los ging @RTX 2060 RIP und 2021 wenn drei weitere Spiele kommen soll es der 2060S besser ergehen? Im Leben nicht.

Dampf
2020-04-15, 11:10:51
"Die Rekonstruktion AI braucht Compute-Leistung"

Du weißt schon, dass das keine echte AI sondern Marketing ist? Und nochmal die Frage, welche Spiele haben denn funktionierendes DLSS?

Es wird ein Deep Learning AI Modell genutzt. Das ist kein Marketing sondern Fakt, Nvidia hat auf der GTC ausführlich erläutert, wie das funktioniert.

https://developer.nvidia.com/gtc/2020/video/s22698

Und ja, es gibt Stand jetzt kaum Titel. Dadurch aber dass nicht mehr game spezifisch trainiert werden muss, wird sich das allerdings ändern.

Bucklew
2020-04-15, 11:14:19
Was sagt momentan nividia selbst:"FRAMES WIN GAMES". Ist doch eigentlich ein Witz oder?
Nein, einfach nur zwei unterschiedliche Szenarien, in denen man unterschiedliche Dinge bevorzugt. Einmal Bildqualität, einmal Framerate.

Überfordert dich sowas schon?

w0mbat
2020-04-15, 11:18:08
Es wird ein Deep Learning AI Modell genutzt. Das ist kein Marketing sondern Fakt, Nvidia hat auf der GTC ausführlich erläutert, wie das funktioniert.

https://developer.nvidia.com/gtc/2020/video/s22698

Und ja, es gibt Stand jetzt kaum Titel. Dadurch aber dass nicht mehr game spezifisch trainiert werden muss, wird sich das allerdings ändern.
Klar ist das Marketing BS, das hat nichts mit unserer Vorstellung einer echten KI zu tun.Sei doch nicht so Naiv ;D


@Bucklew: Naja, 60FPS min sollte es für SP Spiele auch schon sein und mehr FPS schaden nie. Vor alle jetzt wo 144Hz+ Monitore immer weiter verbreitet sind.

dargo
2020-04-15, 11:18:19
DLSS 2.0 sollte dich aber interessieren. Irgendwann wirds dafür sowieso ne offene Alternative geben per DirectML.
Warum sollte mich das dann jetzt interessieren? Erst recht wenn ein Feature nur in einem Bruchteil der Games verfügbar ist? Und dann noch IHV-spezifisch dessen Hardware nicht mal in Konsolen verbaut ist? Kommt eine ähnliche Lösung über DirectML dann sehen wir weiter.

hmmm
2020-04-15, 11:21:41
Nein, einfach nur zwei unterschiedliche Szenarien, in denen man unterschiedliche Dinge bevorzugt. Einmal Bildqualität, einmal Framerate.

Überfordert dich sowas schon?
Eigentlich nicht, ich verstehe halt den Quark den nvidia da verzapft nicht so ganz. Zum einen sind es weniger die FPS die "win games" sondern vorranging ein geringer input lag. Zudem was wollen die mir damit und der gleichzeitig miesen RT Leistung (im bezug auf FPS) sagen? Vielleicht wenn du nicht "win games" willst sondern "lost game" machst du RT an also RT="RT lost game" quasi?

Dampf
2020-04-15, 11:22:09
Klar ist das Marketing BS, das hat nichts mit unserer Vorstellung einer echten KI zu tun.Sei doch nicht so Naiv ;D

Natürlich nicht. Da läuft kein HAL 9000 auf den Tensor Cores :freak:

Das sind einfach nur neuronale Netze, die anhand von trainierten Daten das Bild rekonstruieren, mehr nicht. Das hat nichts mit AGI oder sonst was zu tun.

gedi
2020-04-15, 11:26:43
Das ist aber die Art "cleverer Cheat", mit der man das Feature Realtime-Raytracing (die Betonung liegt auf dem "Realtime") nutzbar macht. Zusammen mit den vielen anderen, teilweise sehr interessanten Performance-Kniffen, welche u. a. im Kontext Minecraft RTX erläutert werden. Da wird so viel weggelassen, dass sich die Balken biegen, aber nur so wird die schöne neue Welt langsam, aber sicher betretbar. :)

MfG
Raff

Minecraft mit RT ohne X gibt es auf YT zu sehen auf Navi unbekannter Art. Da brauchts keinen Upscaler um das Spiel flüssig darzustellen :rolleyes:

Witzig wäre es wenn es auf einer XBone next gerendert worden wäre :freak:

Troyan
2020-04-15, 11:28:51
Nein, ok man kann sich nun streiten was "knapp 60FPS" sein sollen. Aber bitte wer will das den so spielen? Was sagt momentan nividia selbst:"FRAMES WIN GAMES". Ist doch eigentlich ein Witz oder?


Keine Ahnung, wer will mit Flimmergrafik von Screen-Space Effekten und minderwertiger Konsolengrafik spielen? :rolleyes:

Wer gegen Raytracing ist, müsste auch gegen native Auflösung sein.

Bucklew
2020-04-15, 11:29:46
@Bucklew: Naja, 60FPS min sollte es für SP Spiele auch schon sein und mehr FPS schaden nie. Vor alle jetzt wo 144Hz+ Monitore immer weiter verbreitet sind.
Kommt komplett auf das Spiel an.

Gerade wenn man VRR hat. Je nach Spiel sind >60fps auch komplett sinnlos und man die Leistung lieber in Qualität investieren.

Bin echt verwundert, wie man als AMD-Fan plötzlich zuviel Bildqualität verteufeln kann :ulol:

Eigentlich nicht
Offensichtlich nicht.

Tipp: Es gibt mehr als 1 PC-Spiel :ulol:

w0mbat
2020-04-15, 11:29:59
Natürlich nicht. Da läuft kein HAL 9000 auf den Tensor Cores :freak:
Ach, plötzlich siehst du's ein? Gerade noch war DLSS 100% KI :freak:


Kommt komplett auf das Spiel an.

Gerade wenn man VRR hat. Je nach Spiel sind >60fps auch komplett sinnlos und man die Leistung lieber in Qualität investieren.

Bin echt verwundert, wie man als AMD-Fan plötzlich zuviel Bildqualität verteufeln kann :ulol:
Also 60FPS hätte ich auch in em SP-Spiel sehr gerne als Minimum, man merkt einfach wenn es drunter rutscht. Und DLSS jetzt als "zuviel Bildquilität" zu bezeichnen finde ich etwas absurd. DLSS ist immer noch upscaling und damit genau das Gegenteil Und wenn man damit dann gerade mal 54FPS avg erreicht ist dass einfach nicht ausreichend. Dampf meinte ja man könnte noch andere Einstellungen runter setzten... also von wegen BQ.

Nochmal: DLSS und RT sind richtig cool und ich würde Control gerne mit ner 2080Ti zocken. Aber vor allem die 2060S ist eben keine RT-Karte, da sie den ganzen Kram nicht ausreichend flüssig darstellen kann, sogar mit upscaling.

Wenn Nvidia mit Ampere einen neuen Pascal raushaut hol ich mir sehr gerne ne RTX 3080. Aber bis dahin ziehe ich eine 5700 (XT) einer 2060S immer vor. Vor allem wenn man sich anschaut wie viel schneller Navi in den Spielen ist, die ich aktuell viel spiele: CoD: MW und BL3.

gedi
2020-04-15, 11:30:04
Ich bin für RT, allerdings ohne Upscaling

hmmm
2020-04-15, 11:31:51
Einfach mal logisch überlegen.
...
Die Rekonstruktion AI braucht Compute-Leistung, die bei Nvidia eben durch die Tensor Kerne geliefert wird. RDNA2 hat diese nicht, daher müssen hier die Shader Cores aushelfen, die aber schon mit der Grafik des Spiels beauftragt sind. ...
Naja man kann davon ausgehen die Shader werden bei RDNA2 schlicht etwas "anders" sein als bei RDNA. Zudem hat man ohne dezidierte Kerne mehr platz für Shader, die dann eben auch bei den andern ~95%(?) der Rednerzeit helfen können.
Letztlich ist nun ob das eine oder das andere schneller ist einfach nur eine Wette.

hmmm
2020-04-15, 11:35:43
Tipp: Es gibt mehr als 1 PC-Spiel :ulol:
DLSS 2.0? Glaube momentan sind es 2 bzw 1,5 oder?

Bucklew
2020-04-15, 11:36:55
DLSS 2.0? Glaube momentan sind es 2 bzw 1,5 oder?
Geht um High Quality vs. High Framerate.

gedi
2020-04-15, 11:43:12
Ist zwar OT, aber RDNA2 wird sich deutlich von RDNA1 unterscheiden, da keine GCN-Gene mehr implementiert sind. Ich gehe von einer deutlichen Leistungsseigerung pro Takt und Shadern aus. Daher wird wahrscheinlich auch die PS5 deutlich schneller sein, als meine Navi @2.2G.

Troyan
2020-04-15, 11:47:41
Ich bin für RT, allerdings ohne Upscaling

Sollte nicht die Grafik entscheidend sein?
Manchmal ist es besser loszulassen. Hier ein Beispiel aus Control:
https://s1.imagebanana.com/file/200415/thb/hlwxJom8.png (https://www.imagebanana.com/s/1727/hlwxJom8.html)
https://s2.imagebanana.com/file/200415/thb/ztN7Ckqv.png (https://www.imagebanana.com/s/1727/ztN7Ckqv.html)

Spiele-Grafik ist immer kompromissbehaftet.

w0mbat
2020-04-15, 11:54:21
Was soll dieses Bsp. zeigen?

Bucklew
2020-04-15, 12:03:53
Was soll dieses Bsp. zeigen?
Bist du Blind? :eek:

Dampf
2020-04-15, 12:04:37
Da viele immer noch nicht den Unterschied zwischen Rekonstruktion und Upscaling verstehen, hier ein Praxisbeispiel.

Control 960x540p hochskaliert auf 2560x1440

https://abload.de/img/controlscreenshot20203ejvr.png

Das ist Upscaling, ok?

Hier kommt AI Rekonstruktion mit DLSS 2.0, 960x540 auf 2560x1440. Das ist quasi DLSS Ultra-Performance, eigentlich geht es bei WQHD erst ab 1280x720 (DLSS Performance) los. Ein kleiner Griff in die render.ini und man kann selbst die DLSS Auflösung festlegen. Hier rendert das Spiel also nur ein Bruchteil der Pixel, den Rest konstruiert DLSS. Wie gut dann das reguläre DLSS 2.0 ab Performance aussieht, muss ich dann wohl nicht erläutern.

https://abload.de/img/controlscreenshot2020slk3n.png

Und da ichs schon kommen seh, hier upscaling 960x540 zu 2560x1440 mit sharpening.

https://abload.de/img/controlscreenshot2020xhjas.png

Wer jetzt noch behaupten will, dass Upscaling und Rekonstruktion das selbe sind, kann das gerne tun. Aber glaubwürdig macht ihr euch dann nicht damit ;D

Für einen guten Vergleich bitte rechtsklick -> Bild in neuem Tab öffnen, dann könnt ihr in voller Auflösung zwischen den Bildern hin und her wechseln.

Raff
2020-04-15, 12:08:40
Ich sehe da keinen Unterschied. :biggrin:

Auch bei Troyans Bildern sieht man gar nicht, dass das eine UHD ohne RTX ist und das andere RTX On mit DLSS. Oh, wait ...

MfG
Raff

hmmm
2020-04-15, 12:15:54
DLSS 2.0, DLSS (1.0?) ist tot.

Bucklew
2020-04-15, 12:17:51
Ich sehe da keinen Unterschied. :biggrin:

Auch bei Troyans Bildern sieht man gar nicht, dass das eine UHD ohne RTX ist und das andere RTX On mit DLSS. Oh, wait ...
Ne gar nicht, reine Verschwendung von Rechenleistung dieses RT :ulol:

Aber ich kann verstehen, dass die AMD-Fans und Navi-Käufer das verzweifelt kaputt reden müssen. Bleibt ja eigentlich nix Anderes übrig.

w0mbat
2020-04-15, 12:22:45
Bist du Blind? :eek:
In dem einem Bild kann man durch die Scheibe sehen (oder soll das eine Reflektion sein?) in dem anderen nicht. Was das jetzt mit DLSS oder RT zu tun hat musst du mir aber erklären.


Da viele immer noch nicht den Unterschied zwischen Rekonstruktion und Upscaling verstehen, hier ein Praxisbeispiel.
Ich glaube du verstehst den Punkt nicht. Ich bitte um Screenshots für alle aktuellen Spiele mit DLSS 2.0, also zB BL3 wo die 2060S ziemlich schwächelt.

Dass es Nvidia nach Monaten schafft in einem Spiel bessere Schäfe als einfaches upscaling zu liefern ist toll, aber irrelevant. Liefer mir das in allen aktuellen Spielen und wir reden weiter.
Da ist mir ein spielbares BL3 wichtiger. Aber nunja, jeder hat seinen Fetisch. Du zockst halt nur noch Control mit upscaling :D

Dazu eben noch die Frage: wieso nicht gleich nativ? Also die beste Qualität? Wieso verschwende ich Teile der GPU um in die Nähe von Nativ zu kommen, wenn ich die GPU auch einfach hätte fetter machen können und dann bräuchte man kein DLSS. Und dann ist die Frage noch: wieso? Wie viel Leistung gewinne ich dadurch und ist es mir Wert diese durch eine verminderte Qualität zu erreichen? Weil settings runter setzen konnte man schon immer. Ich kann mir gut vorstellen dass das gleiche Spiel mit medium settings aber nativer Auflösung noch besser aussieht und besser läuft.

dargo
2020-04-15, 12:23:05
Da viele immer noch nicht den Unterschied zwischen Rekonstruktion und Upscaling verstehen, hier ein Praxisbeispiel.

Control 960x540p hochskaliert auf 2560x1440

https://abload.de/img/controlscreenshot20203ejvr.png

Das ist Upscaling, ok?

Hier kommt AI Rekonstruktion mit DLSS 2.0, 960x540 auf 2560x1440. Das ist quasi DLSS Ultra-Performance, eigentlich geht es bei WQHD erst ab 1280x720 (DLSS Performance) los. Ein kleiner Griff in die render.ini und man kann selbst die DLSS Auflösung festlegen. Hier rendert das Spiel also nur ein Bruchteil der Pixel, den Rest konstruiert DLSS. Wie gut dann das reguläre DLSS 2.0 ab Performance aussieht, muss ich dann wohl nicht erläutern.

https://abload.de/img/controlscreenshot2020slk3n.png

Und da ichs schon kommen seh, hier upscaling 960x540 zu 2560x1440 mit sharpening.

https://abload.de/img/controlscreenshot2020xhjas.png

Wer jetzt noch behaupten will, dass Upscaling und Rekonstruktion das selbe sind, kann das gerne tun. Aber glaubwürdig macht ihr euch dann nicht damit ;D

Für einen guten Vergleich bitte rechtsklick -> Bild in neuem Tab öffnen, dann könnt ihr in voller Auflösung zwischen den Bildern hin und her wechseln.
Also ich sehe dort Pest und Cholera. :tongue: Entweder Schmierseife zum Abwürgen oder Pixelbrei mit Artefakten.

Sollte nicht die Grafik entscheidend sein?
Manchmal ist es besser loszulassen. Hier ein Beispiel aus Control:
https://s1.imagebanana.com/file/200415/thb/hlwxJom8.png (https://www.imagebanana.com/s/1727/hlwxJom8.html)
https://s2.imagebanana.com/file/200415/thb/ztN7Ckqv.png (https://www.imagebanana.com/s/1727/ztN7Ckqv.html)

Spiele-Grafik ist immer kompromissbehaftet.
Auch hier sieht man die Artefakte im Bild sofort mit DLSS. Ich gehe jetzt mal davon aus die 59fps sind mit DLSS?

aufkrawall
2020-04-15, 12:26:12
Aber ich kann verstehen, dass die AMD-Fans und Navi-Käufer das verzweifelt kaputt reden müssen. Bleibt ja eigentlich nix Anderes übrig.
Na ja, die Navis sind schon gute Bang/Buck-Karten bei gescheiter Effizienz. Eine handgetunte 5700 non-XT operiert in ihrem Preisbereich ziemlich unangekratzt.
(Wär der Display-Ansteuerungs-Part des Treibers nicht so ein elendiger Müll + andere "Seltsamkeiten"...)

Bucklew
2020-04-15, 12:29:09
In dem einem Bild kann man durch die Scheibe sehen (oder soll das eine Reflektion sein?) in dem anderen nicht. Was das jetzt mit DLSS oder RT zu tun hat musst du mir aber erklären.
Ist mir RT/DLSS eben performance-mäßig möglich.

Also ich sehe dort Pest und Cholera. Entweder Schmierseife zum Abwürgen oder Pixelbrei mit Artefakten.
Ist auch nur ein akademisches Beispiel, wie DLSS es gegenüber Sharpening schafft nachträglich Details zu erzeugen. Aber war klar, dass das die üblichen Verdächtigen wieder versuchen das schlecht zu reden.

Na ja, die Navis sind schon gute Bang/Buck-Karten bei gescheiter Effizienz. Eine handgetunte 5700 non-XT operiert in ihrem Preisbereich ziemlich unangekratzt.
Auch handgetunt gibt es keine DX12U oder DXR Kompatibilität. Im Jahre 2020? Nein Danke. Nichts weiter sagt Raff ja auch nur.

Dampf
2020-04-15, 12:29:44
Also ich sehe dort Pest und Cholera. :tongue: Entweder Schmierseife zum Abwürgen oder Pixelbrei mit Artefakten.

Sicher wenn man das Bild DLSS genau betrachtet, sieht man Artefakte. Wenn man spielt fällt einem das aber nicht auf und man hat trotzdem sehr gute Bildqualität. Und das mit einer Framerate die fast Äquivalent (7-10% Abweichung) zu dem ist, was man bekommen würde, wenn man das Game auf 540p rendert. Eine 2060 Super würde hier jenseits der 120 FPS knacken, mit Raytracing wohlgemerkt. Und natürlich sind diese Artefakte weit weniger deutlich wenn man mit den offiziellen DLSS Auflösungen spielt (also ab 720p in WQHD)

Aber man kann sich auch alles schlecht reden :P

@Wombat Die Tensor Kerne brauchen nicht viel die space und sind wesentlich effizienter in KI-Aufgaben als die Shader Cores. Wenn jetzt die Tensor Kerne 7% die Space verbrauchen, du sie entfernst und 7% mehr CUs einbaust, hast du eventuell 7% mehr Performance im Spiel. DLSS bringt aber bis zu 100% mehr Performance, da die Shader Cores enorm entlastet werden durch die geringere Renderauflösung. Gleichzeitig bleibt die Bildqualität aber erhalten, da die Tensor Kerne die fehlenden Details ja wieder hinzufügen.

w0mbat
2020-04-15, 12:33:20
Nochmal: diese Experimente sind wirklich cool und man muss mal anfangen damit am Ende was geiles raus kommt. DLSS könnte in Zukunft wirklich richtig toll werden wenn es noch besser optimiert wird und mit vielen Titeln läuft. Dann macht man zB 4K DLSS und es ist sogar spielbar wenn man keine Ti hat.

Auch RT finde ich klasse, für mich klar die Zukunft.

Aber daraus JETZT eine Kauftempfehlung abzuleiten, besondern im Bezug auf die relativ schwache 2060S, halte ich für absoluten Blödsinn.


Ist mir RT/DLSS eben performance-mäßig möglich.
Was ist damit möglich? Ich verstehe noch immer nicht was ich auf dem ss sehen soll das bisher nicht möglich war. Ganz im Ernst, kein getrolle von mir :(

aufkrawall
2020-04-15, 12:34:01
Auch handgetunt gibt es keine DX12U oder DXR Kompatibilität. Im Jahre 2020? Nein Danke. Nichts weiter sagt Raff ja auch nur.
Das kostet halt deutlich mehr als eine 5700 oder man hat nur die krüppelige 2060.

Dampf
2020-04-15, 12:37:37
Nochmal: diese Experimente sind wirklich cool und man muss mal anfangen damit am Ende was geiles raus kommt. DLSS könnte in Zukunft wirklich richtig toll werden wenn es noch besser optimiert wird und mit vielen Titeln läuft. Dann macht man zB 4K DLSS und es ist sogar spielbar wenn man keine Ti hat.

Auch RT finde ich klasse, für mich klar die Zukunft.

Aber daraus JETZT eine Kauftempfehlung abzuleiten, besondern im Bezug auf die relativ schwache 2060S, halte ich für absoluten Blödsinn.



Was ist damit möglich? Ich verstehe noch immer nicht was ich auf dem ss sehen soll das bisher nicht möglich war. Ganz im Ernst, kein getrolle von mir :(

Aber DLSS ist doch genau ideal für schwache Grafikkarten. Damit kannst du halt mit einer 2060 in Mechwarriors die effektive Performance einer 2080Ti erreichen, ohne dass die Bildqualität spürbar darunter leidet. Somit ist 4K Gaming sogar mit einer 2060 drin, da halt nur 1080p berechnet werden muss. Hier ein Test dazu: https://www.overclock3d.net/reviews/software/did_nvidia_fix_dlss_dlss_2_0_analysis_with_mechwarrior_5_mercenaries/3

Und Raytracing kann man mit DLSS 2.0 sogar in WQHD und 60 FPS auf einer 2060 genießen, in einem Titel, Control, der auch ohne Raytracing richtig Performance schlingt. Ob das WQHD jetzt gefaked ist oder nicht, spielt doch keine Rolle wenn das Endergebnis so gut aussieht.

Steffko
2020-04-15, 12:37:43
Bezüglich DLSS 2.0 verstehe ich das richtig, dass jedes einzelne Spiel dafür angepasst werden muss? Wer macht das, Nvidia selbst oder der Hersteller des Spiels? Gibt es schon Ankündigungen, aus denen ablesen kann, ob DLSS 2.0 in Zukunft häufig genutzt werden wird?

Und hat AMD ein grobes Pendant dazu? Falls ja, wie sieht es dort mit der Unterstützung aus?

Bucklew
2020-04-15, 12:40:20
Aber daraus JETZT eine Kauftempfehlung abzuleiten, besondern im Bezug auf die relativ schwache 2060S, halte ich für absoluten Blödsinn.
Niemand gibt eine Kaufempfehlung ab. Die Aussage war nur: Ab 2021 wird man sich wahrscheinlich ärgern heute eine Grafikkarte ohne DX12U/DXR-Support gekauft zu haben.

Was ist damit möglich? Ich verstehe noch immer nicht was ich auf dem ss sehen soll das bisher nicht möglich war. Ganz im Ernst, kein getrolle von mir
Tja, dein Pech, wenn du blind bist. Aber kannst ja gern mal ein vergleichbares Bild ohne RT zeigen.

Das kostet halt deutlich mehr als eine 5700 oder man hat nur die krüppelige 2060.
Gegen die 2060SUPER hat die 5700 nur schlicht gar keine Chance. Da sind die 90€ Aufpreis ziemlich gut investiert, DX12U gibt es quasi gratis oben drauf.

Und komm jetzt bitte nicht mit peinlichen "Referenz vs. Hand-OC" Vergleichen um die Ecke, das ist lächerlich :tongue:

Dampf
2020-04-15, 12:42:41
In Wombat's defense: was er wohl meint ist, dass man in Spielen seine eigene Reflektionen angucken kann, das ist jetzt im Prinzip wirklich nichts Neues. Das musste aber vorher mit erheblichen Entwickleraufwand und vielen Tricks realisiert werden und war nur in speziellen Szenen möglich. Mit Raytracing passiert das aber quasi automatisch und absolut jede transparente Oberfläche kriegt nun die Reflektion, die sie braucht.

w0mbat
2020-04-15, 12:43:03
Aber DLSS ist doch genau ideal für schwache Grafikkarten. Damit kannst du halt mit einer 2060 in Mechwarriors die effektive Performance einer 2080Ti erreichen, ohne dass die Bildqualität spürbar darunter leidet. Somit ist 4K Gaming sogar mit einer 2060 drin, da halt nur 1080p berechnet werden muss. Hier ein Test dazu: https://www.overclock3d.net/reviews/software/did_nvidia_fix_dlss_dlss_2_0_analysis_with_mechwarrior_5_mercenaries/3

Und Raytracing kann man mit DLSS 2.0 sogar in WQHD und 60 FPS auf einer 2060 genießen. Ob das WQHD jetzt gefaked ist oder nicht, spielt doch keine Rolle wenn das Endergebnis so gut aussieht.
Ich spiele aktuell viel CoD MW, BL3, Hunt, R6 und hab zuletzt Doom Eternal und Jedi Fallen Order gezockt. Welches dieser Spiele hat aktuell oder in Zukunft DLSS? Wird es in allen aktuellen Titeln verfügbar sein bevor ich mir ne neue GPU kaufe? Coole Sache, keine Frage. Aber halt aktuell nocht nicht wirklich nutzbar.

@Bucklew: Spiel mal Iron Fury, da sieht man sich auch im Spiegel :ugly:

Screemer
2020-04-15, 12:47:00
Niemand gibt eine Kaufempfehlung ab. Die Aussage war nur: Ab 2021 wird man sich wahrscheinlich ärgern heute eine Grafikkarte ohne DX12U/DXR-Support gekauft zu haben.

Dann ließ z.b. raffs Posts noch einmal. Da geht es nicht um stand jetzt, sondern da wird davor gewarnt was die Zukunft bringt. Gewarnt wird explizit davor gebrauchte Pascal und rdna 1 gpus zu kaufen. Stand jetzt ist es performancetechnisch aber dumm ein preislichen Nvidia-Äquivalent beim Preis der 5er-karten zu kaufen. Wie das in 2 Jahren aussieht steht auf nem völlig anderen Blatt.

Btw. sag ich in nem ändern Threads, dass Techniken wie dlss 2 z.b. für vr massive Vorteile bringen werden. Man kann die Auflösung und die refreshrate der Displays steigern ohne massiv in Hardware investieren zu müssen. Ist aber eben alles Zukunftsmusik und kein wir haben es jetzt.

Evtl. sollte man die ganze Diskussion an entsprechender Stelle fortsetzen.

Dampf
2020-04-15, 12:47:29
Ich spiele aktuell viel CoD MW, BL3, Hunt, R6 und hab zuletzt Doom Eternal und Jedi Fallen Order gezockt. Welches dieser Spiele hat aktuell oder in Zukunft DLSS? Wird es in allen aktuellen Titeln verfügbar sein bevor ich mir ne neue GPU kaufe?

Keine Ahnung wie Wahrscheinlich es ist, dass diese noch DLSS bekommen. Zumindest von Doom würde ich aber ausgehen, da die Entwickler ja schon Raytracing Support in Aussicht gestellt haben. Darauf warten würde ich jetzt aber nicht. Da du zur Zeit diese Spiele spielst, würdest du nicht von DLSS profitieren.

Aber du kannst davon ausgehen, dass die kommenden großen PC Titel, besonders die von Nvidia gesponserten, DLSS haben werden. Der nächste große Titel ist Watch Dogs Legion, das schon RTX und damit auch DLSS confirmed hat, danach Cyberpunk 2077 was auch RTX und DLSS supporten wird.

Bucklew
2020-04-15, 12:48:51
@Bucklew: Spiel mal Iron Fury, da sieht man sich auch im Spiegel
Irrelevant. Spannend ist nicht die Spielfigur, sondern des hinter/neben der Spielfigur befindlichen Raumes, der sich ebenfalls in der Scheibe spiegelt . Zeig mir das mal kurz in nem non-RT game.

Aber klar, dass das die ganzen RT-Profis wieder nicht sehen, aber meinen sie könnten ne Aussage über die Qualität liefern :ulol:

Da geht es nicht um stand jetzt, sondern da wird davor gewarnt was die Zukunft bringt. Gewarnt wird explizit davor gebrauchte Pascal und rdna 1 gpus zu kaufen. Stand jetzt ist es performancetechnisch aber dumm ein preislichen Nvidia-Äquivalent beim Preis der 5er-karten zu kaufen. Wie das in 2 Jahren aussieht steht auf nem völlig anderen Blatt.
Warum ist es dumm ein preisliches NVIDIA-Äquivalent mit RT zu kaufen, wenn es das quasi gratis oben drauf gibt?

Er sagt ja nicht, dass man es nicht tun sollte. Man sollte es aber im Hinterkopf haben und das relativiert den Preis dann eben schon ziemlich. Wie ja der große FineWine-Spezi dargo dann plötzlich meinte: Kauf ich halt ne neue Karte :ulol:

hmmm
2020-04-15, 12:52:35
https://www.pcgameshardware.de/MechWarrior-5-Spiel-14393/Specials/Raytracing-Nvidia-RTX-Benchmark-Test-1347831/

Dolles RT/DLSS2.0! Spiel, imho 80% des spiels geht kein RT. Unglaublich.
Sorry, aber das Spiel können wir NICHT als RT/DLSS2.0 Spiel zählen, es bleibt bei 1,5!

Troyan
2020-04-15, 12:54:15
Was ist damit möglich? Ich verstehe noch immer nicht was ich auf dem ss sehen soll das bisher nicht möglich war. Ganz im Ernst, kein getrolle von mir :(

Stabile, nicht auseinanderbrechende Reflektionen, Spiegelungen auf jeder Art von Oberfläche, (halb-)transparente Spiegelungen in großflächigen Scheiben sowie Reflektionen über den "Screen Space" hinaus. Ist ohne RT nicht möglich. Das geht einfach nicht.

Dazu eben Licht und Schattenberechnungen von mehreren Lichtquellen.

In Control ist fast alles zerstörbar und bewegbar. Du kannst Schatten also nicht in die Texturen backen.

Beispiel für Schatten aus Control, wieder 4K ohne RT und nativ 1080p mit DLSS und RT:
https://s1.imagebanana.com/file/200415/thb/HukgYuLv.png (https://www.imagebanana.com/s/1727/HukgYuLv.html)
https://s1.imagebanana.com/file/200415/thb/mceQQECK.png (https://www.imagebanana.com/s/1727/mceQQECK.html)

Screemer
2020-04-15, 12:55:58
I

Warum ist es dumm ein preisliches NVIDIA-Äquivalent mit RT zu kaufen, wenn es das quasi gratis oben drauf gibt?

Er sagt ja nicht, dass man es nicht tun sollte. Man sollte es aber im Hinterkopf haben und das relativiert den Preis dann eben schon ziemlich. Wie ja der große FineWine-Spezi dargo dann plötzlich meinte: Kauf ich halt ne neue Karte :ulol:
Weil das preisliche Äquivalent nicht das Performance Äquivalent ist evtl.? Das ist übrigens auch die einzige Diskussion die der topic hergibt, denn rt ist hier ot und dlss noch viel mehr.

hmmm
2020-04-15, 12:58:45
Ich verstehe nicht was an diesen Schatten schön bzw realistisch sein soll.
Echt nicht, ich verstehe es nicht.

Bucklew
2020-04-15, 13:03:35
Weil das preisliche Äquivalent nicht das Performance Äquivalent ist evtl.? Das ist übrigens auch die einzige Diskussion die der topic hergibt, denn rt ist hier ot und dlss noch viel mehr.
Wo soll das der Fall sein? Eine 2060SUPER wischt mit ner 5700 non-XT ziemlich den Boden auf. Klar muss die günstiger sein. Wenn ich die Stufe größer ne 5700XT mit ner 2070 vergleiche, dann ist der Preisunterschied nur noch marginal (~20€).

Da sollte man schon überlegen, ob einem ein Feature wie RT nicht die 20€ wert sein sollten.

Das war die ganze Aussage von Raff.

Für manche natürlich direkt wieder nur böse Anti-AMD-Propaganda :rolleyes:

hmmm
2020-04-15, 13:08:48
Wo soll das der Fall sein? Eine 2060SUPER wischt mit ner 5700 non-XT ziemlich den Boden auf. Klar muss die günstiger sein. Wenn ich die Stufe größer ne 5700XT mit ner 2070 vergleiche, dann ist der Preisunterschied nur noch marginal (~20€).

Eine RTX 2060 Super, kostet super genau so viel wie eine RX5700XT.
Eine 2060 Super ist jetzt schon zu langsam für RT und wird zukünftig eher noch langsamer sein, da hilft offensicht auch kein DLSS 2.0 siehe PCGH Mechwarrior 5 ;)

HOT
2020-04-15, 13:09:27
Wo soll das der Fall sein? Eine 2060SUPER wischt mit ner 5700 non-XT ziemlich den Boden auf. Klar muss die günstiger sein. Wenn ich die Stufe größer ne 5700XT mit ner 2070 vergleiche, dann ist der Preisunterschied nur noch marginal (~20€).

Da sollte man schon überlegen, ob einem ein Feature wie RT nicht die 20€ wert sein sollten.

Das war die ganze Aussage von Raff.

Für manche natürlich direkt wieder nur böse Anti-AMD-Propaganda :rolleyes:
Purer BS. Bis auf RT gibts da gar keinen Vorteil und RT ist scheisse Lahm auf der 2060. Ne 5700XT bekommt man schon für 360€ zudem (TUF rev.2), das wird nix bei der 2060 S. Aber man kennt ja sowas von dir.

Wir werden übrigens sehen, wie "toll" sich Turing-RT in der nächsten Generation schlägt, ich sehe das Gejammer schon vor mir... zuwenig Speicher zuwenig Bandbreite, das wird sicher lustig. Was soll das dämliche OT-Gehype eigentlich im 5700 Reviewthread? Das ist lächerlich.

hmmm
2020-04-15, 13:24:05
Ich würde die pro RT/DLSS2.0 "Kämpfer" bitten sich NOCHEINMAL die Qualität ganz in ruhe anzusehen. Und wenn ihr diese dann immer noch für so "überragend" haltet, dann muss ich euch sagen: "Ihr habt doch einen KNALL!"
Habe Control nur auf einer PS4 angespielt, hat mich nicht wirklich angesprochen. Aber seht ihr die sch... Qualität mit DLSS2.0 (1,5?) nicht? Bei aller vorfreude auf RT aber das was jetzt gezeigt wird ist doch einfach nur schlimm.

Raff
2020-04-15, 13:27:37
Brrr. Ganz ehrlich, einen geilen Showcase wie Control auf einer alten Konsole zu spielen ist ... ja, wie eigentlich ... so, als würde ein stark kurzsichtiger Mensch freiwillig auf seine Brille verzichten.

MfG
Raff

hmmm
2020-04-15, 13:32:18
Brrr. Ganz ehrlich, einen geilen Showcase wie Control auf einer alten Konsole zu spielen ist ... ja, wie eigentlich ... so, als würde ein stark kurzsichtiger Mensch freiwillig auf seine Brille verzichten.

MfG
Raff
Ja, da hast du sicher recht. Hat mich aber schon spielerich nicht wirklich mitgenommen da hat sich das mit dem PC schon erübrigt.

Aber was man jetzt an RT/DLSS2.0 bildchen zu sehen bekommt ist auch wirklich schlimm, ich finde es unfassbar. Hoffe sie bekommen das mit den Schatten noch hin, da bekommt man ja kopfweh von.

EDIT:
Meine Freundin fragte mich gerade warum sie das DLSS zeug nicht nach dem Antialiasing machen. ;)

robbitop
2020-04-15, 13:36:35
Ist zwar OT, aber RDNA2 wird sich deutlich von RDNA1 unterscheiden, da keine GCN-Gene mehr implementiert sind. Ich gehe von einer deutlichen Leistungsseigerung pro Takt und Shadern aus. Daher wird wahrscheinlich auch die PS5 deutlich schneller sein, als meine Navi @2.2G.
Das sind eigentlich Weiterentwicklungen, die aufeinander aufbauen. Sicherlich gibt es auch immer mal größere Änderungen, aber dass etwas gar nicht mehr mit dem Vorgänger verwandt ist, gibt es bei GPUs nicht.
Ich würde auch eher tippen, dass RNDA2 deutlich näher an RDNA1 liegt als RDNA1 an z.B. Vega.

Troyan
2020-04-15, 14:08:16
Ich würde die pro RT/DLSS2.0 "Kämpfer" bitten sich NOCHEINMAL die Qualität ganz in ruhe anzusehen. Und wenn ihr diese dann immer noch für so "überragend" haltet, dann muss ich euch sagen: "Ihr habt doch einen KNALL!"

Nun, da ich hier Control und andere Spiele mit DLSS2.0 zocken kann, kann ich sagen: Ja, sieht toll aus.

Sieht besser aus als die selbe native Auflösung mit Nachschärfen (siehe MW 5) und sieht 100% besser aus als 4K ohne RT in Control, Wolfenstein oder Deliver us the Moon.

Ob man trotzdem GPUs kaufen will, deren Featureset weitaus geringer ist, muss dann jeder mit sich selbst ausmachen.

w0mbat
2020-04-15, 14:27:47
Stabile, nicht auseinanderbrechende Reflektionen, Spiegelungen auf jeder Art von Oberfläche, (halb-)transparente Spiegelungen in großflächigen Scheiben sowie Reflektionen über den "Screen Space" hinaus. Ist ohne RT nicht möglich. Das geht einfach nicht.
Die Frage war nicht was RT kann, sondern was ich in dem ss sehe dass es so noch nicht gab. Klar ist es nett wenn es nicht mehr "gefaked" ist, aber was ich hier sehe ist nichts besonderes. Vielleicht sieht es in Bewegung anders aus.

Bucklew
2020-04-15, 14:32:37
Purer BS. Bis auf RT gibts da gar keinen Vorteil und RT ist scheisse Lahm auf der 2060. Ne 5700XT bekommt man schon für 360€ zudem (TUF rev.2), das wird nix bei der 2060 S. Aber man kennt ja sowas von dir.
360€ und die 2060SUPER gibts für UNBEZAHLBARE!!1111elf 390€ :ulol:

Von nichts weiter sprach Raff. Die 30€ sollte man sich eben gut überlegen.

Wir werden übrigens sehen, wie "toll" sich Turing-RT in der nächsten Generation schlägt, ich sehe das Gejammer schon vor mir...
Kann ich dir sagen: Ungefähr unendlich mal besser, als jede 5700er Karte, die das Feature gar nicht erst unterstützt :freak:

Ich würde die pro RT/DLSS2.0 "Kämpfer" bitten sich NOCHEINMAL die Qualität ganz in ruhe anzusehen. Und wenn ihr diese dann immer noch für so "überragend" haltet, dann muss ich euch sagen: "Ihr habt doch einen KNALL!"
Niemand spricht von überragend, vielleicht solltest du lieber mal lesen was andere Leute schreiben, als sie zu beleidigen.

Fakt ist, dass die Qualitätssteigerung von DLSS2.0 deutlich besser ist, als was Sharpening zeigt. Dabei wurde hier gern das Gegenteil behauptet.

Die Frage war nicht was RT kann, sondern was ich in dem ss sehe dass es so noch nicht gab.
Wurde dir schon 5x erklärt. Ein vergleichbares Spiel mit ähnlichen Effekten ohne RT hast du bisher auch noch nicht liefern können.

Wer die Fakten ignorieren will wie du, der ignorierst sie eben. Mir egal :tongue:

DrFreaK666
2020-04-15, 14:38:36
...
Aber du kannst davon ausgehen, dass die kommenden großen PC Titel, besonders die von Nvidia gesponserten, DLSS haben werden. Der nächste große Titel ist Watch Dogs Legion, das schon RTX und damit auch DLSS confirmed hat, danach Cyberpunk 2077 was auch RTX und DLSS supporten wird.

Es gibt auch Menschen, denen AAA-Spiele egal sind (mir Z.B. (das letzte war The Division 1 (ganze 2,5h gespielt))). Wieso sollten Spieler wie ich jetzt eine RTX2060 kaufen, wenn mir eine RX5700 mehr bringt. Ob kleinere Entwickler auf RT frühzeitig setzen ist äußerst fragwürdig, auch sind diese Entwickler NV relativ unwichtig
Bei 300€ Budget empfehle ich eher eine RX 5700

w0mbat
2020-04-15, 14:45:06
Wurde dir schon 5x erklärt. Ein vergleichbares Spiel mit ähnlichen Effekten ohne RT hast du bisher auch noch nicht liefern können.

Wer die Fakten ignorieren will wie du, der ignorierst sie eben. Mir egal :tongue:
Ich werf jetzt einfach mal Doom 3 in den Raum. Tolle Beleuchtung und man kann sich selbst im Spiegel sehen. Hatte das schon RT? DLSS ganz sicher, weil so scharf sind die Texturen doch nicht ;D

dargo
2020-04-15, 14:45:13
Sicher wenn man das Bild DLSS genau betrachtet, sieht man Artefakte. Wenn man spielt fällt einem das aber nicht auf und man hat trotzdem sehr gute Bildqualität. Und das mit einer Framerate die fast Äquivalent (7-10% Abweichung) zu dem ist, was man bekommen würde, wenn man das Game auf 540p rendert. Eine 2060 Super würde hier jenseits der 120 FPS knacken, mit Raytracing wohlgemerkt. Und natürlich sind diese Artefakte weit weniger deutlich wenn man mit den offiziellen DLSS Auflösungen spielt (also ab 720p in WQHD)

Aber man kann sich auch alles schlecht reden :P

Naja... wenn man einerseits mit bildverbessernden Features @RT kommt und auf der anderen Seite die Bildqualität wieder durch artefakthaltiges DLSS zerstört dann hat das schon was von Comedy. Control ist übrigens auch ziemlich schlechtes Beispiel imho. Selbst die SSR sind schon @max. extrem teuer und sehen dabei scheiße aus.


Beispiel für Schatten aus Control, wieder 4K ohne RT und nativ 1080p mit DLSS und RT:
https://s1.imagebanana.com/file/200415/thb/HukgYuLv.png (https://www.imagebanana.com/s/1727/HukgYuLv.html)
https://s1.imagebanana.com/file/200415/thb/mceQQECK.png (https://www.imagebanana.com/s/1727/mceQQECK.html)
Wieder Artefakte im Bild mit DLSS. Weiße Punkte an Objektkanten, zusätzliches Aliasing und grieselnde Schatten.

Dampf
2020-04-15, 14:45:52
Es gibt auch Menschen, denen AAA-Spiele egal sind (mir Z.B. (das letzte war The Division 1 (ganze 2,5h gespielt))). Wieso sollten Spieler wie ich jetzt eine RTX2060 kaufen, wenn mir eine RX5700 mehr bringt. Ob kleinere Entwickler auf RT frühzeitig setzen ist äußerst fragwürdig, auch sind diese Entwickler NV relativ unwichtig
Bei 300€ Budget empfehle ich eher eine RX 5700
Ironischerweise sind bei den DLSS 2.0 und RTX Titeln auch einige Indies dabei, wie Bright Memory, Deliver us To the Moon und AMID Evil.

RTX ist gerade für Indies interessant, da die Beleuchtung wesentlich einfacher und kostengünstiger zu implementieren ist als Raster-Methoden.

@Dargo die Artefakte stören aber nicht so sehr wenn man es spielt und das Bild ist immer noch detailiert und klar. Aber wie gesagt, das was ich da gezeigt hab mit 540p ist ein Extrem-Szenario, normalerweise wird bei WQHD erst ab 720p mit DLSS gerendert, was deutlich freier von Artefakten ist und immer noch sehr viel Performance gibt.

Übrigens wäre ich vorsichtig alle Artefakte auf DLSS zu schieben, Control ist auch ohne DLSS und Raytracing voll davon. Die Render-Engine ist in der Hinsicht etwas speziell.

aufkrawall
2020-04-15, 14:46:07
Es gibt auch Menschen, denen AAA-Spiele egal sind (mir Z.B. (das letzte war The Division 1 (ganze 2,5h gespielt))). Wieso sollten Spieler wie ich jetzt eine RTX2060 kaufen, wenn mir eine RX5700 mehr bringt. Ob kleinere Entwickler auf RT frühzeitig setzen ist äußerst fragwürdig, auch sind diese Entwickler NV relativ unwichtig
Bei 300€ Budget empfehle ich eher eine RX 5700
Nur nutzen Indie-Spiele gerne mal die UE4, und die läuft mit DX11 auf GeForces immer noch regelmäßig deutlich besser:
https://gamegpu.com/mmorpg-/-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D0%B8%D0%B3%D1%80%D1%8B/last-oasis-test-gpu-cpu

Kurios von heute: Bei dem Spiel scheint die DCC von Navi komplett zu failen :freak: :
https://gamegpu.com/mmorpg-/-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D0%B8%D0%B3%D1%80%D1%8B/valorant-test-gpu-cpu

w0mbat
2020-04-15, 14:53:12
Kurios von heute: Bei dem Spiel scheint die DCC von Navi komplett zu failen :freak: :
https://gamegpu.com/mmorpg-/-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D0%B8%D0%B3%D1%80%D1%8B/valorant-test-gpu-cpu
Was meinst du? @1080p im CPU-Limit wie alle anderen Karten, @1440p kapp vor der 2060S, nur @4K etwas langsamer als die 2060S. Sehe da jetzt nichts besonderes oder was meinst du?

DrFreaK666
2020-04-15, 14:54:37
Ironischerweise sind bei den DLSS 2.0 und RTX Titeln auch einige Indies dabei, wie Bright Memory, Deliver us To the Moon und AMID Evil.

RTX ist gerade für Indies interessant, da die Beleuchtung wesentlich einfacher und kostengünstiger zu implementieren ist als Raster-Methoden.

Da Entwickler eine große Spieler-Basis ansprechen wollen, wird es RTX-only erstmal nicht geben. Auch 2021 nicht.

Nur nutzen Indie-Spiele gerne mal die UE4, und die läuft mit DX11 auf GeForces immer noch regelmäßig deutlich besser:
https://gamegpu.com/mmorpg-/-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D0%B8%D0%B3%D1%80%D1%8B/last-oasis-test-gpu-cpu...

Möglich, ich wüsste allerdings nicht, das eines meiner Spiele UE4 unterstützt.
Und wenn ich mir die Steam Top 10 anschaue, dann nutzt meines Wissens nur PUBG die UE4

Dampf
2020-04-15, 14:55:57
Da Entwickler eine große Spieler-Basis ansprechen wollen, wird es RTX-only erstmal nicht geben. Auch 2021 nicht.



Möglich, ich wüsste allerdings nicht, das eines meiner Spiele UE4 unterstützt.
Und wenn ich mir die Steam Top 10 anschaue, dann nutzt meines Wissens nur PUBG die UE4

In der Tat, zum Glück gibt's bald die Next Gen Konsolen und RDNA2 sowie Ampere :biggrin: Da rentiert es sich schon für kleine Entwickler RTX only Titel zu liefern.

DrFreaK666
2020-04-15, 14:58:29
In der Tat, zum Glück gibt's bald die Next Gen Konsolen und RDNA2 sowie Ampere :biggrin: Da rentiert es sich schon für kleine Entwickler RTX only Titel zu liefern.

Nein, weil ein Großteil der Spieler immer noch keine RT-Hardware hat. Auch Indie-Entwickler wollen Geld verdienen ;)

Dampf
2020-04-15, 15:01:15
Nein, weil ein Großteil der Spieler immer noch keine RT-Hardware hat. Auch Indie-Entwickler wollen Geld verdienen ;)

Braucht man auch eventuell gar nicht, immerhin wird RT zukünftig wohl deutlich skalierbarer und performanter. Die neue RTXGI SDK zeigt das ja ganz eindrucksvoll, die zu einer 1060 runterskaliert. Bei den meisten Indie Titeln braucht man sowieso generell nicht so viel Leistung, sollte also problemlos klappen. :smile:

aufkrawall
2020-04-15, 15:04:18
Und wenn ich mir die Steam Top 10 anschaue, dann nutzt meines Wissens nur PUBG die UE4
Da wär noch ARK: Survival Evolved zu nennen. Aber wenn du schon diese Liste anführst, laufen davon auch zig Spiele ohne UE4 auf einer 5700 XT kaum schneller als auf einer 1080 und die 2060 Super wäre ihren Aufpreis zur 5700 wert.
Wenn man dann noch andere F2P- oder Competitive-Spiele abseits von Steam dazu zählt, wird das auch nicht AMD-freundlicher.

hmmm
2020-04-15, 15:07:35
Was meinst du? @1080p im CPU-Limit wie alle anderen Karten, @1440p kapp vor der 2060S, nur @4K etwas langsamer als die 2060S. Sehe da jetzt nichts besonderes oder was meinst du?
Hmm, hat der Nvidia Treiber CPU Auslastungsprobleme?

DrFreaK666
2020-04-15, 15:08:06
Da wär noch ARK: Survival Evolved zu nennen. Aber wenn du schon diese Liste anführst, laufen davon auch zig Spiele ohne UE4 auf einer 5700 XT kaum schneller als auf einer 1080 und die 2060 Super wäre ihren Aufpreis zur 5700 wert.
Wenn man dann noch andere F2P- oder Competitive-Spiele abseits von Steam dazu zählt, wird das auch nicht AMD-freundlicher.

Du verstehst es anscheinend nicht, aber manche Menschen haben ein bestimmtes Budget und dann kommt eine 2060 Super einfach nicht in Frage, da deutlich teurer als eine RX 5700

Braucht man auch eventuell gar nicht, immerhin wird RT zukünftig wohl deutlich skalierbarer und performanter. Die neue RTXGI SDK zeigt das ja ganz eindrucksvoll, die zu einer 1060 runterskaliert. Bei den meisten Indie Titeln braucht man sowieso generell nicht so viel Leistung, sollte also problemlos klappen. :smile:

Das ist aber Nvidia-only, die Konsolen nutzen AMD-Hardware. Wieso sollten sich Indie-Entwickler die Mühe machen und drei Plattformen unterstützen? Das kostet nur Zeit und Geld

Bucklew
2020-04-15, 15:09:16
Ich werf jetzt einfach mal Doom 3 in den Raum. Tolle Beleuchtung und man kann sich selbst im Spiegel sehen.
Siehst du denn auch den restlichen Raum hinter der Spielfigur im Spiegel?

Ach so, nein. Ja blöd. Ach dieses verflixte RT. Kann das doch was, was deine tolle AMD-Karte nicht kann :tongue:

Da Entwickler eine große Spieler-Basis ansprechen wollen, wird es RTX-only erstmal nicht geben. Auch 2021 nicht.
Wird schneller gehen als man denkt, gerade wenn es die Konsolen können. Kann man sich die Kosten für die Light-Artists sparen. Da wird jeder Publisher hellhörig.

Hmm, hat der Nvidia Treiber CPU Auslastungsprobleme?
Wohl eher Engine-Bottleneck. 315 vs. 317 fps :ugly:

Auf 4K passt die Hackordnung wieder.

hmmm
2020-04-15, 15:09:49
Du verstehst es anscheinend nicht, aber manche Menschen haben ein bestimmtes Budget und dann kommt eine 2060 Super einfach nicht in Frage, da deutlich teurer als eine RX 5700
Wer kauft sich eine 2060S wenn er für weniger eine 5700XT bekommt.

aufkrawall
2020-04-15, 15:15:32
Siehst du denn auch den restlichen Raum hinter der Spielfigur im Spiegel?

Tut man schon, aber halt nur in ausgewählten planen Flächen.
Die Debatte ist aber auch sinnlos: Es wurden schon zig Mal die Limitierungen der Techniken erklärt, aber da fruchtet einfach gar nichts.

Du verstehst es anscheinend nicht, aber manche Menschen haben ein bestimmtes Budget und dann kommt eine 2060 Super einfach nicht in Frage, da deutlich teurer als eine RX 5700
Eher verstehst du wohl die Funktion des Konjunktiv nicht, und trotzdem hast du Schmarrn erzählt bez. Performance von Indie-Spielen.

dargo
2020-04-15, 15:17:20
Nur nutzen Indie-Spiele gerne mal die UE4, und die läuft mit DX11 auf GeForces immer noch regelmäßig deutlich besser:
https://gamegpu.com/mmorpg-/-%D0%BE%D0%BD%D0%BB%D0%B0%D0%B9%D0%BD-%D0%B8%D0%B3%D1%80%D1%8B/last-oasis-test-gpu-cpu

Tja... da muss man sich halt fragen was manche Entwickler mit der UE4 veranstalten? Zu alte Builds? Generell scheint die UE4 ja nicht so super toll auf Geforce zu laufen, jedenfalls im Vergleich zu Navi.
https://youtu.be/45Q8TVmzHI8?t=355

Hier sieht man übrigens auch wie enorm Nvidia von DX12 in diesem Spiel profitiert wenn die CPU mal nicht zu den neueren Generationen gehört, auch mit Pascal.

ml1eoszqLZk

Da liefert so ein oller i7-2600K @5Ghz plötzlich bis zu Faktor 3 mit DX12 ab.

Bucklew
2020-04-15, 15:25:42
Tut man schon, aber halt nur in ausgewählten planen Flächen.
Die Debatte ist aber auch sinnlos: Es wurden schon zig Mal die Limitierungen der Techniken erklärt, aber da fruchtet einfach gar nichts.
Leider nein, aber ich werde w0mbat die Unterscheide gerne noch 10000x erklären - bis es das Feature plötzlich bei AMD gibt, dann ist es die tollste Erfindung seit geschnittenem Brot :ulol:

hmmm
2020-04-15, 15:35:38
Also ich glaube hier wird sich bewusst dumm gestellt und alle die, die finden RT (auch mit DLSS2.0) ist zumindest auf einer rtx2060s viel zu langsam und schon alleine deswegen ist es eine bessere Wahl sich die schneller Karte (5700xt) zu kaufen, als grundsätzlich RT feindlich gesehen. Sorry Kinder aber das ist Unsinn.
Die 2060S ist einfach nur zu langsam, selbst bei einer 2070s kommt da keine Freude auf. Und wie DLSS2.0 die Schatten versaut ist einfach nur mähhh. Wie verblendet muss man sein um so etwas zu feiern?

DrFreaK666
2020-04-15, 15:40:11
...Eher verstehst du wohl die Funktion des Konjunktiv nicht, und trotzdem hast du Schmarrn erzählt bez. Performance von Indie-Spielen.

Mal davon abgesehen dass ich kein Deutscher bin und auch Deutsche ihre Probleme mit der deutschen Sprache haben....
Kannst du mir ein paar Links schicken? Ich habe keine Benchmarks gefunden, obwohl ich direkt nach Indie Game Benchmarks gesucht habe

gedi
2020-04-15, 15:52:18
Da wär noch ARK: Survival Evolved zu nennen. Aber wenn du schon diese Liste anführst, laufen davon auch zig Spiele ohne UE4 auf einer 5700 XT kaum schneller als auf einer 1080 und die 2060 Super wäre ihren Aufpreis zur 5700 wert.
Wenn man dann noch andere F2P- oder Competitive-Spiele abseits von Steam dazu zählt, wird das auch nicht AMD-freundlicher.

Ob jetzt ein Game mit 130 oder 160 FPS läuft, ist doch egal. Was derzeit wirklich nicht gut auf AMD läuft, ist ganz klar das VR-Gedöns - hier heißt es warten auf RDNA2. Außerdem werden wohl nur noch sehr wenig Spiele mit DX11 released.

RT für sich ist sicher keine schlechte Sache, die Umsetzung ist allerdings zwecks zu langsamer Hardware, meh. Für den Moment finde ich ne gescheite HDR-Umsetzung auf jeden Fall besser, als RT mit DLSS. Und für RT @ nativer Auflösung ist selbst ne 2080Ti deutlich zu langsam. Ich glaube auch, hier werden es weder RDNA 2, noch Ampere richten.

HOT
2020-04-15, 16:06:07
Es ist immer noch völlig OT in diesem Thread...

aufkrawall
2020-04-15, 16:52:26
Da liefert so ein oller i7-2600K @5Ghz plötzlich bis zu Faktor 3 mit DX12 ab.
Irgendwas ist da (quasi) kaputt, ich schaffe ziemlich problemlos >100fps mit dem 6700k und DX11.
Evtl. läufts ohne AVX2 nicht mehr richtig. Kommt halt vor, wenn man eine CPU über ihren Zenit hinaus betreibt und nach fünf Jahren mit einer 700€ GPU in 1080p kombiniert. :freak:

dargo
2020-04-15, 17:59:05
AVX2 in Games? :confused: Und btw. diese uralte CPU schafft in DX12 noch völlig brauchbare Frames. ;)

aufkrawall
2020-04-15, 18:25:28
Warum läuft es bei mir mit 4,2GHz (also 800MHz weniger als bei ihm) und gleicher Kernzahl offenbar mehr als doppelt so schnell?
Irgendwas läuft da nicht richtig. Dass Grafiktreiber AVX2 nutzen, ist btw. ein alter Hut.

DX12 ist hier im GPU-Limit vielleicht 1% langsamer als DX11, offenbar ist 12 dann auf Navi full of win bez. fps.

dargo
2020-04-15, 18:29:08
Ähm... er hat einen i7-2600K mit DDR3 Speicher im System. :wink: Die CPU ist 7 Jahre alt.

gedi
2020-04-15, 18:34:26
Warum läuft es bei mir mit 4,2GHz (also 800MHz weniger als bei ihm) und gleicher Kernzahl offenbar mehr als doppelt so schnell?
Irgendwas läuft da nicht richtig. Dass Grafiktreiber AVX2 nutzen, ist btw. ein alter Hut.

DX12 ist hier im GPU-Limit vielleicht 1% langsamer als DX11, offenbar ist 12 dann auf Navi full of win bez. fps.

Weil deine GPU mit LL genauso viel anfangen kann wie ne Muh mit nem Mäh

aufkrawall
2020-04-15, 18:37:34
Ähm... er hat einen i7-2600K mit DDR3 Speicher im System. :wink:
Ja, und? Wie viel mehr IPC soll denn Skylake haben?
Ich hatte von einem 2500k 4,6GHz mit 1600er RAM upgegradet und >100% in Spielen gibts eigentlich nur, wenn die von HTT profitieren. Er hat einen i7 @5GHz und 2133er RAM. Fragezeichen wäre evtl. noch Spectre/Meltdown-Mitigations.

Weil deine GPU mit LL genauso viel anfangen kann wie ne Muh mit nem Mäh
Sach bloß.

dargo
2020-04-15, 18:38:14
Weil deine GPU mit LL genauso viel anfangen kann wie ne Muh mit nem Mäh
Was soll der Schmarn wieder? Aufkrawall hat genau so Pascal im Rechner wie der User im Video. :rolleyes:

@aufkrawall
Der User testet in 1080p, du spielst nehme ich an in 1440p. Du hast eine 1070, er eine 1080. Du wirst sicherlich einiges stärker im GPU-Limit unterwegs sein als er.

aufkrawall
2020-04-15, 18:53:47
@aufkrawall
Der User testet in 1080p, du spielst nehme ich an in 1440p. Du hast eine 1070, er eine 1080. Du wirst sicherlich einiges stärker im GPU-Limit unterwegs sein als er.
Ich teste ein CPU-Limit in eben jenem. ;)
Aber selbst in 720p komm ich mit maximalen Quatsch-Details kaum aus dem GPU-Limit, GPU-Auslastung klebt ständig bei >95%. Muss noch zusätzlich GPU-Details reduzieren, und dann gehts im echten CPU-Limit deutlich >100fps. Seine GPU langweilt sich ja bei den den popeligen ~50fps CPU-Limit, das er schon mit dem Ultra-Preset hat.

Hott3X
2020-04-15, 19:33:52
Wobei ich den Borderlands 3 DX12 Modus nicht nutzen konnte. Ich habe die Story durch gespielt und mit DX12 ständig Abstürze gehabt, egal ob UV oder Default Takt. Egal welcher Treiber. Manchmal nach 2 Stunden, manchmal schon nach 30min. DX11 lief stabil wenn auch langsamer.

SKYNET
2020-04-15, 20:22:00
Ab 2021 wird man mit allen, das kein Raytracing beherrscht - egal ob DX12(U) oder Vulkan - immer öfter in die Röhre schauen. RDNA 1 wird dabei neben Pascal die beste Figur machen, aber eben nicht mit maximalen Details. Darüber muss man sich im Klaren sein, wenn man heute 50–100 Euro sparen will.

MfG
Raff

nö, weil man kann max out auch ohne RT haben :tongue:

gedi
2020-04-15, 20:56:23
Was soll der Schmarn wieder? Aufkrawall hat genau so Pascal im Rechner wie der User im Video. :rolleyes:

@aufkrawall
Der User testet in 1080p, du spielst nehme ich an in 1440p. Du hast eine 1070, er eine 1080. Du wirst sicherlich einiges stärker im GPU-Limit unterwegs sein als er.

Als ob sich bei Intel, wenn die Instruction-Settings nicht anspringen, so viel verändert hätte?! Zudem, für was ist denn LL da? Und klar unterliegt er mit 4.2G einer 5G CPU in LL, welche eigentlich in diesem Fall identisch sind - alles andere hätte mich auch gewundert.

The game has changed - sollte keinem hier neu sein ;)

dargo
2020-04-15, 21:05:50
Und klar unterliegt er mit 4.2G einer 5G CPU in LL, welche eigentlich in diesem Fall identisch sind - alles andere hätte mich auch gewundert.

Wovon spricht du zum Teufel?

aufkrawall
2020-04-15, 21:08:36
Wovon spricht du zum Teufel?
Er scheint irgendwie so zu tun, als ob ich das OBS-Video schon gepostet hätte, das mir nun auf der SSD rumdümpelt. Dummerweise schlägt dort der 6700k DX11 den 2600k DX12 bzw. erreicht er mit höheren CPU-Details ziemlich exakt die gleichen fps. ;D

gedi
2020-04-15, 21:16:58
Er scheint irgendwie so zu tun, als ob ich das OBS-Video schon gepostet hätte, das mir nun auf der SSD rumdümpelt. Dummerweise schlägt dort der 6700k DX11 den 2600k DX12 bzw. erreicht er mit höheren CPU-Details ziemlich exakt die gleichen fps. ;D

Dann frag mal das NV-Treiberteam wie das sein kann ...

gedi
2020-04-16, 21:26:57
@krawall

sry - habe gestern nen ziemlichen Müll verzapft. Wollte dich nicht hochnehmen oder diskreditieren. Aber das HO, nix mit viel rausgehen ... Manche kollabieren am Virus, wir hier am :rolleyes:

Wie dem auch sei:

Strix@ 2.29G mit 1.218V bei 260W

https://www.3dmark.com/3dm/45827712?

Die GPU-Score ist beachtlich würde ich meinen

Ebenso hier:

https://www.3dmark.com/3dm/45828092?

aufkrawall
2020-04-16, 22:13:27
Um das noch kurz zu erwähnen: Bei Bro mit 1660 Super gehen in BL3 4k die fps im Menü (da spielt die Menge des VRAMs noch keine Rolle) von 40fps DX11 auf 35fps DX12 zurück.
Scheint also mit Turing und DX12 stärker einzubrechen als mit Pascal? :freak:
Jedenfalls schwachsinnig von HU, Nvidia mit 12 zu testen.

w0mbat
2020-04-16, 22:41:22
Also nach dem was ich so höre läuft BL3 auch auf Nvidia mit DX12 schneller. Sagt CB zB auch.

aufkrawall
2020-04-16, 23:11:38
Hier nicht:
https://www.youtube.com/watch?v=WyUnGWfP3oE&t=240s

Raff
2020-04-16, 23:53:31
Das Video ist alt. Borderlands 3 bekam noch irgendwann Ende 2019 einen Patch, mit dem DX12 gefixt wurde. Das fiese Stuttering, das viele UE4-Spiele unter DX12 haben, ist quasi komplett weg und seitdem profitieren alle, vor allem CPU-gehemmte Systeme. Wie es im harten Grafiklimit aussieht, kann ich ad hoc nicht sagen (vmtl. immer noch ganz leicht zugunsten von DX11).

MfG
Raff

aufkrawall
2020-04-17, 00:13:36
Mein System profitiert genau 0 und hat eine 4C 8T CPU von 2015. Erzähl doch nicht irgendeinen pauschalen Müll. :rolleyes: Bzw. profitiert es negativ, weil sich DX12 in dem Spiel im Gegensatz zu Gears 5 oder DX11 ULL wie zähes Kaugummi anfühlt.
Ich kann morgen evtl. mal den Benchmark auf Turing durchlaufen lassen. Aber du hast eh gekonnt überlesen, dass DX12 schon im Menü ganze 15% langsamer läuft.

Raff
2020-04-17, 00:14:27
Deine CPU profitiert null, wenn du mit dem Auto draußen herumfährst? :| Das wäre dann das erste System, das ich sehe.

MfG
Raff

aufkrawall
2020-04-17, 00:36:55
Die Fragestellung war aber nicht, ob "meine CPU" von DX12 profitiert (Ist Wasser nass?). Es ging darum, ob das Spiel real besser oder schlechter mit DX12 läuft.
Es geht hier auf Promethea im Fahrzeug in 720p maximale CPU-Details auf ~85fps runter, meist eher >100fps.
In 1440p läuft es dann mit reduzierten GPU-Details mit ~65fps auf der 1070 zu 100% im GPU-Limit. Und nochmal: Übler Input Lag mit DX12 vs. 11 ULL ultra, anders als z.B. Gears 5.

w0mbat
2020-04-17, 01:44:11
Hier null input lag mit DX12.

Morpheus2200
2020-04-17, 07:02:27
Habt ihr auch Grafikfehler festgestellt?
Ich hab hier mit einer Rx5700 XT von xfx Grafikfehler bei ashes of the singularity. Settings 2560x1080 ultra Einstellungen.

Diese wabernden Türme in mitten der Metall und Torium Minen haben im Strahlungseffekt Quadrate in der Darstellung wenn man nahe ran zoomt. Zudem kommt es nach dem wieder aufwachen des Pcs während das, dass Spiel läuft zu massiven Darstellungsfehlern .
Nur ein Neustart des Spiels behebt das Problem. Bei anderen spielen hab ich dahingehend noch nichts beobachtet.

Der_Korken
2020-04-25, 21:54:22
Kurze Zwischenfrage: Funktioniert das MorePowerTool noch mit den 20er Treibern? Habe mir doch noch ne 5700 nonXT geschossen, weil mir das Warten auf RDNA2 zu lange dauert.

gedi
2020-04-27, 12:45:30
Japp

UV_Freak
2020-04-29, 06:54:48
Hallo gibt es hier einen Undervoltingthread zu den Navis ? :)

Meine 5700XT Pulse läuft auf 950mv/1800mhz

Warum kann man hier nicht mal ein 1440p Bild einfügen ?

Lüfter sind immer auf 800rpm circa wenn ich ein UV Setting benutze warum weis ich auch nicht die Karte/Treiber spinnen generell.

Hott3X
2020-04-29, 08:00:21
UV Thread gibt es nicht. Ich lass meine Navi auf 1900Mhz mit 1000mV und 150W PT laufen.