PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 [17] 18 19

JVC
2019-08-13, 22:34:00
Das ist klar aber ich kann nicht 3/4 von meinem lohn nur fü ne karte ausgeben wenn ich von der fe ausgehe......vielleicht bei der nächsten ...
Na dann , fest sparen ;)
Die 2070-SUPER hat durchaus ihre Existenzberechtigung ...

M.f.G. JVC

JVC
2019-08-13, 22:38:39
Ja bitte und das besser heute als morgen.

Mit 16GB+ hätte ich sie damals gekauft. So muss die 1080ti noch durchhalten.
Same as here :wink:

M.f.G. JVC

Raff
2019-08-14, 23:25:42
Nach wie vor keine Spur vom Raytracing-Patch für Wolfenschwein Jungblut: Wolfenstein: Youngblood - Diese Woche Patch 1.0.4 mit Offline-Pause-Funktion, Vorschau auf 1.0.5 (https://www.pcgameshardware.de/Wolfenstein-Youngblood-Spiel-61757/News/Diese-Woche-Patch-104-mit-Offline-Pause-Funktion-Vorschau-auf-105-1321053/)

Übel, wie sich das bei allen RTX-Spielen zieht. Okay, das hier ist mal etwas Neues mit RT über Vulkan, aber dieses frühe Ankündigen und Bewerben und dann Nichtliefern ist nervig. Ich habe das Spiel schon längst durch, viele andere ebenso. Somit ruht meine Hoffnung auf das Ende August startende Control, das ein echter Raytracing-Showcase werden könnte. Das Gameplay hat hier wohl mehr Entdecker- und Ruhephasen. Bis dahin hat man wirklich wenig RT-Spaß mit einer RTX 2080 Ti. Wobei ich Quake 2 RTX allen Unkenrufen zum Trotz wirklich sehenswert finde, die Beleuchtung ist erste Sahne. :up:

MfG,
Raff

=Floi=
2019-08-15, 07:08:08
Die ganze technik hätte noch 1 jahr reifen sollen.
Ja, es funktioniert, aber es wird nach und nach eingebaut... Hätte es heißen sollen.

So ist die ganze sache ja eh nur murks.

horn 12
2019-08-15, 07:14:27
Und dies weiss AMD da jene ansonsten bei Gimnicks immer Vorreiter waren.

Nosferatu1
2019-08-15, 07:19:56
Die 2080ti ist genau 34% fixer.....lol

Rampage 2
2019-08-15, 09:03:17
Und in Battlefield V mit allen Details und Raytracing in 4K erstickt die Karte komplett an Speichermangel, Rotterdam ist ein einziges Ruckelfest (kein regelmäßiges Stocken, sondern fies-hartes aufgrund von Auslagerung). Eine RTX 2080 (Super) mit 8 GiB produziert da übrigens fast nur Standbilder. :ugly:

Und in 1440p? (bei gleichen Settings)

R2

Dural
2019-08-15, 10:40:17
Und dies weiss AMD da jene ansonsten bei Gimnicks immer Vorreiter waren.

AMD wurde durch Hardware RT von NV überrascht, und nichts anderes.

AMD war immer Vorreiter? PhysX? Tesselation mit genug Leistung? Gsync? Cuda/HPC? 3D?
Auf die schnelle fällt mir DX10.1 ein, wie viele Spiele gab es im ersten Jahr? 1-2? :rolleyes: Was AMD vor allem kann ist kopieren und den Techlevel aktuell halten, das hat in den letzten Jahren (zb. Polaris) aber auch massiv nachgelassen.

Übrigens reifen Technologien immer beim Kunden ;)

Schon lustig wie du immer Fakten verdrehst wie es dir gerade passt.

JVC
2019-08-15, 10:51:13
AMD wurde durch Hardware RT von NV überrascht, und nichts anderes.

Den einzigen den NV damit überrascht hat, war sich Selbst :biggrin:
Und zwar wie schlecht sich "RTX" tatsächlich verkauft.

Die haben nur glück das keine Konkurrenz "in Sicht" ist.
(wäre die 7 gleich schnell wie die 2080Ti gewesen und hätte 16GB HBM zum gleichen Preis geboten,
wäre die bestimmt öfter über die Theke gegangen)

M.f.G. JVC

robbitop
2019-08-15, 10:54:31
G-Sync, Cuda, PhysX. Propertär - eher unschön da es nur auf einer HW läuft.
PhysX war nur ein Aufkauf von Ageia und größtenteils Effektphysik und ist praktisch tot. 3D (stereoskopisch) ist es auch.

Wenn man will, dass sich etwas durchsetzt, dann darf es nicht propertär sein.

seaFs
2019-08-15, 10:59:34
@Dural: Gegenbeispiele:

DX10.1: Es gab schon immer herstellerspezifische DX-Featurelevels, angefangen mit 3Dfx Rampage (DX8.0), danach DX9.0a,b,c für ATi und nV.
Sinnvolle Ideen: ATI mit Tesselation bei R200 (meh!) und R600 (yay!)
Sinnlose Ideen: nV mit SM3 @ GeForce 6 + MSAA
PhysX,Cuda: GPGPU fing mit SM2.0 an, Fluidsimulationen auf einer GeForce 5.

Beide Hersteller haben Mist gebaut und gute Sache hervorgebracht, aber jetzt gerade frage ich mich, ob es überhaupt sinnvoll ist, hier zu antworten...

JVC
2019-08-15, 11:05:08
Wenn man will, dass sich etwas durchsetzt, dann darf es nicht propertär sein.
Das sowieso.
Aber NV sieht so Etwas leider eher als "Kundenbindung"
(als Rechtfertigung mehr zu verlangen) und mehr auch schon nicht.

Gefallen tut uns NV mit dem Proprietären Mist auf jeden fall keinen.

M.f.G. JVC

Raff
2019-08-26, 16:56:28
Wenn selbst ein TU102 OC kotzt: Control im Technik-TÜV: Raytracing done right - mit heftigen Leistungskosten (https://www.pcgameshardware.de/Control-Spiel-49246/Specials/Raytracing-Benchmarks-1330139/)

Sehr schick, aber auch sehr anspruchsvoll.

MfG,
Raff

x-force
2019-08-26, 17:21:03
es war doch schon zu realease klar, daß wir wahrscheinlich noch 2-3 generationen brauchen, bis der rt teil der renderpipeline groß genug ist um den rest nicht zu stark zu bremsen,

exakt den gleichen effekt hatten wir schon vor etlichen jahren mit physx

robbitop
2019-08-26, 18:03:39
Pixeljetstream hat mal erklärt, dass RT nicht nur einfach auf den RT Cores läuft und entsprechend durch diese limitiert wird. Man braucht auch mehr Rechenleistung und mehr Bandbreite. RT wird also zukünftig nicht durch Skalierung des RT Teils der Renderpipeline schneller sondern durch eine Steigerung der Gesamtleistung. RT ist nicht einfach nur angeflanscht. RT ist arithmetisch nunmal aufwändig.

Achim_Anders
2019-08-26, 18:38:19
@Raff

ich habe nur Videos zu Control gesehen... Da kam es mir mit RT Off so vor, als wenn es im Gegensatz zu anderen Spielen eher schlecht belichtet ist. Im Test sagt ihr, dass es okay sei... Würdest du dem Fazit zustimmen in Bezug auf die Belichtung?

pixeljetstream
2019-08-26, 19:37:04
Pixeljetstream hat mal erklärt, dass RT nicht nur einfach auf den RT Cores läuft und entsprechend durch duese limitiert wird. Man braucht auch mehr Rechenleistung und mehr Bandbreite. RT wird also zukünftig nicht durch Skalierung des RT Teils der Renderpipeline schneller sondern durch eine Steigerung der Gesamtleistung. RT ist nicht einfach nur angeflanscht. RT ist arithmetisch nunmal aufwändig.
Ja jeder kann sich per nsight oder pix denke ich angucken wohin die Leistung geht bei seinem Lieblingsspiel und wird feststellen dass das drumherum noch ordentlich Leistung zielt. Der reine Tracing Anteil ist dank RT cores nicht mehr so hoch, weswegen die übliche "shader" performance zählt, die macht ja die Materialien, die Geometrie etc.

Mehr raytracing perf allein zählt eher bei sowas wie quake wo der rasterizer schon ersetzt wurde. Das ist aber allgemein nicht das höchste Ziel in nächster Zeit. Dafür ist hybrid zu praktisch.

Der größte Unterschied ist das Problem mit der Divergenz, was bei RT häufiger auftritt. Weswegen man unter anderem von den größeren Caches profitiert (weswegen Volta mit seinen noch größeren sich ja auch noch halten konnte).

Wir werden aber auch ohne HW nen Schub sehen weil sich die APIs weiter-entwickeln und neue Features auf bestehender HW noch kommen (sowohl intern als auch extern). Das soll aber keine Wundertreiber Aussage sein, nur das mit jedem Titel es mehr Daten gibt und man so besser optimieren kann. Ist alles viel Erfahrung sammeln.
Deswegen glaube ich auch das selbst wenn die Konsolen nicht die Mörder HW für RT haben, es der low-level Zugriff der (oft) exclusiven studios dennoch interessant machen wird.

Im Prinzip sehe ich (als nicht RT Experte) drei Baustellen: Divergenz Handling (Strahl kann beliebige Geometrie mit beliebigen Material treffen), Geometrie für massiv dynamischer oder generierter Geometrie (Stichwort intakter Regenwald wo alles dynamisch reagieren kann), Strahldurchsatz weiter erhöhen.

Alle drei sind wichtig, und jedes spiel Brauch hier und da mehr.

Wir haben im Prinzip beim rastern analoge Probleme. Divergenz ist hier eher onchip/offchip bzw. bandwidth. Klassische deferred renderer packten zu viele Daten pro Pixel, und hätten dann auch das Divergenz Problem (jeder Pixel anderes Shadingmodell, andere Lichter etc). Moderne engines brechen das eher auf und versuchen halt nen manuellen mix. Bisschen Ideen von deferred, aber weniger Divergenz beim Shading, bzw. die Hardware regelt das indirekt.

Nach richtig viel mehr Raster/Geometrie Leistung schreien eigentlich nicht so viele. Das andere Problem ist wichtiger, bzw. das aufsplitten in hunderte und tausende shader permutations. Dennoch nehmen sie natürlich die Performance mit, wenn ich mit simplen shadern mehr Durchsatz habe verschieben sich manche Passes etc.

Will sagen auch wenn wir uns von einer neuen Seite dem ganzen nähern ist nicht alles fundamental neu oder anders.

reaperrr
2019-08-26, 22:37:23
PhysX?
Hat NV nur gekauft, außerdem mutmaßlich absichtlich anschließend die CPU-only-Variante Ewigkeiten singlethreaded und x87 gelassen, um die Performance künstlich zu deckeln und ihre GPU-Variante besser dastehen zu lassen.
Und wirklich durchgesetzt hat sich die GPU-Variante am Ende trotzdem nicht.


Gsync?
Du meinst diese herrliche Geschichte, wo Nvidia so dreist war den fast fertigen freien ASync-Standard als Grundlage zu missbrauchen, um den Bildschirmherstellern noch schnell vorher teure Extra-Module anzudrehen und das ganze auch noch als Innovation zu verkaufen, um sich idealerweise die Markführerschaft mit überflüssigem propritären Kram zu sichern, bevor sich die freie, faire Variante durchsetzt?


AMD wurde durch Hardware RT von NV überrascht, und nichts anderes.
Maximal vom Zeitpunkt, aber AMD muss selbst in der RT-R&D auch schon relativ weit gewesen sein, sonst wären sie gar nicht in der Lage, schon mit Navi2x drauf zu reagieren.


Auf die schnelle fällt mir DX10.1 ein
Da gab's schon noch so einige mehr :)
DX9 (R300), winkelunabhängiges AF (R500), GDDR4-Support, GDDR5-Support, echtes ASync-Compute, Hardware-seitiger DX12 FL12.0 Support (Bonaire/Hawaii), VSR. Das ist das, was mir so auf die schnelle einfällt :wink:
Danach gings natürlich abwärts, aber bei dem R&D-Unterschied auch kein Wunder.

gravitationsfeld
2019-08-26, 22:54:08
https://github.com/NVIDIAGameWorks/PhysX/search?q=__m128&unscoped_q=__m128

Mehr als genug 128 bit SSE code in PhysX.

Locuza
2019-08-27, 00:10:50
Hat NV nur gekauft, außerdem mutmaßlich absichtlich anschließend die CPU-only-Variante Ewigkeiten singlethreaded und x87 gelassen, um die Performance künstlich zu deckeln und ihre GPU-Variante besser dastehen zu lassen.
Und wirklich durchgesetzt hat sich die GPU-Variante am Ende trotzdem nicht.
Sowie AMD ATI "nur gekauft" hat? ;)

Von dem Argument abgesehen, hat RealWorldTech den Vorwurf geäußert:
https://www.realworldtech.com/physx87/

Dem Pierre Terdiman (Einer der Gründungsentwickler der Software, noch bevor NovodeX von Ageia gekauft wurde) auf seiner Homepage widerspricht:
http://www.codercorner.com/blog/?p=1129

Zusätzlich gab es noch ein paar PR-Antworten direkt von Nvidia:
http://hitchhikersgui.de/PhysX#Criticism_from_Real_World_Technologies

Man mag glauben was man will, aber auf mich macht es den Eindruck das Multithreading und SIMD-Optimierungen keine Priorität genossen haben und sich das Team auf andere Dinge fokussiert hat, ohne das es einen Befehl von Oben kam, dass man die CPU-Performance bitte gammlig hält, damit GPU-PhysX besser dasteht.
Den Zustand auf dem PC hat Nvidias Marketing dann ab und zu noch ausgenutzt, aber eine Verschwörung steckte nicht dahinter.

Du meinst diese herrliche Geschichte, wo Nvidia so dreist war den fast fertigen freien ASync-Standard als Grundlage zu missbrauchen, um den Bildschirmherstellern noch schnell vorher teure Extra-Module anzudrehen und das ganze auch noch als Innovation zu verkaufen, um sich idealerweise die Markführerschaft mit überflüssigem propritären Kram zu sichern, bevor sich die freie, faire Variante durchsetzt?

eDP 1.0 hat schon schon die variable Steuerung Ende 2008 gehabt, Ende 2009 gab es Version 1.1 und 1.2 im Mai 2010.
Man addiere überall 1-2 Jahre für echte Implementierungen dazu, aber es ist offensichtlich das die Möglichkeit verdammt lange auf der Halde lag.

Ich habe eher den Eindruck, dass Nvidia mit G-Sync die Möglichkeit auf proprietäre Art und Weise ausnutzen wollte, in einer eigenen kontrollierten Umgebung und exklusive Features für die Kundenbindung haben wollte.
Als AMD davon Wind bekam und klar wurde, dass man eigentlich schon alle Mittel vor sich liegen hat, wurde der variable Standard optional in DP1.2a überführt und man kam mit FreeSync ein Jahr später an.
Entsprechend sehe ich Nvidia als den Druckgeber bei der ganzen Geschichte an.

Ähnlich wie AMD mit Mantle Druck ausgeübt hat und ohne AMDs Vorstoßen wir wahrscheinlich noch länger auf DX12 gewartet hätten und die API vermutlich noch in einer anderen Form erschienen wäre.

gravitationsfeld
2019-08-27, 02:27:15
http://www.codercorner.com/blog/?p=864
http://www.codercorner.com/blog/wp-content/uploads/2013/05/potpourri_box_withconvexes_graph.png
http://www.codercorner.com/blog/wp-content/uploads/2013/05/sceneboxsweepvsstaticmeshes_archipelago_graph.png
Soviel zu "wird nicht optimiert". Und das ist schon aelter.

http://www.codercorner.com/blog/?p=864:
However I think these posts may reach their limited goal, which is simply to show with very basic tests that:

PhysX is getting faster all the time
PhysX is very well optimized, thank you very much

Falls es so grottig waere, wuerde es auch nicht die Default-Physik-Engine in Unreal und Unity sein.

Havok-Ergebnisse konnte er nicht veroeffentlichen wegen daemlichem NDA.

Ich lehn mich mal aus dem Fenster und behaupte, dass PhysX der schnellste CPU-Solver ueberhaupt ist.

Bucklew
2019-08-27, 09:40:04
Und wieder so ein Märchen aus der AMD-Ecke debunked :biggrin:

Leider wird morgen wieder einer aus der Ecke das Märchen wiederholen :(

JVC
2019-08-27, 11:31:49
...Entsprechend sehe ich Nvidia als den Druckgeber bei der ganzen Geschichte an.

NV sitzt mit in der Gruppe die HDMI 2.1 definiert hat.
NV wusste schon länger das "Free-Sync" kommt.
(VRR in HDMI 2.1 war beschlossen bevor es G-Sync zu kaufen gab)

M.f.G. JVC

N0Thing
2019-08-27, 11:55:42
NV sitzt mit in der Gruppe die HDMI 2.1 definiert hat.
NV wusste schon länger das "Free-Sync" kommt.
(VRR in HDMI 2.1 war beschlossen bevor es G-Sync zu kaufen gab)

M.f.G. JVC

Hast du dazu auch einen Nachweis? Die HDMI 2.1 Spezifikation wurde am 4. Januar 2017 angekündigt, G-Sync gab es schon Jahre vorher, da war noch nicht einmal HDMI 2.0a veröffentlicht.

Bucklew
2019-08-27, 12:05:33
NV sitzt mit in der Gruppe die HDMI 2.1 definiert hat.
NV wusste schon länger das "Free-Sync" kommt.
NVIDIA hat G-Sync gebaut, weil VRR bei der VESA nicht als VRR geplant war, sondern als Energiesparmechanismus. Man hat quasi das Energiesparfeature missbraucht, um VRR zu können ala G-Sync.

Deshalb hat es auch so lange gedauert, bis man es einigermaßen laufen hatte.

Screemer
2019-08-27, 12:08:53
Und wieder so ein Märchen aus der AMD-Ecke debunked :biggrin:

Leider wird morgen wieder einer aus der Ecke das Märchen wiederholen :(
Wenn du Mal schauen würdest aus welcher Ecke das kam dann würdest du feststellen, dass es nicht ati/amd war... Dass das Märchen immer wieder aus dem Hut gezaubert wird ist natürlich mehr als reichlich bescheuert.

NVIDIA hat G-Sync gebaut, weil VRR bei der VESA nicht als VRR geplant war, sondern als Energiesparmechanismus. Man hat quasi das Energiesparfeature missbraucht, um VRR zu können ala G-Sync.

Deshalb hat es auch so lange gedauert, bis man es einigermaßen laufen hatte.
Bullshit. Panelselfrefresh in edp gibt's schon ewig.

JVC
2019-08-27, 13:49:10
Hast du dazu auch einen Nachweis?
Die HDMI 2.1 Spezifikation wurde am 4. Januar 2017 angekündigt, G-Sync gab es schon Jahre vorher, da war noch nicht einmal HDMI 2.0a veröffentlicht.
Wann konnte man G-Sync kaufen ?
Jahre vor Januar 2017, 1-2 ?

Die haben bestimmt nicht nur 1 Jahr an dem neuen HDMI gefeilt,
soll ja auch wieder eine weile halten ;)

HDMI 1.0 2003 , HDMI 2.0 2014 , HDMI 2.1 2019
(es gibt 2.0 Geräte mit VRR)

Leider ist NV nicht Dumm, es ist schwer klare Spuren von der G-Sync Vorgeschichte zu finden.

https://www.planet3dnow.de/vbulletin/threads/421455-Update-GSync-als-grosser-Bluff-entlarvt-Nvidia-nutzt-AdaptiveSync-der-VESA-fuer-GSync (28.01.2015)
... wenns so wäre, oder ist es so ?
(was das Modul genau macht und warum es soviel Strom verbraucht, k.a. aber ich will keinen Lüfter im Monitor ^^)

M.f.G. JVC

Locuza
2019-08-27, 14:16:18
Laut Wiki kamen 2014 sechs G-Sync Monitore auf den Markt (Alle mit TN-Panel):
https://en.wikipedia.org/wiki/Nvidia_G-Sync

G-Sync wurde im Oktober 2013 angekündigt:
https://www.nvidia.com/en-us/geforce/news/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming/

JVC
2019-08-27, 14:33:47
Laut Wiki kamen 2014 sechs G-Sync Monitore auf den Markt (Alle mit TN-Panel):
https://en.wikipedia.org/wiki/Nvidia_G-Sync

G-Sync wurde im Oktober 2013 angekündigt:
https://www.nvidia.com/en-us/geforce/news/introducing-nvidia-g-sync-revolutionary-ultra-smooth-stutter-free-gaming/
Danke :up:
Ok, dann war NV ~1 Jahr früher dran...

Indirekt haben sie dann doch den neuen Standard gefördert ausgelöst.
(wobei ich nicht glaube, das sie nicht wussten was AMD vor hat...)
Mein Dank gilt trotzdem AMD, da die VRR zum allgemeinen Standard begleitet haben.

M.f.G. JVC

unl34shed
2019-08-27, 14:37:53
Und die ganzen gsync Module waren mit der heißen Nadel gestrickt und mussten vor AMD auf den Markt kommen, sonst wäre da kein GPGA drin.

Hübie
2019-08-27, 18:23:16
Da wurden auch Jahre später noch teure FPGAs verbaut, weil die im Grunde das Buffering und die flip logic stellen mussten. Ein ASIC wäre langfristig wohl die bessere Variante, aber man ist den Kram ja auch so los geworden. :D Weiß gar nicht ob heute immer noch FPGAs verbaut werden, aber ich tippe mal auf JA.

Ich spiele mit dem Gedanken mir eine 2080 Ti zu holen, aber eigentlich wollte ich mich in jedem Belang verdoppeln. Das wird wohl nicht möglich sein.

JVC
2019-08-27, 18:32:47
Ich spiele mit dem Gedanken mir eine 2080 Ti zu holen...

Dann mach es :biggrin: ein Hobby muss ab und zu auch was kosten (einem was wert sein)
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2080-Ti-vs-Nvidia-GTX-980-Ti/4027vs3439
Mit fest Augen zudrücken, klappts auch mit der Verdopplung :cool:

Mir ist der Sprung zu klein, außerdem brauch ich ne Graka mit HDMI 2.1 ...
(m.M.n. sind alle Grakas mehr oder minder "Ausgangslimitiert")

M.f.G. JVC

Hübie
2019-08-27, 18:44:15
Na ja meine rennt etwa auf 1080-Niveau...

:cool:

JVC
2019-08-27, 18:49:43
Na ja meine rennt etwa auf 1080-Niveau...

:cool:
Dann noch mehr die Augen zudrücken und den :freak: raus lassen,
oder abwarten und "Regler kennen lernen".
(wenn man das nicht eh schon kann)
(es lassen sich für die meisten Spiele Anleitungen finden, wie man am meisten Spart und am wenigsten verliert)

M.f.G. JVC

robbitop
2019-09-02, 12:15:40
Die 2080 mit Standardkühler ist auf 550 € gerutscht.
https://geizhals.de/msi-geforce-rtx-2080-aero-8g-v372-001r-a1891412.html?hloc=de

Das ist interessant für einen Freund, dem ich ein System bauen will. Die Karte ist fast 130 € günstiger als eine mit einem großen custom Kühler.

Gibt es für die 2080 halbwegs vernünftige Aftermarket Kühler zu kaufen? Bei Geizhals habe ich leider nichts gefunden...


edit: habe den Morpheus 2 und den Accelero Extreme 4 identifiziert. Morpheus 2 sieht etwas potenter aus.

Troyan
2019-09-02, 12:31:45
Warum nicht eine vernünftige 2070S mit Custom-Kühler?

robbitop
2019-09-02, 12:54:34
Ist halt langsamer. Wenn es 680 € kostet, kann man eher gleich die 2080S nehmen. Aber eine 2080 für 550 € und ggf. nochmal 50-60 € für einen Aftermarketkühler liefert halt mehr P/L und im Falle des Morpheus 2 wahrscheinlich deutlich bessere Kühlleistung als so ziemlich alle custom Kühler.

JVC
2019-09-02, 13:05:54
Aber eine 2080 für 550 € und ggf. nochmal 50-60 € für einen Aftermarketkühler liefert halt mehr P/L und im Falle des Morpheus 2 wahrscheinlich deutlich bessere Kühlleistung als so ziemlich alle custom Kühler.
Sicher ? :confused:
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2080-vs-AMD-RX-5700-XT/4026vs4045
Oder ist RT Pflicht ?

M.f.G. JVC

gedi
2019-09-02, 13:07:40
habe gerade zum Test (was auch sonst) ne Matrix verbaut. Der Kühler ist tatsächlich zum vergessen - heizt nur den Innenraum auf, Die GPU-Temp liegt bei 70(!)°C und der PCH-Lüfter vom Mobo dreht mit gefühlten 15000U/Min auf. Zudem werden die 3 Lüfter der Graka auch relativ laut.

Nun nen EKWB-Vector incl. Backplate verbaut und nun komme ich mit Slight-OC (1.031V bei dauerhaften 2.07G) kaum über die 40°C-Grenze hinaus. Max. Verbrauch der Grafikkarte 305W im Timespyloop. Von daher hat sich die Investition gelohnt, denn meine Palit hat unter ähnlichen Bedingungen mehr als 380W verbraten.

robbitop
2019-09-02, 15:38:22
Sicher ? :confused:
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2080-vs-AMD-RX-5700-XT/4026vs4045
Oder ist RT Pflicht ?

M.f.G. JVC
Ja naja P/L von Navi ist schon krass. Aber er rüstet super selten auf und RT könnte da schon bei einigen Spielen ein schönes Plus in den nächsten Jahren sein. Außerdem scheint DLSS, wenn so implementiert wie bei Control (also deutlich besser als alle bisherigen Implementierungen), auch nochmal einiges zu helfen scheint.
Auch sehe ich noch etwas "verstecktes" Potenzial in den vielen INT32 Einheiten. In Quantum Break und Wolfenstein (also Spielen mit viel PostAA) scheint das zum Tragen zu kommen und ich gehe davon aus, dass kommende Spiele immer mal wieder davon Gebrauch machen könnten. In Control scheint es auch einen guten Vorteil zu bringen. Laut PCGH Messungen liegt die 2080 dort immerhin ~30% vor der 5700XT:
https://www.pcgameshardware.de/Control-Spiel-49246/Specials/Benchmarks-ohne-Raytracing-1330342/

JVC
2019-09-02, 15:56:04
.... und RT könnte da schon bei einigen Spielen ein schönes Plus in den nächsten Jahren sein.
Könnte ? Ist dem wirklich so ? (mal auf die Konsolen warten)


Außerdem scheint DLSS, wenn so implementiert wie bei Control (also deutlich besser als alle bisherigen Implementierungen Laut Messungen liegt die 2080 dort immerhin ~30% vor der 5700XT:
https://www.pcgameshardware.de/Control-Spiel-49246/Specials/Benchmarks-ohne-Raytracing-1330342/

DLSS scheint ... das empfinde ich nicht so ...
(ich empfinde auch gutes intelligentes "Monitor/Fernseher Upscaleng" als vergleichbar ... und es ist unabhängig ...)

M.f.G. JVC

Fragman
2019-09-02, 16:17:09
Könnte ? Ist dem wirklich so ? (mal auf die Konsolen warten)


Auf die Konsolen müssen wir nicht warten, wie wir aktuell sehen.
Nv hat das drin und wird es weiter drin haben.
AMD geht hardwaretechnisch einen anderen Weg in den Konsolen, soweit wir vermuten können. Was AMD in den Grafikkarten machen wird, ist ja immer noch nicht klar. An der Stelle muss man abwarten. Aber das Thema an sich ist eigentlich auch schon durch. Das zeigen ja auch die Produzenten, die für die nächsten Konsolen Spiele herstellen werden. ;)

robbitop
2019-09-02, 17:25:43
Könnte ? Ist dem wirklich so ? (mal auf die Konsolen warten)


DLSS scheint ... das empfinde ich nicht so ...
(ich empfinde auch gutes intelligentes "Monitor/Fernseher Upscaleng" als vergleichbar ... und es ist unabhängig ...)

M.f.G. JVC
Naja, wenn du eine GPU ~5 Jahre behälst, ist die Chance schon recht hoch ein paar RT Games mitzunehmen. RT ist die logische nächste Stufe. Die 2080 muss dann sicherlich früher oder später an der Anzahl der Strahlen pro Pixel und/oder Auflösung sparen. Aber Kompromisse muss man immer eingehen.

Bis dato war DLSS wirklich ziemlich enttäuschend umgesetzt. Aber in Control erscheint es deutlich besser zu sein, da um ein anderes Modell ergänzt. DF scheint DLSS in Control ziemlich gut zu finden. Und es ist zu erwarten, dass es sich weiterentwickelt. Ist zwar sehr abhängig vom Spiel - aber Erfahrungen helfen hier immer.
Die Option auf normales Upsampling und den besseren Schärfefilter gibt es bei bei NV ja nun auch. Beides kann dabei helfen auch für RT wieder etwas mehr Rechenzeit freizumachen. Es sind ja am Ende alles nur Optionen. Und je nach Spiel nutzt man eine gewisse Konstellation an Optionen. Mehr Optionen sind sicherlich nicht verkehrt.

Auf die Konsolen müssen wir nicht warten, wie wir aktuell sehen.
Nv hat das drin und wird es weiter drin haben.
AMD geht hardwaretechnisch einen anderen Weg in den Konsolen, soweit wir vermuten können. Was AMD in den Grafikkarten machen wird, ist ja immer noch nicht klar. An der Stelle muss man abwarten. Aber das Thema an sich ist eigentlich auch schon durch. Das zeigen ja auch die Produzenten, die für die nächsten Konsolen Spiele herstellen werden. ;)
Am Ende ist die Umsetzung der HW bei jedem Feature eh immer zu einem gewissen Grad unterschiedlich. Wichtig ist, dass die API damit funktioniert. Wäre in diesem Falle DXR. Unter Vulkan gibt es dann ähnliches. Was im Chip genau passiert ist ja relativ zweitrangig. Das Ergebnis zählt.

Navi soll HW-RT bekommen und die Konsolen auch. Es werden mittelfristig immer mehr Titel werden, die das benutzen. Ist noch sehr teuer, sieht aber auch sehr hübsch aus. Ist halt der nächste Schritt in der 3D Grafik. Wie damals dynamische Beleuchtung durch programmierbare Shader. Kostet - aber ein paar Generationen später ist es schnell genug und niemand will es mehr missen.

Insgesamt sehe ich hier also 2 Optionen mehr. Und dazu das Potenzial aus den INT32 ALUs. Je nach Fülle an Postprocessing bringt das schon nennenswert was.

P/L ist Navi IMO jedoch klar vorn, ohne Frage.

JVC
2019-09-03, 11:07:04
Naja, wenn du eine GPU ~5 Jahre behälst, ist die Chance schon recht hoch ein paar RT Games mitzunehmen. RT ist die logische nächste Stufe. Die 2080 muss dann sicherlich früher oder später an der Anzahl der Strahlen pro Pixel und/oder Auflösung sparen. Aber Kompromisse muss man immer eingehen.

Bis dato war DLSS wirklich ziemlich enttäuschend umgesetzt.

NV hat RT auch für Pa freigeschaltet... (wenn auch ziemlich lieblos)
AMD wird das auch noch machen ;)
(die Konsolen scheinen keine extra-Hardware für RT zu bekommen)

DLSS ist nur gut wenn NV sich bemüht...
Wegen 1-2 gut optimierten Titeln ist aber noch lange nicht alles super :rolleyes:

Wenn aber einfach ne NV bevorzugt wird weil man es so will,
ist das für mich auch völlig in Ordnung :smile:

M.f.G. JVC

robbitop
2019-09-03, 12:59:53
NV hat RT auch für Pa freigeschaltet... (wenn auch ziemlich lieblos)
AMD wird das auch noch machen ;)
(die Konsolen scheinen keine extra-Hardware für RT zu bekommen)

DLSS ist nur gut wenn NV sich bemüht...
Wegen 1-2 gut optimierten Titeln ist aber noch lange nicht alles super :rolleyes:

Wenn aber einfach ne NV bevorzugt wird weil man es so will,
ist das für mich auch völlig in Ordnung :smile:

M.f.G. JVC
Zumindest die Xbox soll HW für RT bekommen. Navi2x auch. Entsprechend werden die Spiele kommen.
GPUs ohne RT HW sind schon ziemlich praxisuntauglich @RT Spiele, da die Performance dann noch deutlich mehr fällt.

Man muss die Situation abschätzen, wie sich soetwas die nächsten Jahre verhält. RT wird immer besser werden IMO. Und DLSS auch, da man mehr gelernt hat. Das Modell, was NV implementiert hat ist eben noch neu.

Und wie gesagt, sobald die INT32 ALUs stärker zum Einsatz kommen, sind es schnell mal +30% ggü der 5700XT.

y33H@
2019-09-03, 13:05:05
Wieso lieblos bei Pascal? es geht immerhin wenn auch die Performance mies ist - das liegt aber wohl offenbar an der Hardware.

Daredevil
2019-09-03, 13:15:02
Ich verstehe das lieblos auch nicht.
Klar, reicht es nicht für AAA Titel, aber man kann ja soviel Fantasie besitzen, dass man RT auch für Indie Games in Zukunft erwarten könnte.
Ich nehme als Beispiel immer Ori, das läuft auf jeder Kartoffel und würde durch RT nochmal deutlich hübscher werden.

JVC
2019-09-03, 13:37:12
Zumindest die Xbox soll HW für RT bekommen. Navi2x auch. Entsprechend werden die Spiele kommen.
GPUs ohne RT HW sind schon ziemlich praxisuntauglich, da die Performance dann noch deutlich mehr fällt.
https://www.xboxdynasty.de/news/xbox-next/geruecht-scarlett-und-dante-dev-kit-spezifikationen-aufgedeckt/
"RT: 1RTC per Compute Unit"

Vielleicht hab ich was falsch verstanden ?
(dachte Navi setzt auf flexible Compute Units)

Ich hätte hald lieber mehr Roh-Power für HDMI 2.1

M.f.G. JVC

Dural
2019-09-03, 14:14:13
Noch mal fürs mitschreiben für alle die es immer noch nicht verstanden haben: Turing hat KEINE extra Einheiten für RT, das sind nur Erweiterungen der bestehenden Cores. NV Verkauft seit jeher alles gerne als "Zusatz Einheit", wie es in Hardware gelöst ist, ist zweitrangig.

Auch AMD wird das so bringen MÜSSEN, aber das dauert halt nicht ein zwei Jahre... sondern da ist man 4-5 Jahre dran um eine GPU wie Turing zu entwickeln.

Mehr Cores anstelle der RT Erweiterungen macht übrigens gar keinen Sinn, wirklich gar keinen. Weil die GPU bei Spiel Xy mit RT für die gleiche Leistung grösser wäre als eine "Turing" GPU. Und grösser bedeutet in der Regel auch ineffizienter.

ChaosTM
2019-09-03, 14:20:25
Bevor man eine halbgare RTRT Lösung einbaut wie in die 2000er Serie wäre mehr Rohpower wohl sinnvoller, ja. Aber dann kann man nicht damit werben. ;)
Falscher Thread btw.

@Dural

Die Lederjacke würde doch niemals Unwahrheiten verbreiten. Die RT Cores müssen demnach "echt" sein. ;)

Fragman
2019-09-03, 15:31:25
Mehr Rohpower wäre kaum möglich gewesen, die Chips sind so schon riesig.
Mit RT Cores hat man viel mehr Möglichkeiten die Optik aufzuwerten, ohne die GPU massiv zu verbreitern.

Lowkey
2019-09-09, 12:31:01
Erstes Non-A to A "Specs" Bios für die 2080.

https://www.igorslab.media/geaendertes-non-a-chip-bios-aufgetaucht-mehr-power-limit-zum-nulltarif-und-flashen-fuer-jedermann/

Daredevil
2019-09-10, 13:01:10
Ich verstehe das lieblos auch nicht.
Klar, reicht es nicht für AAA Titel, aber man kann ja soviel Fantasie besitzen, dass man RT auch für Indie Games in Zukunft erwarten könnte.
Ich nehme als Beispiel immer Ori, das läuft auf jeder Kartoffel und würde durch RT nochmal deutlich hübscher werden.
Hier mal ein Beispiel in Bewegtbild:
Octopath Traveler spiele ich aktuell, dort wird sehr viel mit Licht und Schatten gespielt, sowas würde durch RT sicherlich auch aufgewertet werden.
Es läuft regulär halt auf jeder Kartoffel, so das eine Pascal Karte hier vielleicht auch genug Leistung hätte.

https://verifiedtasks.com/wp-content/uploads/2018/07/review-octopath-traveler-atomix.gif

gnomi
2019-09-21, 18:35:58
Bin gerade mal dabei, eine 2080 ein bisschen auszuprobieren. =)
Es handelt sich um die Asus Dual Fan 2080 Advanced (A Chip, Samsung Ram und diesjährige Auflage mit dem matten schwarzen Triple Slot Kühlerdesign)

Von der Leistung her kann ich die jetzt nur mit einer ausgereizten 1080GTX Palit Gamerock Pro vergleichen. (1965-1980/8000 vs 1374-2000/5400-5500)
Die Unterschiede sind bislang spürbar und okay, aber der große Wurf ist es muss man sagen jetzt auch nicht.

Ergebnisse in WQHD
Borderlands 3 (+34% @ Badaass DX11 ; jenseits der 60 fps)
Greedfall (+27-30%; jetzt aber immer jenseits der 60 @ Ultra)
Gears of War 4 (21-24% @ Ultra; extreme Einstellungen schneller)
Gears of War 5 (17-19% @ Ultra; extreme Einstellungen verwendbar)
Shadow of the Tom Raider (+40% @ maximiert; vorher schon jenseits der 60)
Forza Horizon 4 (+30% maximiert; vorher auch schon jenseits der 60)

Das Kühlsystem und die Lautstärke sind wirklich prima.
In etwa auf dem selben Niveau der Palit.
Auch an die Grenze ohne Spannungserhöhung und mit 255 Watt durchschnittlicher Leistungsaufnahme getaktet, wird es dabei kaum heißer und lauter. (~ 68-71 Grad; 1500-1800 Umdrehungen je nach OC Einstellung)

Von den reinen Performancedaten bin ich noch nicht so begeistert, aber die ersten Eindrücke bezüglich RTX (und auch DLSS) heute fand ich muss ich sagen überraschend gut.
Es gibt einfach schon mehr Patches, Spiele, Demos und in Aussicht gestellte Software für die nächste Zeit als letztes Jahr @ Launch, und mit Battlefield V, Shadows of the Tomb Raider und Metro Exodus habe ich auch noch drei unfertig gespielte Titel auf der Platte. (Eindrücke folgen)
Bin jetzt echt am überlegen, ob ich die nicht doch als Übergang bis 2021 gebrauchen kann.
Na ja, mal ganz locker ein bisschen genauer gucken die Tage. :wink: (2080TI ist mir aus Prinzip zu teuer- so eine 2080 ist ja jetzt Neu bei unter 600 Euro plus Spiel)

Blaire
2019-09-22, 00:14:12
Bin gerade mal dabei, eine 2080 ein bisschen auszuprobieren. =)
Es handelt sich um die Asus Dual Fan 2080 Advanced (A Chip, Samsung Ram und diesjährige Auflage mit dem matten schwarzen Triple Slot Kühlerdesign)

Von der Leistung her kann ich die jetzt nur mit einer ausgereizten 1080GTX Palit Gamerock Pro vergleichen. (1965-1980/8000 vs 1374-2000/5400-5500)
Die Unterschiede sind bislang spürbar und okay, aber der große Wurf ist es muss man sagen jetzt auch nicht.

Ergebnisse in WQHD
Borderlands 3 (+34% @ Badaass DX11 ; jenseits der 60 fps)
Greedfall (+27-30%; jetzt aber immer jenseits der 60 @ Ultra)
Gears of War 4 (21-24% @ Ultra; extreme Einstellungen schneller)
Gears of War 5 (17-19% @ Ultra; extreme Einstellungen verwendbar)
Shadow of the Tom Raider (+40% @ maximiert; vorher schon jenseits der 60)
Forza Horizon 4 (+30% maximiert; vorher auch schon jenseits der 60)

Das Kühlsystem und die Lautstärke sind wirklich prima.
In etwa auf dem selben Niveau der Palit.
Auch an die Grenze ohne Spannungserhöhung und mit 255 Watt durchschnittlicher Leistungsaufnahme getaktet, wird es dabei kaum heißer und lauter. (~ 68-71 Grad; 1500-1800 Umdrehungen je nach OC Einstellung)

Von den reinen Performancedaten bin ich noch nicht so begeistert, aber die ersten Eindrücke bezüglich RTX (und auch DLSS) heute fand ich muss ich sagen überraschend gut.
Es gibt einfach schon mehr Patches, Spiele, Demos und in Aussicht gestellte Software für die nächste Zeit als letztes Jahr @ Launch, und mit Battlefield V, Shadows of the Tomb Raider und Metro Exodus habe ich auch noch drei unfertig gespielte Titel auf der Platte. (Eindrücke folgen)
Bin jetzt echt am überlegen, ob ich die nicht doch als Übergang bis 2021 gebrauchen kann.
Na ja, mal ganz locker ein bisschen genauer gucken die Tage. :wink: (2080TI ist mir aus Prinzip zu teuer- so eine 2080 ist ja jetzt Neu bei unter 600 Euro plus Spiel)

Das aktuell Schnellste ist ja gerade mal gut genug. Teuer oder nicht, ist halt auch immer die Frage, wie lange man eine Grafikkarte selber nutzt. Daher vielleicht auch schon etwas spät, das erst jetzt zu entscheiden. ;) Und DLSS ist halt ein Kompromiss, aber ein guter und mit Raytracing-Features auch so ziemlich alternativlos und liefert darüber hinaus ein sattes Performance-Plus. Egal ob in Control, Metro Exodus oder auch Shadow of the Tomb Raider kann man dank DLSS da schon ordentliche Leistungszuwächse erzielen, ohne subjektiv viel Bildqualität (render vs. native Auflösung ) zu opfern.

gnomi
2019-09-22, 11:09:02
Ausgehend von einem bereits hohen Niveau ist es immer "schlimm", sich auch mal zu entscheiden. :(
Die 2080TI soll es jedoch einfach aus Prinzip nicht sein. :wink:
Zu solchen Anschaffungspreisen bin ich nicht bereit.
2014 gab es beinahe GSync Monitor + GTX 980 für so einen Preis.
Also annährend doppelte GPU Leistung plus komplett neue Auflösung und Monitorgeneration!

Turing an sich ist trotzdem ein feiner Chip, wie ich jetzt auch in der Praxis feststelle. :up:
Die Performance mit der GTX 1080 OC fängt jetzt auch langsam an, mal unter 60 zu kommen. Da kann etwas mehr nicht schaden und den Unterschied machen.
Zum Beispiel gestern in Greedfall locker 70-90 fps, obwohl Ultra hier wirklich sehr fordernd ist.
Und man kann mit RTX und DLSS eine Menge anstellen.
Mich überzeugt das bislang auch prinzipiell völlig.
Ich würde sogar sagen, dass es erstaunlich ist, dass man von Beginn an diese Effekte auch noch super skalierend verwenden kann.
Zum Beispiel hat man in Tomb Raider mit RTX Mittel eine dezente Umsetzung mit noch knapp 87% der ursprünglichen Leistung.
Oder eben noch 75% mit DLSS und RTX Ultra.
Oder eben 60% der Leistung übrig nativ mit 55fps im Schnitt, was für ein SP Spiel gerade mit GSync durchaus geht und bis in die vorletzte Generation quasi noch top war.
Die 8GB VRAM finde ich auch nicht so schlimm vor dem Hintergrund, vorerst bei WQHD zu bleiben und 2021 dann zu wechseln.
Man bekommt ja keine schlechtere Qualität als zuvor. Im Gegenteil- viele Spiele nutzen erst seitdem es so viele 8GB Karten im Markt gibt überhaupt mehr als 6GB in WQHD. Und Regler bedienen ist für mich kein Ding, wenn es tatsächlich dann mal nicht mehr passt.
Aber klar. Die 2080 ist anders als die TI nicht ohne Kompromisse.
Auch deshalb habe ich mich letztes Jahr gegen entschieden.
Unter 600 Euro plus COD und mit mehr (in Aussicht stehender) RTX Software aktuell ist sie aber kein so schlimmer Deal mehr.
Man sieht es auch daran, dass gerade die 2070 Super auch vergleichsweise stark vom Markt aufgenommen wird.

Bei Pascal war es eher so, dass ich zunächst die dreistelligen Bildraten und die 8GB VRAM eher bewundert als gebraucht habe.
Die Investition von etwa 650 Euro nervte ziemlich (789 für die FE ging gar nicht!) und hatte sich erst ausgezahlt, als mit den Jahren einfach nichts Schnelleres (außer der TI mit selber Technik knapp ein Jahr später) nachkam und die fps wie selbstverständlich noch bei 60 fps und drüber lagen.
Die Krypto Geschichte und das Festhalten an DX 11 haben der Karte auch extrem in die Karten gespielt denke ich.

nvidia macht unterm Strich seit Ewigkeiten zumeist fantastische GPU's.
Trotzdem wandeln sie manchmal auf einem schmalen Grad mit ihrem Premium Image und Eigenentwicklungen.
Die Einführung von teuren Titan und auch TI Karten finde ich genau wie jetzt GSync Ultimate zuletzt einfach nur überzogen.
Auch deshalb lasse ich mir jetzt viel Zeit mit meiner Entscheidung.
Es sein zu lassen ist zwar eine langweilige Vernunftentscheidung, aber legitim. ;)

robbitop
2019-09-22, 15:55:53
Das aktuell Schnellste ist ja gerade mal gut genug. Teuer oder nicht, ist halt auch immer die Frage, wie lange man eine Grafikkarte selber nutzt. Daher vielleicht auch schon etwas spät, das erst jetzt zu entscheiden. ;) Und DLSS ist halt ein Kompromiss, aber ein guter und mit Raytracing-Features auch so ziemlich alternativlos und liefert darüber hinaus ein sattes Performance-Plus. Egal ob in Control, Metro Exodus oder auch Shadow of the Tomb Raider kann man dank DLSS da schon ordentliche Leistungszuwächse erzielen, ohne subjektiv viel Bildqualität (render vs. native Auflösung ) zu opfern.
Naja bis dato kann sich DLSS performancenormiert nur in Control von upsampling+sharpening absetzen in Bezug auf BQ.
Das Potenzial ist, das hat Control gezeigt, aber super. :)

IMO sind die Turings ggü Pascal einfach zu langsam (also Performamcefortschritt). Von einer 1080ti lohnt selbst die 2080ti viel zu selten. Hoffentlich kommt der 7 nm Nachfolger bald - mit Pascal artiger Performancesteigerung (also Pascal zu Maxwell).

Blaire
2019-09-23, 20:42:11
Naja bis dato kann sich DLSS performancenormiert nur in Control von upsampling+sharpening absetzen in Bezug auf BQ.
Das Potenzial ist, das hat Control gezeigt, aber super. :)

Mit dem letzten Patch wurde zudem das Pixelrauschen (https://abload.de/img/comparisonlok47.png) auf ein minimum reduziert, was mit der indirekten RT-Beleuchtung zu tun hatte.
Eigentlich ist da einzig Battlefield V die unrühmliche Ausnahme, wo selbst ein Schärfefilter nicht mehr viel retten kann. ;) Ansonsten liefert DLSS eigentlich genau das, was auch im Vorfeld angekündigt wurde. In Sachen Performance überzeugt DLSS praktisch überall, in "Metro Exodus" 4K-DLSS sind es rund 40-50% Zuwachs inkl. raytraced GI , in "Shadow of the Tomb Raider" ebenfalls zwischen 40-70% mit RT-Schatten möglich, mit einer RTX 2080Ti... so werden aus 40fps schnell mal 60fps oder auch prozentual mal mehr bei niedrigeren Bildraten. Was mir außerdem gefällt, das transparente Elemente z.b. der Vegetation (Bäume, Gräser etc.) besser rekonstruierte Bilddetails + Struktur erhalten, im Vergleich zum standardmäßigen TAA, da machen sich die zusätzlichen Pixeldetails dann definitiv auch bezahlt. Aber wie schon zuvor erwähnt, es ist und bleibt ein Kompromiss.

IMO sind die Turings ggü Pascal einfach zu langsam (also Performamcefortschritt). Von einer 1080ti lohnt selbst die 2080ti viel zu selten. Hoffentlich kommt der 7 nm Nachfolger bald - mit Pascal artiger Performancesteigerung (also Pascal zu Maxwell).

Für 4K/UltraHD gab es nunmal keine bessere Option und bis heute konkurrenzlos. Und so klein war der Sprung da eigentlich auch nicht. Deshalb meinte ich ja, es kommt halt auch darauf an, für wie lange man eine Grafikkarte verwenden möchte... wenn wir jetzt mal eine Titan X (Pascal) als Maßstab nehmen, mit letzten Monat war diese bereits 3 Jahre am Markt (erschien im August 2016) liefert diese auch heute noch eine respektable Leistung. Die RTX 2080Ti (ähnlich teuer) konnte man ja im Grunde auch nicht so früh erwarten, dafür war diese dann halt etwas teurer... Selbst die legendäre 8800GTX welche immer wieder besonders hohe Langlebigkeit angedichtet wurde, auch da waren es "nur" 2 Jahre, bis diese von der GTX 280 abgelöst wurde... Wie auch immer, echte Enthusiasten braucht man da auch nicht sonderlich überzeugen, wenn du verstehst was ich meine, solange das Gesamtpaket stimmig... :)

@gnomi Klar ausgehend von einer GTX1080 mit Fokus auf 1440p-Auflösung macht das alles schon mehr Sinn, auch hinsichtlich der Speicherbestückung kein Nachteil. :)

JVC
2019-09-24, 09:42:27
Und so klein war der Sprung da eigentlich auch nicht...
https://gpu.userbenchmark.com/Compare/Nvidia-RTX-2080-Ti-vs-Nvidia-GTX-1080-Ti/4027vs3918
"Game FPS +22%"

Und hat man ne wirklich gute 1080Ti (2Ghz+) sind es schnell nur noch ~+15%...

In Anbetracht der Preissteigerung, ist der P-Leistungssprung eigentlich sogar "negativ" :freak:

M.f.G. JVC

gnomi
2019-09-24, 12:15:21
Der Preis ist schon Mist. :D
Man muss andererseits jedoch schon langsam auch aktuelle Spiele nehmen und im GPU Limit gucken.

klick (https://gamegpu.com/rpg/ролевые/the-surge-2-test-gpu-cpu)
klack (https://www.techpowerup.com/review/wolfenstein-youngblood-benchmark-test-performance/4.html)

Soweit schon nicht übel. Vor allem für 4k.
Für 1080/2080 @ WHQD ist die Situation quasi ähnlich, aber die Preise sind nicht so durch die Decke gegangen. =)

JVC
2019-09-24, 14:31:58
Der Preis ist schon Mist. :D

Aber wenn man sich was gönnen will, sollte man nicht auf den Preis achten müssen :smile:

Bin da voll bei dir ;) in deinem Fall hat es sich ja auch gelohnt :up:
(für ~500.- empfehle ich, wenn man aufs Geld achten will, aber noch immer gebrauchte 1080Ti´s)

M.f.G. JVC

aufkrawall
2019-09-24, 14:39:12
Da laufen jetzt langsam die Gewährleistungsfristen aus und man kauft die Katze im Sack. Mit 2070 Super Customs zahlt man einen abartigen Aufpreis zu 5700 XT Customs, für einen Hauch mehr Performance und RT.

Daredevil
2019-09-24, 15:39:08
Du hast noch das grüne Logo vergessen. Viele mögen Grün, dann haben wir wirklich alle Features aufgelistet, wieso man einen abartigen Aufpreis von 60€ in Betracht ziehen könnte. :D

*Im vergleich zur 2070

dildo4u
2019-09-27, 14:23:54
Neuer PCGH GPU Index:


- Anno 1800
- Assassin's Creed Odyssey
- Ark: Extinction
- Battlefield 5
- The Division 2
- Dirt Rally 2.0
- Far Cry New Dawn
- Forza Horizon 4
- Hitman 2
- Metro Exodus
- Monster Hunter World
- A Plague Tale: Innocence
- Rage 2
- Resident Evil 2 (2019-Remake)
- Shadow of the Tomb Raider
- Subnautica: Below Zero (Early Access)
- Kingdom Come Deliverance
- Total War: Three Kingdoms
- The Witcher 3
- Wolfenstein 2


https://www.pcgameshardware.de/Grafikkarten-Grafikkarte-97980/Specials/Rangliste-GPU-Grafikchip-Benchmark-1174201/

gnomi
2019-09-27, 15:43:20
Da bin ich ja mal auf das neue Heft gespannt. :up
Bei den bisherigen Tests mit überwiegend DX 11 waren zwischen 2080 & 1080 auch bereits 37% im Schnitt herausgekommen.
Das ist auch so das, was ich messen konnte, wenn ich wie bei PCGH tatsächlich zu sehr fordernden Einstellungen und ins GPU Limit kam. (habe allerdings alles mit OC am Limit verglichen)
Man muss aber auch mal feststellen: Die alten Karten werden natürlich dann benachteiligt, denn niemand lässt ein Spiel mit voll überzogenen Einstellungen dauerhaft laufen.
Ich bin auch immer wieder erstaunt, was man so alles anpassen kann. (zum Beispiel kann eine GTX 980 OC mit 4 GB alles bislang in Full HD sehr gut darstellen, und auch eine 680 erfüllt die Mindestvoraussetzungen noch:))
Bei Spielen wie Quantum Break, Wolfenstein 2 und The Division 2 fühlt sich Turing auch im Gegensatz zu Pascal nochmals wohler.
Gleiches gilt für diesen DX 12 und Vulkan Artikel im recht aktuellen Heft.
Man sieht, wo die Reise jetzt schnell hingeht, und dass es wieder wie bei Maxwell zu Pascal diesen Sprung gibt...
Schade, dass keine 980 & 1080 drin sind.
So könnte ich alle meine GPU's perfekt vergleichen. :wink:

oN1
2019-09-27, 16:18:21
Ich habe vorgestern von einer GTX 980 auf eine RTX 2080 aufgerüstet und irgendwie will sich dieses Hochgefühl ("Juhu, endlich mehr Leistung!") gar nicht einstellen. :freak:

Ich spiele noch auf FullHD (Umstieg auf WQHD ist geplant) und habe letzten Monat von einem Intel i7 4770K auf einen Ryzen 3000 gewechselt. Das war echt ein starker Sprung: CS:GO, Overwatch und Apex Legends und PUBG sind bei den Min-FPS deutlich nach oben gegangen. Hätte ich gewusst, wie viel das für's Spielgefühl brachte, dann hätte ich bestimmt schon früher gewechselt.

Wie das so ist, ist mir nach dem CPU-Upgrade aufgefallen, dass jetzt die GPU der Flaschenhals ist. ;D Beim ersten guten Angebot habe ich daher zugeschlagen.

Für SP-Spiele hat es gefühlt aber eigentlich gar nichts gebracht. Ich spiele relativ wenige SP-Titel, aber die die ich gespielt habe liefen vorher schon ausreichend gut. Hitman 2, GTA V und Far Cry 5 erreichten mit der GTX 980 ~70-100fps bei "hohen", also nicht "sehr hohen" Details. Überwiegend sogar leichte Kantenglättung. Wahrscheinlich bin ich nicht genug Ästhet, aber selbst bei FC5 - wo es ja ein High Def Texturpaket gibt - denke ich mir immer "och, hat vorher auch nicht schlechter ausgesehen". Es sind IMO wirklich Nuancen.

Ich habe ehrlich überlegt, ob ich das Ding wieder zurückschicke, aber bei Hell Let Loose hat es dann doch einen positiven Effekt. Das lief mit der alten CPU und GPU mit ~50-80fps bei mittleren Details. Mit der neuen CPU waren dann 60-120fps drin und die Slowdowns quasi weg. Jetzt läuft es mit 100fps+ bei hohen Details. Das sieht wirklich besser aus, allerdings sah es vorher auch okay aus und lief ja selbst mit der alten CPU noch (gerade noch) zufriedenstellend.

Was mich aber auch bewogen hat jetzt aufzurüsten ist, dass die RTX 3080 wohl nicht so bald erscheinen wird und ich vorher auch nicht an drastisch sinkende Preise infolge von AMD-Releases (falls Navi 12/14 überhaupt High End wird) glaube. Hat ja die letzten Male schon nicht geklappt.

Insgesamt ist das alles dennoch etwas enttäuschend. Wahrscheinlich bekommt man den Aha-Effekt erst dann, wenn man die Auflösung wegen eines neuen Monitors oder einer VR-Brille erhöht. Das ganze deckt sich auch mit dem Bauchgefühl, dass die grafische Entwicklung seit spätestens 2013-2015 doch ziemlich stagniert.

gnomi
2019-09-27, 17:50:52
Definitiv.
Full HD ist okay, aber eben auch langsam völlig überholt.
Ich habe mit dem Kauf der GTX 980 vor 5 Jahren bereits auf WQHD plus GSync gewechselt.
Die ganzen grafischen Fortschritte sowie modernes AA kommen in Verbindung mit einem neuen Monitor ganz anders rüber.
Genauso sind die Ultra HD Texturen dann auch interessanter.
Zustimmen muss ich trotzdem, dass die technische Exzellenz und der Technologie Fortschritt zwar extrem weitergingen, es aber gefühlt kleinere WOW Effekte sind.
Auch wenn ein The Division 2 zum Beispiel prima aussieht, in einem DX 11 hochgezogenen Crysis 2 (2011) oder in Teil 3 (2013) kommt New York eben auch schon prima rüber.
Far Cry (2004) zu Crysis (2007) war da schon was ganz anderes. :wink:

Matrix316
2019-09-27, 21:36:52
Jo ein größerer Monitor mit höherer Auflösung und die 2080 wird zum Bottleneck.;)

OC_Burner
2019-10-02, 00:05:53
Kennt jemand eine Methode um Turing in den Fail-Save-Modus ohne Hardwaremodifikation zu bringen? Gemeint ist der Modus wo die GPU nicht höher als 300Mhz taktet.

Nosferatu1
2019-10-03, 22:11:35
Wie viel % ist eine 2080 super schneller als ne 2070 super?

hq-hq
2019-10-03, 22:28:29
Wie viel % ist eine 2080 super schneller als ne 2070 super?

hm nach den HW-Daten sollte das etwa so aussehen:
2070 Super = 100%
2080 FE = ~115%
2080 Super = ~122%
2080 Ti = ~157%

praktisch sind es wohl nur ~15% was die 2080 Super schneller ist als die 2070 Super

Nosferatu1
2019-10-03, 22:45:52
Dankeschön :) dachte ich schon wenn ne 2080ti fast 60% schneller wäre....sehe in benchmarks nur 30-35% mehr. 15% richtig geschätzt gibt leider keine Videos von ner übertaktetet 2080S bzw ich finde keine.

horn 12
2019-10-03, 22:48:54
2080 TI ist vielleicht 20% schneller als eine RTX 2080 Super Super Super
Wenn überhaupt ...
Niemals die 30+ Prozent
Wo hats du denn dies einmal her.


Ah, sehe du vergleichst zur RTX 2070 Super
Da schon eher.

Nosferatu1
2019-10-03, 22:55:22
Richtig von ner 2070s. Da ich erwäge die 2080s zu kaufen da ein spiel auch beiliegt und in 4k sind ein paar mehr fps auch gut aber OC ergebnisse finde ich zu dieser Karte nicht wirklich. Der Speicher soll ja extrem gut sein zum Oc laut tests.(hoffe das sind nicht nur Test Samples)

hq-hq
2019-10-03, 23:01:14
2080 TI ist vielleicht 20% schneller als eine RTX 2080 Super Super Super
Wenn überhaupt ...
Niemals die 30+ Prozent
Wo hats du denn dies einmal her.


Ah, sehe du vergleichst zur RTX 2070 Super
Da schon eher.


naja, wenn es richtig herausfordernd wird und bei etwa gleichem GPU Takt ist die 2080Ti (wenn nicht Power limitiert) schon gut 30% schneller als die 2080 Super

ansonsten eher nur 20% das stimmt schon :biggrin:

Nosferatu1
2019-10-03, 23:09:03
Dann sauft die aber auch fast 400 watt :D . Nene meine 2070s macht mit Uv 160-170 Watt bei Stock leistung. Oc ist total sinnlos geworden(bis auf speicher oc imo) die paar fps sind keine 50+ an watt wert + hitze und lärm.

hq-hq
2019-10-04, 02:06:16
Dann sauft die aber auch fast 400 watt :D . Nene meine 2070s macht mit Uv 160-170 Watt bei Stock leistung. Oc ist total sinnlos geworden(bis auf speicher oc imo) die paar fps sind keine 50+ an watt wert + hitze und lärm.


stimmt natürlich, hab auch keine Wasserkühlung für die GPU
allerdings mit 60Hz und FastSync (120fps) liegt sie aktuell meist bei rund 280Watt und um die 70°C bei ~2000rpm - das ist OK, nur im Falle des Falles saugt sie über 300Watt, während des Zockens merkst das mäßige Getöse garantiert nicht

Daredevil
2019-10-04, 02:46:20
Apropo WaKülose RTX2080ti, ganz viel große Liebe für die MSI Gaming X Trio! :)
Ich habe hier immer drei Profile, man beachte Verbrauch und Umdrehungen der Lüfter:

Stock:
https://abload.de/img/stockiwku8.gif

Eco:
https://abload.de/img/eco5tk1g.gif
Performance:
https://abload.de/img/perfl5kpb.gif
Afterburner:
https://abload.de/img/aftbrnrujqu.gif



Ähnelt stark der Vega64 Nitro+ von Sapphire, also wenn man es leise möchte ohne große WaKü Späßchen, auf jeden Fall ne gute wuchtige Wahl.
PS: Ganz viel Number Crunching, deswegen der niedrige Takt.

Nosferatu1
2019-10-04, 02:48:43
Meine 2070s wird mit 80% Pt 66 grad max und ist fast nicht wahrzunehmen ausser es ist absolute stille im Raum und das obwohl ich die billigste Custom habe Kfa 2 ex. Schade das es dann mächtig rauf geht mit dem Preis die 2080s 200€ teurer für nur 15% (gut mit dem spiele bundle 150 aber immer noch saftig hätte sie mehr vram grrrr). Die 2080ti ist mir aus Prinzip zu teuer über 1k € ist schon ne nummer quasi über doppelt so teuer wie meine 2070s (517€) für 35% mehr Power im schnitt. Puh schade aber ohne Konkurrenz heist es warten. Hoffe due nächste 70iger karte hat dann diese Leistung für 500-600(träum)

Daredevil
2019-10-04, 02:59:32
Die billigste KFA wäre die Dual Slot Variante. ^^
Du hast auf jeden Fall genau richtig zur Triple Slot Variante gegriffen und die kann man in jeder Preisklasse immer quasi als Nobrainer nehmen. Mehr Metall = mehr Spaß.

Die MSI habe ich für 800€ bekommen, Angebote sind selten, aber es gibt sie immer wieder. :)
Aber viel ist bei dir ja eh nicht mehr nach oben hin, wenn du schon ne 2070S hast, die paar Prozente machen den Schinken auch nicht mehr großartig fett, solang es halt keine TI ist.

Nosferatu1
2019-10-04, 03:21:10
Ist die billigste bei MF 517€ bis auf Blower ausgenommen. Wo für 800€? Das auch noch ein Top Model *neidisch kuck* ich erwäge das nur weil Nvidia gerade ein spiel dazu gibt sonst wäre es hirnrissig hm. Oder ich kauf das game so spare 100€ und habe kein Leistungsplus :D ach weis nicht hehe. Irgendwie habe ich auch das gefüjl das Nvidia eine 2080 ti super in petto hat für big navi, wobei ich nicht glaube das diese Navi Gen an ne 2080ti rankommt sonst hätten sie schon releast. Nvidia soll hinne machen mit deren 7nm Kärtchen.

basix
2019-10-04, 08:00:39
Ich kann mir eine Ti Super fast nicht vorstellen, ausser man geht auf 300W. Der Vollausbau einer Titan ist ja nur marginal schneller als die Ti.

BlacKi
2019-10-04, 12:42:18
ich hoffe ja, das die 3000er serie bald kommt. aber das sieht ganz schlecht aus, wenn sie weiter superkarten releasen...

dildo4u
2019-10-04, 12:58:01
Da wird nix kommen so lange AMD sie nicht antreibt,Intel fängt ja jetzt erst endlich an auf Ryzen(Threadripper) zu reagieren.Und das nur weil sie die Multicore Krone verloren haben.

Bucklew
2019-10-04, 13:28:49
Vor 2020 wird es sowieso nix geben, was einer 2080Ti gefährlich wird. Weder bei grün noch bei rot.

Linmoum
2019-10-04, 14:24:20
Da wird nix kommen so lange AMD sie nicht antreibt,Intel fängt ja jetzt erst endlich an auf Ryzen(Threadripper) zu reagieren.Und das nur weil sie die Multicore Krone verloren haben.
Es kommt nix, weil 7nm EUV noch nicht bereit ist. Hat nichts mit irgendwelchen Reaktionen zu tun. Auch unabhängig davon, ob die Gerüchte stimmen, dass die Yields bei Samsung angeblich noch mies sein sollen. Ein Release jetzt kommt viel zu früh.

Und eine 2080Ti Super lohnt sich einfach nicht.

TurricanM3
2019-10-04, 14:30:41
Noch jemand das Problem, dass der AB das 2D-Profil nicht setzt? Ich hab immer 810 RAM-Takt dadurch. Das ging bis vor einiger Zeit?
DDU hat nichts gebracht.
Hat auch nichts mit irgendwelchen Settings im Treiber noch 144Hz was zu tun. Selbst mit 60Hz schaltet der AB nicht auf 2D.

Entferne ich das OC, taktet der RAM auf 405. Das bleibt auch so bis +150MHz offset. Setze ich 165MHz geht der RAM auf 810 idle?!
Ich habe im Alltag eine 925mV Kurve @2025MHz. Das ist im Prinzip das 165MHz offset, bloß halt mit reduzierter Spannung.

Könnte schwören das war früher nicht, hatte aber auch mal ein anderes Bios. Ist inzwischen wieder das Originale, da ich das PT eh nicht brauche.

Habt ihr auch so Prozesse @GPU:

https://abload.de/img/asdasdasdasdasd31j0o.png (https://abload.de/image.php?img=asdasdasdasdasd31j0o.png)

Idle Verbrauch der Karte ist zu hoch:

https://abload.de/img/asdasdasdasdasdlfjlc.png (https://abload.de/image.php?img=asdasdasdasdasdlfjlc.png)

Andere haben da viel weniger. :confused:
Kiste verbrät idle 125w rum. :freak:

dildo4u
2019-10-04, 14:34:00
Es kommt nix, weil 7nm EUV noch nicht bereit ist. Hat nichts mit irgendwelchen Reaktionen zu tun. Auch unabhängig davon, ob die Gerüchte stimmen, dass die Yields bei Samsung angeblich noch mies sein sollen. Ein Release jetzt kommt viel zu früh.

Und eine 2080Ti Super lohnt sich einfach nicht.

Es wurde doch dementiert das nur bei Samsung gefertigt wird.

https://www.tomshardware.com/news/nvidia-ampere-gpu-graphics-card-samsung,39787.html

Und TSMC fertigt schon mit EUV.

https://www.golem.de/news/n7-mit-euv-tsmc-startet-fertigung-von-apples-a13-chip-1905-141186.html


Vega 7nm musste ja auch Ende 2018 gefertigt werden wenn sie im Februar auf den Markt kommt,nicht unrealistisch das man das auch mit 7nm EUV schaffen könnte.

hq-hq
2019-10-04, 14:50:58
Noch jemand das Problem, dass der AB das 2D-Profil nicht setzt? Ich hab immer 810 RAM-Takt dadurch. Das ging bis vor einiger Zeit?
DDU hat nichts gebracht.
Hat auch nichts mit irgendwelchen Settings im Treiber noch 144Hz was zu tun. Selbst mit 60Hz schaltet der AB nicht auf 2D.

Entferne ich das OC, taktet der RAM auf 405. Das bleibt auch so bis +150MHz offset. Setze ich 165MHz geht der RAM auf 810 idle?!
Ich habe im Alltag eine 925mV Kurve @2025MHz. Das ist im Prinzip das 165MHz offset, bloß halt mit reduzierter Spannung.

Könnte schwören das war früher nicht, hatte aber auch mal ein anderes Bios. Ist inzwischen wieder das Originale, da ich das PT eh nicht brauche.

Habt ihr auch so Prozesse @GPU:

https://abload.de/img/asdasdasdasdasd31j0o.png (https://abload.de/image.php?img=asdasdasdasdasd31j0o.png)

Idle Verbrauch der Karte ist zu hoch:

https://abload.de/img/asdasdasdasdasdlfjlc.png (https://abload.de/image.php?img=asdasdasdasdasdlfjlc.png)

Andere haben da viel weniger. :confused:
Kiste verbrät idle 125w rum. :freak:

bei mir Idle verbrät der PC 51Watt laut Energiekostenmessgerät, die sind aber meistens sehr ungenau bei niedrigem Verbrauch.
Grafikkarte ca. 20Watt nach GPUz und CPU 35Watt nach CoreTemp (Energiesparfunktionen sind im Bios ziemlich deaktiviert).


https://abload.de/img/load_idle_gpukqk7v.jpg

TurricanM3
2019-10-04, 14:54:06
Ist bei mir wegen der Wakü mehr. Hab zwei D5 drin die schon gut was ziehen. Mit Intel HEDT hatte ich noch wesentlich mehr. Dachte mal das läge an meinem uralten Netzteil, ist mit dem neuen aber ebenso.
Naja, das mit dem RAM-Takt ist halt irgendwie komisch.

gedi
2019-10-04, 15:23:32
Nimm den neuesten NV-Treiber, der hat bei mir das 2D-Taktproblem gelöst.

N0Thing
2019-10-04, 16:02:34
Es wurde doch dementiert das nur bei Samsung gefertigt wird.

https://www.tomshardware.com/news/nvidia-ampere-gpu-graphics-card-samsung,39787.html

Bleibt die Frage, was Nvidia wo fertigen lassen will. Wenn sie für die großen GPUs Samsung nutzen wollten, wäre es ungünstig. Sollten dort die kleinen Einstiegs-GPUs gefertigt werden, hätten Probleme bei der Fertigung wohl weniger Konsequenzen.

Daredevil
2019-10-04, 17:16:37
Noch jemand das Problem, dass der AB das 2D-Profil nicht setzt? Ich hab immer 810 RAM-Takt dadurch. Das ging bis vor einiger Zeit?
DDU hat nichts gebracht.
Hat auch nichts mit irgendwelchen Settings im Treiber noch 144Hz was zu tun. Selbst mit 60Hz schaltet der AB nicht auf 2D.

Entferne ich das OC, taktet der RAM auf 405. Das bleibt auch so bis +150MHz offset. Setze ich 165MHz geht der RAM auf 810 idle?!
Ich habe im Alltag eine 925mV Kurve @2025MHz. Das ist im Prinzip das 165MHz offset, bloß halt mit reduzierter Spannung.

Könnte schwören das war früher nicht, hatte aber auch mal ein anderes Bios. Ist inzwischen wieder das Originale, da ich das PT eh nicht brauche.

Habt ihr auch so Prozesse @GPU:

https://abload.de/img/asdasdasdasdasd31j0o.png (https://abload.de/image.php?img=asdasdasdasdasd31j0o.png)

Idle Verbrauch der Karte ist zu hoch:

https://abload.de/img/asdasdasdasdasdlfjlc.png (https://abload.de/image.php?img=asdasdasdasdasdlfjlc.png)

Andere haben da viel weniger. :confused:
Kiste verbrät idle 125w rum. :freak:
Nvidia Energieeinstellungen auf Adaptiv?
Bei mir schauts so aus:
https://abload.de/img/22ovjuz.gif

Neuestes Win+Treiber in 4k@120Hz Gsync.
Taskmanager Prozesse habe ich auch ein paar, scheint also normal zu sein.
Meine Kiste verbraucht knapp 70w im Idle, das meiste kommt vom festgetakteten Ryzen 1600@4Ghz bei 1.4v.

Nosferatu1
2019-10-04, 17:51:19
bei mir sind nur 7 watt aber okay 70iger karte xD

TurricanM3
2019-10-04, 19:40:57
Mit dem neuen Treiber:

https://abload.de/img/sadsdfsdfsdfedjch.png (https://abload.de/image.php?img=sadsdfsdfsdfedjch.png)

Treiber alles @standard.
Keine Ahnung was das ist. Extra Win neu installieren werde ich nicht. Egal.

Daredevil
2019-10-04, 20:22:09
Ich habe zumindest bei Palit die Erfahrung gemacht, dass gerne auch innerhalb der gleiche Reihe Karten unterschiedliche Idle Verbrauchsswerte haben.
Zumindest hatte ich eine Karte, wo es im normalen Rahmen war und eine, die nicht unter 50w ging.
Das ganze am gleichen Tag mit den gleichen Specs.

Aber keine Ahnung, warum das so sein kann. Beide Karten waren aus dem Alternate Outlet, vielleicht ist das auch ne Bios Sache.
Meine jetzige ist komplett Stock.

Nosferatu1
2019-10-04, 20:41:12
50 watt wowww, das ist mein ganzer pc im idle.

Daredevil
2019-10-04, 23:07:37
Bleibt das Zimmer halt im Winter warm. :D

gnomi
2019-10-05, 12:00:26
Ich komme mit dieser 2080 Karte (Asus Dual Advanced) (https://geizhals.de/asus-dual-geforce-rtx-2080-advanced-evo-90yv0cl1-m0nm00-a2061047.html?hloc=at&hloc=de) laut GPU Z gerade beim Surfen und Posten plus Musik auf 18 Watt Verbrauch. (Ram und GPU takten ordentlich runter, Lüfter ist bei 45 Grad und daher aus)
Mit der Palit Gamerock 1080 Premium vorher waren die Werte AFAIR äußerst ähnlich- eventuell sogar noch minimal drunter!
Beide GPU's takten trotz OC Profilen dynamisch einwandfrei runter.
Gesamtverbrauch System so 50-55 Watt bei minimaler Tätigkeit. (I7 8700K mit Dark Rock 4 Pro dynamisch bis 4,7 GHz, 32GB DDR 4 3866 MHz Ram, ausschließlich SATA SSD Platten, paar USB Geräte, PCIE Soundkarte und LAN intern, 8 Jahre altes Corsair AX 750 Watt Netzteil)
Bin was das angeht sehr zufrieden, auch wenn die Verbrauchszahlen keine Chance gegen mein altes Surface 2 Pro haben, mit dem ich am meisten mache.
Müsste ich nicht wegen so vieler Downloads und miesem Internet den Rechner zusätzlich nutzen, wäre der öfter aus. (immerhin habe ich jetzt seit kurzem 7 statt 2 MBit :freak: )
Aber wenn man das mal mit früher vergleicht, wo eine Glühbirne mehr zog oder Geräte locker lustig immer volle Pulle liefen. Einfach top. :up:

So eine 2080 ist trotzdem aufgerissen natürlich durstig und läuft auch bei 270 Watt Maximum oftmals ins Powerlimit.
Die 225 Watt erreicht man nur im "Vernunftmodus".
Will ich den GPU Takt bei 1950+ und den Speicher bei 8000 MHz haben, muss ich mit 255 Watt Verbrauch im Schnitt rechnen. (etwa 35-50 Watt mehr als eine ausgereizte 1080 leider)
Im Gegensatz zur CPU habe ich aber wohl ein gutes Exemplar erwischt, und da Spiele zumeist GPU limitierend sind und die ganzen Features schon jetzt Power brauchen, lasse ich das zunächst mal so. :wink:

Cubitus
2019-10-05, 13:19:32
Sobald mehrere Monitore verwendet werden schlucken die Nvidia Karten immer mehr Strom.. ist doch schon seit einer Dekade so..

Ich hab mich mittlerweile damit abgefunden :frown:
Was hilft, der gute alte Inspector fix.. Allerdings kann dann das komplette Bild im Desktop flackern..

https://www.overclock.net/forum/69-nvidia/964370-howto-dual-monitor-downclocking-fix-nvidia-cards.html

aufkrawall
2019-10-05, 13:36:07
Auch mit Nvidia sollte der Verbrauch bei identischen Monitoren/Refreshraten runtergehen.

dildo4u
2019-10-05, 14:24:24
Sobald mehrere Monitore verwendet werden schlucken die Nvidia Karten immer mehr Strom.. ist doch schon seit einer Dekade so..

Ich hab mich mittlerweile damit abgefunden :frown:
Was hilft, der gute alte Inspector fix.. Allerdings kann dann das komplette Bild im Desktop flackern..

https://www.overclock.net/forum/69-nvidia/964370-howto-dual-monitor-downclocking-fix-nvidia-cards.html
Hängt vom Setup ab,ich hab hier Dell TFT 1080p60hz per Displayport und ein Samsung 4KTV@60hz per HDMI und 8 Watt im Idle mit einer 1070.

Entspricht dem was Techpowerup hat.

https://www.techpowerup.com/review/asrock-radeon-rx-5700-xt-taichi-oc-plus/30.html

Geächteter
2019-10-05, 14:35:26
Ich habe zumindest bei Palit die Erfahrung gemacht, dass gerne auch innerhalb der gleiche Reihe Karten unterschiedliche Idle Verbrauchsswerte haben.
Zumindest hatte ich eine Karte, wo es im normalen Rahmen war und eine, die nicht unter 50w ging.

Wobei die Anzeige bei Nichtreferenzkarten gerne mal zuviel im Idle anzeigt. Bei ner 2080 non-Ti mal gerne 10 Watt mehr, als wirklich verbraucht wird. Bei den FEs wird dafür im Idle ein bisschen zu wenig angezeigt.

TurricanM3
2019-10-06, 15:00:06
So, habe den Fehler. Es lag an meiner Kurve. Ich habe diese so erstellt wie damals schon zu Titan Xp Zeiten. Einfach mit Shift hochziehen und dann die Punkte nach der Wunschspannung runterziehen. Das war damals ja am schnellsten. Nun habe ich aber mit strg das Ende hochgezogen, der Takt wird also nicht für alle Taktstufen so arg verändert.

Alte "richtige" Kurve:

https://abload.de/img/asdasdasd23rjlc.png (https://abload.de/image.php?img=asdasdasd23rjlc.png)

Speicher klebt idle bei 810MHz.

Neue ehem. "Krüppelkurve":

https://abload.de/img/asdasdasd2tykck.png (https://abload.de/image.php?img=asdasdasd2tykck.png)

RAM@405. 3D dann die gewünschten 925mV@2025MHz.
Ist halt die Frage ob das wieder langsamer ist so? Laut Blaire kostet das keine Leistung mehr?

Wie macht ihr denn eure OC+UV Kurven?

JaniC
2019-10-28, 12:56:37
Irgendwie spinne ich, oder was?

Habe gestern (endlich mal) meine 970 EVO Plus M2 SSD eingebaut, Windows neu aufgesetzt (war von Dezember 2017) und alle SSDs aufgeräumt und am Ende formatiert, so dass ich ein ganz frisches System habe.

Vorher die Lüfterkurve aus dem MSI AB gescreenshotet und so wieder eingestellt wie vorher. Undervoltet hatte ich auch nicht.

Aber jetzt habe ich plötzlich 5-10 Grad mehr und die Lüfter drehen viel höher als vorher?
Vorher konnte ich die 70°C als absolutes Maximum halten, bei 1400-1500rpm maximal, jetzt geht er bis auf 74°C nach relativ kurzer Zeit und die Lüfter gehen auf bis zu 2000 rpm.
Normal waren im Spielbetrieb so 67-69°C bei 1000-1200rpm!

Ich stehe auf dem Schlauch. Was könnte das sein? Sie drehen sich ganz normal, auch alle Gehäuselüfter sind angeschlossen, drehen sich und lassen sich regeln.

Kann doch nicht sein, dass die M2 soviel Hitze abgibt? Das ist doch Quatsch. Aber was ist es dann? Ratlos.

Daredevil
2019-10-28, 13:07:51
Erstmal gibt ne NVME Hitze ab und zweitens, blockiert sie natürlich auch Raum, wo die Abluft der GPU sonst hingegangen wäre, mh?
Hast du ggf. beim Ausbau der GPU ( NVME wird doch bestimmt dann am 16x Slot sein, oder? ) ne Staub"Wolke" gelockert, welcher sich bei der GPU nun auf dem Lamellen gesammelt hat und nichts mehr durchlässt?

JaniC
2019-10-28, 13:17:56
Die SSD ist ja flach auf dem Mainboard, die behindert dort keinen Luftstrom und nimmt auch keine Fläche weg.

Und Staub ist fast keiner im Gehäuse, überall Filter vor und Nichtraucher ohne Tiere. ;)


Aber Temperaturen sind schon anders als bei 2.5" SSDs, laut CrystalDisk hat die M2 36°C während die anderen bei 17°C idlen aktuell (noch nicht lange an). Gestern 45°C zu 20°C.

Imho kann es das trotzdem nicht sein. Zu krass.

TurricanM3
2019-10-28, 13:55:15
800rpm und 5° mehr, das kann nicht sein.
FPS-Limit wie vorher? G-Sync hast genauso an und V-Sync?
Hattest die Karte dafür draußen? Weiß nun nicht wie sie genau verschraubt ist, aber bei manchen arbeitet der Kühler schon etwas auf dem PCB, je nachdem wie man sie rauszieht/einsteckt.

Daredevil
2019-10-28, 14:00:38
Naja eben weil es eine M2 SSD ist, liegt sie nicht flach am Mainboard, sondern hat ja aufgrund dem Abstandshalter ein wenig Spiel.
Wenn dazu noch ein Kühlkörper kommt, kann das ganze gut und gerne mal 1-2cm hoch sein, würde ich mal schätzen. 1-2cm, die eher von der Luftstrom deiner GPU erreicht werden und ggf. ( mit Abwärme der NVME ) direkt wieder Richtung GPU "Einlass" Lüfter geschoben werden.
Die GPU heizt die NVME SSD nämlich nicht nur auf im Sommer, sondern kühlt sie natürlich auch ab einem bestimmten Grad ab.

Wie sehr GPU und NVME Temperaturen zusammen hängen kann ich dir gerne hier einmal zeigen:
https://abload.de/img/unbenannte5kkv.png

Die NVME tut in diesem Fall nichts, sie wird rein durch die Abluft der GPU ( 180w ) auf ( fast ) dem selben Temperaturelevel gebracht. Wenn die NVME nun ein Heizkörper ist, welcher heißer ist als die GPU, beinträchtigt das natürlich auch die Temperatur der GPU, weil es ein Hotspot in unmittelbarer nähe ist.

Ich habe auch erst seit ca. 2 Wochen meine erste NVME und bin negativ überrascht, wie heiß diese Dinger werden. Da ist eine SSD "irgendwo" im Gehäuse schon deutlich unauffälliger.

Edit:
Beispielbild:
https://www.allround-pc.com/wp-content/uploads/2018/09/WD-Black-NVME-M2-SSD-1TB-Auf-dem-Mainboard.jpg

In dem Fall ist die NVME so "Flach", dass sie in der länge der GPU die Abluft auf der Rückseite im schlechtesten Fall erheblich blockiert, gerade bei langsamen Umdrehungen.

Wo hast du die denn verbaut? Über der GPU?

x-force
2019-10-28, 14:33:13
Ist halt die Frage ob das wieder langsamer ist so? Laut Blaire kostet das keine Leistung mehr?

hintergrund:

hw info gibt bei pascal einen video clock aus,

wenn bei gleichem gpu takt der video clock niedrieger liegt, hast du auch weniger leistung.

vielleicht hilft dir das weiter :smile:

JaniC
2019-10-28, 14:33:20
Uff. Danke. Das ist ja heftig.

Eingebaut unterhalb der 2080:

https://abload.de/img/img_20191028_142341vaj1r.jpg

https://abload.de/img/img_20191028_1422555akn3.jpg

Und hier der Gesamtaufbau:

https://abload.de/img/img_20191028_1424115gk1x.jpg

Vorne noch 2 Lüfter, die reinziehen (Fractal R4). Gehäuse normalerweise natürlich geschlossen.
Luftstrom war immer super bisher, der Noctua läuft supersilent und schiebt die Luft vor den hinteren Gehäuselüfter, der sie rauszieht.

Aber jetzt scheint das mit der NVMe alles nicht aufzugehen. Der Airflow im unteren Bereich des Gehäuses ist jetzt wohl nicht mehr ausreichend. Der SSD-Kasten steht voll im Weg, der untere Frontlüfter kommt da mit seinem Luftstrom garnicht mehr an jetzt.
Vorher gab es im unteren Bereich keine Wärmequelle außer der Graka und die hatte genug Raum um sich Frischluft ranzuziehen, die von vorne langsam reinströmt.
Jetzt heizen sich NVMe und Graka gegenseitig auf und das ganze Silentkonzept geht nicht mehr auf.

Hätte ich das vorher gewusst, hätte ich mir nie so eine NVMe geholt. Was ein Mist.

Für mich macht es einen Riesenunterschied, ob der Grakalüfter mit super angenehmen 1300rpm unter Volllast läuft oder mit 1600rpm oder so, die man schon deutlich hört. Bekackt.

Nochmal alles:

https://abload.de/img/img_20191028_143705ntj8h.jpg

(ja, die 750 EVO hängt da hinten, ist aber quasi hochkant an der Rückwand und beinträchtigt nichts)

Könnte die Slotblenden hinten alle drei entfernen aber dann kommt halt wieder fett Staub rein..

Daredevil
2019-10-28, 14:41:39
Ah okay, bei dir ist eigentlich noch genug Luft vorhanden, zumindest sieht man die NVME ja noch und sie wird nicht komplett abgedeckt von der GPU. Da würde ich meine Theorie dann doch etwas nach hinten schieben. ^^ Nichtsdestotrotz hast du unten eine weitere Wärmequelle, die in dem Fall lieben gerne von den GPU Lüftern aufgenommen wird.

Ich habe ebenfalls ne MSI Trio und hier siehst du den Alu Kühlkörper direkt unter der GPU, bei mir ist das deutlich schlimmer von der Platzierung her:
https://cdn.videocardz.com/1/2018/04/AORUS-X470-Ultra-Gaming-2.jpg

Langlay
2019-10-28, 14:42:33
Mich würde wundern, wenn das an der M2 SSD liegt. Die Teile werden zwar warm, aber die geben ja keine riesen Leistung ab. Und der direkte Luftfluss wird davon bei dir imo auch eher gering beeinflusst. Im Zweifel einfach mal die M2 ausbauen, wenns dann nicht besser ist liegt es nicht an der M2 SSD.

JaniC
2019-10-28, 14:46:07
@DD: Hast mal den unteren M2 Steckplatz probiert? Hat zwar keinen Heat Sink, ist aber weiter weg.

@Turri: jo, G-Sync, V-Sync, RTSS auf 141fps usw, alles wie vorher.

@Langlay: M2 wieder ausbauen ist jetzt etwas nervig, da ich ja da jetzt schön Windows drauf installiert habe usw. .. die anderen, alten SATA-SSDs sind formatiert und "wieder jungfräulich".


Ich werde jetzt nochmal etwas testen...

TurricanM3
2019-10-28, 14:48:54
Dass die M.2 derart die Graka aufheizt ist völliger Blödsinn bei den paar Watt Wärmeabgabe...

JaniC
2019-10-28, 14:52:56
Was ist es dann? Vielleicht wird es Zeit zum Undervolten. ;)

970 und 1080 hatte ich undervoltet, bei der RTX2080 war es nicht nötig weil sie so herrlich leise war.

Aber jetzt würde ich vielleicht doch mal testen. Du hattest ja oben geschrieben, dass es sich geändert hat, wie man die Kurve setzen soll, im Vergleich zu Pascal. Hast du dafür irgendwo ein Tutorial?

Hatte eigentlich keine Lust, BFV nochmal zu installieren, um die Werte zu reproduzieren, die ich damals hatte und hier auch dokumentiert hatte (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11925645&postcount=3697). Aber ich komme wohl nicht drum herum.

Die Temps gestern habe ich bei Spyro Reignited erreicht, das scheint seltsamerweise ziemlich fordernd zu sein. Um auszuschließen, dass es am Spiel liegt, muss ich wohl nochmal BFV saugen. :/
Bauchgefühl sagt aber jetzt schon: das ist nicht nur das Spiel, das ist einfach viel wärmer als vorher.

Daredevil
2019-10-28, 14:57:45
Dass die M.2 derart die Graka aufheizt ist völliger Blödsinn bei den paar Watt Wärmeabgabe...
Naja, 9w sollen durch die NVME maximal abgegeben werden und die werden sicherlich dort unten, ganz egal ob sie nun in der Luft liegen oder das Mainboard aufheizen, umherschwirren.
15w sind zumindest bei AMD die Grenze, wo sie Lüfter auf nem Chipsatz beim X570 verbauen. ^^
Zudem wird doch auch der Chipsatz deutlich stärker gefordert, wenn hohe Bandbreiten fließen, mh?

@JaniC
Der untere Slot ist nur mit 2.0 angebunden, deswegen habe ich kategorisch einfach direkt den oberen genommen, gerade auch wegen des Kühlkörpers. ( Wobei im Nachhinein betrachtet...... kann man den bestimmt auch unten einsetzen... )

Langlay
2019-10-28, 14:59:18
@Langlay: M2 wieder ausbauen ist jetzt etwas nervig, da ich ja da jetzt schön Windows drauf installiert habe usw. .. die anderen, alten SATA-SSDs sind formatiert und "wieder jungfräulich".



Dann würde ichs lassen mit dem ausbauen. Wird eh nichts bringen.
Ist den das Powerlimit von der Graka gleich ? Sprich verbracht sie jetzt in Spielen das gleiche wie früher?

@Daredevil 10W mehr im Gehäuse machen keine 200+Watt Graka nicht für 5° heisser und und 500+ mehr RPM. Und wenn die M2 SSD dauerhaft 10W abgeben hätte sie schon kaputt so toll verteilt der Kupferaufkleber nicht die Wärme und die Oberfläche vergrössert nicht wirklich.

Zudem wird doch auch der Chipsatz deutlich stärker gefordert, wenn hohe Bandbreiten fließen, mh?

Macht laut DerBauer quasi keinen Unterschied in der Leistungsaufnahme <1W beim x570 zwischen M2 Load und idle.

Daredevil
2019-10-28, 15:13:59
Jo, gehen wir mal vom M2 Thema ab. Das war eh nur hinein geraten und selbst wenn auch nur, wenn Lüfterschlitze verdeckt werden, wie vermutlich bei mir. :D

Aber mal was anderes @JaniC
Was mir gerade so auffällt, wieso dreht deine Karte @250w überhaupt mit 2000rpm?
Das ist für ne MSI Trio ziemlich schlecht, nicht mal im heißesten Sommer bin ich nur in der Nähe von solchen Werten bekommen.
Hier mal Werte der 2080ti@Stock, also laut Geizhals 300w.
Ist zwar keine RTX2080 und die Oberfläche des DIEs ist kleiner, aber trotzdem sollte es hier doch keine so große Unterschiede geben.

https://abload.de/img/300w1fk53.gif

Ist vielleicht ein Lüfter ausgefallen, oder hängt ein Kabel irgendwie im Rotor?
Weil die Stock Lüfterkurve ist ansich ja schon sehr niedrig.

Hier Stock@250w. Das sind 800rpm weniger im Peak wie bei dir jetzt, da ist irgend was hart im argen, ne Trio steckt mit dem fetten Kühler doch einiges Weg, dass man nie mehr als 1500rpm auf dem Papier sieht. Wie sehen denn die Stock Werte aus?
https://abload.de/img/11k1k3q.gif

PS: Werte ermittelt beim Computing, also mehr Last als bei Games, weil Speicher auch hart belastet wird.
PPS: Laut Geizhals sind die Maße beider Karten gleich, ich gehe mal davon aus, dass die Kühllösung ebenso gleich ist?!

JaniC
2019-10-28, 15:32:24
Habe bisher auch nie 2000rpm gesehen, unter Volllast (in Spielen) höchstens mal 1600 im Sommer.

Ich teste mal weiter und berichte dann.

Alle drei Lüfter drehen frei. Komisch ist aber z.b., dass ich 200rpm Unterschied zwischen Fan1 und Fan2 habe. GPU-Z Screens folgen gleich mal unter Last.
Lade gerade Unigine, damit ich irgendwas Vergleichbares zum Testen habe.
Deren DL Server sind aber leider arschlahm...


@DD: manuelle Lüfterkurve oder Auto?

Hatte sie ja angepasst, weil mir das ständige Anlaufen bei 60°C (glaube ich? Oder 55?) total genervt hat. So laufen sie immer auf 30% und werden dann langsam mehr. War aber so immer sogar noch kühler als mit Stock, da sie vorher schon liefen und nicht erst bei 60° ansprangen. Trotzdem kaum hörbar bis 69°C. Ist jetzt nicht mehr aufrecht zu halten.

So, ich teste mal Unigine Valley.

Daredevil
2019-10-28, 15:44:50
Stock Lüfterkurve und Stock Settings in den Bildern, ich habs lediglich mal angepasst, damit die Lüfter schneller drehen für Benchmarks, weil dann höherer Takt unter den gezielten 71°C. :D
Aber die Lautheit war ( für mich ) nie ein Problem, dass ich da was ändern muss.

Falls es leise sein soll und ich nicht viel Leistung benötige, kommt mein UV 0.7v Profil zum Einsatz.
https://abload.de/img/11pdkzi.gif

Bin mal gespannt, was bei deinen Bildern rauskommt.

JaniC
2019-10-28, 15:53:27
https://abload.de/img/valley2rkur.jpg

Ok, das war Valley 1440p maxed uncapped, das reicht wohl nicht, um die 2080 wirklich zu wecken. ;)

Ich spiele jetzt mal 15 Minuten Spyro Reignited, das scheint einfach extrem fordernd zu sein.
Da habe ich gestern auch die hohen Temperaturen gesehen.
Dann ausführlich gegooglet aber nix gefunden. Gab aber viele Wortspiele mit "Spyro heats up...", "hot", usw. ... ja gut, der Drache speiht halt auch Feuer. Thx Obama.

PS: Die NVMe ist dabei 50°C warm geworden. Alles problemlos.

Daredevil
2019-10-28, 15:54:41
Unigine Superposition in 4k pls, mach hier nicht den Dargo mit diesem Uraltbench. :D

JaniC
2019-10-28, 16:01:00
Erzähl das den DL-Servern von Unigine:

https://abload.de/img/uniginesuperzykoj.jpg

Und ja, die Leitung kann sonst 30MB/s. ;)

JaniC
2019-10-28, 16:23:20
/edit: Ich bin ein Idiot, hatte Powertarget auf 90% weil es mir gestern zu laut wurde. Spyroergebnisse also für die Tonne.
Hatte mich schon gefreut, warum er kühler blieb als gestern.

Jetzt Superposition.

JaniC
2019-10-28, 16:39:03
Superposition 4K, 100%PT

https://abload.de/img/superp100ptfxkmf.png

Witzig: 90%PT: höherer Score, 3 Grad weniger

https://abload.de/img/superp90ptu6jee.png

Viel Lärm (!) um Nichts oder was?
Fans beide Highest 46%, ist bei dem einen aber 300rpm mehr als bei dem anderen. Keine Ahnung, ob das vorher auch so war? Denn 1300 wäre ja ideal.

PS: CPU ist auf 5Ghz, kp wieso er 3,6Ghz Actual da anzeigt.

Nochmal als Referenz:

Mehrere Stunden BFV in 1440p mit Ultra usw. ging mit 1200rpm und maximal 69°C:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11925645&postcount=3697

Kann doch nicht sein, dass BF V so wenig fordernd ist? Leider habe ich keine anderen Spiele hier festgehalten, damals aber viel getestet und war begeistert, wie die Karte fast unhörbar alles wuppt. Irgendwas ist defintiv anders.

basix
2019-10-28, 16:44:16
3.6 GHz ist der Baseclock. Wird von einigen Tools so angezeigt, da Windows das als 100% Leistungsfähigkeit ausweist.

JaniC
2019-10-28, 16:54:17
Mein Verdacht ist, dass er alle drei Lüfter mit der gleichen Drehzahl-Prozent-Angabe anspricht (steht ja auch so bei Afterburner) und daher der Große in der Mitte unnötig höher dreht, weil seine max Drehzahl geringer ist weil er eben mehr Durchmesser hat. Aber das müsste vorher ja auch so gewesen sein.

Der in der Mitte ist 90mm, die anderen beiden 100mm.



I don't get it. Erstmal Pause bevor ich hier weiterspamme.

Werde wohl einfach undervolten und feddich.

Vielleicht liegt es auch am 440 Treiber, hatte vorher 43x drauf.

Daredevil
2019-10-28, 17:55:53
Kann doch nicht sein, dass BF V so wenig fordernd ist?
Der Vergleich wurde im Februar gemacht ( Raumtemp? ) und Allgemein zu BFV, das Spiel hat richtig Bock auf Threads, so richtig. Da kann es durchaus sein, dass deine 6 Threads in irgendeiner Form limitieren und nicht alles rauspressen, was deine GPU gerne möchte. Vielleicht eine Erklärung.

Sonst sieht ~1400-1600rpm schon mal deutlich realistischer aus als eben 2000rpm. So 100%ig vergleichen kannste das mit meinen Werten wie gesagt eh nicht, da der DIE der 2080ti 38% größer ist und somit besser Wärme abgibt.

JaniC
2019-10-29, 17:46:52
Glaube, es ist tatsächlich Spyro Reignited. Das sind Temperaturen da, die erreiche ich nichtmal mit Superposition 8K.
Dazu kommt glaube ich, dass ich mir vorher die rpm von Fan2 angezeigt habe lassen und diese letzten Tage dann Fan1. Der dreht einfach einige rpm höher, bis zu 300rpm Unterschied.
Meine sogar, dass ich vorher nur einen Fan überhaupt hatte als Sensor in AB, aber egal.
Habe jetzt wieder auf den Fan2 geswitched, denn da passt die rpm-Anzeige auch besser zum Geräuschpegel. 1000 nicht hörbar, 1300 noch angenehm, so wie vorher.


Werde jetzt trotzdem undervolten.

Habe mir verschiedene Artikel (z.B. hardwareluxx (https://www.hardwareluxx.de/index.php/news/hardware/grafikkarten/47427-turing-undervolting-15-geringere-leistungsaufnahme-und-dennoch-leichtes-oc.html), reddit (https://www.reddit.com/r/nvidia/comments/ar9w0k/any_undervolted_rtx_2080_owners_out_there/)) und auch Videos (hier z.b. (https://www.youtube.com/watch?v=oGRlYbH_0mE)) angeschaut aber es gibt da immer ein paar Kleinigkeiten, die anders gemacht werden. DEN Weg scheint es nicht zu geben?

Bei der 1080 hatte ich es so gemacht: https://www.youtube.com/watch?v=o_CRCZxtlRs - also manuell alle runterziehen.

Ein paar Fragen:


was die Afterburner (AB) Voltage Einstellungen angeht: alles anhaken, auch "force constant voltage"? Was macht das Setting genau? Habe ich bisher als einzigen nicht angehakt.
der OC Scanner kommt jedes mal (mit meiner gewünschten Lüfterkurve aber auch mit Stock-Fan) nur auf 23Mhz mehr. Gut, nicht so wild, die Gaming X Trio ist ja schon ab Werk ganz gut drüber und taktet anfänglich auf 1980 und geht dann runter; 1960; 1935; 1920 und über 70°C schließlich auf 1905. Dadurch ist aber, wenn ich mich an die Curve halten würde, das Undervolting Potenzial natürlich auch sehr gering, oder sehe ich hier etwas nicht?
In einem Video wurde gesagt, gewünschten Spannung+Takt Punkt auswählen im Curve Editor, hinziehen und dann mit L locken und apply. Aber dann habe ich ja immer diesen Takt und diese Spannung und er geht nie in Idle, oder?
Interessantes Video: Crysis 3 RTX 2080 Undervolted (https://www.youtube.com/watch?v=3XjyBWPqtM4) - hier wird sie radikal auf 1700Mhz und 800mV gesetzt und man verliert nur wenige Frames. Mir schwebt eher so eine Vernunftlösung vor wie 1850Mhz oder vielleicht sogar 1900 und dann eben so wenig Spannung wie möglich dort. Dass man vielleicht auf 64-65°C kommt bei ~1200rpm oder so.
lange Rede, kurzer Sinn: wie genau gehe ich nun im Curve Editor vor? Schritt für Schritt.

Hier meine Curve nach dem OC Scanner:

https://abload.de/img/curveocscannerd0k8k.png

Extra nicht angewendet, damit man die Originallinie noch sieht (man sieht sie ja leider kaum). Wie man sieht, ändert sich da nach oben hin kaum was. Ab 1800Mhz deckungsgleich mit der Stock Corve. Hat MSI schon gut ausgelotet, scheinbar?

Also falls mir einer sagen kann, ob das manuelle Runterziehen immer noch the way to go ist und was es mit "force constant voltage" auf sich hat, wäre ich euch sehr verbunden. Hätte gerne schon normales Idle-Runtertakten usw., nur eben im Volllastbereich etwas weniger Voltage bei 1800-1900 Mhz, die paar Mhz oben raus sind mir völlig egal, wenn ich dafür ein leises System habe.

Danke! :smile:

Daredevil
2019-10-29, 18:42:10
Wenn du eine richtige Kurve willst, würde ich dir folgendes empfehlen:
Lote erstmal dein Wunschverbrauch(Lautstärke) ein, also z.B. 150w.

Dann limitierst du mit dem PowerLimit die Karte auf eben diesen Wert ( Bsp: 280w Stock > 53 PL ) und lässt den OC Scanner nach maximal hohen Taktraten scannen.

Danach hast du deine Default Kurve mit maximal hohen Taktraten nach Nvidia Vorgabe.
Wenn du jetzt noch mehr Takt möchtest, einfach die komplette Kurve in ~25Mz Schritten nach unten regeln ( Alt gedrückt halten ) und halt einen stabilen Betrieb herausfinden.

Du hast dann also einen maximalen Verbrauch, welcher einer maximalen Lautstärke entspricht und durch das UV machst du Ressourcen beim Power Limit und Temp Ressourcen frei, was in höherem Takt resultiert.

Oder halt einfach so. ;D
https://abload.de/img/unbenannt7sj6m.png

Ich habe keine Unterschiede festgestellt zwischen Pascal und Turing.

Lu
2019-11-10, 14:39:09
Welche ist denn die momentan günstigste 2080 ti mit A Chip?
Red Dead Redemption schreit förmlich nach so einer Karte!

TurricanM3
2019-11-10, 14:45:57
Da du Wakü hast: Wenn du eine Karte willst deren Spulen nicht noch mehr Schreien :D dann les mal meine Beiträge dazu (Magic Spulen).

Lu
2019-11-10, 15:10:30
Das einzige was ich von dir auf die schnelle gefunden habe ist das du eine Palit wegen den Magic Spulen hast. Ich spiele aber nicht mit hohen Bildwiederholraten sondern in 4K mit max Details. Hört man die Karten überhaupt bei 35-75 FPS ?

Mein Plan aktuell ist es, die günstigste 2080 Ti mit A Chip zu kaufen und diese mit Wakü zu betreiben. Finde leider keine vernünftige Übersicht im Netz. Deshalb die Frage.

TurricanM3
2019-11-10, 16:43:28
Ich weiß nun nicht wie laut dein PC ist, aber ich höre die Spulen im 3D immer, egal wie viel FPS. Die Magic Spulen sind echt top. Wenn ich da an die Ref.-Karte denke oder meine TxP vorher, wollte ich nie wieder haben, Unterschied wie Tag und Nacht.

BlacKi
2019-11-10, 16:53:45
Mein Plan aktuell ist es, die günstigste 2080 Ti mit A Chip zu kaufen und diese mit Wakü zu betreiben. Finde leider keine vernünftige Übersicht im Netz. Deshalb die Frage.
https://geizhals.de/?cat=gra16_512&xf=132_8192%7E9810_9+11750+-+RTX+2080+Ti

TurricanM3
2019-11-10, 17:24:57
Das ist aber keine A-Chip Liste. Die Zotac Twin hatte ich mal und war nonA.

Daredevil
2019-11-10, 17:31:33
Die Palit Gaming pro OC ist wohl aktuell die günstigste, denke ich.
Aber sind die Versionen nicht mit der Herausgabe der A Biose eh irrelevant?

anorakker
2019-11-10, 17:34:17
Du musst einfach noch den Boost Takt als Filter hinzufügen. Afaik sind (oder müssen sogar sein) alle Karten mit Default (Bios) Boost Takt über 1600MHz mit A-Chip.

Lu
2019-11-10, 18:21:09
Ich weiß nun nicht wie laut dein PC ist, aber ich höre die Spulen im 3D immer, egal wie viel FPS. Die Magic Spulen sind echt top. Wenn ich da an die Ref.-Karte denke oder meine TxP vorher, wollte ich nie wieder haben, Unterschied wie Tag und Nacht.

Du hast recht, ich höre meine Karte auch wenn ich es möchte (trage sonst den T1 und wenn nicht gerade die Welt untergeht höre ich sonst nichts). Danke dir für den Tipp mit den Palits! Wird wohl die Gaming Pro OC.

Lu
2019-11-10, 18:21:31
Die Palit Gaming pro OC ist wohl aktuell die günstigste, denke ich.
Aber sind die Versionen nicht mit der Herausgabe der A Biose eh irrelevant?
Danke für den Tipp!

BlacKi
2019-11-10, 18:25:08
Das ist aber keine A-Chip Liste. Die Zotac Twin hatte ich mal und war nonA.
ah stimmt, die a chips wurden ja nur bei der 2070/80 abgeschafft.

mironicus
2019-11-11, 18:11:38
Hmm... bei den aktuellen Preisen der RTX 2080 Ti tut sich gar nichts, ist preisstabil wie eh und je.

MartinRiggs
2019-11-11, 18:34:26
Vor ein paar Monaten alles richtig gemacht als ich meine für 800€ gekauft habe :love:

JaniC
2019-11-11, 19:32:32
Freue mich auch immer noch über den Preis meiner 2080 damals im Januar (729€) ... kostet aktuell 800€ (https://geizhals.de/msi-geforce-rtx-2080-gaming-x-trio-v372-031r-a1870894.html), lol.

hq-hq
2019-11-11, 20:01:46
ja die Preise... hab meine für 999€ gebraucht gekauft mitte April, der Verkäufer hatte sie am 23.02 für 1510€ gekauft (Strix OC).... und sich dann für 1250€ eine MSI Gaming X Trio wegen der RGB Beleuchtung gekauft :freak:

die genannten 800€ wären auch mein Einstiegspreis gewesen, nur die 1080Ti kam ans Ende ihrer Gewährleistung :frown:

gedi
2019-11-11, 21:44:53
Die Palit 2080Ti mag ja für sich ne gute Karte sein, allerdings ist der Kühler doch massiv überfordert mit der Karte. Klar das man von den Spulen nix hört (man hört auch mit nem Wakü-Block nichts von denen), der Kühler erzeugt genügend Lärm für sich - ohne das es etwas bringt.

Matrix316
2019-11-14, 13:05:16
Was soll sich an den Preisen ändern, wenn AMD nur Karten rausbringt die maximal ähnlich schnell wie ne 2070 oder so sind? Wir brauchen eine Radeon 5800XT die schneller oder gleich schnell wie eine 2080TI ist - aber nur 750 kostet. Dann ändert Nvidia endlich den Preis mal ins realistische. Hat ja bei Intel auch funktioniert. ;)

Raff
2019-11-14, 13:13:29
Die Palit 2080Ti mag ja für sich ne gute Karte sein, allerdings ist der Kühler doch massiv überfordert mit der Karte. Klar das man von den Spulen nix hört (man hört auch mit nem Wakü-Block nichts von denen), der Kühler erzeugt genügend Lärm für sich - ohne das es etwas bringt.

Man muss leider sagen, dass ausnahmslos jedes Luftkühlerdesign überfordert ist, wenn man den TU102 saufen lässt. Und der kann saufen, man braucht halt ein williges BIOS. ;) Bis 300 Watt geht's noch ganz gut, aber darüber brechen Orkane los (bzw. müssen angezettelt werden), um die Ausdünstungen wegzupusten. Sogar das mächtige MSI-Design kollabiert bei ~360 Watt Realleistungsaufnahme und braucht in einem belüfteten Gehäuse ~2.000 RPM für ~75 °C.

MfG
Raff

MartinRiggs
2019-11-14, 13:19:51
Ich hatte die MSI Gaming als 2080 mal zum Test und war davon gar nicht so überzeugt, müsste ja das gleiche Kühldesign wie die 2080Ti sein.
Generell ist die Palit 2080Ti ne gute Karte, wenn es leise sein soll muss man halt mit UV ran und wie Raff schon sagt, der TU102 säuft halt auch ganz gut

Raff
2019-11-14, 13:25:32
In meinem Fall ist das schon mit UV. Das hilft dir da oben leider nur, die groben Ampere-Spikes und das Taktgezitter etwas einzudämmen. Komplett poweroffen wäre ... nun ja, sprichwörtlich auch Polen offen.

MfG
Raff

gedi
2019-11-14, 13:26:45
In meinem Fall ist das schon mit UV. Das hilft dir da oben leider nur, die groben Ampere-Spikes und das Taktgezitter etwas einzudämmen. Komplett poweroffen wäre ... nun ja, sprichwörtlich auch Polen offen.

MfG
Raff

;D

horn 12
2019-11-20, 13:19:40
Kommt nun doch zur CES 2020 eine RTX 2080 TI Super. Dann dürfte Rtx 3080 Ti nicht vor Herbst 2020 kommen.
Nun verspielt NV ihren Vorsprung allemal.

Radeonfreak
2019-11-20, 13:33:47
Kommt nun doch zur CES 2020 eine RTX 2080 TI Super. l.

Wer sagt das? :confused:

Dr.Doom
2019-11-22, 13:37:29
Wer sagt das? :confused:Verkaufst du deine Non-Super-TI? :confused:

Radeonfreak
2019-11-22, 17:44:51
Natürlich nicht.

Raff
2019-11-22, 17:55:36
Naja, kommt auf den Preis an, oder? Für 2.500 Euro würde ich meine schweren Herzens abgeben und zähneknirschend den Aufpreis für die Tittenrittix investieren.

MfG,
Raff

SentinelBorg
2019-11-30, 18:47:01
So, hab mir jetzt auch eine gebrauchte Asus Rog Strix 2080 ti O2G für schlappe 960€ auf Ebay gekrallt. Jetzt wo ich meinen FHD 60 Hz Monitor endlich gegen einen QHD 144 Hz upgegradet hatte, lohnt sich das nun auch. :)

hq-hq
2019-12-14, 21:39:20
Glückwunsch, guter Deal.


Hätte mir zu Weihnachten neue GPUs oder entfesselte CPUs gewünscht...

Troyan
2019-12-31, 17:47:08
Habe gerade mein iPhone per USB-C to Lightning an meine 2080TI angeschlossen. Da hat sich der Kauf richtig gelohnt dank Virtuallink Anschluss. :D

Daredevil
2019-12-31, 17:52:47
Die Preise sind aber auch echt komisch, steigen seit nem halben Jahr wieder an.
Die P/L Palit Dual für gerne mal um die 949/999€ kostet neu aktuell 1089€.

@Troyan
Ich habe das bei meinem alten System für schnelles USB genutzt mit meinem USB-C Hub des iPad Pro. ^^

MasterElwood
2019-12-31, 19:54:05
Habe gerade mein iPhone per USB-C to Lightning an meine 2080TI angeschlossen. Da hat sich der Kauf richtig gelohnt dank Virtuallink Anschluss. :D

Was is? Hä? Als Monitor???

Oh - Saft?

Troyan
2020-01-01, 10:43:45
Musste mein iPhone anschließen, um ein paar Whatsup Nachrichten von Android zu kopieren. Und auch, wenn ich mein Mainboard mit USB-C ausgesucht habe, wollte ich VL einfach mal testen. Und es hat einfach funktioniert. Finde ich ziemlich cool, ehrlich gesagt.

Raff
2020-01-03, 10:51:08
Moin!

Ich habe das Thema "BIOSe mit extrem fettem Powerlimit" leider seit einigen Monaten aus den Augen verloren. Meine Gaming X Trio erlaubt bis zu 330 Watt und peakt damit laut Realmessungen auf ca. 350 Watt. Reicht aber nicht, um die Möhre voll auszufahren. Curve hin oder her, ein Dickschiff wie TU102 ist am Ende immer powerlimitiert.

Hier gibt's doch einige Leute mit einer effektiven Turing-Elektroheizung. :biggrin: Was für Möglichkeiten gibt es heute, mehr Suff und somit ein Polster für fiese Fälle zu schaffen? Wir reden von der Mission 2,1/8,2 GHz (GPU/RAM). Einfach irgendein BIOS auf irgendeine andere Karte zu packen, dürfte nicht funktionieren, sondern nur in Einzelfällen.

MfG
Raff

JVC
2020-01-03, 13:02:36
"Bleistift-Mod" kann die Limits einfach und auch komplett aushebeln ;)
Ist aber nicht ganz ungefährlich ^^
Hier z.b. n Mod mit festen widerständen.
https://www.overclock.net/forum/69-nvidia/1714864-2080-ti-working-shunt-mod.html
"100% = 422.5 watts (520W at 123%)"
"Sadly my card doesn't OC that well, 2115 MHz core and 8100 MHz memory, but no throttling is nice."

M.f.G. JVC

hq-hq
2020-01-03, 14:02:22
sieht ja gruselig aus der shunt mod

-> müsste bei msi trio x nicht das MSI GeForce RTX 2080 Ti Lightning Z Bios funzen?

https://www.dropbox.com/s/8s0vewi7ggymmfb/V377_FanRF_Ln2.7z?dl=0 - da sollten 400Watt möglich sein

(https://www.hardwarecooking.fr/test-msi-rtx-2080-ti-lightning-z/2/)


hmm, das PCB hat doch ein paar gravierende Unterschiede zur Trio X - glaub das klappt nicht https://www.igorslab.de/blitz-der-superlative-msi-geforce-rtx-2080-ti-lightning-z-im-test/2/



-> https://www.overclock.net/forum/27716280-post3683.html max 400 watt
https://www.techpowerup.com/vgabios/205495/msi-rtx2080ti-11264-180930

Lowkey
2020-01-03, 14:11:05
Entweder der vBios Flash funktioniert oder es drehen die Lüfter nicht korrekt oder die Karte taktet nicht hoch. Funktionieren tut es immer.

hq-hq
2020-01-03, 15:07:13
Entweder der vBios Flash funktioniert oder es drehen die Lüfter nicht korrekt oder die Karte taktet nicht hoch. Funktionieren tut es immer.

naja nach diversen Aussagen kann es schon mal dunkel bleiben, vielleicht weil einfach nicht mehr alle Ausgänge funktionieren ... ist ja egal, es gibt für die Trio X ja ein 406 Watt Bios, genau das würde ich dann auch verwenden

bei der Strix OC gibts entweder das 360Watt Matrix bios oder das XOC 1000 Watt ohne Curve Editor

Zum Glück gibts eigentlich immer eine Softwarelösung und man muss nicht an dem PCB herumpfuschen :freak:

ne gute Übersicht gibts hier - die aber leider nicht alles enthält was existiert https://www.overclock.net/forum/69-nvidia/1706276-official-nvidia-rtx-2080-ti-owner-s-club.html

Raff
2020-01-03, 15:09:07
Nice, 400 Watt wären schon mal ein guter Anfang. Danke, das probiere ich die Tage mal aus. =) Aber wie kann es sein, dass es sowas gibt? Das muss ja ein Hack sein.

MfG
Raff

Lowkey
2020-01-03, 15:24:28
Hmm der Supportmensch im MSI Forum gibt Auskunft, aber auch nur über offizielle Varianten. Wollte auch wissen woher mein 200w Bios kommt, was er nicht wußte und was wohl eine Spezialvariante für einen Hersteller gewesen ist. Ich vermute, dass ein Hersteller für irgendeine Demo ein Spezialbios bei Nvidia bekommen kann.

Slipknot79
2020-01-04, 01:42:45
Die Trio X hat nen Custom PCB. Kann man damit nen Referenz PCB flashen?
Bzw. spricht das Trio X BIOS Bauteile an, die nur am Trio X PCB vorhanden sind, so dass das BIOS auf Referenz PCBs ned funzt?

Raff
2020-01-04, 08:17:37
Ich hab's gestern noch getan. BIOS und NVFlash bei Techpowerup gezogen und los. Was man auch schon online sieht: Das BIOS meldet sich intern, hinten im String, als "POWER_TEST", muss also wirklich irgendeine Art Beta-Test-BIOS sein. Jedenfalls klappte das Flashen ohne das geringste Problem. Die Karte taktet im Leerlauf noch ordnungsgemäß herunter, sieht alles normal aus - nur dass jetzt die maximale Range wesentlich höher geht (eben 406 statt 330 Watt) und somit Takt und Spannung wesentlich öfter oben bleiben. :)

Wunder jedoch ... gibt es mit +70 Watt nicht. Meine Karte lässt sich zwar nun regelmäßig über die 2,1-GHz-Grenze treiben, 4K-stabil ist das aber nicht. Immerhin konnte ich eine halbe Stunde The Witcher 3 mit ~2.040/8.100 MHz spielen. Bis auf die enorme Heizleistung keine Probleme. Wer also schon immer mal stabil von 2,0 auf 2,05 GHz kommen wollte, fährt mit einer 400-Watt-Firmware gut, aber brutal ineffizient. :uup: Mal sehen, ob auch 1,037 Volt, oder ähnlich, reichen.

MfG
Raff

hq-hq
2020-01-04, 13:21:23
Ich hab's gestern noch getan. BIOS und NVFlash bei Techpowerup gezogen und los. Was man auch schon online sieht: Das BIOS meldet sich intern, hinten im String, als "POWER_TEST", muss also wirklich irgendeine Art Beta-Test-BIOS sein. Jedenfalls klappte das Flashen ohne das geringste Problem. Die Karte taktet im Leerlauf noch ordnungsgemäß herunter, sieht alles normal aus - nur dass jetzt die maximale Range wesentlich höher geht (eben 406 statt 330 Watt) und somit Takt und Spannung wesentlich öfter oben bleiben. :)

Wunder jedoch ... gibt es mit +70 Watt nicht. Meine Karte lässt sich zwar nun regelmäßig über die 2,1-GHz-Grenze treiben, 4K-stabil ist das aber nicht. Immerhin konnte ich eine halbe Stunde The Witcher 3 mit ~2.040/8.100 MHz spielen. Bis auf die enorme Heizleistung keine Probleme. Wer also schon immer mal stabil von 2,0 auf 2,05 GHz kommen wollte, fährt mit einer 400-Watt-Firmware gut, aber brutal ineffizient. :uup: Mal sehen, ob auch 1,037 Volt, oder ähnlich, reichen.

MfG
Raff

bei 71°C GPU Temp reichen bei mir 1.037V für 2025MHz GPU Takt (klappt auch wenn ca. 350Watt verbraten werden)


---
@Slipknot79

Auf ne Duke, TrioX oder gar ne Lighning Z das ref Bios mit 380Watt zu flashen macht ja keinen Sinn wenn es dafür extra von MSI 406 bzw. 400Watt Bios Versionen gibt.
Was ich halt gelesen hab ist das manchmal nicht mehr alle Ausgänge ein Bild liefern oder ein Lüfter nicht läuft oder das Bild einfach schwarz bleibt oder die Grafikkarte in einer Art Notlaufprogramm läuft...

mironicus
2020-01-04, 14:56:45
Ich habe meine RTX 2080 Ti auf 0,9 Volt begrenzt (ergibt max. 1950 MHz), dafür aber 1000 MHz mehr beim Speicher und trotzdem habe ich damit bei 3DMark 6-8% mehr Performance als standardmäßig. Damit bin ich zufrieden.

Slipknot79
2020-01-04, 17:03:09
bei 71°C GPU Temp reichen bei mir 1.037V für 2025MHz GPU Takt (klappt auch wenn ca. 350Watt verbraten werden)


---
@Slipknot79

Auf ne Duke, TrioX oder gar ne Lighning Z das ref Bios mit 380Watt zu flashen macht ja keinen Sinn wenn es dafür extra von MSI 406 bzw. 400Watt Bios Versionen gibt.
Was ich halt gelesen hab ist das manchmal nicht mehr alle Ausgänge ein Bild liefern oder ein Lüfter nicht läuft oder das Bild einfach schwarz bleibt oder die Grafikkarte in einer Art Notlaufprogramm läuft...


Ich meint das eigentlich anders. Nen 406W-BIOS auf ein Referenz PCB flashen, ob das ged?

hq-hq
2020-01-04, 22:01:06
Ich meint das eigentlich anders. Nen 406W-BIOS auf ein Referenz PCB flashen, ob das ged?

glaube worst case wäre kein Bild mehr auf HDMI/Displayport zu bekommen

SentinelBorg
2020-01-06, 02:07:23
400W so krank, ich hab ja schon das Gefühl das mein PC anfängt zu verglühen wenn meine Strix auf 100% läuft. :D

Rampage 2
2020-01-06, 19:08:04
Wunder jedoch ... gibt es mit +70 Watt nicht. Meine Karte lässt sich zwar nun regelmäßig über die 2,1-GHz-Grenze treiben, 4K-stabil ist das aber nicht.

Liegt das immer noch am Power-Limit oder reicht die Kühlung nicht mehr aus?

R2

hlynska
2020-01-06, 20:46:43
Die Spannung reicht nicht mehr :)

Rampage 2
2020-01-10, 19:21:26
Die Spannung reicht nicht mehr :)

Volt-Mods gibt es nicht mehr? :kratz:

R2

Raff
2020-01-10, 21:17:22
Hmmm, wie drücke ich es am besten aus. Vielleicht so: TU102 ist mit 2,1 GHz am Limit - und zwar an jedem. Mit einem 400-Watt-BIOS und entsprechenden Spannungen nahe 1,1 Volt kann man 2,1 GHz durchaus sehen, im Dauerbetrieb führt steigende Temperatur jedoch zu Takt- und Spannungs-Drops, es fließen Ströme dort, wo man sie nicht braucht ... und am Ende fliegt einem die Kiste um die Ohren. Man müsste die GPU dauerhaft auf maximal 40 °C halten, dann klappt das wohl. Mit einer potenten Wasserkühlung geht's. Aber sind die letzten 50 MHz wirklich so einen Aufwand wert? Das muss jeder selbst entscheiden. :)

MfG
Raff

Slipknot79
2020-01-11, 01:55:10
Was bringen eigentlich die moar Watt?
Man kann ja die V-GPU so und so nur per HardwareMod manipulieren?

hq-hq
2020-01-11, 02:02:42
Mit Wasserkühlung und 400 Watt Bios könnte man sich "Big Navi" wohl vom Leib halten :freak:

Eventuell kann man dann noch eine Generation ausharren :biggrin:

https://www.heise.de/newsticker/meldung/Namenlose-AMD-Radeon-Grafikkarte-schlaegt-GeForce-RTX-2080-Ti-in-OpenVR-Benchmark-4632752.html

Slipknot79
2020-01-11, 20:55:18
https://abload.de/img/whatsappimage2020-0182jg8.jpeg

Yea Wakü ist in da house, bin aber nun auf den Gayschmack gecumen etwas zu ocen.

Vorher hatte ich 1920MHz, mit Wakü ged das Teil auf 2025/2040MHz, je nach Temp und Limitart. Daher die Idee noch etwas Bums durch VGPU reinzuballern.

Glaube das höchste was ich gesehen habe, waren 1,042V oder so? Da ged sicher noch was, aber wie, ohne Hardwaremod.


Für die big boobed Navi wirds wohl ned reichen, aber wer weiß was an den Gayrüchten wahr ist.
Generation überspringen, eventuell, mal schauen was mit 3080Ti cumt.

hq-hq
2020-01-11, 22:05:42
ooh, *sozialneidisch-dreinblick* sehr schön :freak:

mit dem AB + Curve Editor (die orig. Kurve darf nicht so platt am Ende sein) kannst du die Spannung etwas nach oben drücken, so gegen 1.075V bis 1.093V

da könnten nochmal 30-45MHz rausschauen, mit Wasserkühlung vielleicht sogar mehr :-)

Slipknot79
2020-01-11, 23:31:53
Axo, habs nicht gaynow beschrieben. Der OC Scanner war schon bereits drübergeballert, so ergeben sich die 2025-2040MHz derzeit, ohne Wakü wollte der Scanner nur 1920MHz sehen.

Im Crytek Raytracing Benchmark waren sogar 1,087V angelegt oO.

Hier mal die Kurve vom OC Scanner, glaube da ged nicht viel moar?

https://abload.de/img/unbenannthskhr.png


Eigentlich sollte ich laut der Kurve fast 2100MHz haben bei ca 1,05V. Habe da aber oft "nur" 2040MHz, ist ja auch Temp-Abhängig so mein Eindruck.

BIOS ist derzeit eins von KFA2 mit 380W.

hq-hq
2020-01-12, 00:48:45
380Watt top,

da ich mit meinem ominösen Omimösen 1000Watt Bios leider keinen Curve Editor nutzen kann hier ein Beispiel von meiner alten 1080Ti, du musst ihm bis zum Ende Zunder geben

https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=68965&stc=1&d=1578786511

Raff
2020-01-12, 00:50:21
Lockt ihr die Spannungen nicht?

MfG
Raff

hq-hq
2020-01-12, 00:53:34
erzwingen konstanter Spannung geht bei mir nur mit der RX580 :frown:

wie machst du es?

Raff
2020-01-12, 00:57:45
An der gewünschten Spannungsstufe einfach die L-Taste drücken; das geht AFAIR seit Pascal. Das ist aber auch nur ein "Richtwert" bzw. die festgelegte Obergrenze, mit steigender Temperatur und wirkendem Powerlimit kommt es immer zu Fluktuationen.

MfG
Raff

hq-hq
2020-01-12, 00:59:58
hm, morgen mal den Bios-Switch umlegen, dann probier ich das mal aus :freak:

hey Slipknot79 probier das bitte doch mal aus:cool:

Slipknot79
2020-01-12, 02:14:12
Der OC Scanner ballert nun ne leicht bessere Kurve raus, traut sich bereits 2055MHz bei bestimmter Spannung (und Temp).

https://abload.de/img/unbenanntinjmv.png

Ich werde morgen versuchen zu locken.

Also gemeint ist, ich locke bei 1.000V und schiebe alles rechts denzent rauf, dass es dann so aussieht?

https://abload.de/img/unbenanntpjkvz.png


Große Busenwunder erwarte ich mir dann auch nicht moar, glaube der OC Scanner ist schon ganz gut unterwegs.

hq-hq
2020-01-12, 02:17:23
was passiert denn wenn du "L" drückst?

IMHO darf die Kurve nicht flach werden wenn man 1.075v bis 1.093v haben möchte... und nach 1.093v abflachen bringt ja nicht sooo viel :biggrin:

Slipknot79
2020-01-12, 02:23:12
Ich konnte vorhin alles rechts von 1.000V parallel verschieben, also leicht nach oben. Bei 1.000V habe ich einfach das kleine Rechteck hochgezogen. L gedrückt halten.

Cumischerweise ged das nun gar ned oO. Mit gedrücktem L erscheint eine gelb-strichlierte Linie die dann flackert, on off on off on off usw...

Außerdem rennt der Test des OC Scanners nun nur noch bei 1.000V Oo

Irgendwas ist da fucked up in der Software oO

Ich werde mich morgen damit moar befassen, shice, ich schlafe unruhig wenn PC-Fragen nicht zufriedenstellend geklärt sind. :redface:


Übringens funzt da auch Strg+Z um die letzten Moves im Diagramm rückgängig zu machen.

hq-hq
2020-01-12, 02:27:12
Ich konnte vorhin alles rechts von 1.000V parallel verschieben, also leicht nach oben. Bei 1.000V habe ich einfach das kleine Rechteck hochgezogen. L gedrückt halten.

Cumischerweise ged das nun gar ned oO. Mit gedrücktem L erscheint eine gelb-strichlierte Linie die dann flackert, on off on off on off usw...

Außerdem rennt der Test des OC Scanners nun nur noch bei 1.000V Oo

Irgendwas ist da fucked up in der Software oO

Ich werde mich morgen damit moar befassen, shice, ich schlafe unruhig wenn PC-Fragen nicht zufriedenstellend geklärt sind. :redface:

"Außerdem rennt der Test des OC Scanners nun nur noch bei 1.000V Oo"

das wär ja der gewünschte Effekt, allerdings bei 1.093V

Slipknot79
2020-01-12, 02:30:42
Die gelbe Linie ist vertikal, locked also die 1.000V.

Hab das nun behoben: Einmal L drücken um die gelbe vertikale Linie auszuschalten, man muss im AFTERBurner dann schnell das dicke Häckchen klicken, denn die vertikale gelbe Linie erscheint nach 2-3s wieder im Diagramm oO

So der Test rennt nun random wie es sein soll. Habe mal so geschoben, dass ab 1.05V 2100MHz laufen, glaub aber der Test wird ned bestanden.


€dit: Oh nice bestanden, 02:32:46 Test completed, cumfidence level is 90% K dann morgen Finetuning, vllt ged da noch was@2100MHz -> Boner then achieved.

Nightspider
2020-01-12, 04:28:14
gaynow,busenwunder,boner und der restliche pseudocoole Schreibstil....

Kommst du gerade in die Pubertät Slipknot79? :usad:

hq-hq
2020-01-12, 11:05:57
gaynow,busenwunder,boner und der restliche pseudocoole Schreibstil....

Kommst du gerade in die Pubertät Slipknot79? :usad:

glaub das ist weil er ein Schluchti ist :freak: (Dialekt)

1.093v bitte probieren :cool:

Slipknot79
2020-01-12, 13:50:56
Wie kann ich 1.093V locken?

Der Curve Editor wandert ja die Frequenzen mit der zugehörigen Spannung ja random durch. Am liebsten wäre mit etwa so eine Einstellung: 1,093V für 1900 bis 2100MHz.
Ich kann ja ned einstellen: 2100MHz = 1,093V?
Vorher gibts noch ein paar andere Frequenzen die angelegt werden können und dort kann die Spannung zB 1,031, dann 1,043, dann wieder 1,087, dann wieder 1,043 etc sein..

Vorhin hat das Teil nen Run mit +150MHz bestanden im OC-Scanner Test.


€dit: k, hab da nen guten Beitrag gayfunden, so wird das wohl gaymeint sein, der dritte von oben:

https://forums.guru3d.com/threads/2080-ti-overclock-curve.426455/

=Floi=
2020-01-12, 16:19:49
für deinen schreibstil solltest mal ein paar punkte bekommen.

gedi
2020-01-12, 18:18:52
Hmmm, wie drücke ich es am besten aus. Vielleicht so: TU102 ist mit 2,1 GHz am Limit - und zwar an jedem. Mit einem 400-Watt-BIOS und entsprechenden Spannungen nahe 1,1 Volt kann man 2,1 GHz durchaus sehen, im Dauerbetrieb führt steigende Temperatur jedoch zu Takt- und Spannungs-Drops, es fließen Ströme dort, wo man sie nicht braucht ... und am Ende fliegt einem die Kiste um die Ohren. Man müsste die GPU dauerhaft auf maximal 40 °C halten, dann klappt das wohl. Mit einer potenten Wasserkühlung geht's. Aber sind die letzten 50 MHz wirklich so einen Aufwand wert? Das muss jeder selbst entscheiden. :)

MfG
Raff


Mit einer potenten Wakü gehen auch mehr als 2.2k. Temps unter 43°C und alles gut. Was limitiert ist die Wattage. Es gibt zwar Vbios-Dateien die gehen bis 1000w und mehr, allerdings sind die Dinger alle scheiße, denn entweder taktet der Vram nicht runter, die Curve geht nicht, oder aber man hängt bei 1.35G fest.

Slipknot79
2020-01-13, 00:08:36
Nicht unbedingt alles gut, 43°C becumst eventuell nur noch mit nem Chiller hin, ungut dann der Lärm.

Habe heute bei mir 2085MHz im Shadow of da Tomb Raider Benchmark gesehen, weiß aber ned ob das noch stable ist. Müsste dazu moar und länger testen.
Meine GPU ist aber auch nichts besonderes. Gefühlsmässig eher unter dem Durchschnitt, da wären 2100MHz mit Wakü schon schwer zu erreichen sein, naya mal schauen was ged. Cume einfach nur gerade zu gar nix ^^

+1050 auf den Micron RAM gehen aber, statt bisher +700 mit LuKü. Für RAM OC eignet sich der Unity Superposition ziemlich gut wie ich rausgayfunden habe.
Wenn das RAM OC zu viel ist, dann ballert der Benchmark recht schnell rote Punkte raus, die willkürlich irgendwo am Bildschirm kurz erscheinen. Je zu viel OC, desto moar Punkte ballern raus. Ziel ist es also keine roten Punkte zu erhalten, man muss während des Benches den Bildschirm beobachten. Ich hatte nach der MetHODE kein Darstellungsfehler in unterschiedlichen Spielen seit fast 1 Jahr, da scheint der Unitiy Benchmark recht empfindlich zu sein, was auch gut ist und ewige Fehlersuche in Spielen erspart bzw. schnelles RAM OC ermöglicht.

gedi
2020-01-13, 16:15:45
Nicht unbedingt alles gut, 43°C becumst eventuell nur noch mit nem Chiller hin, ungut dann der Lärm.

Habe heute bei mir 2085MHz im Shadow of da Tomb Raider Benchmark gesehen, weiß aber ned ob das noch stable ist. Müsste dazu moar und länger testen.
Meine GPU ist aber auch nichts besonderes. Gefühlsmässig eher unter dem Durchschnitt, da wären 2100MHz mit Wakü schon schwer zu erreichen sein, naya mal schauen was ged. Cume einfach nur gerade zu gar nix ^^

+1050 auf den Micron RAM gehen aber, statt bisher +700 mit LuKü. Für RAM OC eignet sich der Unity Superposition ziemlich gut wie ich rausgayfunden habe.
Wenn das RAM OC zu viel ist, dann ballert der Benchmark recht schnell rote Punkte raus, die willkürlich irgendwo am Bildschirm kurz erscheinen. Je zu viel OC, desto moar Punkte ballern raus. Ziel ist es also keine roten Punkte zu erhalten, man muss während des Benches den Bildschirm beobachten. Ich hatte nach der MetHODE kein Darstellungsfehler in unterschiedlichen Spielen seit fast 1 Jahr, da scheint der Unitiy Benchmark recht empfindlich zu sein, was auch gut ist und ewige Fehlersuche in Spielen erspart bzw. schnelles RAM OC ermöglicht.

Nö, hier reicht ein 420er Radi incl. brauchbarer Pumpe aus. Für mehr als 2.2g reichen hier 1.068V aus. Das Problem sind halt die 360W, so dass der Takt oft auf 2.145G fällt.

Slipknot79
2020-01-13, 21:14:13
Was heißt brauchbare Pumpe, bzw wieviel Liter ballerst durch?
Welche Delta hast du zw. Wasser und GPU nach einigen Minuten Volllast?

woodsdog
2020-01-14, 09:59:01
kannst du gefälligst endlich dieses dumme gay/cum-Gesabbel lassen? was für ne homophobe Nummer läuft bei dir eigentlich? In fast jedem Beitrag hier sonderst du diesen Abfall ab.

rausgayfunden (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12190289#post12190289)
gayfunden (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12189872#post12189872)
Aufgabegaypäck (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12190908#post12190908)
Cumischerweise (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12189630&postcount=4194)
cumfidence (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12189633&postcount=4196)
becumst & Cume (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12190289&postcount=4202)

Tarkin
2020-01-14, 12:18:12
kannst du gefälligst endlich dieses dumme gay/cum-Gesabbel lassen? was für ne homophobe Nummer läuft bei dir eigentlich? In fast jedem Beitrag hier sonderst du diesen Abfall ab.

rausgayfunden (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12190289#post12190289)
gayfunden (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12189872#post12189872)
Aufgabegaypäck (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12190908#post12190908)
Cumischerweise (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12189630&postcount=4194)
cumfidence (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12189633&postcount=4196)
becumst & Cume (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12190289&postcount=4202)

ja, das ist ziemlich infantil und NERVIG!

nagus
2020-01-14, 12:54:14
kannst du gefälligst endlich dieses dumme gay/cum-Gesabbel lassen? was für ne homophobe Nummer läuft bei dir eigentlich? In fast jedem Beitrag hier sonderst du diesen Abfall ab.

rausgayfunden (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12190289#post12190289)
gayfunden (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12189872#post12189872)
Aufgabegaypäck (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12190908#post12190908)
Cumischerweise (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12189630&postcount=4194)
cumfidence (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12189633&postcount=4196)
becumst & Cume (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12190289&postcount=4202)

typisches Gaysindl hald... ;D

hq-hq
2020-01-14, 23:19:31
kannst du gefälligst endlich dieses dumme gay/cum-Gesabbel lassen? was für ne homophobe Nummer läuft bei dir eigentlich? In fast jedem Beitrag hier sonderst du diesen Abfall ab.

rausgayfunden (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12190289#post12190289)
gayfunden (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12189872#post12189872)
Aufgabegaypäck (https://www.forum-3dcenter.org/vbulletin/showthread.php?p=12190908#post12190908)
Cumischerweise (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12189630&postcount=4194)
cumfidence (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12189633&postcount=4196)
becumst & Cume (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=12190289&postcount=4202)

also Gayfunden ist definitiv nicht homophob sondern quasi das Gegenteil und Werbung :cop:

wobei es jetzt schon einen komischen Anstrich bekommt...


BTW, ich war zu faul das Gehäuse aufzuschrauben und den Switch umzulegen, hat das mit 1.093v geklappt?

Slipknot79
2020-01-14, 23:38:56
Aaaah Hilfe ich werde gestalked :mad: :cool: :biggrin:

Ich bin immer noch ned dazugecumen, mich damit zu befassen, wie ich die Spannung auf 1,093V locke, bzw. cume ich gerade zu gar nix, ständig muss was sein, und ich platze aber vor Noigier.

Die Spannung ist ja mal 1,05, dann 1,037, dann 1,043, dann .. usw.

Ich hoffe ich habe morgen moar Zeit.


Ich drope hier mal nen Diagramm mit der Frage ob die Kurve etwa so aussehen muss? (Natürlich gay ich ned von 2200MHz bei mir aus)
Bin da noch nen Kacknoob in Bezug auf diese Kurve. :mad: :wink:

https://i.imgur.com/lpFHGcJ.png

Quelle: https://forums.guru3d.com/threads/2080-ti-overclock-curve.426455/

anorakker
2020-01-15, 00:21:51
Wärs denn ok, wenn du ohne diese Wortersetzungen schreiben könntest, oder geht das nicht anders?

Slipknot79
2020-01-15, 00:38:47
also Gayfunden ist definitiv nicht homophob sondern quasi das Gegenteil und Werbung :cop:

wobei es jetzt schon einen komischen Anstrich bekommt...


BTW, ich war zu faul das Gehäuse aufzuschrauben und den Switch umzulegen, hat das mit 1.093v geklappt?


Ok habs nun draußen, wie ich auf 1,093V "locke". Ich muss das über die GPU Temp regeln. Bis ca 52°C legt die GPU 1,093V an, bzw rennen nun 2100MHz damit.
Zumindest ist das nun im Shadow of da Tomb Raider der Fallus, 2 Runs ohne Fehler mit +150 auf GPU und mit +1050 auf den RAM.

Nun müsste ich im Curve Editor bei 1,093V die MHz raufballern bis Freeze, Crash 2 Dekstop etc... folgt.

Hat derzeit aber nun auch die Konsequenz, dass die Radiatorlüfter (3x120mm) auf 100% ballern und im Sommer wirds wohl schwieriger mit den 52°C.

Derzeit isn 360mm Radi drin, wo auch der 9900k dran hängt. Werde mir also noch nen 240mm Radi reinballern, moar Platz habe ich ned und das bei nem Core W 100 ^^. :mad: :redface: Ok mit etwas anderer Einbaulogik ginge noch nen weiterer 240mm Radi.
K, dann Radi bestellen, in 2-3 Wochen weiß ich dann moar, bin vorher im Ausland :cool:
Nen MORA steht da auch noch rum, ist mir aber zu blöd denn auch noch dranzuhängen, nochdazu bei so nem Riesengayhäuse. ^^

Zergra
2020-01-15, 10:39:02
Nen MORA steht da auch noch rum, ist mir aber zu blöd denn auch noch dranzuhängen, nochdazu bei so nem Riesengayhäuse. ^^
Willst den loswerden ? :freak:

Slipknot79
2020-01-15, 22:41:19
Nein, bin gerade am Grübeln ob ich das Teil nicht doch ins Sytem einbinde, mit Schnellkupplungen/-verschlüssen oder so, das wäre eventuell günstiger oder gleich so teuer wie nen 240mm Radi zu integrieren, den ich noch ned besitze, aber der Kühlboobs ääähm -boost wäre deutlich besser, für etwa die selbe Kohle...

Außerdem emotionalle Sache die Shice zu behalten. :redface:

gedi
2020-01-16, 09:10:49
Was heißt brauchbare Pumpe, bzw wieviel Liter ballerst durch?
Welche Delta hast du zw. Wasser und GPU nach einigen Minuten Volllast?
350l/h. Delta ~ 10°C

Slipknot79
2020-01-17, 00:13:22
kk thx.

So, habe mich nun moar damit beschäftigt, wie ich die 1,093V locke, zumindest annähernd, hier ne Anleitung: https://forums.evga.com/Guide-How-to-force-max-voltage-amp-curve-overclock-with-msi-afterburner-m2820280.aspx

Mit der MetHODE cume ich nun tatsächlich auf (bestenfalls und abhängig von der Temp) auf 2130MHz bei 1,093V. Weiß aber noch ned, ob das stable ist. 2145 wollten ned stable sein, 2130MHz hatten bis jetzt keinen Crash, aber was soll man von 3 SOTR Benchmark-Runs halten, nicht viel. Die 2130MHz sehe ich aber nicht oft, und wenn, dann aber tatsächlich mit 1,093V.

Dafür ballern mir aber auch die Radilüfter (3x120mm) um die Ohren, damit ich 47-48°C auf der GPU halten kann, Wasser hat dann 31°C. Und es ist noch ned mal Sommer. Laut Wattmeter muss ich ca 340W wegkühlen.
Dafür halten 2100MHz recht gut, schwankt zwischen 2085 und 2115MHz, meist aber sind es 2100MHz und immer wieder auch 2115, seltener 2085. Im Sommer wirds dann schwieriger. Und obs überhaupt stable ist, weiß ich noch ned. Hängt aber auch stark von der Temp up.

Immerhin gute 9% aus der GPU rausgeholt, wasn Shice eigentlich, früher gabs moar reward fürs ocen. :redface: :wink:

-=Popeye=-
2020-01-17, 00:20:56
Den MoRa einbinden sollte es regeln.

dildo4u
2020-02-15, 11:16:24
Hardware Unboxed hat sich DLSS 2.0 gegenüber 1.0 angesehen.

ScAQ5Of1LfE

aufkrawall
2020-02-15, 13:34:16
Uh, das wird übel für AMD, wenn ein Titel das mal zum Launch mitbringt und damit gebenchmarkt wird.
Hätte wirklich nicht erwartet, dass da noch so viel Potenzial mit der bisherigen Hardware vorhanden ist. Gleichzeitig wird es dann auch ziemlich unwahrscheinlich sein, dass AMD ohne Vorlaufzeit etwas gleichwertiges aus dem Hut zaubert.

Fragman
2020-02-15, 14:08:00
Mit fiel vorgestern bei dem Metro DLC schon auf, das sie das deutlich verbessert haben, obwohl da wohl noch nicht 2.0 zum Einsatz kam (gibt nur on oder off).
Man kann ja eigentlich nur hoffen, das RDNA2 etwas vergleichbares bringt, einfach der Leistung wegen, die man dadurch gewinnt.

JVC
2020-02-15, 14:10:04
Ich finde AMDs Lösung besser.
Lieber hab ich in nicht so aufwendigen Szenen die volle Pracht und nur wen es notwendig ist den "Matsch",
als andauernd den zwar "besseren Matsch" den aber eben immer.

Außerdem benötigt NVs Lösung, soviel ich weis, immer NVs "Gnaden"/Vorbereitung.
Wohingegen AMDs Lösung überall funktionieren sollte(wenn sie mal funktioniert^^).

M.f.G. JVC

P.s.: mir fällt grad nicht ein wie das bei AMD heißt, wo nur wenn die FPS einbrechen "die Auflösung reduziert wird"...
(das scheint auch in den kommenden Konsolen zur Anwendung zu kommen...)

woodsdog
2020-02-15, 14:14:29
@JVC
hast du dir das Video überhaupt angesehen? Hört sich nämlich nicht so an...

Troyan
2020-02-15, 14:18:58
Ich finde AMDs Lösung besser.
Lieber hab ich in nicht so aufwendigen Szenen die volle Pracht und nur wen es notwendig ist den "Matsch",
als andauernd den zwar "besseren Matsch" den aber eben immer.

Außerdem benötigt NVs Lösung, soviel ich weis, immer NVs "Gnaden"/Vorbereitung.
Wohingegen AMDs Lösung überall funktionieren sollte(wenn sie mal funktioniert^^).

M.f.G. JVC

P.s.: mir fällt grad nicht ein wie das bei AMD heißt, wo nur wenn die FPS einbrechen "die Auflösung reduziert wird"...
(das scheint auch in den kommenden Konsolen zur Anwendung zu kommen...)

Stimmt, die Bildqualität massiv zu reduzieren, was zu deutllich schlechterer Grafik führt, findet der JVC Typ besser. ;D

JVC
2020-02-15, 14:20:47
@woodsdog Ne, da hast du teilweise recht, hab nur stellenweise rein geguckt ;)

Aber als 4K+(Downsampling-Hure) interessiert mich permanentes Upscaling eben nicht die Bohne. ^^
Und falls ich es doch benötigen sollte, dann lass ich den Fernseher das Upscaling machen.
Der macht das wirklich richtig gut :wink:

M.f.G. JVC

Edit:
Stimmt, die Bildqualität massiv zu reduzieren, was zu deutllich schlechterer Grafik führt, findet der JVC Typ besser. ;D
Mir muss Meine Grafik gefallen :wink:
Da ich eher ältere Spiele zocke, hab ich selten wirklich Leistungsprobleme...
Wenn ich die Texturqualität reduzieren müsste würde ich mir ne neue Graka holen (Textur benötigt ja fast nur RAM).

woodsdog
2020-02-15, 14:28:21
was sollen die Beiträge JVC?

Offenkundig haben Sie das ganze DLSS Thema erheblich verbessert... und wenn ich durch die Bank weg - ohne speziell auf einzelne Spiele optimierte Lösungen - 30-40% mehr FPS bei offenbar gleichwertiger Grafik bekomme... was soll daran schlecht sein? Dynamischer Res-Scale ist dagegen eine Verschlechterung der Grafik um die FPS zu halten... wirkt wie ein Golf 2 vs kommenden ID.3 im Vergleich.

Einfach mal die Guten Dinge im anderen Lager anerkennen v0v

SKYNET
2020-02-15, 14:43:48
was sollen die Beiträge JVC?

Offenkundig haben Sie das ganze DLSS Thema erheblich verbessert... und wenn ich durch die Bank weg - ohne speziell auf einzelne Spiele optimierte Lösungen - 30-40% mehr FPS bei offenbar gleichwertiger Grafik bekomme... was soll daran schlecht sein? Dynamischer Res-Scale ist dagegen eine Verschlechterung der Grafik um die FPS zu halten... wirkt wie ein Golf 2 vs kommenden ID.3 im Vergleich.

Einfach mal die Guten Dinge im anderen Lager anerkennen v0v


siehste, und ich find beides(AMD und NV version) kacke, nativ oder nix :tongue:

dildo4u
2020-02-15, 14:46:45
AMD wird mit RDNA2 was vergleichbares haben alleine schon damit nicht jeder Konsolen Entwickler eine eigene Lösung bauen muss wie es jetzt der Fall ist.

JVC
2020-02-15, 14:49:11
- ohne speziell auf einzelne Spiele optimierte Lösungen -
Dachte NVs Lösung wird mit nem "Supercomputer" vor berechnet/antrainiert?
Auf jeden Fall ist das "Häkchen" im Spiel und nicht im Treiber.


Einfach mal die Guten Dinge im anderen Lager anerkennen v0v

Nutze selbst ne 1080Ti FE ... https://www.forum-3dcenter.org/vbulletin/member.php?u=37003

Soviel ich weis plant AMD was ähnliches, aber das aktiviert sich hingegen nur wenn es notwendig ist.
Die "Notwendigkeit" wird man vermutlich selbst im Treiber definieren dürfen ;)

Ich werde sehen was NV und AMD mit den nächsten GPUs so bieten werden
und dann das passende Produkt für mich wählen :smile:

M.f.G. JVC

Troyan
2020-02-15, 14:52:30
AMD wird überhaupt nichts in der Form bieten. DLSS ist ein vollkommen anderes herangehen an die Konstruktion von Bildern als wir es kennen. AMD hat überhaupt keine Erfahrung im DL Markt. Alleine was an Software notwendig ist, existiert nicht. Und von der Hardware muss man nicht mal mehr sprechen. DLSS existiert nur, weil nVidia mit Volta TensorCores entwickelt hat.

Was AMD unterstützen wird, ist DirectML und "reines" Upscaling, wie man es in Control sieht. Das ist jedoch nicht vergleichbar mit DLSS.

Die Konsolen werden auf VRS setzen, weil dafür nur vorhandene Hardware aufgebohrt werden muss.

JVC
2020-02-15, 15:28:32
Was AMD unterstützen wird, ist DirectML und "reines" Upscaling, wie man es in Control sieht. Das ist jedoch nicht vergleichbar mit DLSS.

Man kann beides eigentlich doch überhaupt nicht vergleichen.

AMD scheint sich zum Ziel gesetzt zu haben, dem User bei einer frei
gewünschten FPS Zahl immer die bestmögliche Bildqualität zu bieten.

Das klingt für mich einfach wesentlich nützlicher,
als ein "Häkchen" für das "Optimum" was NV für uns vorsieht.


M.f.G. JVC

Ex3cut3r
2020-02-15, 15:52:03
Muss aber auch sagen das DLSS taugt mittlerweile sogar von 1440p ausgehend.

Control Max Settings + RTX all in.
RTX 2080
3440x1440 Nativ:
https://abload.de/img/control_dx12_2020_02_oijms.jpg

3440x1440 DLSS:
https://abload.de/img/control_dx12_2020_02_9hjyw.jpg

Mal eben einfach fast doppelt so hohe FPS für einen minimalen optischen Verlust. :freak:

Ich musste ja schon damals schmunzeln, wo mich einige Herren für meine Wahl ausgelacht haben. Mittlerweile ist eine 1080 Ti in Modernen Spielen hinter einer 2070S und hat solche Features wie RTX und DLSS gar nicht und frisst dazu auch noch unwesentlich mehr Strom. Gut mehr VRAM hat sie, ist aber unter 4K Auflösungen immer noch kein Faktor außer vlt. in Wolfenstein.

Werde aber sowieso bei Ampere wieder wechseln, wird eine 3080 Ti oder non Ti. Mal sehen. Ich behalte meinen 2 Jahres Rhythmus bei. :up:

aufkrawall
2020-02-15, 16:04:18
Man kann beides eigentlich doch überhaupt nicht vergleichen.

Richtig, weil es "beides" überhaupt nicht gibt. Es gibt von AMD kein Äquivalent, solltest du mal begreifen...

JVC
2020-02-15, 16:20:00
Richtig, weil es "beides" überhaupt nicht gibt. Es gibt von AMD kein Äquivalent, solltest du mal begreifen...
Egal :redface:
ich find beides(AMD und NV version) kacke, nativ oder nix :tongue:
Trifft es ganz gut ;)

Wobei ich einem frei konfigurierbaren "low-FPS-Schutz"(ich nenn das AMD Ding mal so) eventuell ne geringe Schanze geben würde.

M.f.G. JVC

robbitop
2020-02-16, 08:14:30
AMD könnte die Erfahrungen der besten Implementierung von Checkerboardrendering aus der PS4Pro anbieten. Das muss dann wie DLSS explizit vom Entwickler eingebaut werden. Wie bei DLSS variieren die Ergebnisse über eine große Bandbreite - von schlecht bis erstaunlich gut. Siehe Horizon. Da sieht es erstklassig aus - auch in Bewegung.
Dank temporaler Rekonstruktion und zusätzlichen Daten aus dem ID Buffer entstehen hier auch echte Mehrinformationen.

IMO interessant wenn zwei verschiedene Rekonstruktionsverfahren gegeneinander konkurrieren.
Wobei ich vermute, dass bei NVs DLSS auch viel über temporale Rekonstruktion und etwas Nachschärfen passiert. IIRC gab es ja irgendwo mal eine Info, dass es in der Praxis aktuell anders funktioniert als man denkt, da die Rechenleistung für das inferencing nicht ausreichend wäre. Dazu gibt es bestimmt auch Papers. Vermutlich ist da noch einiges an Potenzial in der Zukunft. Die neusten Implementierungen sind jedenfalls offenbar ein guter Sprung von den ersten Implementierungen aus.

Daredevil
2020-02-16, 12:53:35
Aus aktuellem Anlass, wieso gibt es eigentlich so große Unterschiede beim Idle verbrauch? What the Hell ist da los? :D
Ich habe jetzt drei Werte hier, die komplett unterschiedlich sind.

Palit 2080ti Dual ( Die günstigste ):
http://gpuz.techpowerup.com/19/01/25/83d.png

MSI 2080ti Trio ( Die High End Karte )
https://abload.de/img/1109kn2.gif

KFA 2080ti ( Referenz? ):
https://abload.de/img/kfan6ki6.gif

gnomi
2020-02-16, 14:10:02
Muss aber auch sagen das DLSS taugt mittlerweile sogar von 1440p ausgehend.

Control Max Settings + RTX all in.
RTX 2080
3440x1440 Nativ:
https://abload.de/img/control_dx12_2020_02_oijms.jpg

3440x1440 DLSS:
https://abload.de/img/control_dx12_2020_02_9hjyw.jpg

Mal eben einfach fast doppelt so hohe FPS für einen minimalen optischen Verlust. :freak:

Ich musste ja schon damals schmunzeln, wo mich einige Herren für meine Wahl ausgelacht haben. Mittlerweile ist eine 1080 Ti in Modernen Spielen hinter einer 2070S und hat solche Features wie RTX und DLSS gar nicht und frisst dazu auch noch unwesentlich mehr Strom. Gut mehr VRAM hat sie, ist aber unter 4K Auflösungen immer noch kein Faktor außer vlt. in Wolfenstein.

Werde aber sowieso bei Ampere wieder wechseln, wird eine 3080 Ti oder non Ti. Mal sehen. Ich behalte meinen 2 Jahres Rhythmus bei. :up:

Man muss dabei allerdings auch glasklar sagen, dass die Lage @ Launch 2018 anders aussah.
Erst mit der Super Serie, besseren Anschaffungspreisen und mehr Support seitens der Software hat nvidia einen einschneidenden Schritt nach vorne machen können.
RTX und DLSS sind natürlich mehr als ein netter Bonus und was lohnenswert Neues.
Es stimmt- die Konsumenten könnten mal aufgeschlossener und enthusiastischer sein wie noch bei Shader 2.0 oder DX11. :wink:
Aber so extrem verwundert mich das nach der sehr guten Pascal Generation und dem gemächlichem Einsatz von DX 12 oder Vulkan jetzt auch nicht.
In dem verlinkten Video zum DLSS wird es wie ich finde sehr gut betrachtet.
Nvidia hat einfach auch nachbessern müssen und nicht zu Beginn vollkommen abgeliefert, wie mit den Folien behauptet. Und beim Speicher gegeizt, auch wenn es natürlich nicht so dramatisch ist und die Käufer selbst mit der 970 scheinbar klarkamen. :freak:

Für Ampere sieht die Ausgangssituation jetzt natürlich phantastisch aus.
Gerade, falls auch endlich bessere Monitore erscheinen und 21:9, 4K, HDR und sowas stärker nachgefragt werden.
Es steht und fällt aber weiterhin mit den Anschaffungspreisen.
Mit den neuen Konsolen muss da schon ab Mittelklasse eine richtig gute GPU Generation kommen.
Ich bin persönlich auch auf eine Kombination von 2080 und 34er GSync im Abverkauf umgeschwenkt, weil ich die Preise von 2080TI und 4K GSync Ultimate überzogen finde.
Mal sehen, was 3080/3080TI so kosten sollen...

Daredevil
2020-02-16, 14:21:50
DLSS ist doch per se eine Technik, die mit der Zeit besser wird, das ist doch klar und wurde auch ganz am Anfang so kommuniziert. Gerade weil es "trainiert" werden muss, hat Nvidia doch jetzt nicht alles fundamental verbessert, sondern einfach das gesagt, was es am Anfang ist.
Eine DL Netzwerk, welches trainiert werden muss und mit der Zeit besser wird.
Also klar, Nvidia muss in dem Sinne natürlich liefern, das sie einfach ihre Versprechen halten, aber sie haben DLSS ja nicht mit der Zeit komplett umgekrempelt, damit es nun besser wurde, oder?

Apropo DLSS aber. :D
Wieso kann ich in FFXV keine Nvidia Features nutzen, also DLSS oder eben Image Sharpening? :(
Ist das wegen der Game Pass Version.... oder wird es einfach nicht unterstützt in WQHD?

dildo4u
2020-02-16, 14:27:11
Da ist noch massig Luft nach oben du hast selbst jetzt noch Games die RTX bekommen sollen aber nicht zum Launch z.b Doom Eternal.
Was natürlich ärgerlich ist da es ein Single Player Game ist was man vermutlich schnell durchzockt.
Und der Preis der 2060 kam grad jetzt erst runter ich habe aber mit einer 1070 null Bock auf ein Vram Downgrade,und das wird Einigen so gehen.
Ich wette Nvidia kotzt massiv das Cyberpunk verschoben wurde,damit hätten sie ihre auf Lager liegenden 12nm Chips abverkauft jetzt kann man gemütlich diese Gen überspringen.

Achill
2020-02-16, 14:59:43
Muss aber auch sagen das DLSS taugt mittlerweile sogar von 1440p ausgehend.

Control Max Settings + RTX all in.
RTX 2080
3440x1440 Nativ:
https://abload.de/img/control_dx12_2020_02_oijms.jpg

3440x1440 DLSS:
https://abload.de/img/control_dx12_2020_02_9hjyw.jpg

Mal eben einfach fast doppelt so hohe FPS für einen minimalen optischen Verlust. :freak:

Ich musste ja schon damals schmunzeln, wo mich einige Herren für meine Wahl ausgelacht haben. Mittlerweile ist eine 1080 Ti in Modernen Spielen hinter einer 2070S und hat solche Features wie RTX und DLSS gar nicht und frisst dazu auch noch unwesentlich mehr Strom. Gut mehr VRAM hat sie, ist aber unter 4K Auflösungen immer noch kein Faktor außer vlt. in Wolfenstein.

Werde aber sowieso bei Ampere wieder wechseln, wird eine 3080 Ti oder non Ti. Mal sehen. Ich behalte meinen 2 Jahres Rhythmus bei.

[..]


Nach all den Jahren der Diskussion rund um das AF oder das ein niedrigerer Tess.Faktor Struktur/Details weg nimmt, kommt bei diesen zwei Bildern eine Aussage von "minimalen optischen Verlust" ... hmm, ist irgendwie schon komisch.

Dabei sieht man m.E. sehr wohl deutliche Unterschiede:
- Color-Banding und ein Rotstich auf der linken Seite auf der Wand unter den Rohren
- Deutliche Verlust von feineren Details bei Gittern die weiter entfernt sind
- Die Objekte auf den Tischen sehen einfacher aus
- Die Schatten unter den Tischen verlieren deutlich an Details
- Die Texturen sehen generell überall aus, als ob diese mindestens eine Detail-Stufe niedriger wären

Auf der Haben-Seite:
- 78% mehr Frames
- Die Kanten sehen weiterhin gut geglättet aus

Unabhängig das ich wahrscheinlich weiterhin nicht NV GPUs mehr kaufen werde, scheint mir das Argumentieren zu DLSS eher Rechtfertigung zu sein als objektive Betrachtung. Es stellt sich doch so dar, dass Control und ähnliche Spiele zeigen, dass man eine 2080TI braucht um Auflösungen um die 1440p mit Raytracing auf Hoch bzw. eine 2080 für RT auf Mittel zu spielen. DLSS wird gebraucht für die kleineren Karten oder wenn man "höhere" Auflösungen haben will. Für mich ist das eher ein Pferdefuß als Heilsbringer.

JVC
2020-02-16, 14:59:50
@Daredevil
Meine 1080Ti genehmigt sich auch o.o.t.b mindestens 18Watt :/
(egal ob n Monitor dran hängt oder nicht, die braucht sie immer)

Aber bei der "KFA 2080ti ( Referenz? ): min 36Watt" muss doch was faul sein :confused:

M.f.G. JVC

@Achill
- Die Befestigungskabel der Lampen verschwinden teilweise komplett
- die Fliesen verlieren die Fugen zum teil ganz und die Spiegelung der Säulen wirken wesentlich gröber (ganz rechts unten)
.........
(für mich wirkt das ganze DLSS Bild irgendwie flacher/billiger.
Das könnte aber auch an meinem 65" liegen, wo man Kleinigkeiten eben schon schnell erkennen kann...)

Troyan
2020-02-16, 15:08:35
Apropo DLSS aber. :D
Wieso kann ich in FFXV keine Nvidia Features nutzen, also DLSS oder eben Image Sharpening? :(
Ist das wegen der Game Pass Version.... oder wird es einfach nicht unterstützt in WQHD?

DLSS in FF15 funktioniert nur in 4K. Du musst Downsampling verwenden, dann kann auch DLSS aktiviert werden.

JVC
2020-02-16, 15:36:53
Du musst Downsampling verwenden, dann kann auch DLSS aktiviert werden.
:confused: Du musst Downsampling verwenden damit AI-Upscaling funktioniert? :hammer:
Echt jetzt ? Steh ich am Schlauch oder ist das nicht eigentlich widersprüchlich ?

M.f.G. JVC

robbitop
2020-02-16, 16:02:03
Schade, dass DLSS immer mal wieder an Raytracing gekoppelt ist. Wäre schön, das flexibler einsetzen zu können.

Troyan
2020-02-16, 16:06:53
Ist es nicht, weder in Control, Bright Memory, Deliver us the Moon, (Wolfenstein - Raytracing kann per Kommando deaktiviert werden), Final Fantasy, Monster Hunter etc.

Daredevil
2020-02-16, 16:07:54
DLSS in FF15 funktioniert nur in 4K. Du musst Downsampling verwenden, dann kann auch DLSS aktiviert werden.
Ah okay, Danke. Wusste nicht, dass die Limitierung bei 4k ist.

Das bringt mir aber aktuell nichts, weil ich ja nen Nativ 4k Fernseher habe, der aber nicht aktuell bei Spielen mit 4k bespielt wird, da 120hz sonst flöten geht.
Also müsste ich nun irgendwie 4k als native Auflösung ausfuchseln, damit ich 4k als Downsampling Version aktivieren kann, damit ich DLSS nutzen kann. :D

Folgendes geht gerade: UHD@60hz + DLSS @70fps
Was ich aber eher will: WQHD@120hz + 150-200% Auflösung + DLSS @90-100fps

Wobei...... doppelt Downsampling machts vermutlich auch nicht besser. ^^

Troyan
2020-02-16, 16:14:07
DSR läuft unabhängig von der Hz-Einstellung. Du kannst also DSR@4K120Hz* einstellen und dann DLSS aktivieren. Kostet ca. 15-20% an Leistung gegenüber WQHD in FF15.

*Nativ 1440p in Windows einstellen und dann DSR im Treiber aktivieren.

robbitop
2020-02-16, 16:19:29
Ist es nicht, weder in Control, Bright Memory, Deliver us the Moon, (Wolfenstein - Raytracing kann per Kommando deaktiviert werden), Final Fantasy, Monster Hunter etc.

In Youngblood war das doch an RT gekoppelt? Auch scheint es nicht mit jeder Auflösung zu gehen.

Troyan
2020-02-16, 16:37:21
Man kann RT per Kommand-Befehl deaktiveren und dann nur mit DLSS spielen. Und es funktioniert in Wolfenstein auflösungsunabhängig. Ich kann auch DLSS aktiv lassen in einer höheren Auflösung als 4K.

Daredevil
2020-02-16, 16:39:36
DSR läuft unabhängig von der Hz-Einstellung. Du kannst also DSR@4K120Hz* einstellen und dann DLSS aktivieren. Kostet ca. 15-20% an Leistung gegenüber WQHD in FF15.

*Nativ 1440p in Windows einstellen und dann DSR im Treiber aktivieren.
Aber wo ists denn? :(
https://abload.de/img/unbenannt0fjbw.png

Sicher, dass sich 4K nicht beißt mit dem DS 4k?
Woher soll Windows denn nun wissen, ob es das Downsampling 4K nutzen soll, oder eben das native?

Aber ich kann auch aktuell kein Nvidia Menu öffnen, also Alt+F3, weil er mir sagt, dass das Spiel nicht unterstützt wird. Vielleicht beißt sich da gerade auch was.

Badesalz
2020-02-16, 19:09:22
Man muss dabei allerdings auch glasklar sagen, dass die Lage @ Launch 2018 anders aussah.
Erst mit der Super Serie, besseren Anschaffungspreisen und mehr Support seitens der Software hat nvidia einen einschneidenden Schritt nach vorne machen können.Ja.

RTX und DLSS sind natürlich mehr als ein netter Bonus und was lohnenswert Neues.Nein. RTX ist kein Bonus. Das ist schon ein ordentliches Feature.

Und nein, DLSS ist kein nettes Bonus und überhaupt nicht mit RT zgleich zu setzen. Das ist ein fragwürdiges Gimmick was man kaum gebrauchen kann. Auch wenn die Freaks meinen das wäre mal was ganz anderes :ulol: ist das mit AMDs RIS direkt wieder gestorben. Wenn man etwas in die Richtung machen will, macht man das wie AMD oder man sollte es lassen.
Bleibt nur zu hoffen, daß NV dieses tote Pferd jetzt nicht aus Sturrheit noch lange reiten will.

Fragman
2020-02-16, 20:12:15
Bei so Begriffen wie totes Pferd weiss ich immer nicht, ob das ernst gemeint ist.
Die Frage wird letztlich sein, werden es die Entwickler nutzen oder nicht.
Sollte nv aber mit einer reinen treiberseitigen Unterstützung um die Ecke kommen (falls das möglich ist), wird amd sich aber bewegen müssen.