PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 6 7 8 9 10 11 12 13 14 [15] 16 17 18 19

Troyan
2019-01-20, 16:45:31
Hast Du ein paar Screenshots?

Aufwerten alter Games könnte tatsächlich ein brauchbares RT Feature sein.

Screenshots funktionieren nicht richtig. Hier mal, was ich mit "Glaswelt" als Screenshot erhalte: https://abload.de/thumb/q2vkpt_2019_01_20_16_avkl7.png (http://abload.de/image.php?img=q2vkpt_2019_01_20_16_avkl7.png)

Hinter mir ist eine Tür, die runterfährt. Das ist schon ziemlich freaky. Wird an der Wand vorne, unten, rechts und in der Waffe gespiegelt. :eek:

Ingame ist alles "weiß".

TurricanM3
2019-01-20, 17:04:53
Hab gerade mal den Superposition mit 2250/8200 laufen lassen. 1080p medium sind 30190 Punkte, was ja nicht so doll ist. Aber ohne Tricks und mein Win ist zugemüllt inkl. der ganzen Tools die da laufen. Die 2250 liegen aber über den gesamten Lauf 100% an. Max PT ist 358W schon (hab das 17er GB Bios mit 366W drauf). In 4K optimized kannst das komplett vergessen. Schwankt die ganze Zeit der Takt von 2250 auf 2190 hin und her. PT wird direkt voll ausgeschöpft.

Kann es sein, dass der Samsung viel weniger auf niedrige Temps reagiert im Gegensatz zum Micron? Meiner läuft genau gleich wie mit Lukü. 8200 24/7. 8300 kriege ich irgendwann Bildfehler in BF V.

2100 (bzw. 2115) / 8200 laufen scheinbar mit 983mV. Bei Temps im Silent mode bis 42°.

Irgendwie bin ich von meiner Flüssigmetal Kur etwas enttäuscht. Hab knapp 10° Delta in BF V mit 2100 (310W peak meine ich). THW hat den bei 380W mit 15° getestet. Bei Pascal etc. hatte ich eher ~5°.

Wer hat hier noch LM drauf?

machst dir wegen 50mhz gedanken, aber die DX12 spikes sind dir egal. ;D

Egal sind mir höchstens deine immer wieder sinnfreien Beiträge, weshalb ich da sonst schon nie drauf eingehe. Du weißt selbst, dass du sehr gerne nur trollst. Wünsche dir da noch viel Spaß dabei. :wink:

TobiWahnKenobi
2019-01-20, 19:54:20
jupp.. auf screenshots erkennt man echt nix.. :-/

https://abload.de/thumb/q2vkpt_2019_01_20_19_lhk25.jpg (http://abload.de/image.php?img=q2vkpt_2019_01_20_19_lhk25.jpg) https://abload.de/thumb/q2vkpt_2019_01_20_19_v5jjn.jpg (http://abload.de/image.php?img=q2vkpt_2019_01_20_19_v5jjn.jpg)
Q2PT, titan v


(..)

mfg
tobi

=Floi=
2019-01-21, 11:57:25
.

was ist da dran sinnfrei, wenn man die spikes sogar in deinem bild sieht?! :rolleyes:
its real!
DX12 ist noch immer nicht spielbar. :facepalm: Die spikes kommen alle paar sek und nich alle paar min einmal. Da kannst mir auch nicht erzählen, dass du das nicht merkst.







Nur weil ich anderen shit nicht hype, trolle ich nicht. Den 9900k finde ich noch immer zu teuer. Ich bin wohl nur aus dem hype train alter raus und mir lieg auch was an meinem geld. ich behalte auch meine hardware mehr als einen monat. :cool: Wegen 50mhz mach ich auch kein fass mehr auf. Weder bei der cpu noch bei der gpu. Laufen muss es. (mit avx :cool: :P )

Sven77
2019-01-21, 12:33:22
was ist da dran sinnfrei, wenn man die spikes sogar in deinem bild sieht?! :rolleyes:

Der Kontext? Wen interessieren die Spikes, da gehts nur um die Taktrate.. lesen hilft

blaidd
2019-01-21, 19:42:23
Quake2 @ RT
https://www.hardwareluxx.de/index.php/news/software/spiele/48350-quake-2-vollstaendig-per-ray-tracing-berechnet.amp.html

Das ist Pathtracing (https://de.wikipedia.org/wiki/Path_Tracing), also eine quasi etwas vereinfachte Variante von Raytracing, aber dafür meines Wissens komplett mit der Technik dargestellt. Aber es läuft über Nvidias RT-Cores. Schon ziemlich eindrücklich... zumindest im übertragenden Sinne fehlt da gar nicht mehr soviel bis einer vollständigen Umsetzung eines modernen Titels (halt mehr oder minder nur soviel, wie von Q2 zum aktuellen Spiel)...

TobiWahnKenobi
2019-01-21, 19:58:51
RT-cores hat die karte gar nicht, mit der ich die bilder da oben gescreenshottet habe.


(..)

mfg
tobi

Troyan
2019-01-21, 20:05:33
Hier gibt es ein paar Werte von Reddit-Usern: https://docs.google.com/spreadsheets/d/1ZVsmPMCYcAAvMbF-B8CSJ9nO_2M070hzdbB-y6ggeuw/edit#gid=0

Turing ist knapp 3x schneller als Volta.

TobiWahnKenobi
2019-01-21, 20:16:02
volta ist dann quasi unter FHD langsamer als TREX @UHD :-) gurke!

https://abload.de/thumb/q2vkpt_2019_01_21_20_v9kwa.jpg (http://abload.de/image.php?img=q2vkpt_2019_01_21_20_v9kwa.jpg)
Q2PT, titan rtx



(..)

mfg
tobi

gravitationsfeld
2019-01-21, 21:01:15
Das ist Pathtracing (https://de.wikipedia.org/wiki/Path_Tracing), also eine quasi etwas vereinfachte Variante von Raytracing
Pathtracing ist kein "vereinfachtes Raytracing".

Cubitus
2019-01-21, 21:35:38
Von der Perfomance spielt es sich in etwa so wie auf meinem damilgen Rechner zu der Zeit, Retro Feeling ist jedenfalls garantiert :freak:

Das Raytracing ist dennoch beeindruckend, in Bewegung sieht das natürlich alles viel besser aus..

https://abload.de/img/ray19ckmp.jpg (http://abload.de/image.php?img=ray19ckmp.jpg)

Aaaber es ist, besonders im Wasser nicht realistisch.
Eigl müsste es durch das Wasser hindurch spiegeln, das Wasser reagiert aber wie Quecksilber.

Szene einmal über Wasser:
https://abload.de/img/ray2n9ku6.jpg (http://abload.de/image.php?img=ray2n9ku6.jpg)

Und die gleiche Szene unter Wasser:
https://abload.de/img/ray3mqjet.jpg (http://abload.de/image.php?img=ray3mqjet.jpg)

wolik
2019-01-21, 23:02:46
Und was nächst ? Wolfenstein 3D, Turok, Unreal? Ihr meint doch nicht ernst :facepalm:
Dank Port Royal endlich gesehen das RT SLI kann. Über Metro Exodus wird schon "viel" geschrieben, nur kein einzige Wort über RT in das Spiel...

Timbaloo
2019-01-21, 23:12:18
Naja, stell dir das in ein zwei weiteren Generationen vor. Mit besseren Texturen und Geometrie. Und dann mit Artwork was gezielt diese Rendertechnik berücksichtigt.

Ich feier den Tag an dem der ganze hingefakte Müll endlich weg ist.

PS: Das Wasser sieht scheisse aus. Besser gesagt, das Quecksilber passt nicht in die Szene.

PPS: Ach, der Quecksilber-Joke war schon gebraucht...

PPPS: Wäre das Quake 1, dann hätte ich längst eine 2070 hier.... GLQuake-Flashbacks... <3

Ex3cut3r
2019-01-21, 23:34:39
Sehe ich auch so, und frage mich was habt ihr erwartet von der ersten Gen? Nvidia macht die ersten Kinderschritte, bis AMD überhaupt mal damit anfängt, dürfte Nvidia viel weiter sein, wie wollen Sie da jemals rankommen? Ist mir persönlich ein Rätsel.

Linmoum
2019-01-21, 23:45:16
Sehe ich auch so, und frage mich was habt ihr erwartet von der ersten Gen? Nvidia macht die ersten Kinderschritte, bis AMD überhaupt mal damit anfängt, dürfte Nvidia viel weiter sein, wie wollen Sie da jemals rankommen? Ist mir persönlich ein Rätsel.
Bis AMD anfängt, ist Ray Tracing bereits weiter als jetzt und Nvidia hat den Beta-Tester gespielt. Muss ja jemand machen und den ersten Schritt gehen, damit sich etwas etabliert.

pixeljetstream
2019-01-21, 23:53:36
Echt jetzt, sich aufregen über die Materialien in nem Proof of concept was ein Wissenschaftler in seiner Freizeit als open-source gebastelt hat... ;)
Was vielleicht auch vergessen wird, quake nutzte vorberechnte Lightmaps für die statische Levelgeometrie. Das lief auch per raytracing aber halt offline einmal und war damals auch schnarch langsam (war selbst beim modding unterwegs). Das kommt in der Demo natürlich nicht zur Geltung, aber im Prinzip könnte man die Levelgeometrie verändern, Lichtquellen des Levels dynamisch bewegen...

NV hat schon Vorteil der erste hier zu sein, aber das Thema ist neu genug so daß es viel zu lösen gibt und im Prinzip kriegen alle Hersteller die Spiele nun gratis als Benchmark, während NV hier auch bissl ins blaue läuft. Es ist für die anderen einfacher konkret was zu optimieren. Es wird imo in 200-400€ range für den Kunden eng bleiben. Kein Vorsprung ist uneinholbar, gibt immer Möglichkeit für clevere Ansätze. Das was NV entwickekt ist angepasst an ihre Architektur (thread management, memory system etc.), andere haben andere Architektur können andere Schwerpunkte setzen.
Am meisten bin ich auf Intel gespannt.

Timbaloo
2019-01-22, 00:37:04
Echt jetzt, sich aufregen über die Materialien in nem Proof of concept was ein Wissenschaftler in seiner Freizeit als open-source gebastelt hat... ;)
Nur für den Fall dass du mich meinst: Ich finde das überhaupt nicht schlimm, es ist eine Technik-Demo/Spielerei.

Am meisten bin ich auf Intel gespannt.
Oh ja. Intel könnte hier eine echte Überraschung werden.

basix
2019-01-22, 01:11:32
Gothic 2/3 mit vollem RT Rendering. :heart:

+++

Dural
2019-01-22, 09:37:59
Sehr nice, dass Nvidia da endlich auch mitmacht. Hat nur viel zu lange gedauert.

Ohne AMD Konkurrenz wäre es wohl nie dazu gekommen und die hätten weiter ihr $500 G-Sync Modul verkauft.

Ich opfere mich dann einfach auch mal, damit die Nvidia Käufer weiterhin offene Standards bekommen und werde weiter versuchen AMD zu unterstützen. :D

Ohne NV würde es ziemlich sicher kein Freesync geben, nur zur Erinnerung Freesync brachte AMD nur als Gegenreaktion auf Gsync und das erst noch mit vielen Verzögerungen und Problemen.

Die Dankbarkeit der heutigen Konsumenten ist grenzenlos, nicht.

Und was nächst ? Wolfenstein 3D, Turok, Unreal? Ihr meint doch nicht ernst :facepalm:
Dank Port Royal endlich gesehen das RT SLI kann. Über Metro Exodus wird schon "viel" geschrieben, nur kein einzige Wort über RT in das Spiel...

Die RTX Serie wurde nicht gemacht das alles über RT läuft, sondern nur Teilbereiche.
Die heutige Hardware wäre wahrscheinlich auch zu langsam, zudem würde vorerst die komplette Software Unterstützung fehlen.

Dank AMD haben wir seit Jahren keinen Technischen Fortschritt mehr, RT könnte sich ziemlich schnell durchsetzen, weil AMD aber rein gar nichts zu bieten hat wird sich das hinausverzögern. (Konsolen)

robbitop
2019-01-22, 09:40:28
G-Sync war das erste Produkt. Die Patente zu async sind iirc älter. Die Grundlage für Async mit dem eDP Standard ist noch älter. Ohne G-Sync wäre ASync defitiv auch erschienen.

GSync hat toll funktioniert. Wurde aber klar genutzt, um Kunden zu binden und absichtlich nicht auf den offenen Standard erweitert (obwohl es im mobilen Bereich ja technisch funktionierte). Und genau dieses Kalkül verärgert einige Konsumenten.

@technischer Fortschritt
Bis vor Turing waren die GCN GPUs noch moderner vom Featureset. Turing hat dies erst vor kurzem geändert. Lisa Su hat bereits bestätigt dass man ebenfalls an einem RT Produkt arbeitet. AMD hat wie jeder ihv auch bei dxr mitgewirkt (spec). Ich vermute, dass es im nächsten Jahr mit Arkturus so weit sein könnte.

Sven77
2019-01-22, 09:41:44
Pathtracing ist kein "vereinfachtes Raytracing".
eher sogar das Gegenteil..

Dural
2019-01-22, 09:43:37
@robbitop

Ja das ist so, aber AMD hätte keinen Finger gerührt hätte es nicht zuerst NV gemacht. Die machen seit Jahren so wie so nur noch das nötigste, zig Neuauflagen ihrer GPUs etc.

robbitop
2019-01-22, 09:47:18
Das ist Spekulation. Patente macht man nicht ohne Grund.
Jetzt wo wieder mehr Geld da ist dank Ryzen denke ich werden wir auch im GPU Bereich wieder mehr Fortschritt sehen.

Troyan
2019-01-22, 09:51:07
@technischer Fortschritt
Bis vor Turing waren die GCN GPUs noch moderner vom Featureset. Turing hat dies erst vor kurzem geändert. Lisa Su hat bereits bestätigt dass man ebenfalls an einem RT Produkt arbeitet. AMD hat wie jeder ihv auch bei dxr mitgewirkt (spec). Ich vermute, dass es im nächsten Jahr mit Arkturus so weit sein könnte.

Maxwell war 2 1/2 Jahre lang das fortschrittlichste, was es gab. Erst mit Vega konnte AMD gleichziehen. Und Turing setzt jetzt noch mal eine Stufe drauf.

robbitop
2019-01-22, 10:01:02
Nicht was AC anging.
Ansonsten wenn du auf die tiers in dx12 anspielst fehlten pre vega nur rastered ordered views um formal das tier zu erhalten. IMO ist diese Differenz nur schwerlich als das „Fortschrittlichste“ zu bezeichnen. AC wiegt da IMO schwerer.
Auch ist esmit der Vulkan Unterstützung lange nicht weit her gewesen. Eine low level API die sicherlich als Fortschritt bezeichnet werden kann.

Troyan
2019-01-22, 10:11:32
CR, Tiled Ressources Tier 3, ROVs, vernünftige Tessellationleistung(!), VR-Hardwarefeatures (die fehlen bis heute komplett!) etc.

Eine Low-Level API hat überhaupt keine Aussagekraft. Sie ist nur Software. Viele Spiele sind nicht mal richtiges DX11, da diese auf Tessellation verzichten. Wieso sollte also ein DX12 Spiel, was kein Tessellation benutzt, interessanter sein als ein DX11 Spiel mit Tessellation? Die meisten DX12 Spiele benutzen des Weiteren nicht mal die neuen Hardwarefeatures. Umsetzungen wie VXAO und HFTS benötigen CR für eine vernünftige Leistung. Man sieht an FF15, wie schlecht eine Emulierung über GS läuft.

Maxwell war 2 1/2 fortschrittlicher und erst mit Vega hat AMD gleichgezogen.

robbitop
2019-01-22, 10:20:38
Tesseleationsleistung ist IMO schwierig als Fortschritt zu deklarieren, da diese in der Praxis nicht limitierte. Welche HW Features @vr sind hier genau gemeint? Wo limitierte das in der Praxis?

Was hat der Vorteil von den 2,3 dx12 HW Features in der Praxis gebracht? Außer dass man formal ein wenig fortschrttlicher ist? Low Level APIs bringen in der Praxis zumindest etwas.

RT ist da schon eher als Fortschritt zu bezeichnen. Aber IMO sollte man da jetzt nicht die große Welle schieben, nur weil der erste IHV gerade inmal seit wenigen Monaten ein Produkt auf dem Markt hat und es gerade mal ein Spiel mit der Technik gibt.

Troyan
2019-01-22, 10:49:02
Tesseleationsleistung ist IMO schwierig als Fortschritt zu deklarieren, da diese in der Praxis nicht limitierte. Welche HW Features @vr sind hier genau gemeint? Wo limitierte das in der Praxis?

Leistung ist Fortschritt. Natürlich limiert der Geometriedurchsatz, wenn man Tessellation vernünftig verwendet. Das hat es bei Cypress getan und macht es heute noch bei Vega.



Was hat der Vorteil von den 2,3 dx12 HW Features in der Praxis gebracht? Außer dass man formal ein wenig fortschrttlicher ist? Low Level APIs bringen in der Praxis zumindest etwas.

Logik? Die HW Features erlauben Umsetzungen von Techniken, die vorher nicht oder nur deutlich leistungsaufwändiger gewesen sind. Das ist das selbe wie mit Tessellation.
Anscheinend gibt es für dich kein Fortschritt, außer wenn AMD etwas besser kann. Bessere Grafik? Nope. Einfachere Umsetzungen? Nope. Da bleibt am Ende ja nicht mehr viel übrig als kaputte DX12/Vulkan-Pfade in Spielen, die grafisch veraltet sind.


RT ist da schon eher als Fortschritt zu bezeichnen. Aber IMO sollte man da jetzt nicht die große Welle schieben, nur weil der erste IHV gerade inmal seit wenigen Monaten ein Produkt auf dem Markt hat und es gerade mal ein Spiel mit der Technik gibt.

Und wieso? Weil deine Lieblingsfirma es nicht unterstützt? Lustig.

robbitop
2019-01-22, 10:55:36
Meine Lieblingsfirma? Eine Firma ist ein profitorientiertes Unternehmen und kein Mensch oder ein Wesen mit einer Seele. Rationale Menschen haben keine Lieblingsfirmen.
Ich verbaue ehrlich gesagt nur NV Karten, weil ich subjektiv das Gesamtpaket besser finde und mich an sie gewöhnt habe. Meine letzte ATI Karte war btw ein Pressesample einer 2900XT, die dann wieder zurück musste. Davor nur 3dfx und nv und seit dem auch wieder nv. Das hat aber mit dieser Diskussion nichts zu tun.

Da du aber offenbar die sachliche Ebene verlassen hast, ist die Diskussion mit deiner Person zu diesem Thema für mich hier beendet.

dildo4u
2019-01-22, 11:07:02
von der mieserablen DX12 leistung der pre-turings wollen wir auch mal lieber nicht anfangen.
Die GTX 1080 hat hier die gleichen oder besser Frametimes als Vega 64 in den DX12 Games.


https://www.techspot.com/review/1781-geforce-rtx-2060-mega-benchmark/

aufkrawall
2019-01-22, 11:15:39
Leistung ist Fortschritt. Natürlich limiert der Geometriedurchsatz, wenn man Tessellation vernünftig verwendet. Das hat es bei Cypress getan und macht es heute noch bei Vega.
Du erzählst Unsinn. SotTR hat die am besten aussehendste Tessellation, und die ist schon auf Polaris extrem günstig.

robbitop
2019-01-22, 11:18:38
Zumal Doom 2016 und Doom Ethernal und Wolfenstein 2 alles andere als kaputte Vulkan Pfade haben und natürlich nicht technisch veraltet sind. Turing spricht auf AC sogar richtig an wenn ich die Benchmarks richtig deute?

hmmm
2019-01-22, 12:15:48
Bei Tessellation ist Nvidia nicht schneller als AMD, sie sind -logischerweise- nur unterschiedlich implementiert. Nvidias Ansatz ist mehr destruktiv und kann sich erst bei unsinnig hohem Faktor von AMD absetzen.
Sinniger ist AMDs Ansatz.

robbitop
2019-01-22, 12:28:46
Soweit ich erkennen kann ist NVs ansatz seit Fermi? Ziemlich elegant. Geometrie-, raster-, tessleistung steigt mit der Anzahl der gpcs.
Kostet sicherlich Transistoren aber führt uA auch dazu, dass es in dem Bereich keine Bottlenecks gibt. Entsprechend höher ist die Geometrieleistung bei NV. Bei AMD hat man ja sukzessive nachgelegt. Aber an NVs Skalierbarkeit kommt man noch nicht heran. Man möge mich gern korrigieren, wenn ich hier etwas falsch verstanden haben sollte.

aufkrawall
2019-01-22, 12:32:45
Da hast du sicherlich Recht. Allerdings les ich nur von Troyan, dass Tess das Über-Feature sei. Von Entwicklern vernehme ich eher anderslautende Wortmeldungen...

Edit: Die DX12_1 Features waren ja auch eine Totgeburt, zumindest mit den Konsolen am Markt.

hmmm
2019-01-22, 12:33:40
Ich betrachte es mehr von der Software Seite. Dezente Tessellation kostet bei Nvidia bereits soviel von meinem frametime Budget, das Lohnt sich nicht bei sinnigem Faktor. Bei AMD hingegen schon.

aufkrawall
2019-01-22, 12:34:45
Dezente Tessellation kostet bei Nvidia bereits soviel von meinem frametime Budget, das Lohnt sich nicht bei sinnigem Faktor. Bei AMD hingegen schon.
Das ist völliger Humbug, für den du garantiert den Beleg schuldig bleiben wirst. ;)

hmmm
2019-01-22, 12:35:45
Du hast keine Ahnung.

Troyan
2019-01-22, 12:40:21
Da hast du sicherlich Recht. Allerdings les ich nur von Troyan, dass Tess das Über-Feature sei. Von Entwicklern vernehme ich eher anderslautende Wortmeldungen...

Natürlich ist Tessellation das "Über-Feature". Mehr Geometrie bedeutet bessere Bildqualität und dank Tessellation weniger Speicherverbrauch. Die Mesh-Shader Demo von nVidia benötigt 7GB+. Vollkommen utopisch für Spiele.

Und welche Entwickler meinst du? Ghost of Tale wurde von einem 3-Mann Team gemacht und hat Tessellation. Vor kurzem kam ein 1-Mann 1h Episoden-Titel auf dem Markt, dass ebenfalls Tessellation einsetzt.

robbitop
2019-01-22, 12:50:49
Beisst sich Tesselation nicht mit RT? Sowas hatte ich im Hinterkopf. Das wäre dann der Tod für Tess.

Coda sagte mal, dass Tesselation für LoD Systeme gut wären damit die Übergänge unterschiedlicher LoD Stufen nicht mehr sichtbar sind.

Tesselation hat halt den Nachteil dass es erst auf der Grafikkarte erzeugt wird und somit nicht interaktiv ist, oder? Ähnlich wie Effektphysik.
Die Einsatzmöglichkeiten sind schon da - aber natürlich mit Einschränkungen.

Auch erlauben moderne APIs ja nun deutlich mehr Drawcalls, so dass man konventionell ja auch mehr Geometrie liefern kann.

aufkrawall
2019-01-22, 13:00:41
Du hast keine Ahnung.
Immer noch besser als sich dreiste Lügen auszudenken, da bist du eher noch schlimmer als Troyan.

dargo
2019-01-22, 14:59:26
Soweit ich erkennen kann ist NVs ansatz seit Fermi? Ziemlich elegant. Geometrie-, raster-, tessleistung steigt mit der Anzahl der gpcs.
Kostet sicherlich Transistoren aber führt uA auch dazu, dass es in dem Bereich keine Bottlenecks gibt. Entsprechend höher ist die Geometrieleistung bei NV. Bei AMD hat man ja sukzessive nachgelegt. Aber an NVs Skalierbarkeit kommt man noch nicht heran. Man möge mich gern korrigieren, wenn ich hier etwas falsch verstanden haben sollte.
https://www.computerbase.de/2017-08/radeon-rx-vega-64-56-test/4/#diagramm-tessellation-subd11_2

In RotTR sieht man, dass bei Vega Tessellation fast "for free" ist wenn man es mit den Faktoren nicht übertreibt. Vega verliert mit Tess. nur 1,x% während Pascal 7,x% verliert.

PS: selbst bei P20 ist der Verlust mit Tessellation dort minimal kleiner als bei Pascal. Bei P30 dürfte der Verlust durch den höheren GPU-Takt irgendwo im Bereich von 4-5% liegen.

aufkrawall
2019-01-22, 15:54:13
In RotTR sieht man, dass bei Vega Tessellation fast "for free" ist wenn man es mit den Faktoren nicht übertreibt. Vega verliert mit Tess. nur 1,x% während Pascal 7,x% verliert.

Kommt mir komisch hoch vor bez. Pascal, das hab ich anders in Erinnerung mit 1070/Ti. Für den Nachfolger-Teil gilt das Gleiche.

blaidd
2019-01-22, 16:39:43
Pathtracing ist kein "vereinfachtes Raytracing".

Ja, hast recht, das ist nicht zutreffend. Aber deshalb hab ich es ja auch in "" gesetzt. Vielleicht wäre "abstrahiert", oder Abstraktes Raytracing zutreffender gewesen.

Es ist jedenfalls vom Ansatz her weniger "naturnah" als Raytracing, wenn mich nicht alles täuscht...

dargo
2019-01-22, 16:58:24
Kommt mir komisch hoch vor bez. Pascal, das hab ich anders in Erinnerung mit 1070/Ti. Für den Nachfolger-Teil gilt das Gleiche.
Es wird denke ich sicherlich auch etwas szenenabhängig sein.

pixeljetstream
2019-01-22, 16:59:17
Jetzt bin ich aber auf die Definition von naturnahen raytracing gespannt.

wolik
2019-01-22, 18:30:26
Die RTX Serie wurde nicht gemacht das alles über RT läuft, sondern nur Teilbereiche.
Die heutige Hardware wäre wahrscheinlich auch zu langsam, zudem würde vorerst die komplette Software Unterstützung fehlen.

Dank AMD haben wir seit Jahren keinen Technischen Fortschritt mehr, RT könnte sich ziemlich schnell durchsetzen, weil AMD aber rein gar nichts zu bieten hat wird sich das hinausverzögern. (Konsolen)
Nicht mal 2080Ti kann RTX (BFV und PR 3DM) mit vernünftigen FPS darstellen. Das man 2060 als RTX Karten noch verkauft... ein Witz.Bei 2% Konsumenten und in 2020 geschätzt 5-7% (und das nur PC Gaming) wer wird schon RTX in seine Spiele einbauen wollen ? Ein Spiel wie Metro oder SC soll doch für alle attraktiv aussehen, geschweige spielbar. RTX ist für AMD ein Geschenk. Ob die das nutzen? Werden wir sehen.

gravitationsfeld
2019-01-22, 18:56:46
Ja, hast recht, das ist nicht zutreffend. Aber deshalb hab ich es ja auch in "" gesetzt. Vielleicht wäre "abstrahiert", oder Abstraktes Raytracing zutreffender gewesen.

Es ist jedenfalls vom Ansatz her weniger "naturnah" als Raytracing, wenn mich nicht alles täuscht...
Sorry, aber alles falsch.

blaidd
2019-01-22, 19:09:06
Alright. Dann halt ich mal die Klappe. :)

EDIT: Mein Missverständnis liegt glaube ich eher auf der physikalischen Seite... Raytracing verbinde ich eher mit streuendem Licht, wenn dies auftrifft, Pathtracing erschien mir rein beim Vergleich mit der optischen Physik abstrakter... aber das ist ja eh ein bisschen offtopic hier und Physik ist auch nicht unbedingt mein Steckenpferd.

Fragman
2019-01-22, 19:32:16
Path Tracing: You get what you see.
Raytracing: You see what you get. :D

RLZ
2019-01-22, 19:38:18
Am meisten bin ich auf Intel gespannt.
Schraub da besser die Erwartungen runter. Letztes Jahr gab es einige Wechsel von den Raytracing Leuten bei Intel zu Nvidia, weil sie mit der Hardwarestrategie von Intel nicht einverstanden waren.

Timbaloo
2019-01-22, 19:40:30
Alright. Dann halt ich mal die Klappe. :)
Eine gute Übersicht:

https://de.wikipedia.org/wiki/Raytracing#%C3%9Cbersicht

Schraub da besser die Erwartungen runter. Letztes Jahr gab es einige Wechsel von den Raytracing Leuten bei Intel zu Nvidia, weil sie mit der Hardwarestrategie von Intel nicht einverstanden waren.
Oh, das wusste ich nicht. Hast zufällig ne Quelle?

pixeljetstream
2019-01-22, 20:25:28
Das sind Kollegen, bin mit der Wechsel hierher bewusst ;) Die Wechsel waren aber vorm Turing Launch. NV hat dafür gesorgt in Raytracing Research nun sehr viel Kompetenz zu haben, dennoch schließt das nicht aus dass Intel was interessantes für Mainstream baut, sie hätten den Vorteil mit einem frischen Thema einzusteigen bei Mainstream (Magen etc. lass ich Mal außen vor, ich versuche aus Kundensicht das zu sehen, nicht technisch/effizienter etc.)

crux2005
2019-01-22, 20:38:03
Das sind Kollegen, bin mit der Wechsel hierher bewusst ;) Die Wechsel waren aber vorm Turing Launch. NV hat dafür gesorgt in Raytracing Research nun sehr viel Kompetenz zu haben, dennoch schließt das nicht aus dass Intel was interessantes für Mainstream baut, sie hätten den Vorteil mit einem frischen Thema einzusteigen bei Mainstream (Magen etc. lass ich Mal außen vor, ich versuche aus Kundensicht das zu sehen, nicht technisch/effizienter etc.)

Nicht böse gemeint. Aber NV hätte lieber mehr Leute für die Treiber Abteilung einkaufen sollen. Erinnere mich nicht an solche GeForce Treiber Fopas seit Windows Vista...

pixeljetstream
2019-01-22, 21:14:44
Die Anzahl der Mitarbeiter in der Firma hat sich in etwa verdoppelt in den letzten 8 Jahren. Es werden nicht nur in NVResearch Leute eingestellt, würde behaupten da reinzukommen ist die Ausnahme im Vergleich zu anderen Stellen ;) https://research.nvidia.com/people kannst auch gern hier sehen was gesucht wird https://nvidia.wd5.myworkdayjobs.com/NVIDIAExternalCareerSite

=Floi=
2019-01-22, 21:50:55
Eher microsoft. Was die zusammenprogrammieren!

Bei intel stelle ich mir aber die frage, ob die RT wollen und das transistorbudget nicht voll auf reicheneinheiten legen. Mit RT geht sicherlich die hälfte für grafikausgabe drauf.

aufkrawall
2019-01-22, 22:01:17
Eher microsoft. Was die zusammenprogrammieren!

Unter Linux zieht die Ausrede nicht, und da gibt es auch zig exklusive Nvidia-Probleme.
Man könnte z.B. einfach einen DRI3-Treiber für Xorg bereitstellen, der müsste nicht mal open source sein. Stattdessen macht man aber seit Ewigkeiten sein eigenes krudes Ding mit den immer gleichen chronischen Problemen.

Seit einigen Windows 10-Versionen ist dort genau das Gleiche zu beobachten: Nvidia hält sich für wichtiger als das OS und nimmt chronische Kollateralschäden billigend in Kauf. Das wird auch nicht mehr besser, versprochen...

pixeljetstream
2019-01-22, 22:27:16
@ =Floi= antworte in dem Intel Grafik Spekulationen thread. https://www.forum-3dcenter.org/vbulletin/showthread.php?p=11907539

wolik
2019-01-22, 23:12:53
dennoch schließt das nicht aus dass Intel was interessantes für Mainstream baut,
Larrabee 2? Aber "aller guten Dinge sind drei" Wohl in Jahr 2030 werden wir auf Grafikkarten von Intel freuen.
NV sieht Zukunft (zu recht) in Automotive. Die Grafikkarten "für Gamer" sind jetzt reines Abfallprodukt. (man muss doch noch Geld verdienen)

Razor
2019-01-23, 06:23:43
Das eine hat so rein gar nichts mit dem anderen zu tun :rolleyes:
AMD sieht demnach seine Zukunft in Prozessoren und die Grafiklösungen für Konsolen sind ein "Abfallprodukt"? Seltsame Logik...
(für "Gamerkarten" ist dann nicht einmal mehr "Müll" übrig ;-)

Razor

JVC
2019-01-23, 10:38:49
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Nvidia-Treiber-erlauben-hemmungsloses-Cheaten-1273771/
"In Battlefield 5 wurde nun ein Cheat bekannt, der über Veränderungen der Nvidia-Treiber umgesetzt wird."

Im Grunde nix neues ...

"DICE soll wohl durchaus in der Lage sein, die Veränderung zu erkennen."
Ist dem wirklich so ?
Es scheint ja nur über die NV Treiber zu funktionieren ...
Das die meine Hardware kennen weiß ich,
aber das die jede einzelne Grafikoption die ich im Treiber verändere auch sehen bezweifle ich.:confused:

m.f.g. JVC

=Floi=
2019-01-23, 15:21:37
so ein schlechter artikel :facepalm:

Hier wurde wohl einfach eine variable limitiert und das spiel kann diese sicherlich über die api abfragen.

Godmode
2019-01-23, 17:03:41
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Nvidia-Treiber-erlauben-hemmungsloses-Cheaten-1273771/
"In Battlefield 5 wurde nun ein Cheat bekannt, der über Veränderungen der Nvidia-Treiber umgesetzt wird."

Im Grunde nix neues ...

"DICE soll wohl durchaus in der Lage sein, die Veränderung zu erkennen."
Ist dem wirklich so ?
Es scheint ja nur über die NV Treiber zu funktionieren ...
Das die meine Hardware kennen weiß ich,
aber das die jede einzelne Grafikoption die ich im Treiber verändere auch sehen bezweifle ich.:confused:

m.f.g. JVC

Die brauchen ja nur einen Screenshot sehen und schon wissen sie dass da was verstellt wurde.

crux2005
2019-01-23, 17:05:21
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Nvidia-Treiber-erlauben-hemmungsloses-Cheaten-1273771/
"In Battlefield 5 wurde nun ein Cheat bekannt, der über Veränderungen der Nvidia-Treiber umgesetzt wird."

Im Grunde nix neues ...

"DICE soll wohl durchaus in der Lage sein, die Veränderung zu erkennen."
Ist dem wirklich so ?
Es scheint ja nur über die NV Treiber zu funktionieren ...
Das die meine Hardware kennen weiß ich,
aber das die jede einzelne Grafikoption die ich im Treiber verändere auch sehen bezweifle ich.:confused:

m.f.g. JVC

Falscher Fred?

hmmm
2019-01-23, 19:06:18
Immer noch besser als sich dreiste Lügen auszudenken, da bist du eher noch schlimmer als Troyan.
Man bist du peinlich, du weißt doch nicht worüber du redest.

x-force
2019-01-23, 19:15:36
Man bist du peinlich, du weißt doch nicht worüber du redest.

trotzdem bleibst du -wie von ihm vorhergesagt- den beweis für deine aussage schuldig.

hmmm
2019-01-23, 19:27:32
Kannst du nicht lesen?

wolik
2019-01-23, 22:21:56
Das eine hat so rein gar nichts mit dem anderen zu tun :rolleyes:
AMD sieht demnach seine Zukunft in Prozessoren und die Grafiklösungen für Konsolen sind ein "Abfallprodukt"? Seltsame Logik...
(für "Gamerkarten" ist dann nicht einmal mehr "Müll" übrig ;-)

Razor
Wir sind an Theme "GeForce RTX 2080/Ti Review-Thread" daneben:rolleyes:
Aber vergleichst du wirklich Mobilität (Nvidia Anstrengungen in Automotive) mit Unterhaltung (AMD mit PS5,Xbox Next) ? Rechne nur mal aus was du Monatlich für das beides Ausgibst :wink: Und dein Nachbar ? Der hat von PS, Xbox nie was gehört, geschweige eine Grafikkarte für 1200 Euro kaufen zu wollen. Mobilität ist ganz andere Nummer. Grafikkarten egal wie toll die heißen nur Abfallprodukt.

Razor
2019-01-24, 06:25:18
Bahnhof?
:confused:

Razor

WhiteVelvet
2019-01-24, 15:57:29
Ich bin jetzt nicht so im Bilde zum Thema Geforce 2080, aber stimmt es, dass es bei einigen Usern Probleme mit den Karten gibt? Ein Kollege hat seine Karte wieder zurückgeben müssen, weil sie nach einigen Tagen den Geist aufgegeben hat. Er meinte, dass das wohl öfters bei den 2080 auftreten kann, irgendein Herstellungsfehler beim Speicher? Ist da was bekannt? Ich wollte mir demnächst auch eine 2080 kaufen und die eigentlich auf Wakü umbauen. Aber das könnte ich ja dann erst machen, wenn die Karte im Originalzustand einige Tage durchläuft und keine Mucken macht...

TurricanM3
2019-01-24, 16:00:11
Ja, die gehen kaputt und niemand weiß genau warum. NV selbst schweigt. Gibt User die hatten schon 2 Defekte. Ich selbst auch eine.

WhiteVelvet
2019-01-24, 16:07:53
Schöne Grüße an die andere Seite des Biggesees!

Hmmmm ok, also besteht ein gewisses Risiko. Lässt sich abschätzen, wie lange es im Schnitt dauert, bis sich ein Fehler bemerkbar macht? Ich müsste die Karte dann vor dem eigentlich PC-Umbau kaufen und erstmal wochenlang im alten Rechner laufen lassen bevor ich die auf Wakü umrüste. Da verfällt dann ja die Garantie nehme ich an...

Troyan
2019-01-24, 16:11:50
Meine Karte funktioniert seit drei Monaten problemlos. Imo hat es nichts mit dem Speicher zu tun. Soll ja einige geben, die haben drei kaputte Karten gehabt.

Wahrscheinlich hängt der Fehler in Kombination mit Netzteil, Board und Karte zusammen. Speicher schließe ich aus, da eigentlich jede Karte betroffen sein müsste.

TurricanM3
2019-01-24, 16:16:57
Meine erste hat 30h tatsächliche Spielzeit gehalten. Dann nur noch Abstürze, selbst in Win schon sowas:

https://abload.de/thumb/unbenanntx8iix.png (http://abload.de/image.php?img=unbenanntx8iix.png)

Manche kommen schon DOA an, andere laufen einige Wochen / Monate. Liegt nicht am RAM, Samsung sterben ebenso.
Wenn mir meine Perle kaputt geht, das würde mich echt ärgern.

@WhiteVelvet
:wave2:

JaniC
2019-01-24, 16:31:01
Ich dachte, das betrifft (falls überhaupt ne echte Sache) nur die 2080 Ti?

wolik
2019-01-24, 18:09:40
Ich dachte, das betrifft (falls überhaupt ne echte Sache) nur die 2080 Ti?
Igor hat doch sehr interessante Idee gehabt, bezüglich 2080Ti Ausfall bei Nvidia Karten... 2080 sind doch nicht betroffen? ( nicht mehr als sonst, z.B 1080)

hasebaer
2019-01-25, 13:28:21
R9nO9TML0I0

Daredevil
2019-01-25, 14:15:26
Die gebrauchte Palit Dual 2080ti ist angekommen.

Im Gegensatz zur 400€ teuren Vega 64 Nitro+ ist die Kühllösung zwar voluminös, aber in erstem Betrachten wohl eher süß. :D
[ Hundehaare sind inklusive ]
https://abload.de/img/20190125_125715939_iojhkis.jpg

https://abload.de/img/20190125_125621826_iocej95.jpg

https://abload.de/img/20190125_125636739_ioaajes.jpg

A1 bedeutet, dass es kein Gammelchip ist?
http://gpuz.techpowerup.com/19/01/25/rvb.png

dildo4u
2019-01-25, 14:19:46
Ich glaube das kann man nicht auslesen jedenfalls hat sie Takt der billig Version,die FE hat 1635.

https://farm8.staticflickr.com/7868/46146557594_6ce629225c_b.jpg (https://flic.kr/p/2diPaRm)2040 (https://flic.kr/p/2diPaRm) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

Lowkey
2019-01-25, 14:23:41
TU102-300-K1-A1
TU102-300A-K1-A1

Kann man irgendwo auslesen. Jedenfalls hatte ich eine A GPU bei meiner 2080 laut der ID.

Dr.Doom
2019-01-25, 14:23:43
Laut Foto taktet die nichtmal bis 1200.

Daredevil
2019-01-25, 14:25:01
Achso, dachte das bedeutet A1.
Erste Erfahrung mit Multi Monitor und zwei mal G-Sync an Freesync > Perfekt.

Oh yeah Baby, so habe ich mir das vorgestellt! :D
Ich habe ja zwei Freesync 144hz Monitore.
So sieht der Idle Verbrauch aus ohne GSync
http://gpuz.techpowerup.com/19/01/25/we9.png

Idle Verbrauch, wenn ich auf beiden Freesync Monitoren GSync aktiviere
http://gpuz.techpowerup.com/19/01/25/83d.png

Genau so muss das aussehen.

Lowkey
2019-01-25, 14:25:59
1E04 (Non-A)

Soso der DD hat ne nicht-A mit Micron Speicher... worst case ;)

Daredevil
2019-01-25, 15:10:36
You get what you pay for. ^^ ( 870€ bei Alternate )
Wenn ich an die 1,8-2.0Ghz kratze bei vllt. leichtem UV, bin ich zufrieden.
Nur wegen der Gaming Leistung habe ich mir das Ding eh nicht geholt, die brauche ich so gar nicht, es ist aber allemal sinnvoller als Vega Crossfire. Das war ja quasi nen 1zu1 tausch jetzt.

Der OC Scanner hat direkt mal den PC absemmeln lassen, das Wochenende wird gebastelt. :)

SKYNET
2019-01-25, 15:26:47
del....

BUG
2019-01-25, 15:26:56
Achso, dachte das bedeutet A1.
https://www.forum-3dcenter.org/vbulletin/attachment.php?attachmentid=65485&d=1548426379

XXXX 1E04 (non-A Chip)
XXXX 1E07 (A Chip)

Gruß
BUG

Ex3cut3r
2019-01-25, 15:35:08
Glückwunsch zur Karte @ DD!

Daredevil
2019-01-25, 21:16:59
Glückwunsch? Habe ich die gewonnen? :l

Freunde der Effizienz, ich hab gerade Urlaub im Superposition Benchmark gemacht. :)

Undervolting und Power Limiterung + Taktskalierung.
5267pts 712mv 700MHz 840rpm 100w
6323pts GTX980TI@1505MHz @ 350w
6488pts 712mv 875MHz 960rpm 110w
7272pts GTX1080@2138MHz @ 240w
7843pts 712mv 1100MHz 1020rpm 125w
9144pts 712mv 1250MHz 1020rpm 136w
9636pts 712mv 1400MHz 1020rpm 146w
10210pts 725mv 1500MHz 1050rpm 155w
10669pts 737mv 1600MHz 1080rpm 167w
11200pts 781mv 1700MHz 1180rpm 188w
11604pts 843mv 1800MHz 1260rpm 220w
12023pts 912mv 1900MHz 1581rpm* 265w
12169pts 925mv 1920MHz 1608rpm* 273w

GTX980TI = 18pts/W
GTX1080 = 30pts/W
2080TI = 53pts/W
2080TI = 66pts/W
2080TI = 52pts/W
2080TI = 44pts/W

* = Lüfter manuell aufgedreht, da Temp Limit den Takt gedrückt hat

GTX1080 Wakü Leistung bei 125w Verbrauch und flüsterleisen ~1000rpm. :D
Die 9636pts müssten in etwa einer 1080ti entsprechen, die Leistung bekommt man für 146w Verbrauch und ebenfalls leise. :)

Soviel fürs erste.
Höher bekomme ich die Karte auch nicht mehr weil Power Limit gepaart mit Temp Limit. Die Lüfter sind auch alles andere als angenehm von der Geräuschkulisse her. 1300rpm hören sich leicht nerviger ( hochfrequenter ) an als die 1500rpm der Nitro+ mit ihren drei Lüftern.
Da ich aber nicht nach Benchmark Rekorden lechze ist das okay für mich. :)

SKYNET
2019-01-26, 03:18:16
Glückwunsch? Habe ich die gewonnen? :l

Freunde der Effizienz, ich hab gerade Urlaub im Superposition Benchmark gemacht. :)

Undervolting und Power Limiterung + Taktskalierung.
5267pts 712mv 700MHz 840rpm 100w
6323pts GTX980TI@1505MHz @ 350w
6488pts 712mv 875MHz 960rpm 110w
7272pts GTX1080@2138MHz @ 240w
7843pts 712mv 1100MHz 1020rpm 125w
9144pts 712mv 1250MHz 1020rpm 136w
9636pts 712mv 1400MHz 1020rpm 146w
10210pts 725mv 1500MHz 1050rpm 155w
10669pts 737mv 1600MHz 1080rpm 167w
11200pts 781mv 1700MHz 1180rpm 188w
11604pts 843mv 1800MHz 1260rpm 220w
12023pts 912mv 1900MHz 1581rpm* 265w
12169pts 925mv 1920MHz 1608rpm* 273w

GTX980TI = 18pts/W
GTX1080 = 30pts/W
2080TI = 53pts/W
2080TI = 66pts/W
2080TI = 52pts/W
2080TI = 44pts/W

* = Lüfter manuell aufgedreht, da Temp Limit den Takt gedrückt hat

GTX1080 Wakü Leistung bei 125w Verbrauch und flüsterleisen ~1000rpm. :D
Die 9636pts müssten in etwa einer 1080ti entsprechen, die Leistung bekommt man für 146w Verbrauch und ebenfalls leise. :)

Soviel fürs erste.
Höher bekomme ich die Karte auch nicht mehr weil Power Limit gepaart mit Temp Limit. Die Lüfter sind auch alles andere als angenehm von der Geräuschkulisse her. 1300rpm hören sich leicht nerviger ( hochfrequenter ) an als die 1500rpm der Nitro+ mit ihren drei Lüftern.
Da ich aber nicht nach Benchmark Rekorden lechze ist das okay für mich. :)

aber nicht 1080p extreme?

basix
2019-01-26, 09:33:48
Sieht nach 4k Optimized aus ;)

@DD: Mein A-Chip geht auch nicht viel besser, wenn ich deine Spannungsskalierung anschaue ;) Und Danke für die Bestätigung, dass ich mich bei 162W im effizientesten Bereich bewege (10630 Punkte = 65.6pts/fps). Bei 125W sieht man schön, wie die Effizienz zurückgeht.

TobiWahnKenobi
2019-01-26, 09:53:37
ich leihe mir mal eben das bild aus..

https://abload.de/img/ti_vs_trexzrk1z.jpg

habe ich über 60% mehr texturfüllrate?



(..)

mfg
tobi

basix
2019-01-26, 10:07:03
TU102 hat nur 288 TMUs und nicht 384 ;)

Raff
2019-01-26, 11:19:02
Hehe, yep. Wird Zeit für ein GPU-Z-Update. Kommt vermutlich in Kürze für die Radeon Seven.

MfG,
Raff

wolik
2019-01-26, 12:03:19
habe ich über 60% mehr texturfüllrate?



(..)

mfg
tobi
Ist das nicht "egal" ? Wichtig wieviel fps hat man am ende. Und Titan RTX leider nicht schneller als 2080Ti mit Wasserkühlung ... Und 24GB wäre nur für SLI interessnat, weil einzeln Karte reicht die Leistung für "8K" nicht aus.

Monsta
2019-01-26, 12:21:50
Ist das nicht "egal" ? Wichtig wieviel fps hat man am ende. Und Titan RTX leider nicht schneller als 2080Ti mit Wasserkühlung ... Und 24GB wäre nur für SLI interessnat, weil einzeln Karte reicht die Leistung für "8K" nicht aus.

Hört sich brilliant an, wir könnten den Gpu-z Entwickler ja bitten das Texturfillrate Fenster zu entfernen und dafür eine ein FPS Fenster.
Weil zum zocken sind schließlich nur FPS interessant.

Eine RTX Titan kann ma nicht auf Wasser umbauen?

SKYNET
2019-01-26, 12:25:17
Hört sich brilliant an, wir könnten den Gpu-z Entwickler ja bitten das Texturfillrate Fenster zu entfernen und dafür eine ein FPS Fenster.
Weil zum zocken sind schließlich nur FPS interessant.

Eine RTX Titan kann ma nicht auf Wasser umbauen?

ich wäre eher für ein fenster wo der neupreis drinne steht, dann wird der balken noch ein wenig härter ähhh, meine länger X-D

hq-hq
2019-01-26, 18:56:32
Glückwunsch? Habe ich die gewonnen? :l

Freunde der Effizienz, ich hab gerade Urlaub im Superposition Benchmark gemacht. :)

Undervolting und Power Limiterung + Taktskalierung.
5267pts 712mv 700MHz 840rpm 100w
6323pts GTX980TI@1505MHz @ 350w
6488pts 712mv 875MHz 960rpm 110w
7272pts GTX1080@2138MHz @ 240w
7843pts 712mv 1100MHz 1020rpm 125w
9144pts 712mv 1250MHz 1020rpm 136w
9636pts 712mv 1400MHz 1020rpm 146w
10210pts 725mv 1500MHz 1050rpm 155w
10669pts 737mv 1600MHz 1080rpm 167w
11200pts 781mv 1700MHz 1180rpm 188w
11604pts 843mv 1800MHz 1260rpm 220w
12023pts 912mv 1900MHz 1581rpm* 265w
12169pts 925mv 1920MHz 1608rpm* 273w

GTX980TI = 18pts/W
GTX1080 = 30pts/W
2080TI = 53pts/W
2080TI = 66pts/W
2080TI = 52pts/W
2080TI = 44pts/W

* = Lüfter manuell aufgedreht, da Temp Limit den Takt gedrückt hat

GTX1080 Wakü Leistung bei 125w Verbrauch und flüsterleisen ~1000rpm. :D
Die 9636pts müssten in etwa einer 1080ti entsprechen, die Leistung bekommt man für 146w Verbrauch und ebenfalls leise. :)

Soviel fürs erste.
Höher bekomme ich die Karte auch nicht mehr weil Power Limit gepaart mit Temp Limit. Die Lüfter sind auch alles andere als angenehm von der Geräuschkulisse her. 1300rpm hören sich leicht nerviger ( hochfrequenter ) an als die 1500rpm der Nitro+ mit ihren drei Lüftern.
Da ich aber nicht nach Benchmark Rekorden lechze ist das okay für mich. :)


Hi, seit einiger Zeit betreibe ich die 1080Ti @ 0.9V bei konservativen Taktraten von ~1835/6118MHz (für Spellforce 3 und Pathfinder Kingmaker)

für den Vergleich unter Superposition 4k optimized:

AB Log aus 175 Messungen: 89.85% Powerlimit = 224.63 Watt; reicht für 9426 Punkte, min 53.72fps, avg 70.51fps, max 91.71

(IMHO wegen des niedrigen GPU Taktes eine recht allgemeingültige Aussage für 1080Ti Karten)

TobiWahnKenobi
2019-01-26, 19:30:23
Ist das nicht "egal" ? Wichtig wieviel fps hat man am ende. Und Titan RTX leider nicht schneller als 2080Ti mit Wasserkühlung ... Und 24GB wäre nur für SLI interessnat, weil einzeln Karte reicht die Leistung für "8K" nicht aus.

natürlich ist es egal - aber ist doch lustig, was manche tools so anzeigen.

btw,
TREX macht dort 70fps mit ca. 300W, wo eine aufgerotzte TI mit 350-380W auf 68fps kommt. streng genommen ist sie schon schneller. man könnte jetzt noch nadeln im heuhaufen suchen und drauf rumreiten, dass es im BFV situationen gibt, in der TREX ca. 14GB seines VRAMs füllt, aber das sollen andere machen. ich finde die karte toll und sie sieht ohne kühler nicht so kaputt aus, wie die modelle, denen ein BGA-baustein fehlt. ;D


(..)

mfg
tobi

Daredevil
2019-01-26, 20:11:12
Ich habe nun Grafikkarte Nr.2 im System ( Baugleich ) und muss mein Lob von gestern mal abschwächen.
Karte Nr2 ( Hier links zu sehen ) hat einen relativ hohen IDLE Verbrauch und ebenfalls eine andere Bios Version. Die Karten performen allerdings in etwa gleich in Benchmarks, weswegen ich absolut nicht verstehen kann, wieso der Idle Verbrauch jetzt so hoch ist.
Etwa wegen der zweiten Karte im System? Ich hab weder ne SLI Bridge, noch SLI aktiviert.

Jemand ne Ahnung, was das "andere" Bios bezweckt bzw. ob es neuer oder älter ist?
Ich wühl mal gleich bei TechpowerUp durch, finds aber uncool.
https://abload.de/img/unbenanntvpk83.png
https://abload.de/img/unbenannt4ej5a.png



So sah es gestern aus mit der einer Hauptkarte, so hätte ich es auch gerne wieder. :redface:
http://gpuz.techpowerup.com/19/01/25/83d.png

Edit:
Hier sind die beiden Bios Versionen, wo ist da nun der Unterschied?
https://www.techpowerup.com/vgabios/204970/palit-rtx2080ti-11264-180919
https://www.techpowerup.com/vgabios/205789/palit-rtx2080ti-11264-181019

Lowkey
2019-01-26, 20:17:43
Mit welchem Tool/Treiber konnte man noch sehen welches Programm gerade auf die Grafikkarte zugreift? War das experience in der Taskleiste rechts unten?

Nvidia Treiber lassen sich ohne Neustart installieren, aber verhalten sich ohne Neustart seltsam.

Daredevil
2019-01-26, 20:48:22
Experience war da, aber das war sie gestern auch.
Es hat sich ja nichts geändert, nur das ich jetzt zwei Karten Testweise drin habe.

Es liegt also daran, dass zwei Karten drin sind, oder halt am anderen Bios, oder ka. :D

Edit:
Irgendwas ist hier aber komisch.
Die 30w Idle sehen so aus, als würden sie tatsächlich von irgendwas in Anspruch genommen werden und Last verursachen.
Ich muss z.B. knapp 40w mehr Power Target setzten, damit ich auf die gleiche Performance komme wie die zweite Karte.
https://abload.de/img/unbenannt4ikbt.png

Ich mach nochmal den DDU Weg und schmeiß alles runter. :)

Geächteter
2019-01-26, 22:59:12
Es gibt wohl einige Karten, die im Idle deutlich mehr anzeigen. Meine 2080 zeigt ca. 25 - 28 Watt an, ist aber wohl ein Auslesefehler, weil mein Gesamtsystem braucht ab Steckdose mit C3 und allen Powersavings aktiviert 34 Watt. Im Geforce-Forum gibt es dazu von anderen auch einen Thread dazu, einer äußert die Vermutung, dass es wohl ein Auslesefehler ist. Da der Fehler von ca. 15 Watt durchgängig ist, werden diese Karten auch früher vom Powermanagement abgeregelt. In der Presse hat man aber wohl davon nix gemerkt?

Daredevil
2019-01-26, 23:05:05
Dann müsste aber auch die Temperatur falsch ausgelesen werden, weil die schlägt sich dadurch ja auch größer aus.

5°C im Idle, also 36°C statt 31°C ist für mich schon ein Indiz für eine kleine Last.
Hab ganz vercheckt, dass es nen neuen Hotfix Treiber gibt, den haue ich mal rauf.

Ansonsten tausche ich die Grafikkarten gleich einfach mal und schaue, ob sich etwas ändert. Kann ja auch ein Problem von Windows/Treiber/Whatever sein.
Möchte jetzt unnötig ein älteres Bios flashen, nur weil schätze, dass es daran liegt.

Geächteter
2019-01-26, 23:54:24
5°C im Idle, also 36°C statt 31°C ist für mich schon ein Indiz für eine kleine Last.
Hab ganz vercheckt, dass es nen neuen Hotfix Treiber gibt, den haue ich mal rauf.

Da ist was dran.
Deine 2. Karte zeigt laut GPU-Z auch 330 Mhz Core Clock an und MC Load ist auch nicht auf 0 %, sondern 9%. Meine zeigt zwar 300 Mhz an, aber MC Load ist auch nie auf Null zu bringen.

Daredevil
2019-01-27, 00:05:45
Die Hauptkarte hat immer ein wenig mehr Verbrauch, Last und weniger Takt als die zweite, das kenn ich von anderen MultiGPU Setups nicht anders.
Aber so ein hoher Unterschied ist Käse.

Ich install mal alles jetzt Neu, war gerade bei 80w Idle, es wird immer mehr. ;D

JaniC
2019-01-27, 01:57:06
Hast du mal überlegt, wann du wieder bei 0 bist, wenn du das ganze stundenlange Superposition usw. Ausloten unter Vollast usw. Dingens mit 2 Karten gegenrechnest gegen die Stromersparnis, die du dadurch erreichst?
Was du da durch das Testen an Strom verballerst, holst du doch nie wieder rein durch 20 Watt weniger beim Gamen.

Mehr als Psychologie ist das doch nicht, was du da machst. Damit rettest du weder den Wald, noch dein Konto.

Überhaupt verstehe ich nicht, wieso man sich eine 2080 Ti holt und sie dann so in Ketten legt?

Kein Vorwurf, würde nur gerne mal die Beweggründe wissen. "Effizienz" ist ja ein tolles Wort, aber was bringt dir das?

SKYNET
2019-01-27, 02:06:23
Hast du mal überlegt, wann du wieder bei 0 bist, wenn du das ganze stundenlange Superposition usw. Ausloten unter Vollast usw. Dingens mit 2 Karten gegenrechnest gegen die Stromersparnis, die du dadurch erreichst?
Was du da durch das Testen an Strom verballerst, holst du doch nie wieder rein durch 20 Watt weniger beim Gamen.

Mehr als Psychologie ist das doch nicht, was du da machst. Damit rettest du weder den Wald, noch dein Konto.

Überhaupt verstehe ich nicht, wieso man sich eine 2080 Ti holt und sie dann so in Ketten legt?

Kein Vorwurf, würde nur gerne mal die Beweggründe wissen. "Effizienz" ist ja ein tolles Wort, aber was bringt dir das?



ich denke es geht ihm wenige rum das sparen am strom, also mehr darum das die karte kühl und leise bleibt. ;)

Daredevil
2019-01-27, 02:33:07
Überhaupt verstehe ich nicht, wieso man sich eine 2080 Ti holt und sie dann so in Ketten legt?

Kein Vorwurf, würde nur gerne mal die Beweggründe wissen. "Effizienz" ist ja ein tolles Wort, aber was bringt dir das?
In erster Linie ist es Basteltrieb und Bock auf Wissen über die Technik, was man mit der Karte so anstellen kann. ( Sonst hätte ich nicht sowas sinnloses wie Vega Crossfire ausprobiert. )
Ich bin aber kein 100% Gamer, deswegen ist für mich eine Grafikkarte mehr als nur Pixelschubser.

Ich interessiere mich für:
Gaming ( 100fps@WQHD mit optional Downsampling, mehr brauche ich nicht )
Streaming ( Neuer NVENC Encoder )
Encoding ( Video komprimierung & Live Aufnahme )
Mining ( Blockchain Support + Zimmer heizen )
Geld sparen + effizientes und kühles arbeiten + Lautheit

Gaming und Encoding sind Zeitmäßig nicht der rede Wert, aber Streaming kann gut und gerne mal 6-12 Std gehen und wenn ich es für sinnvoll erachte, könnte ich auch während des "Office" Betriebs meine Karte nutzen um nebenbei zu minen ( Aktuell sehr gut zum heizen... ). Das bedeutet, sie würde gut und gerne mal 4-12 Std auf Dauerlast laufen am Tag und deswegen ist Performance/Watt für mich wichtig.

Ich habe als Hobby-Project letztes Jahr für knapp 3500€ ein Mining Rig gebaut und habe knapp ~800€ an Strom bezahlt. Hätte ich da nicht die beste Karte genommen ( 1080ti ) mit den besten Settings, die ich Stundenlang ( Ja, da hast du recht ^^ ) erprobt hätte, dann hätten 20% weniger Leistung oder 30% mehr Verbrauch das Boot ganz arg gekippt.
Sowas könnte sich wiederholen, oder auch nicht. Da hier aber lieber 400w Biose geflasht werden anstatt in die Richtung zu gehen, mach ich es halt selbst und halte es fest. Den ein oder anderen wirds bestimmt interessieren. :)

Die Frage ist eher, warum nutzt du deine Karte nur fürs Gaming, wenn man schon soviel Kohle hinblättert? :D

Ontopic:
So richtig komme ich da trotzdem nicht hinter. 55w Idle auf der Mainkarte.
Treiber sind neu installiert, das andere Bios ist geflashed. Es hat sich nichts getan.
Er bleibt im P8 State, GSync hin und herswitchen ändert nichts, Energie Einstellungen sind korrekt. Also stempel ich es einfach mal als Treiber Bug ab?
Noch jemand hier mit Multi GPU? Welchen Verbrauch habt ihr so?

Edit:
Okay okay, ich habe mal die Monitore an die andere Karte gesteckt.

Halten wir mal Fest:
Wir haben zwei baugleiche Grafikkarten
Wir nutzen den selben Treiber
Wir nutzen das selbe Bios
Wir nutzen bei beiden Karten Stock Settings
Beide Karten sind im P8 State

Links an der Grafikkarte ist folgendes angeschlossen: WQHD@144hz@DP, FHD@144hz@DP
Rechts an der Grafikkarte ist folgendes angeschlossen: Nichts.

Warum zum Teufel ist die Idle Verbrauch bei der zweiten Karte so hoch?
https://abload.de/img/unbenanntvvk9t.png

Da wo Karte 1 nun ~10w verbraucht, lagen vor dem Umstecken 52w an.
Was gibts noch so für Fehlerquellen, die ich prüfen kann? :D

Edit2:
Jetzt kann man zwar sagen "Alter, Daredevil, das sind nicht mal 15w, stell dich nicht so an". Aber doch.
Weil wenn ich im tiefen Power Limit fische, weil ich nicht mehr Leistung brauche, gehen diese 20w vom Power Limit ab.
Unter Last sehen die Taktraten dann so aus:
https://abload.de/img/unbenanntpsk2p.png

Die linke Karte ist in dem Setting knapp 50% schneller ( Trotz Monitore ) , weil die rechte ihr Power Limit einfach ins nichts jagt.

Edit3 und dann ist auch gut für heute:
Ich habe gerade die "schlechte" Karte ausgebaut und ein Foto gemacht, weil mir heute mittag schon was aufgefallen ist.
Der Sticker von Xpertvision, das ist anscheinend der Importstandort von Palit.
Da die Karte von Alternate aus der B-Waren Sektion stammt, wurde die vielleicht ja durch Xpertvision repariert o.ä. und deswegen weißt sie diesen komischen Verbrauch auf weil....... keine Ahnung.
Auf der Karte war auch das aktuellere Bios drauf gespielt.
https://abload.de/img/20190127_031943815_iod3jeb.jpg
Das hilft mir aber nicht weiter. ^^
Die Karte kommt jetzt raus, sowas habe ich auch noch nie erlebt. Schon komisch irgendwie.

Geächteter
2019-01-27, 11:46:44
Der Unterschied ist eigentlich zu groß, dass er "wirklich" vorhanden sein kann. Evtl. liegt es an einem Fehler in der Spannungsversorgung und den 3 Widerständen für die Shunts. Einfachste Möglichkeit, Karten nacheinander einbauen und Stromverbrauch des Rechners im Idle und bei zu reproduzierender Last messen. Wenn sich dann immer noch große Unterschiede auftun, liegt es wirklich daran, dass irgendwas Strom für nix verbrutzelt oder es ist halt ne falsche Ermittlung. Das Problem haben viele Karten, auch ist die Spannungsversorgung von Turing schlechter als bei Pascal. Da musste nvidia wohl sparen, um die günstigen Preise von Turing möglich zu machen.

wolik
2019-01-27, 13:55:33
Noch jemand hier mit Multi GPU? Welchen Verbrauch habt ihr so?
Ich habe zwei gleiche Karten wie du. Nur Stromverbrauch teste ich jetzt nicht mehr... BIOS mit mehr PT für not-A Karten könnte ich auch nicht finden... wenn du was hast, werde ich gern testen.

Daredevil
2019-01-27, 15:47:12
Der Unterschied ist eigentlich zu groß, dass er "wirklich" vorhanden sein kann. Evtl. liegt es an einem Fehler in der Spannungsversorgung und den 3 Widerständen für die Shunts. Einfachste Möglichkeit, Karten nacheinander einbauen und Stromverbrauch des Rechners im Idle und bei zu reproduzierender Last messen. Wenn sich dann immer noch große Unterschiede auftun, liegt es wirklich daran, dass irgendwas Strom für nix verbrutzelt oder es ist halt ne falsche Ermittlung. Das Problem haben viele Karten, auch ist die Spannungsversorgung von Turing schlechter als bei Pascal. Da musste nvidia wohl sparen, um die günstigen Preise von Turing möglich zu machen.
Ich habe jetzt nicht mehr beide Karten drin, habe aber beim tauschen mal die "schlechtere" unaktive Karte am Kühlkörper beim booten angefasst und konnte dort einen größeren Unterschied feststellen.

Sprich, sie wurde so warm, dass ich sie kaum anfassen wollte in der DIE Gegend, während die aktive und "gute" Karte problemlos anfassbar war.
Was auch immer diese Karte hat, ich will es nicht. :D


Ich habe zwei gleiche Karten wie du. Nur Stromverbrauch teste ich jetzt nicht mehr... BIOS mit mehr PT für not-A Karten könnte ich auch nicht finden... wenn du was hast, werde ich gern testen.
Non-A Bios flashen auf A Karten funzt nicht, mh?
Du musst wegen mir jetzt aber auch nichts umflashen, das passt schon. :) Danke

Langlay
2019-01-27, 16:35:21
Non-A Bios flashen auf A Karten funzt nicht, mh?
Du musst wegen mir jetzt aber auch nichts umflashen, das passt schon. :) Danke


Ne das geht nicht, das ist ja der Witz an den Non A GPUs.

hlynska
2019-01-28, 13:33:16
Mal eine Lightning Z im Test, Fetter Hammer, aber zu teuer :D

https://www.tomshw.de/2019/01/28/blitz-der-superlative-msi-geforce-rtx-2080-ti-lightning-z-im-test/

dargo
2019-01-28, 15:01:51
Lol... eine Karte meilenweit vom Sweetspot entfernt. :freak:

3% mehr Leistung zwischen max. OC und Default bei 67W mehr Verbrauch. Und 5% schneller als eine RTX 2080TI bei ~100W mehr Verbrauch. :facepalm: Das sind ja noch schlimmere Zustände als bei Vega an der Kotzgrenze. :D

Troyan
2019-01-28, 15:42:06
In addition, sales of certain high-end GPUs using NVIDIA’s new Turing™ architecture were lower than expected. These products deliver a revolutionary leap in performance and innovation with real-time ray tracing and AI, but some customers may have delayed their purchase while waiting for lower price points and further demonstrations of RTX technology in actual games.
https://seekingalpha.com/pr/17393005-nvidia-updates-financial-guidance-fourth-quarter-fiscal-year-2019

basix
2019-01-28, 18:26:36
Lol... eine Karte meilenweit vom Sweetspot entfernt. :freak:

3% mehr Leistung zwischen max. OC und Default bei 67W mehr Verbrauch. Und 5% schneller als eine RTX 2080TI bei ~100W mehr Verbrauch. :facepalm: Das sind ja noch schlimmere Zustände als bei Vega an der Kotzgrenze. :D

Jop, wenig sinnvoll. War bei den Pascals aber nicht viel anders. Meine 2080 Ti erreicht bei 150W immer noch 90% der Performance einer FE. Man kann nicht nur Vega auf Effizienz tunen ;) Das Problem von Vega war und ist, dass sie Out-of-the-Box deutlich effizienter hätte sein können, das ist schade.

Daredevil
2019-01-28, 19:36:23
Wie kommt das eigentlich zustande, dass der Verbrauch bei RTX so niedrig ist?
Limitieren da schlicht die RT Einheiten, so dass die GPU selbst nicht mehr liefern kann?

Beispiel:
Frostpunk in 5k > 240w Verbrauch bei ~70fps
BFV in WQHD High und RT auf High > 170w Verbrauch bei ~80fps
Beide 875mv @ 1815Mhz, Power Limit auf Max.

Oder braucht RT CPU Leistung? Dann könnte das natürlich bei mir limitieren, allerdings habe ich mir der auch ohne RT schon 144fps geschafft.

Ex3cut3r
2019-01-28, 19:45:04
Hast du kein Afterburner OSD am laufen? Schau auf die GPU Auslastung während des spielens mit RT, kann dir aber sagen, ja RT braucht mehr CPU Leistung, sowie mehr vram+ram.

Daredevil
2019-01-28, 19:53:17
Ja klar hab ich das laufen aufm zweiten Monitor, deswegen frage ich ja. ^^
GPU Auslastung war normal hoch, deswegen ja die Frage, ob das bei jemanden auch so ist.
Mehr als die Auslastung kann ich ja nicht messen, die Karte hat halt nur Allgemein weniger verbraucht, war kühler und halt auch leiser. Wobei die ja eigentlich ganz doll schuften müsste, deswegen ja die Frage, ob RT da der Flaschenhals ist.

Ex3cut3r
2019-01-28, 19:58:52
Also bei meinen optimierten 4770k läufts mit RT echt kacke, ohne schaffe ich gute Frametimes und FPS allerdings nur mit DX11, vlt. liegt auch am immer noch Katastrophalen DX12, aber bei mir spikt es mit Dx12 und RT Mittel echt sehr schlimm.

Hier mal ein Video mit dem SP.

https://www12.zippyshare.com/v/1hpOwZ6A/file.html

Achtet auf den Frametime Graphen und man sieht auch in der Aufnahme, stockt/spikt.

aufkrawall
2019-01-28, 19:59:28
VRAM?

Troyan
2019-01-28, 20:02:09
Ja klar hab ich das laufen aufm zweiten Monitor, deswegen frage ich ja. ^^
GPU Auslastung war normal hoch, deswegen ja die Frage, ob das bei jemanden auch so ist.
Mehr als die Auslastung kann ich ja nicht messen, die Karte hat halt nur Allgemein weniger verbraucht, war kühler und halt auch leiser. Wobei die ja eigentlich ganz doll schuften müsste, deswegen ja die Frage, ob RT da der Flaschenhals ist.

Bei Raytracing in BF5 limitieren die RT Cores. Ist eben die erste Implementierung in einem Rasterizing-Renderer.

In Port Royal säuft Turing dann entsprechend.

Ex3cut3r
2019-01-28, 20:22:51
VRAM?

6,5 von 8 (Sieht man auch im OSD im hinzugefügten Video) in 3440x1440 @ Max + RT @ Mittel.

Ohne RT 4,0 GB

Digidi
2019-01-28, 22:00:56
So langsam wird es mit dem Preis noch 150 Euro...
https://geizhals.de/gainward-geforce-rtx-2080-ti-phoenix-gs-4122-a1870927.html

Ex3cut3r
2019-01-28, 23:14:07
So langsam wird es mit dem Preis noch 150 Euro...
https://geizhals.de/gainward-geforce-rtx-2080-ti-phoenix-gs-4122-a1870927.html

Und dann schlägst du zu? ^^

Nichts für ungut, aber nächste Woche könnte es schon wieder ganz anders aussehen, in die gegenteilige Richtung. :wink:

gnomi
2019-01-29, 06:30:26
Also die Preise gehen schon definitiv nach unten. (auch für die 2080)
Die besseren Custom Designs mit zwei Spielen als Beigabe werden schon interessanter als zum Release. :wink:
Das Problem mit den wenigen Zugtiteln, kein Mehr an Speicher und wenigen RTX & DLSS Anwendungen bleibt dennoch.
Und dann liefert Pascal zumeist auch noch locker 60 fps und mehr in WQHD.
Die meisten Spiele sind auch extrem skalierbar und sehen auf Maximum nur noch minimal besser aus. (und natives 4K mit GSync HDR Bildschirmen ist noch teurer)
Ich denke, nvidia wird aber nächstes Jahr mit der nächsten Serie und nochmals weit besseren Consumer Karten dann die Früchte ernten.
Da müssen sie jetzt durch...

Fragman
2019-01-29, 08:31:30
Man darf ja immer nicht vergessen, das man das Portfolio getauscht hat.
Die Preise sind zu hoch, darüber brauchen wir nicht reden. Beim RAM werden wir sehen, was das für die 2080 bedeutet. Persönlich mach ich mir aber keine Sorgen.
Was RT angeht, wird halt Metro jetzt interessant, zum einen was die Performance angeht und zum anderen die Qualität. Ich denke, dann wird man mehr sagen können.

dargo
2019-01-29, 10:12:05
Also bei meinen optimierten 4770k läufts mit RT echt kacke, ohne schaffe ich gute Frametimes und FPS allerdings nur mit DX11, vlt. liegt auch am immer noch Katastrophalen DX12, aber bei mir spikt es mit Dx12 und RT Mittel echt sehr schlimm.

Mach dir da keinen Kopf... auf Vega ist DX12 hier komplett im Eimer, Frametimes völlig im Arsch. DICE hats einfach nicht im Griff.

Edit:
Ich nehme alles zurück. X-D
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11912928&postcount=3762

BigKid
2019-01-29, 10:34:32
Jetzt mal unabhängig davon, dass mir die Preise (noch) zu hoch sind - welche rtx2080ti Custom wäre denn zu empfehlen wenn es einem nicht auf die letzten 5% Leistung sondern eher auf ein gutes leises und verhältnismäßig preiswertes (haha...2080ti und preiswert...) Modell (Luftkühlung) ankommt ?

Daredevil
2019-01-29, 20:04:04
Ich denke mal, dass man die Palit Dual zu so einer "Bread and Butter" Karte zählen kann, da Sparmodell mit HighEnd Chip.
Hier dann mal meine Werte:

Stock Settings @ 250w
https://abload.de/img/111fhj3i.gif

UV Settings @ 250w
https://abload.de/img/2dpj1w.gif

Performance/Watt Setting ( Ca. 1080ti Leistung )
https://abload.de/img/333pajns.gif

Für so einen schlechten Kühlblock sind die Werte ziemlich gut, das liegt aber halt daran, dass der DIE so fett ist und demnach einfacher gekühlt werden kann.
Solange es also keine Radial Lösung ist, wird vermutlich jede Karte irgendwo Leise ( ~1500rpm ) sein, je nach dem, was man mit leise meint.

PS: ZeroFan hat sie allerdings nicht, das ist ziemlich wenig lame.

r3ptil3
2019-01-29, 20:16:15
Habe den Thread nicht ganz mitverfolgt. Kann vielleicht jemand kurz zusammenfassen was die besten Modelle der 2080 TI sind (höchtes OC usw.)?

Die MSI Lighting z.B. scheint auf bis zu 2.1 Ghz zu kommen, ist aber richtig teuer.

wolik
2019-01-29, 21:29:28
Habe den Thread nicht ganz mitverfolgt. Kann vielleicht jemand kurz zusammenfassen was die besten Modelle der 2080 TI sind (höchtes OC usw.)?

Die MSI Lighting z.B. scheint auf bis zu 2.1 Ghz zu kommen, ist aber richtig teuer.
https://www.3dmark.com/hall-of-fame-2/

SKYNET
2019-01-29, 21:52:05
https://www.3dmark.com/hall-of-fame-2/

weils so aussagekräftig ist, karten im SLI :rolleyes:

gravitationsfeld
2019-01-29, 22:05:59
Da gibt's nen button fuer "1x GPU"

SKYNET
2019-01-29, 22:09:34
Da gibt's nen button fuer "1x GPU"

bringt trotzdem nix, weil trockeneins, chiller oder ln2 sind eher nicht so die standardkühlung :tongue:

wolik
2019-01-29, 22:47:57
weils so aussagekräftig ist, karten im SLI :rolleyes:
:confused: Number of GPUs: All
bringt trotzdem nix, weil trockeneins, chiller oder ln2 sind eher nicht so die standardkühlung :tongue:
Bei alle 100 Leute ? Erste 10 sind echte Spinner (ok 17 mit der8auer) Sonnst max. Wasser. Aber Kamarad hat gefragt max. OC bei 2080Ti.

JaniC
2019-02-02, 18:59:07
Ich frage einfach mal hier, keine Lust auf neuen Thread.

Auf was muss man bei so Strommessgeräten achten? Wollte mir mal eines holen und mal an der Steckdose gucken, was die Mühle denn nun wirklich verbraucht.
Das Straight Power 11 550W liegt jetzt hier und ich will gerne mal wissen, in welchem Bereich der Auslastung ich mich so befinde mit dem CPU OC und der Stock RTX.
Klar kann ich das mit CPU-Z und GPU-Z grob zusammenrechnen, aber will's mal wirklich wissen, mit SSDs usw.

Spricht irgendwas gegen so 10€ Teile?

REV Ritter 0025810112 Energiemessgerät kompakt
9,99€
https://www.amazon.de/dp/B00MHNGWDM/

Wirst ja quasi erschlagen hier: https://www.amazon.de/b/ref=sr_aj?node=2076412031&ajr=0

Meist is ja billig eben auch billich, also ungenau oder so.
Abweichungen um 5W wären mir egal, will nur mal grob wissen, was das Gesamtsystem zieht.
In einem Thread hier von 2005 habe ich gerade gelesen, dass man solche Teile auch im Baumarkt leihen kann?

TurricanM3
2019-02-02, 19:02:54
Ich hab so eines mit Display separat. Das liegt am Tisch.

Habe heute die Backplate verbaut. Wer sich für den AC interessiert:

https://forum.aquacomputer.de/wasserk-hlung/p1437042-neu-kryographics-next-2080-und-kryographics-2080-ti-update/#post1437042

BlacKi
2019-02-02, 19:19:40
bis du fertig bist gibts neue karten XD

MasterElwood
2019-02-02, 19:22:22
Ich frage einfach mal hier, keine Lust auf neuen Thread.

Auf was muss man bei so Strommessgeräten achten? Wollte mir mal eines holen und mal an der Steckdose gucken, was die Mühle denn nun wirklich verbraucht.
Das Straight Power 11 550W liegt jetzt hier und ich will gerne mal wissen, in welchem Bereich der Auslastung ich mich so befinde mit dem CPU OC und der Stock RTX.
Klar kann ich das mit CPU-Z und GPU-Z grob zusammenrechnen, aber will's mal wirklich wissen, mit SSDs usw.

Spricht irgendwas gegen so 10€ Teile?

REV Ritter 0025810112 Energiemessgerät kompakt
9,99€
https://www.amazon.de/dp/B00MHNGWDM/

Wirst ja quasi erschlagen hier: https://www.amazon.de/b/ref=sr_aj?node=2076412031&ajr=0

Meist is ja billig eben auch billich, also ungenau oder so.
Abweichungen um 5W wären mir egal, will nur mal grob wissen, was das Gesamtsystem zieht.
In einem Thread hier von 2005 habe ich gerade gelesen, dass man solche Teile auch im Baumarkt leihen kann?

Solche Messgeräte müssen eh die Toleranz angeben. Und: kauf dir eine Leiste und leg sie am Tisch. Viel praktischer. Hab auch so eine.

Daredevil
2019-02-02, 20:00:37
Oder einfach ne DIY Leiste machen. :D
https://abload.de/img/20190202_185726130_io4ok8a.jpg

@Janic
Man sagt sich, und ich denke das ist immer noch so, dass die Geräte von Voltcraft recht solide sind.
Meins hat mal um die 18€ beim Conrad gekostet, das ist denke ich auch ein Preis für ein "MidEnd" Modell.
https://www.conrad.de/de/Search.html?search=voltcrafr&category=%1FMesstechnik%2B%2526%2BStromversorgung%1FEnergiekosten-Erfassung%1FEnergiekosten-Messger%25C3%25A4te

dildo4u
2019-02-04, 15:23:28
3DMark Port Royal hat jetzt DLSS Support.

tLyIu3lMdAc


Passender Treiber:

https://www.nvidia.com/en-us/geforce/news/geforce-rtx-laptop-port-royal-dlss-game-ready-driver/

Fragman
2019-02-04, 15:30:42
Schaut wirklich gut aus und es ist in 1440p.
Wird Zeit das in Spielen zu integrieren.

Troyan
2019-02-04, 15:32:15
Mein Eindruck aus Final Fantasy ist, dass vor Allem in niedrigen Auflösungen TAA ziemlich unbrauchbar wird und DLSS hier viel mehr bringt.

dildo4u
2019-02-04, 15:33:26
BF5 wird deutlich interessanter da dort das TAA deutlich besser ist.

gbm31
2019-02-04, 15:44:28
Schaut wirklich gut aus und es ist in 1440p.
Wird Zeit das in Spielen zu integrieren.


Fester Benchnmark-Lauf vs. Spiel? Echt jetzt? Shampus!

Fragman
2019-02-04, 16:08:52
Schaut trotzdem gut aus. :rolleyes:

Fragman
2019-02-04, 19:28:49
Ich hab es gerade mal laufen lassen und das Video spiegelt die Qualität schon recht gut wieder.
Das Bild wird sehr sauber gefiltert, ist dabei schärfer und ich hab zb statt 22 damit 32 Frames. Im Mittel von 26 auf knapp 38 hoch in 1440p, bei deutlich besserer Qualität und mehr Details.
Einzig die eine grossflächige reflection in der Scheibe an einer Stelle ist nicht so gut, aber immerhin smooth.

Troyan
2019-02-04, 19:56:50
Ja, vor Allem für kleinere Auflösungen ist das ein Killerfeature. Der Unterschied zwischen 1080p/TAA und 1080p/DLSS (Ausgangsauflösung ist 1440x810) ist gigantisch. Finde ich viel interessanter als 4K.

Final Fantasy ist ja so ein Thema. Das TAA ist unter 4K eigentlich unbrauchbar. Aber DLSS kann in diesem Fall eine richtige, vernünftige Alternative darstellen.

Blediator16
2019-02-04, 20:50:55
Wenn es mal wirklich in jedem Spiel gäbe, dann wäre es ein Killerfeature.

wolik
2019-02-04, 22:18:15
Schaut wirklich gut aus und es ist in 1440p.
Wird Zeit das in Spielen zu integrieren.
Ein "Video" (3DMark) durchlauf mit Spiel zu vergleichen/berechnen :confused: In FFXV DLSS unbrauchbar.

Radeonfreak
2019-02-04, 22:39:45
Nice

https://abload.de/img/unbenannt45j1y.png

basix
2019-02-04, 22:49:31
Aber das TAA ist schon fast FFXV würdig ;) In Bewegung sieht man in Port Royal mit DLSS noch ein paar Artefakte, welche ziemlich unschön sind. Aber im Schnitt deutlich besser als die TAA Version.

Edit: In 4K sind es fast +100% Gewinn durch DLSS. Scheint realistisch bei 1440p als Basisauflösung.

Bellspinder
2019-02-05, 02:43:58
Besteht die Chance das dieses DLSS auch in ältere Spiele nachimplementiert wird oder kann man nur davon ausgehen, dass ausschließlich neuprogrammierte Titel dieses Feature haben werden?

Fragman
2019-02-05, 06:25:53
In FFXV DLSS unbrauchbar.

Das Spiel scheint ja allgemein ein schlechter Vergleich zu sein, wenn das TAA dort auch Mist ist, was ja hier immer geschrieben wird.
Und natürlich ist es viel einfacher, das darauf zu trainieren, liegt ja schon an der Länge des Benchmarks. Interessanter wird Anthem werden zum Beispiel.

Ein paar Zahlen zum Training wären spannend. Was an Leistung und Zeit nötig ist, um bei einem Spiel auf so ein Ergebnis zu kommen.

dargo
2019-02-05, 06:49:50
Besteht die Chance das dieses DLSS auch in ältere Spiele nachimplementiert wird oder kann man nur davon ausgehen, dass ausschließlich neuprogrammierte Titel dieses Feature haben werden?
Du siehst es kaum in neuen Spielen und willst es in älteren Games sehen? :uconf3:

Armaq
2019-02-05, 19:27:55
Interessante Statistik von computerbase, auch wenn man da ja doppelt vorsichtig sien muss.

Anno1800 verbessert sich merklich und auch im 99th percentile in DX12!

https://www.computerbase.de/2019-02/anno-1800-closed-beta-eindruck/2/


Eine 1080 liegt vor einer 2080Ti, wenn DX12 gegen DX11 gesetzt wird. Die 2080 skaliert noch stärker als die 1080.

][immy
2019-02-06, 00:26:04
Interessante Statistik von computerbase, auch wenn man da ja doppelt vorsichtig sien muss.

Anno1800 verbessert sich merklich und auch im 99th percentile in DX12!

https://www.computerbase.de/2019-02/anno-1800-closed-beta-eindruck/2/


Eine 1080 liegt vor einer 2080Ti, wenn DX12 gegen DX11 gesetzt wird. Die 2080 skaliert noch stärker als die 1080.
Anno ist ziemlich cpu intensiv. Eventuell bringt hier daher dx12 schon mal besonders viel. Wäre natürlich schön wenn die 2080 bisher im cpu limit lief.

Werewolf
2019-02-07, 11:55:11
Meine TI zeigte grüne Artefakte an und versuchte mich unentwegt mit dem Code 43 zu begatten. Kein einziger Treiber ließ sich installieren.

Angekündigt hatte sich dies mit Abstürzen beim spielen. Bild friert ein, Ton läuft weiter, dann geht der Bildschirm aus. Dann geht bei Tastatur und Maus das Licht aus. ;D

Hab sie zurück geschickt. Mal sehen wie sich die neue tut.

TobiWahnKenobi
2019-02-07, 12:54:40
https://abload.de/img/212qeke9.jpg

https://abload.de/thumb/bfv_2019_02_06_21_10_8sk69.jpg (https://abload.de/image.php?img=bfv_2019_02_06_21_10_8sk69.jpg) https://abload.de/thumb/bfv_2019_02_06_21_13_zmkxs.jpg (https://abload.de/image.php?img=bfv_2019_02_06_21_13_zmkxs.jpg)

Witscher 3 8K

https://abload.de/img/witcher3_8k_ultra_nogdkjot.jpg

https://abload.de/thumb/witcher3_8k_ultra_nogekknh.jpg (https://abload.de/image.php?img=witcher3_8k_ultra_nogekknh.jpg)


(..)

mfg
tobi

Daredevil
2019-02-07, 16:56:00
Die günstigste KFA 2080ti ist angekommen, jetzt sehen meine Idle Werte so aus. ( Gsync Single Monitor )
https://abload.de/img/kfan6ki6.gif
Das ist doch nicht deren ernst. Wieso gibt es so große Unterschiede beim Idle Verbrauch innerhalb der Kartenreihe?


Hier nochmal die Palit:
http://gpuz.techpowerup.com/19/01/25/83d.png

Allgemein sind die Lüfter im Idle unhörbar, unter Last aber nun hörbarer. Ist halt auch keine Tri Slot Karte mehr, sondern nur Dual Slot. Allerdings wiegt die Karte in etwa auch das gleiche.
Mal weiter rumprobieren... grml.

bommel@slash
2019-02-07, 19:03:58
ich habe die titan rtx wieder gegen zwei 2080 TIs getauscht. dass ich mal "zurück zu SLi" als lösung in erwägung ziehe, hätte ich bis neulich selbst nicht gedacht, aber titan v und titan rtx gingen für 4500€ weg und die beiden TIs kamen für 2400€ rein. eine palit (war das billigste OC modell) und (wieder) eine gainward phoenix gs. die palit musste unter wasser (dualfan taugt nicht); die GW bleibt unter ihrem stock-cooler und wandert (wenn ich von SLi die schnauze voll habe) in den PC, in dem jetzt keine Titan V mehr wohnt. eine hat micron, die andere hat samsung speicher. wie schon mit allen anderen karten kann ich keine lanze für micron und auch keine für samsung brechen - verhalten sich bis 8.3GHz gleich und darüber ists eh nicht mehr alltagstauglich. ich habe noch nicht an den karten rumgeflasht und betreibe sie mit ihren 330W BIOSen. seit mir eine karte beim flashen irreversibel kaputt ging, sehe ich die flasherei deutlich skeptischer.

https://abload.de/img/212qeke9.jpg

https://abload.de/thumb/bfv_2019_02_06_21_10_8sk69.jpg (https://abload.de/image.php?img=bfv_2019_02_06_21_10_8sk69.jpg) https://abload.de/thumb/bfv_2019_02_06_21_13_zmkxs.jpg (https://abload.de/image.php?img=bfv_2019_02_06_21_13_zmkxs.jpg)

Witscher 3 8K

https://abload.de/img/witcher3_8k_ultra_nogdkjot.jpg

https://abload.de/thumb/witcher3_8k_ultra_nogekknh.jpg (https://abload.de/image.php?img=witcher3_8k_ultra_nogekknh.jpg)


(..)

mfg
tobi

Hi Tobi ,

meine zweite Asus Strix 2080 Ti ist bestellt. Ich bin mir was mein Netzteil betrifft etwas unschlüssig ob 1000W reichen für beide TIs inkl. meines I7 6950K @OC. Was für ein NT hast du?

Gruß

Linmoum
2019-02-07, 22:13:14
Taugt die was?

https://www.amazon.de/KFA2-GeForce-256-bit-Grafikkarte-28NSL6UCT7OK/dp/B07GZ88GVR

ootb ist mir schnuppe, passe sowieso selbst alles an. Hab noch 150€ Gutscheine, die bestellte VII bei arlt ist statt "in Kürze" nun laut einer E-Mail (auf Nachfrage) bei "keine Ahnung wann was reinkommt" und mein Bruder würde mir netterweise für knapp 300€ die Vega abkaufen. :D Bei effektiv <250€ jucken mich dann auch 8GB nicht, hab gerade einfach nur Bock auf 'ne schnelle(re) GPU. Und zwar jetzt und nicht erst in Wochen oder Monaten.

Troyan
2019-02-07, 22:17:07
Sollte +- auf Niveau der Founders Edition sein und hat einen Zero-Fan Modus.

Imo sollte man mehr für eine vernünftige Kühlung ausgeben.

Linmoum
2019-02-07, 22:38:39
Und was ist für dich "vernünftig"? ;) Vernüfntigere Kühllösung heißt im Endeffekt auch teurer.

Wie gesagt, wie gut dass ootb funktioniert ist mir ziemlich egal. Alle Karten kriegt man leiser, wenn man selbst Hand anlegt. Ich denke schon, dass man auch diese Karte leise bekommen wird. Vielleicht nicht flüsterleise, aber doch leise. Würde mir reichen und ob nun 69° oder 75°... who cares.

Hätte ja auch sein können, dass hier jemand die Karte selbst hat und zu der was sagen kann. Aber bitte zeitnah, bei Bestellung bis morgen Mittag würde sie noch Samstag kommen. ;D

Troyan
2019-02-07, 22:52:26
Schau dir die Testberichte zur Founders Edition an. Die KFA nutzt eine ähnliche Vaporchamber. Sollte sich also kaum unterscheiden.

Vorteil ist der Zero-Fan Modus bzw. die Möglichkeit den Küfter wohl deutlich niedriger im Idle laufen zu lassen. Das ist wirklich lächerlich bei der FE.

TobiWahnKenobi
2019-02-08, 07:27:50
Hi Tobi ,

meine zweite Asus Strix 2080 Ti ist bestellt. Ich bin mir was mein Netzteil betrifft etwas unschlüssig ob 1000W reichen für beide TIs inkl. meines I7 6950K @OC. Was für ein NT hast du?

Gruß

ein hx1200i von corsair.


(..)

mfg
tobi

Daredevil
2019-02-08, 10:10:44
Taugt die was?

https://www.amazon.de/KFA2-GeForce-256-bit-Grafikkarte-28NSL6UCT7OK/dp/B07GZ88GVR

ootb ist mir schnuppe, passe sowieso selbst alles an. Hab noch 150€ Gutscheine, die bestellte VII bei arlt ist statt "in Kürze" nun laut einer E-Mail (auf Nachfrage) bei "keine Ahnung wann was reinkommt" und mein Bruder würde mir netterweise für knapp 300€ die Vega abkaufen. :D Bei effektiv <250€ jucken mich dann auch 8GB nicht, hab gerade einfach nur Bock auf 'ne schnelle(re) GPU. Und zwar jetzt und nicht erst in Wochen oder Monaten.


Also ich habe die 2080ti von KFA und der Unterschied zur Palit Dual ist riesen groß von der Kühlung her.
Die Palit dreht bei im Idle/Last bei 700/1300.
Die KFA dreht bei Idle/Last bei 1400/2200.

Die Karte wiegt in etwa gleichviel, aber durch das 2 Slot Design wird sie einfach knüppelheiß und hat Probleme, die Luft abzuführen an der Seite. Die Palit im 3 Slot Design macht das deutlich besser.
Die KFA hat im Gegensatz bei mir Samsung Speicher drauf, der ganz gut geht... die Palit Karte war aber unterm Strich die bessere Karte.

Karte in Idle: ( 1500rpm! ;D )
https://abload.de/img/kfayxkym.gif

Karte unter Teilbelastung ( 150w! )
https://abload.de/img/unbenanntzykg7.png

Die Lüftersteuerung ist halt mega aggressiv eingestellt.
Hier die Karte unter Stock ( 250w ):
https://abload.de/img/aaaszk31.gif


Ich weiß nicht, ob die 2080 sich unterscheidet groß, aber KFA hat bei mir auf jeden Fall nen schlechten Eindruck hinterlassen bzw. die Ref Kühlung, ganz egal ob bei 250w oder 150w, das ist einfach schlecht.

Rancor
2019-02-08, 10:21:54
Was ist von dieser Karte hier zu halten?

GIGABYTE 8GB RTX2080 WINDFORCE 8G

https://www.heise.de/preisvergleich/gigabyte-geforce-rtx-2080-windforce-8g-gv-n2080wf3-8gc-a1905619.html

Daredevil
2019-02-08, 10:28:28
Muss es Dual Slot sein?
Es gibt so viele Schönheiten mit mehr Luft.

https://geizhals.de/?cat=gra16_512&asd=on&asuch=rtx2080&xf=1481_3~9810_9+8920+-+RTX+2080

Rancor
2019-02-08, 10:29:40
Nein muss es nicht.

Die MSI Ventus 8G sieht auch intressant aus.

OC würde ich ehh betreiben, daher brauche ich nicht unebdingt Factory OC. Und ob die Karte nun mit 1900 oder 2000Mhz läuft ist auch Wumpe.
Irgendwie habe ich mich noch nie so schwer getan beim Kauf einer neuen Grafikkarte...

Linmoum
2019-02-08, 14:23:58
Die KFA2 EX für 650€ ist Triple Slot, aber gibt von den eher günstigeren Karten auch nicht so viele Tests.

Mehr als 700 geb ich aber auch nicht aus. Da kriegt man halt keine duke mit :D

Ex3cut3r
2019-02-08, 14:32:35
Was ist von dieser Karte hier zu halten?

GIGABYTE 8GB RTX2080 WINDFORCE 8G

https://www.heise.de/preisvergleich/gigabyte-geforce-rtx-2080-windforce-8g-gv-n2080wf3-8gc-a1905619.html

Wenn Gigabyte dann die Gaming OC Modelle, die haben einen größeren Kühker als die Windforce Modelle.

Troyan
2019-02-08, 15:22:51
Schaut trotzdem gut aus. :rolleyes:

Und sieht auch gut aus, wenn andere Kamerapositionen verwendet werden: https://www.youtube.com/watch?time_continue=1&v=L8zc3aoGAfs

Fragman
2019-02-08, 16:09:30
Nice,
wie gesagt, mich interessieren da auch Infos über das Training selbst, die verwendete Hardware und die Dauer.

Troyan
2019-02-08, 16:20:58
Nächsten Monat auf der GDC spricht nVidia über DLSS: https://schedule.gdconf.com/session/truly-next-gen-adding-deep-learning-to-games-graphics-presented-by-nvidia/865262

Da kann man sich eventuell mehr Informationen abholen.

TobiWahnKenobi
2019-02-09, 10:32:02
ich habe die letzten tage nochmal für ein paar umbauten genutzt, die ganzen titanen verkauft und nochmal mainstream RTXen ins system gebastelt. das ganze dann durchgetestet und auch mal wieder etwas gezockt. finales posting: es bleibt jetzt so.

https://abload.de/img/2080ti_front9uj0r.jpg
https://abload.de/img/2080ti_back66k48.jpg

komplett ohne bios-flash komme ich mit der wassergekühlten 2080Ti bis auf 3% an den besten score meiner TREX heran; bei 330W.

https://abload.de/img/trexvsrtxti_port_royarvj7u.jpg

stecke ich noch eine karte hinzu (ein baugleiches modell ohne mods und auch ohne wasserkühlung) renne ich 82% an dem TREX-ergebnis vorbei; für weniger als das gleiche geld.

https://abload.de/img/trexvssliti_port_royaixjuq.jpg

im shadow of the tombraider konnte ich die 70fps (UHD, Ultrahoch, TAA), die ich mit TREX erreichte und die die 69fps meiner Titan V um 1fps schlugen um ein weiteres frame überholen.

titan v 12gib, h2o, OC, 300W -> 69fps (https://abload.de/img/sottr_69_titanvidihf.jpg)
2080ti fe, luft, stock, 260W -> 56fps (https://abload.de/img/rtxti_sottr_uhd_ultrad4ic0.jpg)
2080ti fe, luft, OC, 300W -> 63fps (https://abload.de/img/rtxti_sottr_uhd_ultraprimc.jpg)
2080ti custom, h2o, 380W -> 69fps (https://abload.de/img/sottr_69_2080ti_380wbsdlb.jpg)
titan rtx, h2o, OC, 320W -> 70fps (https://abload.de/img/sottr_2019_01_05_22_0e9i61.jpg)

https://abload.de/thumb/sottr_2019_02_07_23_5cckv6.jpg (http://abload.de/image.php?img=sottr_2019_02_07_23_5cckv6.jpg)

im SLi sinds dann schon 123fps @UHD/Ultrahoch/TAA

https://abload.de/thumb/sottr_2019_02_08_22_438jjq.jpg (http://abload.de/image.php?img=sottr_2019_02_08_22_438jjq.jpg)

ein BFV läuft unter DX11 und angepasstem profil ebenfalls sehr rund mit dreistelligen frameraten (120-200fps). denke damit kann ich zufrieden sein.


(..)

mfg
tobi

Razor
2019-02-10, 09:29:59
Passt ja grad :)

Wer - wie ich - als RTX Besitzer schon Monate darüber nachdenkt, für ein TechDemo zu bezahlen, sollte JETZT zugreifen!
https://store.steampowered.com/app/223850/3DMark/

3DMark kaufen
Enthält 10 Artikel: 3DMark, 3DMark API Overhead feature test, 3DMark Cloud Gate benchmark, 3DMark Fire Strike benchmarks, 3DMark Ice Storm benchmarks, 3DMark Night Raid benchmark, 3DMark Port Royal upgrade, 3DMark Sky Diver benchmark, 3DMark Time Spy upgrade, VRMark Preview

Aktuell 85% Rabatt = 3,74€ statt 24,99€
Bis 11.02.2019 - 19:00 Uhr!

Ergo: Wenn... dann Zuschlagen, denn... "Billiger wirds nimmer" :freak:

Razor

Razor
2019-02-12, 06:48:44
Tjo... das ist doch mal was:
https://abload.de/img/3dmark-portroyale-dlslaj8f.jpg (http://abload.de/image.php?img=3dmark-portroyale-dlslaj8f.jpg)
Vielleicht doch ein Licht am Ende des Tunnels :)

Razor

Rancor
2019-02-12, 07:51:14
Hab mir nun die Gainward Phantom GS RTX 2080 bestellt. Sollte heute ankommen. Mal sehen was die Karte so kann. Freu mich einerseits schon drauf. :D

Daredevil
2019-02-12, 09:41:17
Ist ist wieder Party bei Alternate im Outlet. :)
( über Shoop nimmt man nochmal 2% mit )
https://abload.de/img/unbenannt9ckps.png

Sehr empfehlenswerte Karte, allerdings bei mir ohne Samsung Speicher und ohne A Chip gewesen.
700rpm Idle und 1400rpm Last sind aber ziemlich okay für Stock Werte. ( 250w )

TobiWahnKenobi
2019-02-12, 10:10:23
das erste mal, dass ich dlss in aktion gesehen habe.

https://abload.de/img/dlss_oc_uhdtjkbu.jpg (https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11924397&postcount=926)


(..)

mfg
tobi

Rancor
2019-02-12, 10:41:56
Ordentlicher Sprung :D

basix
2019-02-12, 10:46:07
Ist bei 4K so, kann ich bestätigen. Interne Auflösung = 1440p. Aber auch hier ist wie bei FFXV die "Referenzimplemenation" mit höherer Auflösung und grottigem TAA ein einfacher Drache zu erlegen, was Bildqualität angeht.

BigKid
2019-02-12, 10:53:13
Ist ist wieder Party bei Alternate im Outlet. :)
( über Shoop nimmt man nochmal 2% mit )
https://abload.de/img/unbenannt9ckps.png

Sehr empfehlenswerte Karte, allerdings bei mir ohne Samsung Speicher und ohne A Chip gewesen.
700rpm Idle und 1400rpm Last sind aber ziemlich okay für Stock Werte. ( 250w )
Das Problem das ich mit Alternate Outlet habe ist: Alternate ist gerne mal soviel teurer als andere "akzeptable" Händler, das eine Karte die mit 150 Euro Preisvorteil im Outlet steht am Ende grade mal 50 Euro günstiger ist als eine "ganz neue" bei einem anderen... Und bei 900 Euro sind mir dann 50 Euro zu wenig Anreiz um zu riskieren eine Karte zu erwischen, die dann am Ende doch aus einem Grund zurückgegangen ist der in der "gründlichen Prüfung" bei Alternate nicht aufgefallen ist...

So auch hier: 999 "geöffnet und angetestet" im Alternate Outlet - 999 bei Mindfuctory - neu -
Und ich persönlich habe mit MF noch nicht einmal ein Problem bei Rückgabe gehabt... Ganz im Gegenteil - die haben mir auch schonmal Speicher zurück genommen bei dem ich das Rücksendfenster verpennt hatte und 2 Tage drüber war - einfach nur höflich per Mail gefragt ... War kein Thema...

Ich habe im Alternate Outlet - ausser bei älterem Zeug das nicht so dem Aktualitätszwang unterworfen ist - zB nen Raid-Controller - noch nicht ein echtes Schnäppchen gesehen...

RoughNeck
2019-02-12, 10:57:39
Beim Alternate Outlet wäre ich sehr vorsichtig.
Da sind gern mal Karten dabei die einen weg haben, scheinbar prüft hier Alternate nicht gründlich.

Lowkey
2019-02-12, 11:02:37
Ich verstehe Daredevil überhaupt nicht, warum er eine gebrauchte 2080 Ti empfielt, wenn Mindfactory die Karten für 999 Euro neu verkauft?

Alternate hat auch fabrikneue Karten im Outlet. Es ist Glück was man letztlich bekommt.

BigKid
2019-02-12, 11:07:18
Ich verstehe Daredevil überhaupt nicht, warum er eine gebrauchte 2080 Ti empfielt, wenn Mindfactory die Karten für 999 Euro neu verkauft?

Alternate hat auch fabrikneue Karten im Outlet. Es ist Glück was man letztlich bekommt.
Naja es sind ja auch welche für 929.- dabei - das sind dann 70 Euro...
Aber ob ich dafür das Risiko eingehen würde mir am Ende Arbeit und Rennerei umsonst zu machen... Alternate nimmt das Ding im Zweifel sicher zurück... Da habe ich keine Bedenken... Aber der Rest war dann ABM...

Daredevil
2019-02-12, 11:19:38
Ich verstehe Daredevil überhaupt nicht, warum er eine gebrauchte 2080 Ti empfielt, wenn Mindfactory die Karten für 999 Euro neu verkauft?

Alternate hat auch fabrikneue Karten im Outlet. Es ist Glück was man letztlich bekommt.
70€ sind 70€.
Ich habe gute Erfahrung gemacht mit der Palit, die war in OVP und hatte sogar noch die Schutzfolie drauf.
Natürlich kann es immer mal Probleme geben, deswegen schreibe ich ja auch Outlet dabei, das muss aber nicht der Fall sein. Alternate nimmt die Karte aber dann immer anstandslos zurück.

Wer etwas sparen will, muss halt was dafür tun.
Natürlich bezog sich das Bild nicht auf die 999€... das ist doch schwachsinnig.

Lowkey
2019-02-12, 11:45:16
70 Euro sind halt nur 7% mit Chance auf nicht-A Ware. Es hat ja immer einen Grund für eine Reklamation. Eine neue Karte hat die höhere Chance auf einen A Chip und Samsung Speicher.

Alternate wie Amazon ist bei Gebrauchtware eine Idee kulanter. Nachverhandeln bei Alternate ist möglich, aber nur mit der netten Dame in der Buchhaltung? und ihrem Papierkalkulationsberg.

TobiWahnKenobi
2019-02-12, 20:59:28
ich hatte zwei FEs, eine palit gaming pro oc, eine kfa2 OC, eine titan rtx und vier gainward phoenix gs. die palit und die gainward benutzen identische platinen und haben identische listenboosts (1650MHz). ich hatte also die größeren modelle der TIs hier. die palit war aber schlechter als die schlechteste gainward. die ließ sich selbst unter wasser nicht zu 2.1GHz überreden und blieb immer mindestens drei taktschritte (3x 15MHz) hinter den anderen zurück.

von allen karten wäre das die, die ich auf keinen fall nochmal kaufen würde. die kfa2 war zwar auch shice, liess sich aber unter wasser ordentlich keulen, nicht zuletzt weil sie werkseitig bis zu 380W PT verballern darf. da sie aber auf einer nvidia-platine beruht (kein nachbau wie die teile von palit und gainward), hatte sie spulengeräusche aus der hölle. auf palit und GW sitzen magic-spulen, die man fast nie hört. das ist gut!!!111

der gainward-kühler hat ebenfalls potenzial. zumindest bei mir bzw wenn man ihn selbst montiert. wie komme ich darauf? als ich die kfa2-380W-karte kaufte, benötigte sie einen kühler, weil der dualfan-rotz leider suboptimal mit 380W harmoniert; auch wenn er hübsch leuchten konnte.. *hust* der muss runter. die gainward lief grad unter wasser also war ihr kühler übrig. auf der KFA2 war er sogar richtig super.. beide karten im SLi mit 2.115MHz.. eine unter luft, eine mit wasser gekühlt, beide mit 380W bios und es war stabil. okee, es hat auch über 1KW aus der leitung gezogen und darum musste das wieder raus.. das war kurz vor titan rtx.. tjo, titan rtx war zwar ziemlich geil, aber irgendwie zu langsam und unter wasser zu spulig.. zu hörbar und unterm strich dann doch zu teuer. irgendwie bin ich durch die erfahrungen mit den karten unter den verschiedenen kühlern jetzt wieder bei gainward gelandet. das für mich rundeste produkt für einen angemessenen preis. nur die garantiebestimmungen für bastler sind beschissen. ich habe sie übrigens nicht umgeflasht - ich komme im tandem auf ca. 2085MHz und bleibe unter 1KW.



(..)

mfg
tobi

crux2005
2019-02-12, 23:19:00
Shadow of the Tomb Raider sollte Ray Tracing im März bekommen (vor GDC). Quelle: https://www.reddit.com/r/nvidia/comments/app25s/solid_indication_shadow_of_the_tomb_raider_will/

Rancor
2019-02-13, 08:53:30
Gestern ist meine Karte angekommen... Und was soll ich sagen. Raytracing ist ganz nett, aber was ich richtig geil finde ist DLSS.

Ich habe das in FF XV getestet. Ich habe zwar nur einen WQHD Monitor, aber dank DSR kann ich ja trotzdem 4k auswählen.

DLSS sieht deutlich besser aus als 4k und TAA und ziehst Kreise um das native 1440p mit TAA. Die Performance steigt auch um ca 20 - 30 % gegenüber nativen 4k.

Jetzt weiss ich natürlich nicht wie sich das auf einem echten 4k Monitor verhält, aber per DSR war es schon beeindruckend. Einzig feine Strukturen wie Maschendrahtzäune oder
Ähnliches flimmern mit DLSS etwas mehr. Aber der Rest ist wirklich überzeugend. Bin mal gespannt wie es sich dann in BF V verhält.

y33H@
2019-02-13, 08:56:41
DLSS plus DSR ist freilich ein Spezialfall =)

Linmoum
2019-02-13, 09:46:18
Wie ist denn die 2080 Gaming X Trio von MSI? Laut Igor sehr leise, bei TPU ist sie dann plötzlich lauter als die FE. Alternativ die Gigabyte Gaming OC, die scheint ja generell sehr leise und kühl zu sein, auch mit OC. Und mit aktuelle(re)m BIOS geht die bis 300W.

huligan
2019-02-13, 13:18:14
Ist ist wieder Party bei Alternate im Outlet. :)
( über Shoop nimmt man nochmal 2% mit )
https://abload.de/img/unbenannt9ckps.png

Sehr empfehlenswerte Karte, allerdings bei mir ohne Samsung Speicher und ohne A Chip gewesen.
700rpm Idle und 1400rpm Last sind aber ziemlich okay für Stock Werte. ( 250w )

die oc version ist mit a chips..im grunde alle übertakteten.

JaniC
2019-02-13, 14:28:56
Wie ist denn die 2080 Gaming X Trio von MSI? Laut Igor sehr leise, bei TPU ist sie dann plötzlich lauter als die FE. Alternativ die Gigabyte Gaming OC, die scheint ja generell sehr leise und kühl zu sein, auch mit OC. Und mit aktuelle(re)m BIOS geht die bis 300W.

Habe die MSI und bin vollends begeistert. Habe schon paar Posts verfasst zu der Karte.
Nach 5 Stunden Battlefield V im geschlossenen Case, die Karte die ganze Zeit auf 99% Auflastung, hat die Karte 68-69°C und ist bei 1300-1400rpm kaum zu hören (Case R4 gedämmt unter'm Tisch).
Du hast also die freie Wahl: noch leiser, dafür 7-10°C mehr? Ginge. Mehr Takt ist auch drin. Da limitiert erstmal nichts.
Abartig gut. Boost ist standardmäßig 1920Mhz. Habe noch nichts dran gemacht, zu faul bisher.

Für 719€ bekommen, klare Empfehlung.

https://abload.de/img/bfvmsibmj91.png
67°C

https://abload.de/img/fanmsixkk11.png
Fan unter 1200rpm lol, maximal 1250rpm.

mironicus
2019-02-13, 15:08:20
https://www.golem.de/news/geforce-rtx-battlefield-5-hat-schnelleres-raytracing-und-dlss-glaettung-1902-139362.html

https://scr3.golem.de/screenshots/1902/BF5-DLSS-RTX-Benches-Feb-13th-2019/thumb620/01-battlefield-5,-tirailleur-savegame-(ultra-preset,-d3d12),-avg-fps-chart.png

Sven77
2019-02-13, 15:11:07
https://www.golem.de/news/geforce-rtx-battlefield-5-hat-schnelleres-raytracing-und-dlss-glaettung-1902-139362.html

https://scr3.golem.de/screenshots/1902/BF5-DLSS-RTX-Benches-Feb-13th-2019/thumb620/01-battlefield-5,-tirailleur-savegame-(ultra-preset,-d3d12),-avg-fps-chart.png

Alda, was ne Grafik :freak: Beim Layouten niesen müssen oder einfach nen Scheissegal-Tag gehabt?

mironicus
2019-02-13, 17:28:24
DLSS macht die Grafik matschiger, das sieht man schön in den Vergleichsvideos der PCGH beim neuesten Metro-Spiel, vor allem in 1080P bei der RTX 2060. Ich weiß nicht, ob man das wirklich als Feature bezeichnen kann....

Lowkey
2019-02-13, 17:32:51
http://www.pcgameshardware.de/Metro-Exodus-Spiel-62179/Specials/Technik-Test-Raytracing-DLSS-DirectX-12-1275286/

Irgendwie ist RT mehr Software als Hardware. 50%+ Einbußen auf der 2080 Ti in Full HD sind an sich ein komischer Witz.

x-force
2019-02-13, 17:40:44
ne das ist vollkommen normal, das ist mit allen sondereinheiten am anfang so, daß der einsatz dieser die restliche karte bremst. nvidia muss sich erst leisten können ein sinnvolles tensor/rtx/rop/shader verhältnis nutzen zu können. henne-ei

Lowkey
2019-02-13, 17:42:56
Ich weiss und dennoch sieht es auf den Slidern ohne RT fast genauso aus.

dildo4u
2019-02-13, 17:44:09
Kommt extrem auf die Szene an.

https://farm8.staticflickr.com/7827/46169767505_c78aa3a331_h.jpg (https://flic.kr/p/2dkS8me)uffvvjzt (https://flic.kr/p/2dkS8me) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techpowerup.com/reviews/Performance_Analysis/Metro_Exodus/4.html


https://overclock3d.net/gfx/articles/2019/02/13044354762l.jpg

https://overclock3d.net/gfx/articles/2019/02/13044354630l.jpg

https://www.resetera.com/threads/nvidia-rtx-20-series-reviews.69458/page-76#post-17869044

Ex3cut3r
2019-02-13, 18:00:31
Wie ist denn die 2080 Gaming X Trio von MSI? Laut Igor sehr leise, bei TPU ist sie dann plötzlich lauter als die FE. Alternativ die Gigabyte Gaming OC, die scheint ja generell sehr leise und kühl zu sein, auch mit OC. Und mit aktuelle(re)m BIOS geht die bis 300W.

Hatte beide hier, mir hat die Gigabyte Gaming OC mehr getaugt, habe das aktuellste Bios drauf mit bis zu 300W (122% im AB)

Allerdings leidet die Gigabyte an einen Zero Fan Bug, welche die Lüfter immer mal wieder On/Off schaltet, das passiert meistens bei Sachen, wo die GPU Temp langsam leicht steigt, und die Lüftersteuerung anspringen muss, leider nervt der Bug sehr, vorallmem bei Filme gucken mit MadVR, eine einfach Lösung ist aber eine Custom Fan Kurve mit 29% entsprechen etwas 800rpm und der Bug ist Geschichte. Allerdings ohne Zeron Fan dann. :wink:

TurricanM3
2019-02-13, 18:01:30
DLSS ist echt das neue Killerfeature. Wer das mal ohne RTX im Rechner simulieren will, einfach die Schärfe auf -9000 stellen, wie hier rechts:

https://abload.de/thumb/unbenannt-1w8j4o.jpg (http://abload.de/image.php?img=unbenannt-1w8j4o.jpg)

:freak:

Ernst beiseite, muss selbst mal schauen, aber das scheint mir anhand des Vergleichvids in BF V schon auf YT total matschig. Kein gutes Zeichen.

Der RT Impact in Exodus ist auch wieder so hoch, dass ich mir nicht vorstellen kann damit wirklich spielen zu können.

dildo4u
2019-02-13, 18:07:17
Weil du dort so viele FPS bruachst wie im BF5 MP?Das ergibt Null Sinn.

-=Popeye=-
2019-02-13, 18:33:59
Einfach nur grausam.

Txu4RLvz6z4

Kann man so ernsthaft spielen?

TurricanM3
2019-02-13, 18:48:25
@Dildo4u
Wenn das Gefühl an der Maus indirekt schwabellig ist, stört mich das auch so schon. Bei dem doch eher fragwürdigen optischen Gewinn. Hmm. Muss ich einfach schauen. Mit 50fps krebse ich aber ganz sicher nicht herum. Hoffe da gibts nicht so Passagen die dann doppelt so mies laufen.

aufkrawall
2019-02-13, 18:56:50
Das Sun Lighting in Metro: E. sieht ohne RTX so hässlich aus, da könnte man glatt Absicht vermuten...

unl34shed
2019-02-13, 18:57:22
Einfach nur grausam.


Grausam ist ja noch ein Lob dafür... und hierfür hat Troyan vor Monaten rum erzählt es soll besser als natives 4K aussehen, weil es ja mit mit einer höheren Auflösung trainiert wird ;D

http://screenshotcomparison.com/comparison/130042

dildo4u
2019-02-13, 18:59:21
Das Sun Lighting in Metro: E. sieht ohne RTX so hässlich aus, da könnte man glatt Absicht vermuten...
Das muss halt auf PS4 noch in 1080p@30fps laufen nicht vergessen die GPU ist langsamer als eine Midrange 7870 von 2012.

Ex3cut3r
2019-02-13, 19:05:03
Die RTX Beleuchtung sieht echt geil aus imo. Trotzdem werde ich mir das Spiel erstmal nicht holen.

aufkrawall
2019-02-13, 19:06:37
Das muss halt auf PS4 noch in 1080p30fps laufen nicht vergessen die GPU ist langsamer als eine 7870 von 2012.
Es sieht aber viel schlimmer aus als in SotTR. Da versagt das Lighting auch stellenweise, aber wenigstens nicht eklatant durchgängig.
Ach ja, schon vergessen: In Kingdom Come: D. lief es mit dynamischem ToD und Wetter auf allen Grafikkarten ohne 50% Performance-Hit, und sah dabei trotz Bugs hier und da zigfach besser aus als die Brühe in Metro ohne RTX.

mironicus
2019-02-13, 19:11:32
Grausam ist ja noch ein Lob dafür... und hierfür hat Troyan vor Monaten rum erzählt es soll besser als natives 4K aussehen, weil es ja mit mit einer höheren Auflösung trainiert wird ;D

http://screenshotcomparison.com/comparison/130042

Bei diesem immensen Schärfeverlust kann man ja gleich in 1080P spielen und bestimmt sieht selbst natives 1080P besser aus als das! :freak:

RainingBlood
2019-02-13, 19:11:40
Kommt extrem auf die Szene an.

https://farm8.staticflickr.com/7827/46169767505_c78aa3a331_h.jpg (https://flic.kr/p/2dkS8me)uffvvjzt (https://flic.kr/p/2dkS8me) by Gorgul (https://www.flickr.com/photos/56281102@N02/), auf Flickr

https://www.techpowerup.com/reviews/Performance_Analysis/Metro_Exodus/4.html

da fehlt erstmal ssao auf einem Bild, so kann man das nicht vergleichen.

bommel@slash
2019-02-13, 19:12:56
habe heute meine 2te Ti bekommen und beim einbauen bemerkt das durch die unterschiedlichen Einbautiefen meiner beiden Karten (Asus Strix / Gainward Phoenix GS) die NVlink bridge nicht montiert werden kann. Flxexible Bridges finde ich keine.....hatte jemand hier das gleiche Problem ?

dildo4u
2019-02-13, 19:14:59
Es sieht aber viel schlimmer aus als in SotTR. Da versagt das Lighting auch stellenweise, aber wenigstens nicht eklatant durchgängig.
Ach ja, schon vergessen: In Kingdom Come: D. lief es mit dynamischem ToD und Wetter auf allen Grafikkarten ohne 50% Performance-Hit, und sah dabei trotz Bugs hier und da zigfach besser aus als die Brühe in Metro ohne RTX.

Kingdom Come nimmt auch keine Rücksicht da drauf wie es auf den Basis Konsolen läuft,daher kann man deutlich besseres GI nutzen.

https://youtu.be/DyVU82BOYWI?t=494

Ich hoffe Metro performt deutlich besser.

aufkrawall
2019-02-13, 19:16:23
Kingdom Come nimmt auch keine Rücksicht da drauf wie es auf den Basis Konsolen läuft.

Das liegt aber nicht an SVOTI, sondern an der miesen Optimierung des Spiels und der alten CryEngine für die Konsolen allgemein.

Slipknot79
2019-02-13, 19:42:00
Kommt extrem auf die Szene an.

https://farm8.staticflickr.com/7827/46169767505_c78aa3a331_h.jpg (https://flic.kr/p/2dkS8me)uffvvjzt (https://flic.kr/p/2dkS8me) by Gorgul (https://www.flickr.com/photos/56281102@N02/),

Hat man am rechten Bild Ambient Occlusion abgeschaltet? :rolleyes:

Daredevil
2019-02-13, 19:56:51
Wer denkt, er könnte den Mehrwert von Raytracing auf einem Bild abbilden, hat halt auch selber noch nicht mit Raytracing gespielt. Dazu ist das ganze imho viel zu dynamisch, ein Video lässt es einem zwar besser, aber auch eher schlecht das Spielgefühl vermitteln.

TobiWahnKenobi
2019-02-13, 20:01:36
habe heute meine 2te Ti bekommen und beim einbauen bemerkt das durch die unterschiedlichen Einbautiefen meiner beiden Karten (Asus Strix / Gainward Phoenix GS) die NVlink bridge nicht montiert werden kann. Flxexible Bridges finde ich keine.....hatte jemand hier das gleiche Problem ?

ich glaube, es gibt gar keine flexbridges für nvlink.. das mit den einbautiefen klingt aber lustig, sowas hatte ich noch nie. kannst du das mal fotografieren.. für die nachwelt?`

ansonsten die anus weg und ne zweite gainward rein. ;-)

Wer denkt, er könnte den Mehrwert von Raytracing auf einem Bild abbilden, hat halt auch selber noch nicht mit Raytracing gespielt. Dazu ist das ganze imho viel zu dynamisch, ein Video lässt es einem zwar besser, aber auch eher schlecht das Spielgefühl vermitteln.

das "beste" spielgefühl in bfv habe ich aber nicht durch die darstellung sondern durch frames und irgendwie habe ich mich jetzt schon an 150-200fps gewöhnt.. im SLi unter DX11. auf 70-90fps komme ich zur zeit irgendwie nicht klar.


(..)

mfg
tobi

dildo4u
2019-02-13, 20:02:22
Ich glaube das RTX GI nutzt nur die Sonne und den Mond als Lichtquelle,und der Himmel bewegt sich nicht.Das ganze als dynamische Version würde vermutlich massiv teurer sein.

Rancor
2019-02-13, 20:03:53
Also in BF V ist DLSS mMn. nicht zu gebrauchen. Es sieht dafür viel zu schlecht aus.

dildo4u
2019-02-13, 20:05:43
PCGH sagt bei Metro ist das DLSS in 4k okay,alles drunter ist zu krümelig.

Daredevil
2019-02-13, 20:07:02
das "beste" spielgefühl in bfv habe ich aber nicht durch die darstellung sondern durch frames und irgendwie habe ich mich jetzt schon an 150-200fps gewöhnt.. im SLi unter DX11. auf 70-90fps komme ich zur zeit irgendwie nicht klar.


(..)

mfg
tobi
Der optische Mehrwert ( Raytracing ist halt nur Optik... ) ist gemeint.
Ein besseres Mausspitzen-Gefühl kann Raytracing nicht vermitteln, wie auch?

DLSS ist da eher das Feature, welches für dich gemacht ist. Mehr FPS, aber dafür unhübscher. Da bekommst du auch ein besseres Spielgefühl.

dildo4u
2019-02-13, 20:10:30
Die 2080 Ti Rockt mit DX12 in Metro was ein Biest über 200% zur 1080.Bei 1000€ passt dann der Preis sogar.

https://www.computerbase.de/2019-02/metro-exodus-test-benchmarks/2/#diagramm-metro-exodus-cpu-savegame-directx-11-vs-directx-12-2560-1440

Mehr RTX GI Vergleiche:

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11925927&postcount=343

Edgecrusher86
2019-02-13, 20:13:33
Nur ist DX11 SLI mit dem Beta-Profile tot bei BF V nach dem heutigen Update - bei jedem Start wird das Profile auf Default zurück gesetzt - vermutlich gegen den LOD-Missbrauch, den einige Leute mit Minecraft-Optik betrieben haben, um Gegner besser zu sehen.
Hatte es mal vor dem Start importiert, aber sobald man ingame ist, wird nur noch GPU1 gut ausgelastet - das gilt natürlich auch für ein NVLink-Gespann (2080 Ti SLI), wie ich erfahren habe.

TobiWahnKenobi
2019-02-13, 20:34:00
Nur ist DX11 SLI mit dem Beta-Profile tot bei BF V nach dem heutigen Update - bei jedem Start wird das Profile auf Default zurück gesetzt - vermutlich gegen den LOD-Missbrauch, den einige Leute mit Minecraft-Optik betrieben haben, um Gegner besser zu sehen.
Hatte es mal vor dem Start importiert, aber sobald man ingame ist, wird nur noch GPU1 gut ausgelastet - das gilt natürlich auch für ein NVLink-Gespann (2080 Ti SLI), wie ich erfahren habe.

verscheisste damme, du hast recht. das kann aber auch einfach ein fehler sein. bis zu dem update heute, konnte ich auch mit aktiviertem SLI ingame DX12 aktivieren ohne dass das spiel abgeschmiert ist. seit heute muss ich vor dem spielstart SLi im treiber ausschalten, sonst gibts CTD. das kann nur ein fehler sein, denn es fühlt sich hochgradig kaputt an.

das mit dem LOD habe ich über den NVI nie hinbekommen. habe das damals probiert nachdem ich davon gelesen hatte.. ging aber nicht.


(..)

mfg
tobi

Linmoum
2019-02-13, 20:46:53
Habe die MSI und bin vollends begeistert. Habe schon paar Posts verfasst zu der Karte.
Nach 5 Stunden Battlefield V im geschlossenen Case, die Karte die ganze Zeit auf 99% Auflastung, hat die Karte 68-69°C und ist bei 1300-1400rpm kaum zu hören (Case R4 gedämmt unter'm Tisch).
Du hast also die freie Wahl: noch leiser, dafür 7-10°C mehr? Ginge. Mehr Takt ist auch drin. Da limitiert erstmal nichts.
Abartig gut. Boost ist standardmäßig 1920Mhz. Habe noch nichts dran gemacht, zu faul bisher.

Für 719€ bekommen, klare Empfehlung.

https://abload.de/img/bfvmsibmj91.png
67°C

https://abload.de/img/fanmsixkk11.png
Fan unter 1200rpm lol, maximal 1250rpm.
Hatte beide hier, mir hat die Gigabyte Gaming OC mehr getaugt, habe das aktuellste Bios drauf mit bis zu 300W (122% im AB)

Allerdings leidet die Gigabyte an einen Zero Fan Bug, welche die Lüfter immer mal wieder On/Off schaltet, das passiert meistens bei Sachen, wo die GPU Temp langsam leicht steigt, und die Lüftersteuerung anspringen muss, leider nervt der Bug sehr, vorallmem bei Filme gucken mit MadVR, eine einfach Lösung ist aber eine Custom Fan Kurve mit 29% entsprechen etwas 800rpm und der Bug ist Geschichte. Allerdings ohne Zeron Fan dann. :wink:
Danke euch beiden.

Bei der MSI verwirrt mich einfach nur, dass sie in dem einen Review (hörbar) leiser als die FE ist, was sie trotz höherer TDP dennoch sein sollte, in dem anderen aber dann plötzlich lauter als die FE sein soll. Aber sie scheint ja doch ziemlich leise zu sein, was ja auch irgendwo logisch ist.

@Ex3cut3r
Ich mag sowieso auch im Idle drehende (langsam natürlich) Lüfter lieber, von daher stört mich das nicht. :D Wie sieht's denn bei dir aus mit der Lautstärke beim OC im Vergleich zu @Stock? Laut HWunboxed und Co. soll es ja selbst bei OC kaum einen Unterschied dahingehend geben. Beeindruckt mich einfach irgendwie, dass die Gigabyte so leise sein soll und das selbst mit OC. Und dann auch noch verhältnismäßig kalt. :D

Kannst du noch was zur MSI im Vergleich sagen, da du beide hattest. Also nur in puncto Temps/Lautstärke, gerne auch mit OC falls du das bei der auch getestet hattest.

Mearest
2019-02-13, 20:52:17
Also die Gigabyte Gaming OC hab ich zweimal zurück geschickt, weil die jedesmal bei ca 50% Lüfterdrehzahl tieffrequente nicht konstante Geräusche gemacht hat. Damit meine ich nicht den Motor start von Zero Fan. Vielleicht hatte ich auch nur 2 mal Pech.

Dural
2019-02-13, 22:05:20
Metro sieht mal so was von geil aus, hmm titan oder 2080ti? :freak:

Ex3cut3r
2019-02-13, 23:02:02
Danke euch beiden.

Bei der MSI verwirrt mich einfach nur, dass sie in dem einen Review (hörbar) leiser als die FE ist, was sie trotz höherer TDP dennoch sein sollte, in dem anderen aber dann plötzlich lauter als die FE sein soll. Aber sie scheint ja doch ziemlich leise zu sein, was ja auch irgendwo logisch ist.

@Ex3cut3r
Ich mag sowieso auch im Idle drehende (langsam natürlich) Lüfter lieber, von daher stört mich das nicht. :D Wie sieht's denn bei dir aus mit der Lautstärke beim OC im Vergleich zu @Stock? Laut HWunboxed und Co. soll es ja selbst bei OC kaum einen Unterschied dahingehend geben. Beeindruckt mich einfach irgendwie, dass die Gigabyte so leise sein soll und das selbst mit OC. Und dann auch noch verhältnismäßig kalt. :D

Kannst du noch was zur MSI im Vergleich sagen, da du beide hattest. Also nur in puncto Temps/Lautstärke, gerne auch mit OC falls du das bei der auch getestet hattest.

Gerne doch, also zur Lautstärke kann ich dir folgendes sagen, im "Auslieferungs Bios" könnte meine Gigabyte Gaming OC (Was ein Name) mit 100% PT "nur" 225W verbrauchen, damit war die aber wirklich arschleise, mit 1300 - 1500 RPM. Mit dem zweiten Bios gings dann von 225 auf 245W für 100% und maximalen 122% für 300W, damit agiert die Standard Lüftersteurung aber auch wieder lauter, sogar ziemlich lauter (ca. 1800-2000RPM) das war wir wieder zu laut, deswegen finde eine eine Custom Lüfter mit max 50% Fan Einstellung (sind 1550 RPM) und 94% PT = 230W optimal mit 67/66 Grad, so habe ich es immer selbst laufen, aber dir muss klar sein, dass die 230W nicht immer konstante 2ghz liefern, ist mir aber ehrlich gesagt wumpe (die 1930-2000mhz) sind mir ausreichend.

Im Vergleich zur MSI war Sie leiser. 1700RPM gegen 1550rpm, minimal aber ich bin da empfindlich. Aber das kommt auch daher, dass die MSi (siehe Link von CB am meisten Stom frisst out of the box)

Kennst du schon das? https://www.computerbase.de/2018-11/geforce-rtx-2080-vergleich-test/3/?amp=1

Aber eine frage, du hast doch eine Vega 64? Du willst du nicht etwa davon auf eine 2080? Wenn doch, vergiss das mal ganz schnell, das ist quatsch hoch 10. Aber du bist ja eigentlich ein cleveres Bürschchen und weißt das eigentlich selbst, von daher denke ich mal eher, du fragst für einen Freund? :biggrin:

Morgenlicht
2019-02-14, 00:24:31
Der optische Mehrwert ( Raytracing ist halt nur Optik... ) ist gemeint.
Ein besseres Mausspitzen-Gefühl kann Raytracing nicht vermitteln, wie auch? Was ist ein Mausspitzen-Gefühl? Habe ich etwas verpasst oder ist das ein Tippfehler, ich komme nicht klar damit :usad:

Daredevil
2019-02-14, 00:27:46
:D

Naja das Gefühl halt in den Fingern, wenn man die Maus in der Hand hat und sie bewegt. Die Mischung aus FPS, Input Lag und im besten Fall glatten Frametimes.
Kreative Freiheit des Begriffs.

TobiWahnKenobi
2019-02-14, 09:37:02
verscheisste damme, du hast recht. das kann aber auch einfach ein fehler sein. bis zu dem update heute, konnte ich auch mit aktiviertem SLI ingame DX12 aktivieren ohne dass das spiel abgeschmiert ist. seit heute muss ich vor dem spielstart SLi im treiber ausschalten, sonst gibts CTD. das kann nur ein fehler sein, denn es fühlt sich hochgradig kaputt an.

das mit dem LOD habe ich über den NVI nie hinbekommen. habe das damals probiert nachdem ich davon gelesen hatte.. ging aber nicht.


(..)

mfg
tobi

so, AFR geht wieder :-)

https://abload.de/thumb/bfv_2019_02_14_09_32_ickgm.jpg (http://abload.de/image.php?img=bfv_2019_02_14_09_32_ickgm.jpg)

Profilmanager (http://www.smartredirect.de/redir/clickGate.php?u=lnwCExJb&m=1&p=3d26AYJ0k7&t=p09f7K1v&st=&s=&splash=0&abp=1&url=https%3A%2F%2Fnvidia.custhelp.com%2Fci%2Ffattach%2Fget%2F138717%2F0%2Ffilena me%2FGeforce%2B3D%2BProfile%2BManager.exe&r=https%3A%2F%2Fwww.forum-3dcenter.org%2Fvbulletin%2Fshowthread.php%3Ft%3D593298)
NVIDIA Profiles (https://filehorst.de/d/cqxgucoc) (importieren)


(..)

mfg
tobi

Rancor
2019-02-14, 09:57:38
Gibt es bei SLI eigentlich noch die Mikroruckler oder ist das Geschichte?

Daredevil
2019-02-14, 10:11:44
Wenn das Game gut läuft, dann hat man kaum Probleme mehr im MultiGPU, auch weil die FPS deutlich besser geworden sind.
Mikroruckeln bemerkt man weniger bei 100fps+ als bei 40fps, deswegen wiegt das nicht mehr so doll auf.

Bei Tomb Raider in DX12 habe ich ( mit Crossfire ) schlicht keinen Unterschied bemerkt, ob ich Single GPU in FullHD Spiele oder Multi GPU in 4k.
Und SLI ist da deutlich weiter von der Kompatiblität und Performance her.

bommel@slash
2019-02-14, 17:27:18
ich glaube, es gibt gar keine flexbridges für nvlink.. das mit den einbautiefen klingt aber lustig, sowas hatte ich noch nie. kannst du das mal fotografieren.. für die nachwelt?`

ansonsten die anus weg und ne zweite gainward rein. ;-)



das "beste" spielgefühl in bfv habe ich aber nicht durch die darstellung sondern durch frames und irgendwie habe ich mich jetzt schon an 150-200fps gewöhnt.. im SLi unter DX11. auf 70-90fps komme ich zur zeit irgendwie nicht klar.


(..)

mfg
tobi

Die Platine und Backplate der Asus ist ca. 2cm breiter als die der Gainward. Daher bekomme ich die Bridge nicht drauf .... hab die Bridge gestern auseinander geschraubt und mit ein bissl Gewalt aufgesteckt bekommen. Keine Lösung für ewig.

Danke für deine Antwort.

Gruß, bommel

Raff
2019-02-14, 17:30:03
Gibt es bei SLI eigentlich noch die Mikroruckler oder ist das Geschichte?

Mit AFR gibt's quasi immer Mikroruckeln. In einigen Fällen wird das aber ganz ordentlich durch Software-Kniffe eingedämmt. Der Input Lag bleibt aber. Immer.

MfG,
Raff

bommel@slash
2019-02-14, 20:10:52
ich glaube, es gibt gar keine flexbridges für nvlink.. das mit den einbautiefen klingt aber lustig, sowas hatte ich noch nie. kannst du das mal fotografieren.. für die nachwelt?`

ansonsten die anus weg und ne zweite gainward rein. ;-)



das "beste" spielgefühl in bfv habe ich aber nicht durch die darstellung sondern durch frames und irgendwie habe ich mich jetzt schon an 150-200fps gewöhnt.. im SLi unter DX11. auf 70-90fps komme ich zur zeit irgendwie nicht klar.


(..)

mfg
tobi
hier das Foto :
https://abload.de/img/20190214_182435ypk3w.jpg

Daredevil
2019-02-14, 20:29:04
Krass.
Man denkt ja meist, das man an alles gedacht hat... und dann sowas. :D

JVC
2019-02-15, 09:39:58
http://www.pcgameshardware.de/Battlefield-5-Spiel-61688/News/Einschraenkungen-fuer-DLSS-1275449/
"Überraschende Einschränkungen für DLSS"

NV will mit dem Bevormunden/entmündigen der User einfach nicht aufhören :crazy2:

m.f.g. JVC

Sven77
2019-02-15, 09:55:27
Bitte noch "enteignen" als Wutbürgerbegriff mit aufnehmen

gnomi
2019-02-15, 10:13:56
Trotzdem könnten sie den Spieler entscheiden lassen.
Das hat mich auch gleich irritiert, wo ich das gesehen habe.
PC Spieler mögen so etwas wohl am wenigsten. War und ist so. ;)

BigKid
2019-02-16, 09:50:56
Ach Verdammt... ich glaube jetzt bin ich langsam weich...
Die Preise haben jetzt ja auch „schon“ 150 Euro nachgegeben...
Welcher würdet ihr den Vorzug geben ? Der KFA RTX2080 EX oder der Gigabyte Gaming OC?
Kurzes warum wäre nett... Speziell über die KFA liest man eigentlich nur gutes...

Troyan
2019-02-16, 09:53:28
Der Preisunterschied sind 80€. Ist die Frage, ob der längere Kühler der Gigabyte besser ist.
Müsste man nun schauen, wo das TDP-Limit der KFA liegt. Gigabyte erlaubt ja 300W.

Linmoum
2019-02-16, 10:05:28
Die Gigabyte schafft laut PCGH 66°C bei lächerlich leisen 1,1 Sone. Ich bezweifle stark, dass die KFA2 da auch nur annähernd rankommt. Aber deswegen muss sie ja nicht zwingend laut sein.

Die 300W gibt's bei der Gigabyte aber erst mit neuem Bios, auch wenn das sicherlich kein Problem ist.

Troyan
2019-02-16, 10:15:38
Man sollte auf jedenfall das Bios-Update bei der Gigabyte machen, da die Lüftersteuerung verbessert wurde: https://www.gigabyte.com/Graphics-Card/GV-N2080GAMING-OC-8GC#support-dl-bios

Ohne das Update nervt der Zero-Fan Modus ungemein.

BigKid
2019-02-16, 10:56:21
Die Gigabyte schafft laut PCGH 66°C bei lächerlich leisen 1,1 Sone. Ich bezweifle stark, dass die KFA2 da auch nur annähernd rankommt. Aber deswegen muss sie ja nicht zwingend laut sein.

Die 300W gibt's bei der Gigabyte aber erst mit neuem Bios, auch wenn das sicherlich kein Problem ist.
Bei der KFA EX wird in den Tests immer betont wie leise sie ist...
Der Kühler ist auch ein echtes Monster und die 2x Lüfter sind mit 100mm auch nicht klein...
Nur scheinen sich die "renomierten" Magazine um einen (schriftlichen) Test der KFA EX eher zu drücken... Die OC wurde öfter getestet - aber die hat den schlechteren Kühler - da hilft das OC dann imho auch nicht...
TDP scheint 300 Watt zu sein bei der EX...
http://www.kfa2.com/kfa2/graphics-card/20-series/kfa2-geforce-rtx-2080-ex.html
Gibts sonst noch was ? Garantie bei Gigabyte besser ? Hat jemand generell gute (oder schlechte) Erfahrungen mit KFA gemacht ?
Edit: Ok - Garantie bei KFA 2 Jahre - bei Gigabyte 4 mit Registrierung... KFA bietet allerdings Endkundengarantie , GB wohl nur über den Händler...