PDA

Archiv verlassen und diese Seite im Standarddesign anzeigen : nVidia - GeForce RTX 2080/Ti Review-Thread


Seiten : 1 2 3 4 5 6 [7] 8 9 10 11 12 13 14 15 16 17 18 19

AffenJack
2018-10-09, 11:02:51
Aha... das liest sich schon ganz anders. Man könnte es auch so drehen... Unwinder konzentriert sich stärker auf Nvidia Hardware (man sieht es schon alleine am Curve-Editor was es für Vega nicht gibt, obwohl das Funktionsprinzip sehr ähnlich, wenn nicht sogar identisch ist). Da ist es dann nicht verwunderlich wenn er keine Zeit wie aktuell bei Async Compute @Vulkan und Radeon mehr für AMD bei seinem Projekt hat. ;) Ist jetzt nicht unbedingt dramatisch. Man braucht sich aber in Zukunft nicht wundern wenn ich diverse Benchmarks in Frage stelle. Denn wie ich oben aufgezeigt habe bremst nicht nur der AB mit seinem RTSS.

Unwinder hat anscheinend schon öfter begründet, dass AMD in Doom/W2 anders rendert und er da für AMD eine Extrawurst einbauen müsste. Also bleibt er lieber neutral und es funzt dabei eben nicht so gut. Gerade wegen Leuten wie dir hat er es ja jetzt ganz rausgenommen und die Leute dürfen sich bei euch bedanken, wenn der Support von solchen Tools bei AMD schlechter wird.

dargo
2018-10-09, 11:07:36
@Rancor

Vega ist Gegner von Pascal, nicht Turing. Erst recht nicht bei den Preisen von Turing. Einzige Ausnahme könnte die 2070 demnächst sein. Und natürlich macht es einen Unterschied wenn ich Szenen sehe wo Vega mit dem Overlay vom AB bis 21% Leistung verliert bzw. ohne Overlay bis 21% schneller ist. Wie ich schon sagte... avgs. glätten halt vieles weg. Raff sagte zwar die PCGH würde kein Overlay beim benchmarken verwenden. Aber wie bencht die PCGH dann genau? Dazu hätte ich gerne noch paar genauere Infos. Denn wie ich aufgezeigt habe bremst auch ein OCAT Overlay. Und wie andere Redaktionen (CB, TH und Konsorten) benchen werden wir wohl leider nicht erfahren.

Unwinder hat anscheinend schon öfter begründet, dass AMD in Doom/W2 anders rendert und er da für AMD eine Extrawurst einbauen müsste. Also bleibt er lieber neutral und es funzt dabei eben nicht so gut. Gerade wegen Leuten wie dir hat er es ja jetzt ganz rausgenommen und die Leute dürfen sich bei euch bedanken, wenn der Support von solchen Tools bei AMD schlechter wird.
Sorry, aber das ist Bullshit. Entweder baue ich was ein was richtig funktioniert oder ich lasse es sein wenn es eben nicht richtig funktioniert. Soll Unwinder halt ehrlich sein und zugeben, dass seine Ressourcen für ein verlustfreies Overlay bei Radeon nicht ausreichen. Die Gründe sind erstmal unerheblich. Was soll dieses Rumgeeier? Oder von mir aus ein dicker Hinweis wenn man mit einer Radeon das Overlay im AB @Vulkan aktiviert, dass es zu Performanceeinbußen kommt. Damit könnte sicherlich auch jeder leben und wäre schön transparent.

Rancor
2018-10-09, 11:14:14
Also jemanden dafür anzumachen, das er ein kostenloses Tool entwickelt, was bei einem Produkt, bei einem IHV und nur wenn ein bestimmtes Ferture unter einer Minderheiten API aktiviert ist, zu Problemen führt, halte ich für extrem fragwürdig. Vor allem wenn man selber überhaupt keinen blassen Schimmer davon hat, wie aufwändig es ist, solch ein Tool zu programmieren und aktuell zu halten.

Jeder weiß übrigens auch das eine VEGA 64 LLC kein Land gegen einer 1080TI sieht. ;)

dargo
2018-10-09, 11:17:17
Also jemanden dafür anzumachen, das er ein kostenloses Tool entwickelt, was bei einem Produkt, bei einem IHV und nur wenn ein bestimmtes Ferture unter einer Minderheiten API aktiviert ist, zu Problemen führt, halte ich für extrem fragwürdig.

Dieses Feature wird zukünftig keine Minderheit bleiben. Und was heißt hier anzumachen? Kritik ist wohl auch nicht mehr angebracht oder wie? Was glaubst du was hier los wäre wenn es genau anders herum wäre. Das Overlay würde bei Nvidia bremsen.


Jeder weiß übrigens auch das eine VEGA 64 LLC kein Land gegen einer 1080TI sieht.
In Wolf 2 irrst du dich.

AffenJack
2018-10-09, 11:18:15
Sorry, aber das ist Bullshit. Entweder baue ich was ein was richtig funktioniert oder ich lasse es sein wenn es eben nicht richtig funktioniert. Soll Unwinder halt ehrlich sein und zugeben, dass seine Ressourcen für ein verlustfreies Overlay bei Radeon nicht ausreichen. Die Gründe sind erstmal unerheblich. Was soll dieses Rumgeeier? Oder von mir aus ein dicker Hinweis wenn man mit einer Radeon das Overlay im AB @Vulkan aktiviert, dass es zu Performanceeinbußen kommt. Damit könnte sicherlich auch jeder leben und wäre schön transparent.

Den Hinweis hat er sowohl bei Release geposted, als auch bei jeglichen Diskussionen darüber und das seit anderthalb Jahren, wenn er dabei war. Wenn die Leute zu blöd sind seine Kommentare dazu zu lesen, kann er auch nix dafür.

https://forums.guru3d.com/threads/msi-afterburner-4-3-0-final-is-released.410628/page-6#post-5387248

Das ganze hat auch nix mit Vulkan generell zutun, sondern einzig und allein wohl mit Doom und W2. Wo er da nicht ehrlich ist, muss mir da noch wer erklären. Das einzige was er nicht macht, ist AMD eine Extrawurst zu geben, aber das ist ja klar, dass dich das empört. Schließlich ist bei dir jeder Entwickler erstmal schlecht, der nicht nur auf AMD optimiert.

dargo
2018-10-09, 11:29:22
Den Hinweis hat er sowohl bei Release geposted, als auch bei jeglichen Diskussionen darüber und das seit anderthalb Jahren, wenn er dabei war. Wenn die Leute zu blöd sind seine Kommentare dazu zu lesen, kann er auch nix dafür.

https://forums.guru3d.com/threads/msi-afterburner-4-3-0-final-is-released.410628/page-6#post-5387248

Ok... immerhin stehts dort. Aber mal ehrlich, wer liest ständig die Release Notes? Das ist ja so als wenn ich verlangen würde jeder Windows User soll bitte schön die AGBs von Microsoft lesen. :tongue:


Das ganze hat auch nix mit Vulkan generell zutun, sondern einzig und allein wohl mit Doom und W2. Wo er da nicht ehrlich ist, muss mir da noch wer erklären. Das einzige was er nicht macht, ist AMD eine Extrawurst zu geben, aber das ist ja klar, dass dich das empört. Schließlich ist bei dir jeder Entwickler erstmal schlecht, der nicht nur auf AMD optimiert.
Ich dachte eigentlich man könnte hier eine normale Diskussion ohne einen weiteren Grabenkrieg führen, ich habe mich wohl getäuscht. Eigentlich wollte ich nur darauf hinweisen welcher Rattenschwanz daran hängt wenn beim Benchmarken ein externes Overlay verwendet wird. Betrifft also nicht nur den Afterburner.

AffenJack
2018-10-09, 11:40:01
Ok... immerhin stehts dort. Aber mal ehrlich, wer liest ständig die Release Notes? Das ist ja so als wenn ich verlangen würde jeder Windows User soll bitte schön die AGBs von Microsoft lesen. :tongue:

Stimmt schon, aber es macht auch keinen Sinn einen Hinweis bei jedem Start von AB zu geben für 1 oder 2 Spiele. Es gibt immer mal wieder Probleme mit einem Spiel, wie bekannt muss das Spiel am Ende sein, damit es ein Recht auf einen Hinweis hat usw.

Ich dachte eigentlich man könnte hier eine normale Diskussion ohne einen weiteren Grabenkrieg führen, ich habe mich wohl getäuscht. Eigentlich wollte ich nur darauf hinweisen welcher Rattenschwanz daran hängt wenn beim Benchmarken ein externes Overlay verwendet wird. Betrifft also nicht nur den Afterburner.

Mal davon abgesehen, dass hier nicht der Overlaythread ist, hast du damit angefangen Unwinder vorzuwerfen, dass er sich auf Nvidia konzentriert. Dabei verfolgt er aber einen Hardwareagnostischen Ansatz. Diesmal traff es AMD hier, vielleicht nächstes mal Nv.

Ansonsten bin ich bei Overlays durchaus deiner Meinung, dass man aufpassen muss, dass dieses die Performance nicht beeinflusst und habe keine Ahnung, wie Leute da messen.

Rancor
2018-10-09, 11:43:24
Weil es bei dir ständig nach rumjammern klingt, wenn mit einem Produkt bei AMD irgendetwas nicht passt und du den Entwicklern dann Vorwürfe machst, obwohl du überhaupt nicht mal ansatzweise Ahnung von Softwareentwicklung hast oder weißt warum es diesen Fehler gibt.

=Floi=
2018-10-09, 12:10:42
steht ja dort >>vector 2d<< Entweder er muss da was umschalten oder es geht über die cpu. Denke es wird am injekten liegen.

dargo
2018-10-09, 12:16:12
Ich verwende kein Vector 2D sondern Raster 3D.

Edit:
Gerade getestet. Macht eh keinen Unterschied ob Vector 2D, Vector 3D oder Raster 3D, der Performancedrop ist immer identisch. Gleiches gilt für Framebuffer und Viewport.

Edgecrusher86
2018-10-09, 13:53:22
Laut einigen Threads im NV Forum haben viele User Artefaktemit Turing - beide Modelle. Ein User meinte, dass diese durch Film Grain verursacht würden. Sieht in Wolfenstein II so aus:

https://abload.de/img/defekt_w2tnculecj.jpg (https://forums.geforce.com/default/topic/1075405/geforce-rtx-20-series/-hype-time-rtx-2080-ti-fe-artefacts/)

Kann das jemand hier bestätigen?

Hätte ich Turing, wäre das zusammen mit Blur oder Chroma die ersten Optionen, die ich immer deaktivieren würde, da ich ein knackiges Bild bevorzuge, aber andere Leute, andere Geschmäcker...


E: Einige FE müssen wohl auch in RMA, weil ein Tachosignal 0 RPM anzeigt und der Lüfter dann unkontrolliert mit 100% Fanspeed (https://forums.geforce.com/default/topic/1075542/geforce-rtx-20-series/one-of-the-2080ti-fe-fans-is-stuck-full-blast-/) läuft....wird ja immer besser. Erinnert mich etwas an die nicht vorhandene QA bei den G-SYNC HDR Monis. :D
Dazu dann noch das Limit auf 320W ohne Möglichkeit ein anderes AiB Ref-PCB BIOS aufzuspielen....

E2: Teilweise verarbschieden sich die LED-Controller: [url]https://forums.geforce.com/default/topic/1075288/geforce-rtx-20-series/2080-rtx-led-light-went-out/

E3: Bei manchen Leuten crashen die Games -> RMA (https://forums.geforce.com/default/topic/1075147/geforce-rtx-20-series/rtx-2080ti-bsod-/)

E4: Ein Kunde mit einem defekten Lüfter bei der FE -> https://forums.geforce.com/default/topic/1075537/geforce-rtx-20-series/yay-i-got-an-fe-with-a-zero-rpm-fan-mode-/

E5: Eine ganze Ansammlung an Artefakten und Crashes -> https://forums.geforce.com/default/topic/1075405/geforce-rtx-20-series/-hype-time-rtx-2080-ti-fe-artefacts/

https://abload.de/img/h2xbewb48cmo.jpg

Ein Beispiel...

Echt traurig, dass man so etwas direkt nach Launch der vermeintlichen Premiumkarten vermehrt lesen muss - da werden die Preise überdurchschnittlich erhöht und zudem auch noch an der Qualitätskontrolle gespart.
Mir scheint dass wenn die obigen Zahlen stimmen und es nur grob die Hälfte an 2080 Ti FE pro Tag im Vergleich zu den 1080 Ti FE sind, die pro Fertigungsstraße hergestellt werden können, alles einfach so schnell wie möglich zusammen geschustert wird.
Wir sprechen hier ja nicht von einem oder zwei RMA-Gründen direkt nach Launch (nach langer Wartezeit!), sondern von vier oder mehr. Eine böse Entwicklung...

Früher konnte man immer mit guten Gewissen sofort eine oder mehrere FE bei NV bestellen. Aber wenn ich mir diese Katastrophe hier an sehe - man hätte gut daran getan, den gesamten Launch frühstens Ende November oder Dezember zu initieren (dann auch in gewohnter Qualität und ausreichender Stückzahl).

x-force
2018-10-09, 14:10:11
chromatic aberration ist ja auch neben grain und blur die dämlichste funktion/option seit langem.

hq af auf der einen seite, auf der anderen seite opfert man rechenleistung um das bild zu verschlechtern. wir brauchen mehr dieser optionen.

vielleicht kann man ja mit den "überflüssigen" rt und tensor cores myopie hyperopie, sowie physikalisch korrekten katerakt, astigmatismus und andere fehlsichtigkeiten implementieren :D

BigKid
2018-10-09, 14:54:24
Fakt ist:

1. DLSS erstmal nur für 4k (UHD)
2. DLSS für WQHD fraglich

Habe ich dem irgendwo wiedersprochen ? Ganz im Gegenteil ich habe sogar implizit darauf hingewiesen. Du erzählst mir da was, was ich zum Teil durch Nachfragen mit herausgearbeitet habe...


3. Performanceboost durch DLSS unbekannt, da keine Tests

Oh doch gibt es - zumindest mal einen, dazu noch die Aussagen eines Testers hier im Forum. Man kann zwischen 30 und 40% erwarten. Auch unter WQHD sofern es denn von NV unterstützt werden sollte - was technisch gar kein Problem wäre. Und zuletzt kann man das auch ziemlich genau abschätzen. Der Boost den DLSS bringt kommt hauptsächlich durch das Rendern in niedrigerer Auflösung und ein klein wenig durch das "gratis" AA - also schraub die Auflösung eins runter und schalte jegliches Anti Aliasing ab und benche - dann siehst du recht genau was DLSS bringen würde...


4. RT Performance für 1080P ebenso fraglich bei allen Karten weil auch hier keine! Tests
5. Die Schatten die über RT in TombRaider realisiert werden kosten! enorm viel und laufen nicht schneller.

Jetzt spekulierst du - denn auch zum Schatten unter Tombraider haben wir nur eine preview gesehen von der wir überhaupt nicht wissen wie optmiert der Code da war...
Ich sagte lediglich dass es durchaus Möglichkeiten geben könnte RT ergänzend zu nutzen und Performance zu gewinnen oder für einzelne Spielereien die trotzdem einen Optik Boost bringen und dass letzlich es stark davon abhängen dürfte für was, wie und wie intensiv es genutzt wird. Und zum Boost von DLSS unter Verwendung von RT verweise ich mal auf die Siggraph wo Lederjacke von einem sehr starken Boost spricht... Und wenn man sich mal überlegt wie Raytracing arbeitet dann kann man sich schon herleiten, dass der Boost durch eine niedrigere Auflösung höher sein sollte als bei einem klassischen Renderer...
Und meine Aussage das DLSS vermutlich das einzige ist was RT überhaupt in spielbare Regionen hieven kann war auch ganz klar als "VERMUTUNG" gekennzeichnet...


Deinen Kenntnisstand saugst du dir aus den Fingern, denn es gibt keine! Tests zu DLSS/RT bisher.

Nein - ich saug mir hier gar nix nur aus den Fingern. Ich war hier einer der ersten, wenn nicht der erste, der bei DLSS überhaupt gewarnt hat dass es vermutlich ein AI Upscaler ist und die Boost durch das rendern in niedrigerer Auflösung kommen muss weil er für alles andere zu groß ist. Ich hab mich mit dem Thema intensiver beschäftigt (aus Anwendersicht mit etwas technischen Background).

Und im Übrigen war mein Post lediglich eine Reaktion auf die Aussage "DLSS sei zu langsam" und DAS ist mit ziemlicher Sicherheit falsch...

Schnoesel
2018-10-09, 15:49:34
Was ich deinem Kenntnisstand herausnehmen kann ist:

Bei RT vermutlich noch mehr. Vermutlich ist DLSS das Einzige was RT ab 1080p mit 25fps und mehr überhaupt möglich macht. [...]Ob die 2080 und 2080ti für RT nun zu lahm ist ist doch auch noch völlig offen. Eventuell lassen sich ja auch einzelne Aspekte mit RT in höherer Quali und schneller (performance) umsetzen - zB Schatten...


Ich habe das mal hervorgehoben und trotzdem lässt du dich zu der klaren Aussage hinreißen:

In Bezug zu DLSS gibt es vielleicht ein paar Dinge klären (Bildquali) oder nachzubessern von Seiten NV (mindestens auch noch für WQHD vefügbar machen) - aber "zu lahm" ist nach meinem Kentnissstand eine klare Falschaussage... DLSS bringt 30-40% boost.

Du weißt genauso viel wie wir auch und du bist erst konkret um dann alles zu relativieren. Wir wissen zu wenig über DLSS und RT um überhaupt eine klare Aussage treffen zu können, daher ist deine Aussage über die Aussage "zu lahm" wäre falsch ebenso eine reine Behauptung wie die Aussage an sich.

@Edgecrusher86

Mir war ich hätte irgendwo gehört, das Turing mit VRAM OC Probleme macht aber ich weiß leider nicht mehr genau wo ich das gelesen hatte.

BigKid
2018-10-09, 16:01:28
Was ich deinem Kenntnisstand herausnehmen kann ist:




Ich habe das mal hervorgehoben und trotzdem lässt du dich zu der klaren Aussage hinreißen:



Du weißt genauso viel wie wir auch und du bist erst konkret um dann alles zu relativieren. Wir wissen zu wenig über DLSS und RT um überhaupt eine klare Aussage treffen zu können, daher ist deine Aussage über die Aussage "zu lahm" wäre falsch ebenso eine reine Behauptung wie die Aussage an sich.
Manchmal wünsche ich mir eine zweistufige Ignore-Liste.
Eine für echte Trolle und eine zweite (weichere) für Leute nur die eher nur kleinliche Streithammel sind. Vermutlich wäre ich auf letzterer Liste bei manchem auch drauf.

Also ganz Konkret für dich:
- DLSS bringt 30-40% Performance Boost - dazu gibts Aussagen von NV, von einem "Profi" Tester und Tests unter Final Fantasy. Ferner ist mittlerweile die Funktionsweise so bekannt dass man sich den Boost wie von mir erklärt herleiten kann. Netterweise bist du ja wieder auf meinen ersten, kürzeren Post zurückgesprungen und hast meine Ausführungen gekonnt ignoriert... So kann mans auch machen... DLSS als solches kann gar nicht zu langsam sein... Es wird immer einen Boost bringen...Falls du es noch nicht bemerkt hast: Ich betrachte DLSS und RT seperat und nicht als Einheit. Daher sind die Aussagen zu DLSS konkret und zu RT sind es (fundierte) Annahmen und als solche gekennzeichnet und damit zu RT:
- Je aufwändiger die Berechnung eines Pixels ist, desto mehr wird DLSS durch das rendern in niedrigerer Auflösung sparen können. Nu erklär mir mal wie DLSS unter vollen RT WENIGER bringen soll als bei einem deferred Renderer - das geht gar nicht. Das geht genauso wenig wie DLSS etwas anderes sein konnte als ein (AI) Upscaler... Das ist prinzipbedingt ! Das hat nix mit raten zu tun... Ob es genug Boost ist um 1080p in spielbare Frameraten zu hieven oder ob man dafür DLSS überhaupt braucht kann niemand wissen weil es von zu vielen Faktoren abhägt. Was aber feststeht ist das DLSS auf jeden Fall einen Boost bringen wird...

Und das kann ich ganz konkret sagen ohne zu bewerten wie die Bildquali unter DLSS sein wird - das hat damit nämlich gar nix zu tun.
Genauso kann ich sagen, dass auch ein AI Upscaler ein Upscaler bleibt und Bildinfos erfindet - er tut das intelligenter als ein herkömmlicher aber er tut es... Abweichungen zur Ground-Truth sind somit systemimmanent...
Trotzdem kommt garantiert gleich wieder jemand daher und wird zu erklären versuchen, dass DLSS die fehlenden Infos "genau berechnet" ...

Rancor
2018-10-09, 16:15:03
Das Problem bei DLSS ist einfach, das es zum einen explizit unterstütz werden muss und zum anderen ist der Aufwand wohl auch nicht ganz gering für Nvidia, warum auch erstmal nur 4k angeboten wird. Um das für WQHD nutzbar zu machen, muss das Spiel 2 mal durch die AI Farm bei Nvidia geschickt werden. Ob das Sinn macht?

Ausserdem weiß einfach niemand von uns, in wie fern RT in Zusammenhang mit DLSS überhaupt performt. Beides nutzt schließlich die Tensor Cores.
Gut in BF V nicht, da wird das Denoising über die Compute Shader geregelt, was allerdings wieder Performance für die normale Rasterization kostet.

So einfach kann man es sich eben nicht machen.

BigKid
2018-10-09, 16:16:07
Ausserdem weiß einfach niemand von uns, in wie fern RT in Zusammenhang mit DLSS überhaupt performt. Beides nutzt schließlich die Tensor Cores.

Na so ganz ahnungslos sind wir nicht - es gab dazu Infos im Zusammenhang mit der Elevator Demo...
Daher wissen wir auch das es technisch machbar ist DLSS auch unter WQHD anzubieten - es muss nur von NV trainiert werden..
Ferner wissen wir dass RT und DLSS zusammen machbar sind und DLSS immernoch einen ordentlichen Schub bietet... Eventuell (Achtung Speku) kann DLSS das Denoising genauso "Gratis" miterledigen wie das AA...

JVC
2018-10-09, 16:48:33
Upscaling(DLSS) kann man relativ einfach jetzt schon nutzen ...
Einfach bei nem 4K im windof schon WQHD wählen/fixieren und dann das Spiel starten ...
Dann macht die Software absolut nix und nur der Monitor macht das Upscaling.
(natürlich alle arten von kantenglättungen und bildverschlimmbesserern deaktivieren)
Bringt auch nen ordentlichen Performanceboost ;)
Rein fürs zocken find ich die BQ akzeptabel.
( ist mir teilweise lieber als die Einstellungen im Spiel (stark) zu reduzieren )

m.f.g. JVC

p.s.: will damit nur sagen das ich nix von NV´s Upscaling halte ... lass mich aber gerne, wenn es denn mal Testes bezüglich der BQ gibt, eines besseren belehren :)
(negativ ist hald das Spiele oder Auflösungen die NV nicht antrainiert auch nicht funktionieren
wogegen das Monitoreigene "Upscaling" immer funktioniert)

Früher gab es bei Prad immer auch Upscaling BQ Tests bei den Monitoren.
https://www.prad.de/testberichte/test-lg-27qd58p-b-business-monitor-mit-gaming-qualitaeten/3/#Interpolation
Interpolation ... nicht Upscaling ... gibt es noch immer

Interessant wäre wies aussieht wenn man NV´s DLSS von FHD auf WQHD upscalen lässt und den Monitor das ganze auf 4K Interpolieren lässt.
Wobei das sollte man auch schon jetzt "testen" können ^^ ... einfach Windof den ersten schritt machen lassen ;)
( WQHD im Windof wählen -- im Spiel nur FHD wählen mit Kantenglättung und allem -- und das ganze nen 4k Moni interpolieren lassen )

Ex3cut3r
2018-10-09, 17:22:21
@Edgecrusher

Keine Probleme hier, RTX seit schon fast 2 Wochen im PC, auch bei Wolfenstein 2 keine Auffälligkeiten mit Filmgrain. :confused:


Max Settings (alles per Hand maximiert) 3440x1440

RTX 2080

Nicht über die Roten Kästchen wundern, habe da ein paar verfassungswidrige Zeichen entfernt, nicht das die Mods mich noch Sperren. ;)

https://abload.de/thumb/newcolossus_x64vk_201nnc6y.png (https://abload.de/image.php?img=newcolossus_x64vk_201nnc6y.png)

Edgecrusher86
2018-10-09, 17:49:01
Danke für das Feedback. VRAM OC wäre natürlich eine mögliche Ursache, ja.

Also in dem Fall sind es gewollte Artefakte - die hätte ich auch anbringen müssen bei einem Screenshot. 😄

crux2005
2018-10-09, 18:03:04
Laut einigen Threads im NV Forum haben viele User Artefaktemit Turing - beide Modelle. Ein User meinte, dass diese durch Film Grain verursacht würden. Sieht in Wolfenstein II so aus:

https://abload.de/img/defekt_w2tnculecj.jpg (https://forums.geforce.com/default/topic/1075405/geforce-rtx-20-series/-hype-time-rtx-2080-ti-fe-artefacts/)

Kann das jemand hier bestätigen?

Hätte ich Turing, wäre das zusammen mit Blur oder Chroma die ersten Optionen, die ich immer deaktivieren würde, da ich ein knackiges Bild bevorzuge, aber andere Leute, andere Geschmäcker...


E: Einige FE müssen wohl auch in RMA, weil ein Tachosignal 0 RPM anzeigt und der Lüfter dann unkontrolliert mit 100% Fanspeed (https://forums.geforce.com/default/topic/1075542/geforce-rtx-20-series/one-of-the-2080ti-fe-fans-is-stuck-full-blast-/) läuft....wird ja immer besser. Erinnert mich etwas an die nicht vorhandene QA bei den G-SYNC HDR Monis. :D
Dazu dann noch das Limit auf 320W ohne Möglichkeit ein anderes AiB Ref-PCB BIOS aufzuspielen....

E2: Teilweise verarbschieden sich die LED-Controller: [url]https://forums.geforce.com/default/topic/1075288/geforce-rtx-20-series/2080-rtx-led-light-went-out/

E3: Bei manchen Leuten crashen die Games -> RMA (https://forums.geforce.com/default/topic/1075147/geforce-rtx-20-series/rtx-2080ti-bsod-/)

E4: Ein Kunde mit einem defekten Lüfter bei der FE -> https://forums.geforce.com/default/topic/1075537/geforce-rtx-20-series/yay-i-got-an-fe-with-a-zero-rpm-fan-mode-/

E5: Eine ganze Ansammlung an Artefakten und Crashes -> https://forums.geforce.com/default/topic/1075405/geforce-rtx-20-series/-hype-time-rtx-2080-ti-fe-artefacts/

https://abload.de/img/h2xbewb48cmo.jpg

Ein Beispiel...

Echt traurig, dass man so etwas direkt nach Launch der vermeintlichen Premiumkarten vermehrt lesen muss - da werden die Preise überdurchschnittlich erhöht und zudem auch noch an der Qualitätskontrolle gespart.
Mir scheint dass wenn die obigen Zahlen stimmen und es nur grob die Hälfte an 2080 Ti FE pro Tag im Vergleich zu den 1080 Ti FE sind, die pro Fertigungsstraße hergestellt werden können, alles einfach so schnell wie möglich zusammen geschustert wird.
Wir sprechen hier ja nicht von einem oder zwei RMA-Gründen direkt nach Launch (nach langer Wartezeit!), sondern von vier oder mehr. Eine böse Entwicklung...

Früher konnte man immer mit guten Gewissen sofort eine oder mehrere FE bei NV bestellen. Aber wenn ich mir diese Katastrophe hier an sehe - man hätte gut daran getan, den gesamten Launch frühstens Ende November oder Dezember zu initieren (dann auch in gewohnter Qualität und ausreichender Stückzahl).

Traurig. Die Custom Turings sind zum glück nicht so Fehlerhaft.

@Edgecrusher

Keine Probleme hier, RTX seit schon fast 2 Wochen im PC, auch bei Wolfenstein 2 keine Auffälligkeiten mit Filmgrain. :confused:


Max Settings (alles per Hand maximiert) 3440x1440

RTX 2080

Nicht über die Roten Kästchen wundern, habe da ein paar verfassungswidrige Zeichen entfernt, nicht das die Mods mich noch Sperren. ;)

https://abload.de/thumb/newcolossus_x64vk_201nnc6y.png (https://abload.de/image.php?img=newcolossus_x64vk_201nnc6y.png)

OK :D

Ex3cut3r
2018-10-09, 19:01:22
Also, was ich beobachtet habe, +700 beim VRAM gehen ohne Fehler, allerdings stürzen ein Paar Games damit ab, also runter auf +600 damit BF1 mit 150% Resolution Scale von 3440x1440 gezockt, wieder abgeschmiert, dann auf +550 und das läuft und läuft. ;)

Die Leute sollten ihr VRAM?! OC erst mal richtig testen, auch mit "Extrem Settings" mit DS und Co. und sehr hohen Auflösungen.

Mircron halt nicht den besten ruf, bei Samsung wäre vermutlich mehr und Stabil drin, ich habe aber wie eigentlich jeder momentan Micron drauf. Allerdings ist der Gewinn bei mir auch vernachlässigbar, zwischen Standard und +700 liegen 5-9 FPS. Ich bin mit +550 in der Mitte davon.

dargo
2018-10-09, 19:52:18
Hmm... :uponder:
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11807844&postcount=874

Ex3cut3r
2018-10-09, 20:54:41
Extra rausgesucht? Wahnsinn. Wenn ich alles raussuchen wurde, was für meinen Schmarn du teilweise verbreitest, wurde ich bis Morgen hier sitzen. Es gibt schon ein Bios Update, für Micron RAM auf der Hersteller Seite für die Graka, vlt. ist es damit gefixt? Wie gesagt...+700 sind ohne Bildfehler möglich, allerdings stürzen Spiele ohne ersichtlichen Grund ab. Ein Arbeitskollege hat eine Gainward RTX 2080 Ti, bei ihm gegen angeblich +1000...vlt. hatte ich auch einfach Pech? :rolleyes:

Juckt mich ehrlich gesagt auch nicht. Leistung ist auch mit +550 + Core OC bei 230W (selbst gemessen insgesamt 340W für den PC), mehr als ausreichend für 3440x1440. :biggrin:

Was auch gut ist, der 4770k @ 4,2/4,1 mit Cache @ 4,0 und DDR3 2400mhz mit optimierten Subtimings limitiert so gut wie gar nicht, selbst in 2560x1440. Also Luft für eine RTX 2080 Ti wäre auch noch drin. Außer in FC5, AC: O in Alexandria und BF1 64 Players MP, aber die FPS sind auch im CPU Limit hoch genug, mit 100-140 FPS in BF1.

Schrotti
2018-10-09, 21:33:26
RTX 2080

Nicht über die Roten Kästchen wundern, habe da ein paar verfassungswidrige Zeichen entfernt, nicht das die Mods mich noch Sperren. ;)

https://abload.de/thumb/newcolossus_x64vk_201nnc6y.png (https://abload.de/image.php?img=newcolossus_x64vk_201nnc6y.png)

Die "Zeichen" sind nicht mehr Verfassungswidrig.

https://www.gamestar.de/artikel/hakenkreuze-in-videospielen-usk-hebt-generelles-verbot-in-videospielen-auf,3333259.html

phoenix887
2018-10-09, 22:34:44
Die "Zeichen" sind nicht mehr Verfassungswidrig.

https://www.gamestar.de/artikel/hakenkreuze-in-videospielen-usk-hebt-generelles-verbot-in-videospielen-auf,3333259.html

Natürlich sind sie noch immer Verfassungswidrig. Nur im Zusammenhang zur Aufklärung und Kunst dürfen sie gezeigt werden. Und dies wurde in Bezug auf Videospiele etwas gelockert. Dies muss aber die USK von Fall zu Fall prüfen.

Nicht mehr und nicht weniger.

SKYNET
2018-10-10, 02:27:07
Das ist ja krass. Das sind ja +1220 im Afterburner oder Prescion. Das ist aber nicht die Norm. Beim GDDR6 sind aber +600 bis +1000mhz die Norm.

Beim GDDR5X sind eher +450 bis 700mhz drin, und schon +700 sind selten.


die neueren GDDR5X auf den 1080Ti gehen alle über 12000MHz = 1000MHz+ die meisten zwischen 1200-1400MHz :wink:

SKYNET
2018-10-10, 02:30:06
Natürlich sind sie noch immer Verfassungswidrig. Nur im Zusammenhang zur Aufklärung und Kunst dürfen sie gezeigt werden. Und dies wurde in Bezug auf Videospiele etwas gelockert. Dies muss aber die USK von Fall zu Fall prüfen.

Nicht mehr und nicht weniger.

heisst eigentlich nur: wenn man nazis abknallt wirds erlaubt werden :cool:

Digidi
2018-10-10, 19:30:12
3 Modelle lieferbar:
https://geizhals.de/?cat=gra16_512&xf=9810_9+11750+-+28rtxxa

fulgore1101
2018-10-10, 20:59:15
Die RTX Karten sind meiner Meinung nach ein technologischer Rückschritt. Sie sind größer und benötigen mehr Strom als die Vorgänger Serie.

Atma
2018-10-10, 21:08:10
Die RTX Karten sind meiner Meinung nach ein technologischer Rückschritt. Sie sind größer und benötigen mehr Strom als die Vorgänger Serie.
Performancesteigerungen gibt es nun mal nicht kostenlos.

Ex3cut3r
2018-10-10, 21:20:34
Hää stimmt doch gar nicht? Die 2080 verbraucht 225W out of the box und liefert damit 1080Ti Leistung, die für selbiges 250W out of the Box verbratet, und die RTX 2080 Ti verbraucht 250-300W für 30-40% mehr Leistung. Was für ein Quatsch, erzählt ihr da mal wieder? :confused:

Atma
2018-10-10, 21:42:26
Hää stimmt doch gar nicht? Die 2080 verbraucht 225W out of the box und liefert damit 1080Ti Leistung, die für selbiges 250W out of the Box verbratet, und die RTX 2080 Ti verbraucht 250-300W für 30-40% mehr Leistung. Was für ein Quatsch, erzählt ihr da mal wieder? :confused:
Innerhalb der Leistungsklassen (1080 u. 2080/1080 Ti u. 2080 Ti) ist der Verbrauch gestiegen. Dafür gibt es aber auch mehr Performance, deswegen sehe ich hier kein Problem und somit auch kein Rückschritt. Turing ist und bleibt ein beeindruckendes Stück Technik.

Troyan
2018-10-10, 21:43:36
Nur im Vergleich zur FE. Da diese aber ja ein Nogo ist, ist der Stromverbrauch auch nicht gestiegen.

fulgore1101
2018-10-10, 22:24:24
Performancesteigerungen gibt es nun mal nicht kostenlos.

In dieser Generation nicht. Deshalb ist es technologisch ein Rückschritt.

Atma
2018-10-10, 23:03:27
In dieser Generation nicht. Deshalb ist es technologisch ein Rückschritt.
Kostenlose Performancesteigerungen gab es noch nie.

Monsta
2018-10-10, 23:30:34
Kostenlose Performancesteigerungen gab es noch nie.

achso.

gtx 770 = 230Watt

https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-770/specifications

gtx 970 = 145Watt

https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

edit
gtx 1070 = 150Watt

https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-1070/specifications

und die Dinger sind jeweils ca. 50% schneller

die 1070 sogar mehr, und alle haben doppelten Speicher. Bin mal auf die 2070 gespannt.

Atma
2018-10-11, 00:02:31
achso.

gtx 770 = 230Watt

https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-770/specifications

gtx 970 = 145Watt

https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-970/specifications

edit
gtx 1070 = 150Watt

https://www.geforce.com/hardware/desktop-gpus/geforce-gtx-1070/specifications

und die Dinger sind jeweils ca. 50% schneller

die 1070 sogar mehr, und alle haben doppelten Speicher. Bin mal auf die 2070 gespannt.
Die Dinger sind aber auch immer mehr in die Breite gegangen - mehr Shader, mehr Transistoren. Ergo nur kostenlos wenn man sich auf die Leistungsaufnahme beschränkt, ansonsten nicht.

Nuvirus
2018-10-11, 03:16:36
Bisher gab es eigl immer Fortschritte zum gleichen/ähnlichen Preis im Vergleich zum Vorgänger letztes gutes Beispiel die 1080 die nen Riesen Fortschritt zur 980Ti war und gegenüber der 980 nen noch größerer wobei es da natürlich nen größeren Aufpreis gab aber auch große Mehrleistung.

Fragman
2018-10-11, 06:41:52
Bisher gab es eigl immer Fortschritte zum gleichen/ähnlichen Preis im Vergleich zum Vorgänger letztes gutes Beispiel die 1080 die nen Riesen Fortschritt zur 980Ti war und gegenüber der 980 nen noch größerer wobei es da natürlich nen größeren Aufpreis gab aber auch große Mehrleistung.

Da ja hier von einer Seite nur noch getrollt wird. Die RT Performance ist bis zu 6 mal höher. Gemessen an den 1080TI Preisen sind die 2080 Karten dagegen ein Schnäppchen. :freak:

Digidi
2018-10-11, 07:35:01
Und wo wird man RT vernünftig nutzen können?

Das könnte ein sehr schlechter Launch werden. Sämtliche Karten trotz geringer Stückzahl liegen wie Blei in den Regalen.

Razor
2018-10-11, 07:35:47
Umgekehrt wird ein Schuh draus... die 1080ti hat 819€ gekostet, als sie 03/2017 raus kam... die 2080 hingegen 849€.
Nichts desto trotz, nVidia hat das Namensschema einfach "verschoben", that's it!

2080ti = Pascal Titan
2080 = 1080ti (mit weniger/schmalerem VRAM)
2070 = 1080

Eine "wundervolle" Methode, die "alten" einfach weiter zu verkaufen, um von den Beständen runter zu kommen.
Und der Witz ist: die Rechnung geht auf...
1050/TI ~ 150€
1060/3G ~ 200€
1060/6G ~ 250€
--- nicht so bald ---
1070 ~ 400€
1070TI ~ 450
1080 ~ 500€
--- bald --- 2070 ~ 600€
1080TI ~ 750€
2080 ~800€
2080TI ~ 1250€

Aktuell gibt es große Lücken... eine zwischen 1060/6G und 1070... aber 250€ ist auch eine der Grenzen, wo "casuals" (wie ich einer bin) ihre Grenzen ziehne. Eine andere dagegen zwischen 1080 und und 1080TI... und - oh Wunder - wird es bald eine Klasse geben, die genau diese Lücke füllt und sogar hervorragend ins Performance-Bild passen wird: die 2070 mit ~ 650€.

Fakt ist, die einzigen beiden, die etwas zu dicht aufeinander liegen, sind 2080 und 1080ti... ja, die Performance ist fast gleich... wenn auch nur mit einem kleinen Trick. Dafür gibt es einen eklatanten Unterschied zwischen den beiden: Fetter Chip in "ungünstiger" Fertigung mit neuen Features vs. fettem Speicher mit rund 40% mehr Bandbreite und Volumen.

Und auch klar... diejenigen, die sich jetzt eine "ti" holen, sind schlicht bereit locker 50% mehr auszugeben, als dies noch vor 1,5 Jahren der Fall war.
Das natürlich in der höchsten Preisklasse, versteht sich ;D
:uhammer:

Razor

P.S.: traurig ist, dass nVidia seine neue Generation OC'd raus bringen musste, um überhaupt ein nachvollziehbares Performance-Plus zu erreichen.
Deswegen nun auch die Probleme mit den Kärtchen, die die "Customs" sehr gut kennen... die 20'er FE's übertreibens einfach.

Fragman
2018-10-11, 08:11:25
Eine "wundervolle" Methode, die "alten" einfach weiter zu verkaufen, um von den Beständen runter zu kommen.
Und der Witz ist: die Rechnung geht auf...


Die Rechnung hat aber nicht nv aufgemacht, sondern, unter anderem, der "Markt", die seit 1,5 Jahren komplett verzerrt ist, aus Gamersicht. Das sollte man der fairness halber dazu sagen. AMD Karten litten und leiden ja auch drunter. Intel läuft aktuell in das gleiche Problem rein. Wenn Produkte in einem Allzeithoch gelauncht werden, darf man sich nicht wundern, das das Preisleistungsverhältnis drunter leidet. Andererseits finden diese Produkte alle auch Absatz, sonst wären die Preise nicht dort, wo sie sind. Betrifft aber wie gesagt den ganzen PC Markt im Moment (allein der 8700k ist jetzt in 6 Wochen 100 € teurer geworden und fuer den 9900K kann man wohl 600€+ erwarten :freak: ).

Robspassion
2018-10-11, 11:34:32
Hat jemand schon Undervolting Erfahrung sammeln können mit der 2080 Ti?

Habe nur das gefunden:

https://www.hardwareluxx.de/index.php/artikel/hardware/grafikkarten/47377-die-geforce-rtx-2080-ti-und-rtx-2080-founders-edition-im-test.html?start=29

Meine Phoenix GS von Gainward wird mit ersten leichten OC Versuchen (OC Scanner via MSI Afterburner) sehr warm ~77 Grad im geschlossenen Gehäuse (Obsidian 750D) und läuft dann doch recht schnell ins Powerlimit (115% glaube ca. 330 Watt). Der Takt fällt schnell unter 1900 Mhz in Witcher 3.

Ram habe ich mich noch nicht weit vorgewagt. Erstmal mit +550 weitertesten ob alles lange Zeit stabil läuft.

Ansonsten hält sich meine Begeisterung in Grenzen :freak:. Hatte vorher die Titan X(Pascal) auch so ca. auf 1900 Mhz und z.B. in Shadow of the Tomb Raider in 3840*2160 (mit HDR) ging es grade mal von 41 FPS maxxed out mit Smaa2TX auf 54 FPS. Sind 31% mehr FPS.

dildo4u
2018-10-11, 11:38:30
Scheint mir mher als die Theoretische Rechenleistung, relativ gutes Skaling.

RoughNeck
2018-10-11, 11:38:33
1,9 GHZ macht meine Phoenix GS mit 0,875 Volt.
Teste gerade selbst noch aber das scheint stabil zu sein. Zumindest Assassins Creed Odyssey ist nach knapp 23 Stunden Spielzeit noch kein mal abgeschmiert mit der Einstellung.

Robspassion
2018-10-11, 12:07:25
1,9 GHZ macht meine Phoenix GS mit 0,875 Volt.
Teste gerade selbst noch aber das scheint stabil zu sein. Zumindest Assassins Creed Odyssey ist nach knapp 23 Stunden Spielzeit noch kein mal abgeschmiert mit der Einstellung.

Ok das ist doch mal ein netter Richtwert. Danke für die schnelle Antwort ich teste es die Tage mal.

TobiWahnKenobi
2018-10-11, 12:34:46
sucht hier jetzt noch jemand eine verfügbare FE? ich habe noch eine karte und eine 3-slot-brücke liegen. ansonsten würde ich mich jetzt diese woche um die rückgabe kümmern.

user yamo hatte mir hier ne PN geschickt, kann aber selbst keine empfangen *gg*



(..)

mfg
tobi

Schrotti
2018-10-11, 12:44:30
Hab dir geantwortet.

Ex3cut3r
2018-10-11, 13:10:53
P.S.: traurig ist, dass nVidia seine neue Generation OC'd raus bringen musste, um überhaupt ein nachvollziehbares Performance-Plus zu erreichen.
Deswegen nun auch die Probleme mit den Kärtchen, die die "Customs" sehr gut kennen... die 20'er FE's übertreibens einfach.

Woher kommt das? Hast du selbst Erfahrung damit? Die paar Leute im Geforce Forum? Die gab es auch bei Pascal, Maxwell und Co. sollte man nicht als normal ansehen, da wird teilweise eine RTX 2080 Ti mit einem 6 Jahren alten NT mit 500W betrieben, wundert sich dann aber wenn der PC einfach ausgeht beim Spielen. Die FEs boosten alle mit "jämmerlichen" 1800-1860Mhz, also vom Limit kann keine rede seien, den die liegt eher bei 1980-2000-2100mhz.

Die Leute die Bildfehler haben, sieht mir eher nach defekten VRAM aus, ist ärgerlich kann bei Mircron VRAM aber mal öfters passieren. Bei Pascal brauchte ich drei Anäufe zum Rls. bis ich eine 1070er hatte, die endlich funktioniert hat, war eine GTX 1070 Gaming von MSI mit Samsung VRAM, die Palit und die Gainward wollten einfach nicht. Also von daher, mal nicht alles gleich auf die Goldwaage legen, die Leute bei denen alles funktioniert (so wich ich) sind halt still. Zudem sind die Treiber momentan nicht so Pralle. Das ist bei einen neuen Gen aber auch öfters der Fall.

Bisher gab es eigl immer Fortschritte zum gleichen/ähnlichen Preis im Vergleich zum Vorgänger letztes gutes Beispiel die 1080 die nen Riesen Fortschritt zur 980Ti war und gegenüber der 980 nen noch größerer wobei es da natürlich nen größeren Aufpreis gab aber auch große Mehrleistung.

Ja genau, die 15-25% mit den Launch Treibern damals, waren echt ueber Hit. Sieht man aber auch was für eine verklärte Erinnerung die Leute haben, bei Pascal war das alles Ordnung, heute bei Turing sind 30-40% mit den Launch Treibern ja der Witz. Also irgendwas muss Nvidia die letzen zwei Jahre echt falsch gemacht haben, den der Hate ist spürbar gewachsen. :freak:

https://abload.de/thumb/unb2enanntyych6.png (https://abload.de/image.php?img=unb2enanntyych6.png)

https://abload.de/thumb/unbe3nanntmwi5r.png (https://abload.de/image.php?img=unbe3nanntmwi5r.png)

https://abload.de/thumb/unbenanntkaexo.png (https://abload.de/image.php?img=unbenanntkaexo.png)

Quelle: http://www.pcgameshardware.de/Nvidia-Geforce-Grafikkarte-255598/Tests/Geforce-GTX-1080-Test-Review-1195464/2/

Lehdro
2018-10-11, 13:39:09
Ja genau, die 15-25% mit den Launch Treibern damals, waren echt ueber Hit. Sieht man aber auch was für eine verklärte Erinnerung die Leute haben, bei Pascal war das alles Ordnung, heute bei Turing sind 30-40% mit den Launch Treibern ja der Witz.

Vergleichst du gerade echt GM200 mit GP104 und dann GP102 mit TU102?

Versuchs doch mit dem Vergleich einer 1080 Ti vs 2080. Dagegen sind die 15-25% von 980 Ti auf 1080 nämlich echt der Hit. Wenn ich dann selbst die "teure" (heute ja schon normaler TI Preis) Titan X dazu nehme, die gerade mal 2 Monate später als die 1080 erschien, dann wirds echt jämmerlich.

Zur Erinnerung:

Ende Mai 2016 -> 1080
Anfang August 2016 -> Titan X

Solch Performancesprünge gibt es bei Turing gar nicht...

Robspassion
2018-10-11, 13:44:00
Wenn man in den Benchmarks die 1080 FE mit der 980ti im Referenz Design vergleicht, was halbwegs fair ist, sind es wesentlich mehr als 15-25%. Und man sollte eventuell für die Analyse keine 1080p Benchmark Ergebnisse zu Grunde legen. Da limitiert sicherlich auch schonmal die CPU.

Nur die brutal übertaktete MSI Lightning 980ti lässt den Abstand so gering aussehen.

Ex3cut3r
2018-10-11, 13:44:50
Solche Performancesprüung wie ihr wollt, kann es auch bei 16nm auf "12nm" nicht geben, beschwerd euch doch bei AMD? Oder wo ist der 1080Ti Gegenpart? :rolleyes:

Nvidia ist keine Wohlfahrt Organisation. Eine 1080Ti/RTX 2080 oder sogar 2080Ti, braucht im Grunde kein Mensch.

Robspassion
2018-10-11, 13:52:18
Ich denke das stimmt alles und klar ist meckern auf hohem Niveau :).

Ich mecker gerne vor allem bei dem Preis.

Edit:

Natürlich braucht man die 2080ti und eigentlich braucht man noch viel viel mehr Leistung. Die Karte kann definitiv nicht 4k@60 Hz kostant über alle Titel bei maximalen Details.

TobiWahnKenobi
2018-10-11, 14:42:58
Ich denke das stimmt alles und klar ist meckern auf hohem Niveau :).

Ich mecker gerne vor allem bei dem Preis.

Edit:

Natürlich braucht man die 2080ti und eigentlich braucht man noch viel viel mehr Leistung. Die Karte kann definitiv nicht 4k@60 Hz kostant über alle Titel bei maximalen Details.

bis neulich musste man für vergleichbare frameraten noch 3.200€ zzgl. 150€ für einen wasserkühler ausgeben.


(..)

mfg
tobi

RoughNeck
2018-10-11, 16:23:26
Solche Performancesprüung wie ihr wollt, kann es auch bei 16nm auf "12nm" nicht geben, beschwerd euch doch bei AMD? Oder wo ist der 1080Ti Gegenpart? :rolleyes:

AMD hat ganz andere Probleme.
Als ich meine Vega 64 LC gekauft habe, waren die Treiber ein schlechter Scherz. Da funktionierte wenig, das gab es bei Nvidia nie, da waren selbst die schlechtesten Treiber weit besser. Die Treiber von AMD sind zwar jetzt besser aber so richtig warm werde ich mit der Vega Karte nicht, obwohl es eine gute Karte ist.


Nvidia ist keine Wohlfahrt Organisation. Eine 1080Ti/RTX 2080 oder sogar 2080Ti, braucht im Grunde kein Mensch.

Bei Nvidia erwartet man halt immer riesen Sprünge in Sachen Performance. Ich denke aber auch dass viele die sich eine 1080 TI leisten konnten, einfach nicht mit den Preis der 2080 TI gerechnet haben und haten jetzt.
Ich bin mit der Karte happy, es ist genau das eingetreten was ich erwartet habe und was in den Medien kursierte. 35 - 40% in Games, mal weniger, mal mehr, genau das leistet die Karte auch.

Troyan
2018-10-11, 16:25:12
Der Preis ist weniger das Problem. Eher die geringe Mehrleistung bei dem riesigen Die. Hier hat doch niemand gedacht, dass nVidia die Volta-Architektur nehmen wird.

Schlussendlich ist mir meine Lebenszeit mehr Wert als die paar (hundert) Euro Aufpreis. Aber das muss jeder mit sich selbst vereinbaren.

Ex3cut3r
2018-10-11, 16:36:45
Bei Nvidia erwartet man halt immer riesen Sprünge in Sachen Performance. Ich denke aber auch dass viele die sich eine 1080 TI leisten konnten, einfach nicht mit den Preis der 2080 TI gerechnet haben und haten jetzt.
Ich bin mit der Karte happy, es ist genau das eingetreten was ich erwartet habe und was in den Medien kursierte. 35 - 40% in Games, mal weniger, mal mehr, genau das leistet die Karte auch.

Davon sollte man sich aber verabschieden, die Sprünge werden immer kleiner werden, siehe CPUs. Probier mal Wolfenstein 2, das sind sogar mehr als 40% eher 65%. Doom Eternal durfte auf Turing um einiges schneller laufen, als auf allen anderen Architekturen.

pixeljetstream
2018-10-11, 16:37:24
Mir ist es unverständlich wie man glauben konnte die GPU wurde nicht auf der letzten Architektur aufbauen und hab mich ja oft so geäußert, als Leute meinten es wäre Pascal refresh/Ableger.

SKYNET
2018-10-11, 17:03:21
AMD hat ganz andere Probleme.
Als ich meine Vega 64 LC gekauft habe, waren die Treiber ein schlechter Scherz. Da funktionierte wenig, das gab es bei Nvidia nie, da waren selbst die schlechtesten Treiber weit besser. Die Treiber von AMD sind zwar jetzt besser aber so richtig warm werde ich mit der Vega Karte nicht, obwohl es eine gute Karte ist.


also ich war mit dem treiber bei meiner RX580 deutlich mehr happy als mit dem NV treiber... so verschieden sind geschmäcker :smile:

cR@b
2018-10-11, 18:17:59
bis neulich musste man für vergleichbare frameraten noch 3.200€ zzgl. 150€ für einen wasserkühler ausgeben.


(..)

mfg
tobi

Und deswegen ist die 2080 Ti n Schnäppchen? :rolleyes:

Ex3cut3r
2018-10-11, 18:34:00
Nein, natürlich nicht, aber als "normaler" Arbeiter mit Geld zur Seite legen/sparen auch machbar, wenn man es denn unbedingt haben will. Ansonsten reicht auch eine 1080 Ti für die nächsten 2 Jahre. Oder eine GTX 1060 kommt immer auf einen selbst an. ;)

Mal ganz ehrlich hier ist der "Hate" auch vollkommen normal, weil hier auch imo mehr Erwachsene sich umtreiben, die voll im Leben stehen, schaut euch doch mal an, was im CB abgeht. Sicher, als Schüler (gar nicht so lange her) fände ich die Preise auch nicht sooo toll, aber ich wäre doch nicht immer in den Foren und wurde alle möglichen Fake News vermitteln, nur weil ich mir das nicht leisten kann, also einiges läuft sehr verkehrt mittlerweile im Internet.

Ich habe mir damals in der Abschlussklasse eine GTX 770 gekauft, habe dafür immer am Wochenende gearbeitet. War Mega Stolz drauf, auch wenn Sie nur 2GB hatte, und ab ende 2014 ein Speicherkrüppel war. X-D

crux2005
2018-10-11, 18:41:45
Mal ganz ehrlich hier ist der "Hate" auch vollkommen normal, weil hier auch imo mehr Erwachsene sich umtreiben, die voll im Leben stehen, schaut euch doch mal an, was im CB abgeht.

Also sollte ich das lieber ins CB Forums schreiben? ;D

MSI RTX 2080 Gaming X Trio - 846€ :whistle: :uponder:

Ex3cut3r
2018-10-11, 18:45:28
Hahaha nein, alles gut Kumpel. Ich glaube hier interessieren sich nur auch mehr Leute für die 2080 Ti.

basix
2018-10-11, 18:55:53
So bin nun auch erlegen: Palit 2080 Ti GamingPro OC ;D

Schönes Kärtchen. Der Kühler meiner alten 980 Ti Super Jetstream war aber definitiv besser. Vor allem bei höheren Drehzahlen kommt ein relativ hoher Ton zum Lüftergeräusch, welcher auch aus dem Fractal Define R5 unangenehm ist. Bei der 980 Ti war das Geräusch tiefer und dumpfer und entsprechend angenehmer.

Ex3cut3r
2018-10-11, 19:00:02
Glückwunsch, tolle Karte. Habe die auf Youtube gesehen, mächtiger 3 Slot Kühler? Wie sehen die Temps aus? :smile:

=Floi=
2018-10-11, 19:11:51
Mir ist es unverständlich wie man glauben konnte die GPU wurde nicht auf der letzten Architektur aufbauen und hab mich ja oft so geäußert, als Leute meinten es wäre Pascal refresh/Ableger.


da passt ja eh alles.
Auch für normale games gibt es genug positive beispiele.
Mich würde der FP32 zuwachs viel stärker interessieren, oder was am rasterizer gemacht wurde. Sowas geht eben komplett unter und hier hat NV auch zu wenig werbung gemacht.
Offizielle pre BF 5 benchmarks etc.

Mich stört hald noch immer der VRAM das macht die karte absolut krüpplig. Nochmal 200€ mehr für die customs :freak: und der FE kühler ist jetzt leistungsstäker aber noch immer ein witz, da nicht wartbar. (verklebte stecker :rolleyes: ) Keine lange garantie mehr bei den preisen. :rolleyes:
WHY?
warum soll ich das zeug kaufen?


2070 mit GT106 --> never :P
Ehrlich gesagt hätte man den GT106 doch lieber umbennen sollen oder gleich kleiner um ansprechende 2060er karten zu bauen. GT104 50€ rauf und dafür voller chip als 2080er. Aber hier auch nur 8gb.
Beim GT102 deutet die 300 auch auf nichts gutes hin. :rolleyes:

Das ist wie ein AMG mit stahlfelgen.

Mit turing kann sich NV gleich hinter der fury x anstellen.

Ex3cut3r
2018-10-11, 19:53:01
Eigentlich heißen die Chips TU104, TU106, TU102. GT errinnert mich an die GTX 200er Serie aus 2008.

GTX/RTX 2060 mit TU106 wird sicherlich auch noch kommen, aber halt abgespeckter als bei der 2070. Wird sich zwischen 1070 und 1070 Ti einreihen.

N0Thing
2018-10-11, 20:04:12
GTX/RTX 2060 mit TU106 wird sicherlich auch noch kommen, aber halt abgespeckter als bei der 2070. Wird sich zwischen 1070 und 1070 Ti einreihen.

Warum eigentlich? Nvidia hat das Angebot sowohl bei der Leistung als auch beim Preis nach oben hin erweitert. Unterhalb der RTX 2080 kann Nvidia doch günstig und einfach bis zur 7nm Generation weiter in 16nm Pascal produzieren und dann das ganze Portfolio ersetzen.
Billiger wird es eh nicht, wenn man eine RTX 2060 auf dem Leistungsniveau einer GTX 1070 auflegen würde.

Ex3cut3r
2018-10-11, 21:03:32
Weil der TU106 auch "teil kaputte" Chips haben wird, der Vollausbau bekommt die 2070 wie es bisher ausschaut. Was soll man mit denen sonst machen?

basix
2018-10-12, 00:39:29
Glückwunsch, tolle Karte. Habe die auf Youtube gesehen, mächtiger 3 Slot Kühler? Wie sehen die Temps aus? :smile:

Danke :)

Ja der Kühler ist zeimlich massiv und im Vergleich zur 980 Ti Jetstream deutlich schwerer. Er ist aber nur etwa so hoch wie das PCB, deswegen sind die Lüfter kleiner. Bei selber Lüfterdrehzahl (ca. 950-1000rpm) und selbem PT (180W) ist es aufgeheizt bei der 2080 Ti ca. 75°C und mit der 980 Ti war es 1-2°C tiefer. Taktraten mit 180W sind im Mittel ca. 1700+ MHz (aufgeheizt) bei knapp 0.80V. Damit bei 180W nur ganz leicht unter denen von CB gemessenen Taktraten einer FE. Das finde ich schon ordentlich. Mit 200W sind es etwa 1800+ MHz im Schnitt.

Die Karte hat schon viel Bumms. Bei AC Originis bin ich bei 1440p bei vielleicht 95% GPU Auslastung im Schnitt, und das mit einem 4.4GHz 5960X :freak:

SKYNET
2018-10-12, 01:11:01
Weil der TU106 auch "teil kaputte" Chips haben wird, der Vollausbau bekommt die 2070 wie es bisher ausschaut. Was soll man mit denen sonst machen?

was macht man mit den "grossen" teilkaputten chips? :confused: irgendwie geht die strategie nicht auf, aber das könnte auch die mondpreise erklären, man kann den abfall nicht mehr als kleines modell verkaufen(oder will nicht) und entsprechend muss der käufer der "ganzen" chips die ausfallquote mittragen... also zahlen turing käufer für den abfall der anfällt mit, sozusagen eine recycling gebühr ;D

Mangel76
2018-10-12, 08:29:29
was macht man mit den "grossen" teilkaputten chips? :confused: irgendwie geht die strategie nicht auf, aber das könnte auch die mondpreise erklären, man kann den abfall nicht mehr als kleines modell verkaufen(oder will nicht) und entsprechend muss der käufer der "ganzen" chips die ausfallquote mittragen... also zahlen turing käufer für den abfall der anfällt mit, sozusagen eine recycling gebühr ;D

Vielleicht lassen die sich ja noch als 2070 Mobile oder MaxQ verramschen, siehe Meldung (https://www.3dcenter.org/news/nvidia-bereitet-mobile-portfolio-auf-turing-basis-fuer-jahresanfang-2019-vor)

LadyWhirlwind
2018-10-12, 08:43:16
was macht man mit den "grossen" teilkaputten chips? :confused: irgendwie geht die strategie nicht auf, aber das könnte auch die mondpreise erklären, man kann den abfall nicht mehr als kleines modell verkaufen(oder will nicht) und entsprechend muss der käufer der "ganzen" chips die ausfallquote mittragen... also zahlen turing käufer für den abfall der anfällt mit, sozusagen eine recycling gebühr ;D

Ich weiss auch nicht, wieviel Sinn die halbe Raytracing-Leistung noch macht?
Möglicherweise fehlt da dann einfach die Leistung.

Fragman
2018-10-12, 08:52:58
Ich weiss auch nicht, wieviel Sinn die halbe Raytracing-Leistung noch macht?
Möglicherweise fehlt da dann einfach die Leistung.

Man sollte einfach mal abwarten wie die Leistung ausfallen wird. Nv legt einen Chip auf, der mehr kostet als der Vorgänger, fuer 4K zuwenig Leistung haben wird, damit fällt DLSS als Kaufargument raus.
Deshalb glaube ich nicht, das die Leistung in RT zu gering sein wird. Der gesamt Chip würde so 0 Sinn machen. Vor allem nicht bei DEM Preis von 650 €. Für 100 mehr gibt es eine 1080TI, wenn auch keine besonders gute.

dildo4u
2018-10-12, 08:56:40
Die 1080 Ti sind EOL die Strix und MSI Gameing sind schon durchverkauft.


https://geizhals.de/?cat=gra16_512&xf=9810_7+10609+-+GTX+1080+Ti

Razor
2018-10-12, 09:52:57
[...]Sicher, als Schüler (gar nicht so lange her) fände ich die Preise auch nicht sooo toll, aber[...]
Klar, Führerschein oder Grafikkarte...
Und Papi ist sicherlich auch nicht wirklich angefixt, dem Sönchen...

GTX/RTX 2060 mit TU106 wird sicherlich auch noch kommen, aber[...]
Ganz sicher nicht (*)... wetten wir um 5.000€?
Oder kannst Du Dir das nicht leisten?

Ich weiss auch nicht, wieviel Sinn die halbe Raytracing-Leistung noch macht?
Möglicherweise fehlt da dann einfach die Leistung.
Da es keine/kaum Anwendungen dafür geben wird, dürfte das nicht ins Gewicht fallen, oder?

Razor

(*) auf Basis von Turing :)

Ätznatron
2018-10-12, 10:41:56
Empfinde nur ich es so, oder bietet die 980 Ti tatsächlich das beste Bild in diesem Vergleichsvideo https://www.youtube.com/watch?v=xyc5EGRiVYc&feature=youtu.be?

Vor allem scheint mir bei der 2080 Ti der Hintergrund streckenweise zu einer mehr oder weniger konturlosen Matsche zu werden.

mironicus
2018-10-12, 11:46:47
Die 980 Ti erreicht ja gerade mal nur 30 FPS, das begünstigt die Videokompression des Videos.

nordic_pegasus
2018-10-12, 11:52:03
was macht man mit den "grossen" teilkaputten chips? :confused: irgendwie geht die strategie nicht auf, aber das könnte auch die mondpreise erklären, man kann den abfall nicht mehr als kleines modell verkaufen(oder will nicht) und entsprechend muss der käufer der "ganzen" chips die ausfallquote mittragen... also zahlen turing käufer für den abfall der anfällt mit, sozusagen eine recycling gebühr ;D

den Vollausbau des TU102 verkauft Nvidia derzeit exklusiv als Quadro Karten. Der normale Consumer erhält doch nur Salvage Chips des TU102 bei der 2080/2080Ti. Ich denke solange nicht über den Kauf einer Turing Karte nach, bis es eine Karte mit 4608 Shadern gibt. Alles andere ist nur Elektroschrott zu Mondpreisen.

Ätznatron
2018-10-12, 11:56:59
Die 980 Ti erreicht ja gerade mal nur 30 FPS, das begünstigt die Videokompression des Videos.

Das gilt für alle drei Karten. Und ändert ja auch nichts am Eindruck: Hohe FPS werden durch Qualitätsverlust zu teuer erkauft.

Cpl. Dwayne Hicks
2018-10-12, 12:31:44
Lohnt sich ein Umstieg von 1080ti zu 2080ti?

BigKid
2018-10-12, 12:35:16
Lohnt sich ein Umstieg von 1080ti zu 2080ti?
Dazu musst du schon verraten für WAS es sich lohnen soll.

Spielst du in 4k ? Oder willst du immer >60fps bei den höchsten Settings ? Dann brauchst du jedes bisschen Leistung - dann ja.

Musst du das beste, neuste, schnellste haben ? Dann ja.

Oder bist du an Raytracting interessiert und willst das unbedingt haben auch wenn aktuell noch mangels konkreten Umsetzungen (also Spielen die RT nutzen) unklar ist ob die RTXen performant genug sind um das mit Effekten die man auch sieht in spielbaren Frameraten hinzubekommen.
Dann ja.

Ansonsten. Abwarten, Teetrinken und auf bessere Preise oder die Nachfolger warten...

Cpl. Dwayne Hicks
2018-10-12, 13:19:17
Dazu musst du schon verraten für WAS es sich lohnen soll.

Spielst du in 4k ? Oder willst du immer >60fps bei den höchsten Settings ? Dann brauchst du jedes bisschen Leistung - dann ja.

Musst du das beste, neuste, schnellste haben ? Dann ja.

Oder bist du an Raytracting interessiert und willst das unbedingt haben auch wenn aktuell noch mangels konkreten Umsetzungen (also Spielen die RT nutzen) unklar ist ob die RTXen performant genug sind um das mit Effekten die man auch sieht in spielbaren Frameraten hinzubekommen.
Dann ja.

Ansonsten. Abwarten, Teetrinken und auf bessere Preise oder die Nachfolger warten...

Haha sorry ja hast Recht :freak:

Bin mir da aber eigentlich garnicht so sicher. Mein Monitor is ein ASUS ROG PG279Q... also 2560x1440. Bin sehr sensibel zu FPS einbruechen usw... :biggrin: Dass die RTX2080ti wahrscheinlich nicht mehr mithalten kann wenn alle Spiele Raytracing und DLSS unterstuetzen ist mir klar.

Also will Ich wohl nur brutale Performance. Im Durchschnitt wieviel schneller ist die 2080ti verglichen mit der 1080ti? Ich wuerde fuer $2000,' AUD schon gerne mehr als 25% sehen :)

BigKid
2018-10-12, 14:24:08
Haha sorry ja hast Recht :freak:

Bin mir da aber eigentlich garnicht so sicher. Mein Monitor is ein ASUS ROG PG279Q... also 2560x1440. Bin sehr sensibel zu FPS einbruechen usw... :biggrin: Dass die RTX2080ti wahrscheinlich nicht mehr mithalten kann wenn alle Spiele Raytracing und DLSS unterstuetzen ist mir klar.

Also will Ich wohl nur brutale Performance. Im Durchschnitt wieviel schneller ist die 2080ti verglichen mit der 1080ti? Ich wuerde fuer $2000,' AUD schon gerne mehr als 25% sehen :)
Zunächst mal DLSS ist ein UpscalingAA und bringt somit Performance (ca 30%) zu bisher recht unbekannten Kosten an der BildQuali - da es ein neuartiger Ansatz ist muss man hier mal Tests abwarten - bisher gibts da nur erste Berichte zu Final Fantasy. Ausserdem ist nur sicher dass es für UHD geboten wird - ob NVidia WQHD also deine Auflösung unterstützt ist nicht sicher - da gibt es aktuell nur ein später vielleicht.
Was deinen Wunsch nach mehr Performance also mehr als 25% mehr ohne RT und DLSS betrifft sieht es aktuell so aus als ob der nur knapp erfüllt werden kann - speziell wenn du ne gute Custom 1080ti als Masstab nimmst.
Also ich persönlich hab ne Asus Strix 1080ti und seh aktuell
so richtig gar keinen Grund. Bevor die Preise nicht 20% nachgeben zweimal
nicht...

Cpl. Dwayne Hicks
2018-10-12, 15:49:13
Zunächst mal DLSS ist ein UpscalingAA und bringt somit Performance (ca 30%) zu bisher recht unbekannten Kosten an der BildQuali - da es ein neuartiger Ansatz ist muss man hier mal Tests abwarten - bisher gibts da nur erste Berichte zu Final Fantasy. Ausserdem ist nur sicher dass es für UHD geboten wird - ob NVidia WQHD also deine Auflösung unterstützt ist nicht sicher - da gibt es aktuell nur ein später vielleicht.
Was deinen Wunsch nach mehr Performance also mehr als 25% mehr ohne RT und DLSS betrifft sieht es aktuell so aus als ob der nur knapp erfüllt werden kann - speziell wenn du ne gute Custom 1080ti als Masstab nimmst.
Also ich persönlich hab ne Asus Strix 1080ti und seh aktuell
so richtig gar keinen Grund. Bevor die Preise nicht 20% nachgeben zweimal
nicht...


Haha ich hab auch die ASUS Strix 1080ti... weiss nicht mehr genau welches modell, die mit 3 Lueftern... also nicht die Poseidon.
Ich werd wohl bei der 1080ti bleiben (laeuft mit 2030Mhz)... hast schon Recht die Preise sind bekloppt im Moment. Ob AMD mal in die Poette kommt?

Ex3cut3r
2018-10-12, 16:15:52
was macht man mit den "grossen" teilkaputten chips? :confused: irgendwie geht die strategie nicht auf, aber das könnte auch die mondpreise erklären, man kann den abfall nicht mehr als kleines modell verkaufen(oder will nicht) und entsprechend muss der käufer der "ganzen" chips die ausfallquote mittragen... also zahlen turing käufer für den abfall der anfällt mit, sozusagen eine recycling gebühr ;D

Hää, checke ich nicht, die vollaktivierten Chips von TU102 und TU104 sind in den Quatros verbaut, die Gamer bekommen einen "kaputten" Chip, Salvage eben. Der Einzige der Momentan einen Voll Chip bekommt, ist die RTX 2070 TU106, aber da werden in der Produktion sicherlich auch einige Teil Kaputt sein, also was damit machen? Logisch -> RTX/GTX 2060.

Klar, Führerschein oder Grafikkarte...
Und Papi ist sicherlich auch nicht wirklich angefixt, dem Sönchen...


Ganz sicher nicht (*)... wetten wir um 5.000€?
Oder kannst Du Dir das nicht leisten?


Da es keine/kaum Anwendungen dafür geben wird, dürfte das nicht ins Gewicht fallen, oder?


Ganz schön aggressiver Tonfall, was habe ich denn gesagt? Weil du so aufgebracht bist? :comfort:

N0Thing
2018-10-12, 18:33:06
Weil der TU106 auch "teil kaputte" Chips haben wird, der Vollausbau bekommt die 2070 wie es bisher ausschaut. Was soll man mit denen sonst machen?

Ist die Frage, wie viele kaputte Chips da überhaupt bei einem ausgereiften Prozess anfallen. Teurer in der Produktion als ein GP104 wäre die Karte immer noch. Da würde ich die Salvage Chips eher in eine Quadro verbauen.

dildo4u
2018-10-13, 13:05:43
Computerbase hat Black Ops 4 Benchmarks.


https://www.computerbase.de/2018-10/cod-black-ops-4-battle-royale-benchmark/2/#diagramm-cod-black-ops-4-3840-2160

JVC
2018-10-13, 16:36:29
Computerbase hat Black Ops 4 Benchmarks.
https://www.computerbase.de/2018-10/cod-black-ops-4-battle-royale-benchmark/2/#diagramm-cod-black-ops-4-3840-2160

Leider wieder ohne Angaben mit welcher 1080Ti (tackt) getestet wurde.
Immerhin kann sich die 2080Ti mal in Szene setzen und schafft die 4K konstant mit über 60Fps.

m.f.g. JVC

Die 2080Ti ist wieder einmal ~25% schneller als die 2080
(und eine Partner 1080Ti ist ja gleich schnell wie eine 2080 ...)
http://gpu.userbenchmark.com/

cR@b
2018-10-13, 18:55:48
Die Grafik im Vergleich zu BF ist ja noch immer so hinterhergeblieben :eek: Aber gut zu wissen, dass für 1080p die 1080Ti voll und ganz ausreicht. Und nein, dass ist nicht immer der Fall auch wenn das CPU Limit vorherrscht.

Radeonfreak
2018-10-13, 18:57:43
Meine Gigabyte Windforce OC 2080 TI kam jetzt doch sehr schnell und überraschend bei mir an.

Schön leise und echt extrem schnell. Von der 1080 FE merkt man den Sprung ordentlich.

cR@b
2018-10-13, 19:02:11
Meine Gigabyte Windforce OC 2080 TI kam jetzt doch sehr schnell und überraschend bei mir an.

Schön leise und echt extrem schnell. Von der 1080 FE merkt man den Sprung ordentlich.

Hast du auch das Problem mit dem Lüfteranlauf? Gibt es da bereits eine Lösung via Bios Update oder so?

Mich würde sehr interessieren welche Lukü Lösung bisher die Beste ist!? Eher drei Lüfter oder reichen auch zwei?

Radeonfreak
2018-10-13, 19:03:32
Ich weiß nicht mal was davon. :O Ich hab mir die Lüfter mal kurz angeguckt als ich sie eingebaut habe, da liefen alle drei.

hq-hq
2018-10-13, 19:59:21
Klar, Führerschein oder Grafikkarte...
Und Papi ist sicherlich auch nicht wirklich angefixt, dem Sönchen...


Ganz sicher nicht (*)... wetten wir um 5.000€?
Oder kannst Du Dir das nicht leisten?

Razor

(*) auf Basis von Turing :)

hehe, naja ganz so dramatisch ist es doch nicht wirklich ^^

wann war es... 1995 oder 1996 noch 4 - 5 Jahre vom Führerschein entfernt
hab ich einen Teil von meinem Gesparten in einen Pentium Pro 200
investiert... das waren damals über 1200DM
warum soll man sein Geld nicht in sein Hobby investieren :freak:
ja meine Eltern fanden es damals auch grenzwertig... aber "PC" war damals die Zukunft :cool:

Fazit: freut euch doch wenn jemand eine RTX 2080 oder gar 2080 TI erwirbt, (teurer) geiler Scheiss!

Ex3cut3r
2018-10-13, 20:10:49
Hast du auch das Problem mit dem Lüfteranlauf? Gibt es da bereits eine Lösung via Bios Update oder so?

Mich würde sehr interessieren welche Lukü Lösung bisher die Beste ist!? Eher drei Lüfter oder reichen auch zwei?

Habe die Gigabyte RTX 2080 Gaming OC, und auch das Problem mit dem Lüfter Anlauf, Custom Lüfter Kurve und der Bug tritt nicht auf, hoffe noch auf ein Bios Update. Der Bug tritt ja nur auf, wenn die Temperatur zwischen 60 und 59 Grad schwankt, in Spielen ohne V-Sync nie ein Problem, ich kann es gut mit MadVR und den Lavfilters mit einem 4K Video nachstellen. Die Lüfter laufen an, failen -> probieren es sofort wieder -> failen und dieses "failen" kühlt die Karte schon wieder auf 58 Grad runter, bis 60 Grad wieder erreicht werden, und der Spaß fängt von vorne an, deswegen Custom Lüfter Kurve ohne Zero Fan, bei mir laufen die Lüfter dann mit 800 RPM, was 28% entspricht. Dieses ständige anlaufen, kann aber auf Dauer nicht gesund sein, die Custom Lüfter Kurve schafft da momentan Abhilfe.

Digidi
2018-10-14, 02:08:45
https://www.nvidia.com/coolstuff/demos#!/apollo-11

Kann man ja mal unter Nvidia Karten Benchen!

dargo
2018-10-14, 08:22:16
Leider wieder ohne Angaben mit welcher 1080Ti (tackt) getestet wurde.

Bei CB ist es die Referenz, sprich 1080TI FE.

JVC
2018-10-14, 09:28:43
Bei CB ist es die Referenz, sprich 1080TI FE.

Ok Danke ...
Dann passt ja alles soweit :|
2080 FE = 1080 Ti FE
( man spart 35W und verliert 3GB Ram ... abgesehen von den "Features")

m.f.g. JVC

UdoG
2018-10-14, 09:55:16
Kann jemand mal bitte die Höhe einer umgebauten 2080TI mit Wasserblock messen? Ich bräuchte mal die Abmessungen inkl. dem Terminal (vom Mainboard ab am Besten) und mit Stromkabel, falls dieses höher rausragt, als das Terminal.

Danke!

dargo
2018-10-14, 10:10:15
Ok Danke ...
Dann passt ja alles soweit :|
2080 FE = 1080 Ti FE
( man spart 35W und verliert 3GB Ram ... abgesehen von den "Features")

Black Ops 4 ist nun wahrlich kein Vorzeigetitel. :tongue: Uraltengine und wenn ich die Grafik sehe muss ich irgendwie an CS: GO denken. Gibt es überhaupt ein Spiel mit alter Engine wo sich die 2080 FE stärker von der 1080TI Custom absetzen kann? Ich habe bei dem Thema nicht gerade den Überblick. Bei Wolf 2 sieht man aber was bsw. geht.

SKYNET
2018-10-15, 12:42:59
Black Ops 4 ist nun wahrlich kein Vorzeigetitel. :tongue: Uraltengine und wenn ich die Grafik sehe muss ich irgendwie an CS: GO denken. Gibt es überhaupt ein Spiel mit alter Engine wo sich die 2080 FE stärker von der 1080TI Custom absetzen kann? Ich habe bei dem Thema nicht gerade den Überblick. Bei Wolf 2 sieht man aber was bsw. geht.


FF:XV: nein
AC: O: nein
CoD WWII: nein
D2: nein
elex: nein
F1 18: nein
FC5: nein
GR:W: ja(3%)
H:SS: nein
JW: nein
KC: D: nein
M:SdK: nein
MHW: nein
SotTR: nein
SW:BF2: nein
W2: ja(10%)

also selbst aktuelle games werden meistens von der 1080Ti custom für sich entschieden... :cool: darum ist eine 2080FE generell die schlechtere wahl :)

wie ich schon sagte: alle karten unterhalb der 2080Ti sind einfach überflüssiger schrott... zu langsam(2070), zuwenig speicher(2080), und features können auf keiner der 3 genutzt werden. :ulol:

JVC
2018-10-15, 13:03:44
Und die 2080Ti ist, wenn auch die einzige brauchbare Karte, viel zu teuer ...
Wäre es so wie früher gelaufen und die Neuen hätten die Alten einfach ersetzt
( auch ~vom Preis her ) wäre ja alles in Butter :smile:

m.f.g. JVC

p.s.: nicht mal für unter 900.- würde ich die 2080Ti kaufen da, rein von der Leistung her betrachtet, Mir der Sprung zu gering ist ... bei ~800.- würde ich zu überlegen anfangen ...
Aber leider unterstützt NV noch immer nicht den VRR Standard ...

p.p.s.: http://gpu.userbenchmark.com/
( einmal auf *Avg.bench%* klicken und man sieht ganz gut die Platzierungen )
Beim MAX OC setzt sich die 1080Ti noch mehr von der 2080 ab, aufgrund der unterschiedlichen menge an Shader-Einheiten.
( sie liegt dann ~6% vor der 2080 )
Die 2080Ti legt beim OC nochmal gut zu, verliert dann aber trotzdem gegen eine "entfesselte/Waküd" TitanV
( die Menge der Shader-Einheiten sind dann bei ~ gleichem Takt einfach ausschlaggebend )
Im Verhältnis zum Preis der TitanV kann man die 2080Ti aber durchaus als "Schnäppchen" bezeichnen ... wenn man möchte ...

cR@b
2018-10-15, 13:34:36
Habe die Gigabyte RTX 2080 Gaming OC, und auch das Problem mit dem Lüfter Anlauf, Custom Lüfter Kurve und der Bug tritt nicht auf, hoffe noch auf ein Bios Update. Der Bug tritt ja nur auf, wenn die Temperatur zwischen 60 und 59 Grad schwankt, in Spielen ohne V-Sync nie ein Problem, ich kann es gut mit MadVR und den Lavfilters mit einem 4K Video nachstellen. Die Lüfter laufen an, failen -> probieren es sofort wieder -> failen und dieses "failen" kühlt die Karte schon wieder auf 58 Grad runter, bis 60 Grad wieder erreicht werden, und der Spaß fängt von vorne an, deswegen Custom Lüfter Kurve ohne Zero Fan, bei mir laufen die Lüfter dann mit 800 RPM, was 28% entspricht. Dieses ständige anlaufen, kann aber auf Dauer nicht gesund sein, die Custom Lüfter Kurve schafft da momentan Abhilfe.

Glaub nichtmal, dass es direkt ein Bug ist. Wenn der Kühler gut ist (und das scheint er zu sein), dann schaltet die Karte halt bei 58° wieder ab. Theoretisch müsste man einen Timer einbauen, damit das eben nicht ständig passiert. Keine Ahnung wie da die Möglichkeiten aussehen.

Wie ist das eigentlich mit der LED. Wie leuchtet denn die Gigabyte Schrift ohne GB Software? Für die verschiedenen Modi benötigt man ja doe Software. Kann man damit auch so gut übertakten wie mit dem AB oder nutzt ihr einfach beide Tools?

Ich überlege echt gerade welche ich mir bei Preiscut holen würde. Die Gigabyte macht bisher den besten Eindruck. Die zwei Lüfter Lösungen sind zu schwach und die MSI Trio saugt für die paar Hz mehr viel zu viel Saft. Irgendwie gibt es kaum Custom Reviews und auch die Übersicht aller Custom Karten lässt zu wünschen übrig.

SKYNET
2018-10-15, 14:33:37
Glaub nichtmal, dass es direkt ein Bug ist. Wenn der Kühler gut ist (und das scheint er zu sein), dann schaltet die Karte halt bei 58° wieder ab. Theoretisch müsste man einen Timer einbauen, damit das eben nicht ständig passiert. Keine Ahnung wie da die Möglichkeiten aussehen.

Wie ist das eigentlich mit der LED. Wie leuchtet denn die Gigabyte Schrift ohne GB Software? Für die verschiedenen Modi benötigt man ja doe Software. Kann man damit auch so gut übertakten wie mit dem AB oder nutzt ihr einfach beide Tools?

Ich überlege echt gerade welche ich mir bei Preiscut holen würde. Die Gigabyte macht bisher den besten Eindruck. Die zwei Lüfter Lösungen sind zu schwach und die MSI Trio saugt für die paar Hz mehr viel zu viel Saft. Irgendwie gibt es kaum Custom Reviews und auch die Übersicht aller Custom Karten lässt zu wünschen übrig.


ohne software -zumindest die alten karten bis pascal- leuchten dann in standardfarbe rot.

JVC
2018-10-15, 14:39:27
Wie ist das eigentlich mit der LED. Wie leuchtet denn die Gigabyte Schrift ohne GB Software? Für die verschiedenen Modi benötigt man ja doe Software.

Meine Gigabyte Aorus wechselt ohne Software
langsam zwischen den möglichen Farben.
( Schriftzüge, Logo auf der Rückseite, das X über dem mittleren Lüfter )
( dachte das ist normal, hatte nie die Software drauf, W7 )

m.f.g. JVC

Ex3cut3r
2018-10-15, 19:55:17
Benutze auch kein Gigabyte Tool oder ähnliches, nur den Afterburner, mir ist RGB relativ egal, und Standard mäßig ist halt Color Cycle eingestell, also alle Farben werden langsam hintereinander abgespielt.

Ich seh schon wieder, JVC und ein gewisser Skynet voll im ihrem Element, mal wieder die RTXen bashen, macht ihr sehr gut, weiter so. :up:

Richtig klasse, werdet ihr dafür auch bezahlt? Weil so viel Zeit, wie ihr dafür aufbringt, Wahnsinn, arbeitslos momentan?

Radeonfreak
2018-10-15, 20:12:07
Meine Gigabyte wechselt ohne Software
langsam zwischen den möglichen Farben.

m.f.g. JVC


Ja, macht meine Windforce OC 2080 TI auch.

cR@b
2018-10-15, 20:33:14
Danke für die Info! Nur rote LED wäre übel gewesen, durchswitchen ist cool :up:

JVC
2018-10-16, 09:51:29
Auch n guten Morgen an dich Ex3cut3r :)

Bei dir Passt doch der "Sprung" auch soweit ;)
1070 --> 2080
Da ist es klar das man mit dem Leistungsgewinn zufrieden ist ...

DLSS wird zwar bei deiner Auflösung noch weniger oft nutzbar sein,
aber scheinbar hast du vor massiv Ray-Tracing einzusetzen ...
(sonnst wäre die 1080Ti einfach die Karte mit dem besseren
Preis-Leistung´s Verhältnis gewesen)

Ich will dich keinesfalls "angreifen" oder deine Entscheidung für dich in frage stellen...
aber Ich bin trotzdem der Meinung das der Normaluser eben genau darauf aufmerksam gemacht werden muss.
( man will ja für Jeden das Beste und nicht nur das Teuerste )

Die 2080 ist einfach ziemlich mies vom P/L Verhältnis her ...
Aber wenn man sich ehrlich sagt ...
"OK teurer scheiss aber will ich einfach haben, gönn ich mir"
dann ist das vollkommen in Ordnung für mich .

Wenn ein User eben 1k Euros für ne Graka ausgeben kann dann rate ich am ehesten zu einer gebrauchten/neuen 1080Ti ...
Und auch wenn er sagen sollte ...
"EH ich kann bis zu 1K ausgeben und da gibt's ja für knapp drunter ne Nagelneue super Moderne 2080 die laut "Folien" ... !? "
Dann rate ich ihm maximal dazu noch etwas zu warten/sparen, bei der 2080Ti zuzuschlagen ;)

Im Moment kann ich die 2080 einfach nicht mit gutem Gewissen empfehlen.

m.f.g. JVC

p.s.: Bezahlt werde ich maximal von dem, dem ich einen Rechner zusammenbaue ;)
Jetzt sind es nur noch 2-3 Rechner im Jahr, früher waren es mal 2-3 im Monat.
( Verwandte, Bekannte, Arbeitskollegen ... )

AffenJack
2018-10-16, 10:11:54
Ich seh schon wieder, JVC und ein gewisser Skynet voll im ihrem Element, mal wieder die RTXen bashen, macht ihr sehr gut, weiter so. :up:

Richtig klasse, werdet ihr dafür auch bezahlt? Weil so viel Zeit, wie ihr dafür aufbringt, Wahnsinn, arbeitslos momentan?

Sie müssen noch ihre 200 Anti-nv Posts zusammenkriegen, sonst gibts die AMD Prämie nicht. :wink:

Vielleicht kaufe ich mir aus Spaß doch noch ne 2080, statt der 2070. Alleine um sie noch mehr meckern zu lassen. Kumpel berichtet auch nur gutes über die und in dem Leistungsbereich gibts nix anderes sinnvolles.

SKYNET
2018-10-16, 10:27:30
Sie müssen noch ihre 200 Anti-nv Posts zusammenkriegen, sonst gibts die AMD Prämie nicht. :wink:

Vielleicht kaufe ich mir aus Spaß doch noch ne 2080, statt der 2070. Alleine um sie noch mehr meckern zu lassen. Kumpel berichtet auch nur gutes über die und in dem Leistungsbereich gibts nix anderes sinnvolles.

ich bashe nur <2080Ti, einfach weils karten ohne nutzen sind... für RT beide zu lahm, 4k können auch beide nicht weil zu lahm(die 2080 ist genau wie die 1080Ti nur ne 1440p karte, und das in beiden fällen nichtmal uneingeschränkt, aber wenigstens, muss man bei anspruchsvolleren games nicht die details runterschrauben mit ner 1080Ti)... und die 2070 wird zwar mit ner UVP von 519€*kommen, aber erstmal muss sie beweisen das sie nicht nur in timespy schneller ist... weil da ist auch ne 2080 schneller als ne 1080Ti, in freier wildbahn siehts dann aber meistens anders aus, da wird die 2080FE von ner "billigen" custom schon ordentlich versägt.

JVC
2018-10-16, 10:34:58
Vielleicht kaufe ich mir aus Spaß doch noch ne 2080, statt der 2070. Alleine um sie noch mehr meckern zu lassen. Kumpel berichtet auch nur gutes über die und in dem Leistungsbereich gibts nix anderes sinnvolles.

Eben solche aussagen betrachte ich als Falsch.
Darum bemühe ich mich genau solche Missverständnisse auszuräumen.

Nur ein langfristig zufriedener Kunde ist ein guter Kunde.
Und ich habe nichts davon wenn ich "schlecht berate" ...
( auch wenn der "Kunde" oft, auf Grund fehlender Fachkenntnis oder fehlenden Vergleichsmöglichkeiten, sowieso zufrieden ist ...)

2080 FE = 1080 Ti FE
( man spart 35W und verliert, teils schon jetzt wichtige, 3GB Ram ... abgesehen von den "Features")
1080Ti AB ~764.- https://www.cyberport.at/?DEEP=2E30-00S&APID=66
2080FE AB ~819.- https://www.alternate.at/Gainward/GeForce-RTX-2080-Phoenix-GS-Grafikkarte/html/product/1477028?campaign=Grafikkarte/Gainward/1477028
( beide zum jetzigen Zeitpunkt lieferbar )

Soweit die momentanen Fakten.

m.f.g. JVC

p.s.: die 2080 gehört Richtung 600.- und die 2080Ti Richtung 850.-
( und dort sollten/werden sie sich MM nach nächstes Frühjahr auch langsam mal einfinden )

Einziger Vorteil ist das die 20XX Serie endlich den Asynchronous Shading Standard unterstützt.
https://www.heise.de/newsticker/meldung/Async-Shaders-Fehlende-DirectX-12-Funktion-auf-Nvidia-Grafikkarten-ein-vollkommenes-Desaster-2801497.html
"Async Shaders: Fehlende DirectX-12-Funktion auf Nvidia-Grafikkarten"
Async laeuft einfach viel besser auf Turing (sprich: es funktioniert)
Fehlt nur noch das NV auch beim VRR Standard einschwenkt ...
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Specials/So-funktioniert-Freesync-mit-einer-Nvidia-GPU-1266394/

AffenJack
2018-10-16, 12:09:34
Eben solche aussagen betrachte ich als Falsch.
Darum bemühe ich mich genau solche Missverständnisse auszuräumen.

Nur ein langfristig zufriedener Kunde ist ein guter Kunde.
Und ich habe nichts davon wenn ich "schlecht berate" ...
( auch wenn der "Kunde" oft, auf Grund fehlender Fachkenntnis oder fehlenden Vergleichsmöglichkeiten, sowieso zufrieden ist ...)


Hmm, dabei machst du nix anderes als schlecht beraten. Selbst ohne RTX ist ne 2080 einer 1080Ti vorzuziehen, weil es genug andere Features gibt, die in Zukunft von Belang sein werden. Die 1080Ti wird genauso wie die 780Ti gegenüber Maxwell enden. In modernen Spielen wird jeder Käufer bereuen noch Pascal gekauft zu haben.

Das war noch anders, als die 1080Ti für 700€ abverkauft wurde und es einen deutlichen Preisunterschied gab. Aber mittlerweile gibts sogut wie keinen Preisunterschied mehr. 2080 gibts mittlerweile auch schon ab 769€ und wäre deiner 1080Ti fü 5€ weniger deutlich vorzuziehen. Sind aber beides gammeldesigns. Bei besseren ist der Unterschied gerade noch 40€, aber die wäre mir die 2080 auch wert.

ich bashe nur <2080Ti, einfach weils karten ohne nutzen sind... für RT beide zu lahm, 4k können auch beide nicht weil zu lahm(die 2080 ist genau wie die 1080Ti nur ne 1440p karte, und das in beiden fällen nichtmal uneingeschränkt, aber wenigstens, muss man bei anspruchsvolleren games nicht die details runterschrauben mit ner 1080Ti)... und die 2070 wird zwar mit ner UVP von 519€*kommen, aber erstmal muss sie beweisen das sie nicht nur in timespy schneller ist... weil da ist auch ne 2080 schneller als ne 1080Ti, in freier wildbahn siehts dann aber meistens anders aus, da wird die 2080FE von ner "billigen" custom schon ordentlich versägt.

Rt ist nicht alles. Der Rest ist viel wichtiger. Ansonsten müssen wir im Internet verschiedene Tests lesen, denn ich seh irgendwie kaum fälle, wo eine AIB 1080Ti die 2080 groß versägt. Eher andersrum, aber auch das nur in einzelfällen bisher. Dürfte sich in Zukunft aber eher ändern.

JVC
2018-10-16, 12:25:19
In modernen Spielen wird jeder Käufer bereuen noch Pascal gekauft zu haben.

Darum empfehle ich auch meist noch etwas zu warten ;) ( falls möglich )
Oder eben eine gebrauchte 1080Ti ...
wobei das immer schwieriger wird denn viele die eine 1080Ti haben
geben sie nicht her ...
( Meine gebe ich bestimmt auch nicht so schnell her, Interessenten gäbe es genug )
https://www.ebay-kleinanzeigen.de/s-multimedia-elektronik/gtx-1080-ti/k0c161
( Wahnsinn wie viele Leute grad ne gebrauchte 1080Ti suchen :rolleyes: )

An sonnst könnten sie es bereuen die Turing überteuert gekauft zu haben :wink:

m.f.g. JVC

Troyan
2018-10-16, 12:26:06
Einziger Vorteil ist das die 20XX Serie endlich den Asynchronous Shading Standard unterstützt.
https://www.heise.de/newsticker/meldung/Async-Shaders-Fehlende-DirectX-12-Funktion-auf-Nvidia-Grafikkarten-ein-vollkommenes-Desaster-2801497.html
"Async Shaders: Fehlende DirectX-12-Funktion auf Nvidia-Grafikkarten"

Fehlt nur noch das NV auch beim VRR Standard einschwenkt ...
http://www.pcgameshardware.de/Monitor-Display-Hardware-154105/Specials/So-funktioniert-Freesync-mit-einer-Nvidia-GPU-1266394/

Ah, der angebliche id Mitarbeiter. In der Wolfenstein 2 Demo ist Async Compute 10% bis 15% langsamer.

basix
2018-10-16, 12:28:19
Die 1080Ti wird genauso wie die 780Ti gegenüber Maxwell enden. In modernen Spielen wird jeder Käufer bereuen noch Pascal gekauft zu haben.

Das würde ich nicht generell unterschreiben. Die 780 Ti krankte vor allem an den nur 3 GB Speicher. Da ist 1080 Ti mit 11GB vs. 2080 non-Ti mit 8GB eine ganz andere Ausgangslage. Aber was wohl schon so ist, dass Turing in Zukunft gegenüber Maxwell noch zulegen wird (solange die 8GB reichen). Ganz so krass wie bei der 780 Ti wird es aber wohl nicht sein.

JVC
2018-10-16, 12:41:39
Ah, der angebliche id Mitarbeiter. In der Wolfenstein 2 Demo ist Async Compute 10% bis 15% langsamer.

Erstens bin ich nur "id Laie" und hab auch nie was anderes behauptet ;)
( es ist nur mein Hobby in was ich relativ viel Geld investiere und daher
interessiere ich mich auch meist für Neuheiten gerade im Bezug auf Spiele)
Und zweitens habe ich nicht ausgeführt Was "Async Compute" macht ...
sondern nur das es NV erst jetzt, mit Turing, schafft DX12 es wirklich zu unterstützen :wink:
( wobei sie es bei VRR noch immer nicht schaffen, schaffen wollen ... )

m.f.g. JVC

... dass Turing in Zukunft gegenüber Maxwell noch zulegen wird ...
Das "Fine Wine" ist doch normal "AMD´s Sache" ^^
NV sagt man doch nach das sie "so gut wie fertig optimiert" an den Start gehen ...
( Konkurrenzdruck hätte NV zu mindestens nicht gehabt als das sie irgendwas überstürzen hätten müssen ... )

Wobei der "Profi-Markt" ja auch bedient werden muss und so hat man uns Gamern eben den "Abfall" vorgesetzt ... möglicherweise :confused:
( Entwickler brauchen die "RTX Karten" ja Jetzt um zukünftige Spiele daran anpassen zu können ... )

Ädit: einen Irrtum ausgebessert.
~DX12 es ~

AffenJack
2018-10-16, 13:03:03
Das würde ich nicht generell unterschreiben. Die 780 Ti krankte vor allem an den nur 3 GB Speicher. Da ist 1080 Ti mit 11GB vs. 2080 non-Ti mit 8GB eine ganz andere Ausgangslage. Aber was wohl schon so ist, dass Turing in Zukunft gegenüber Maxwell noch zulegen wird (solange die 8GB reichen). Ganz so krass wie bei der 780 Ti wird es aber wohl nicht sein.

Das mit dem Ram stimmt schon, aber Maxwell hatte von den Features außer DX12.1 nicht viel mehr als Kepler und 12.1 wird bisher nicht genutzt. Turing ist bei vielen Sachen featuretechnisch deutlich besser als Pascal. Async, FP16, Resource Binding Tier 3 hat Pascal ja mittlerweile auch bekommen, aber ich glaube Gravitationsfeld meinte mal, dass das sehr langsam wäre, wenn man das dafür nutzt. Resource Heap Tier2 vs Tier1 bei Pascal. Das läppert sich alles zusammen.

Da rede ich nichtmal von den neuen Features, die in Turings Lebenszeit wahrscheinlich keine große Rolle spielen werden. Es reicht, wenn Entwickler sich denken, läuft gut auf Konsolen + AMD, läuft gut auf Turing (sobald es davon was im mittleren Preisbereich gibt), also muss ich nun weniger Rücksicht auf Pascal/Maxwell nehmen. Gleiche Befürchtung habe ich teilweise bei Polaris wegen DX12.1, wenn die neuen Konsolen das können + alle Nv Gpus seit Maxwell, wer nimmt dann noch Rücksicht auf Polaris. Dumm nur, dass es im niedrigeren Preisbereich keine einzige GPU gibt mit Top Featurelevel. Erst mit Vega56 ist man da auf einem guten Niveau.

JVC
2018-10-16, 13:16:04
Da rede ich nichtmal von den neuen Features, die in Turings Lebenszeit wahrscheinlich keine große Rolle spielen werden. Es reicht, wenn Entwickler sich denken, läuft gut auf Konsolen + AMD, läuft gut auf Turing (sobald es davon was im mittleren Preisbereich gibt), also muss ich nun weniger Rücksicht auf Pascal/Maxwell nehmen. Gleiche Befürchtung habe ich teilweise bei Polaris wegen DX12.1, wenn die neuen Konsolen das können + alle Nv Gpus seit Maxwell, wer nimmt dann noch Rücksicht auf Polaris. Dumm nur, dass es im niedrigeren Preisbereich keine einzige GPU gibt mit Top Featurelevel. Erst mit Vega56 ist man da auf einem guten Niveau.

Das ist ein sehr gutes Augment ...
was aber denke ich schon noch ein zwei Jährchen, wenn nicht sogar länger,
dauern wird.
NV hat in Gaming Rechnern einfach das "sagen" und es wird eine weile dauern bis da "Turing Systeme" die anderen Überwiegen ...
und solange werden Spielehersteller auch Rücksicht auf "alte Systeme"
nehmen ... hoff ich doch mal ...
( außer NV will die eigene alte Gen zugunsten der eigenen Neuen "abwürgen" ... was nicht nett wäre
aber was sie ja bei der Präsentation von Tu ja schon zum teil präsentationstechnisch gemacht haben ... )
... Hmmm KA ^^

m.f.g. JVC

JVC
2018-10-16, 21:10:26
Ädit.

Gelöscht da der Zusammenhang "verschwunden" ist.

Als Fakt bleibt das Tu jetzt Asynchronous Shading Standard unterstützt.
( und das empfinde ich wirklich als einen + Punkt für die neue Gen )

Async laeuft einfach viel besser auf Turing (sprich: es funktioniert)
Danke für die Bestätigung !

m.f.g. JVC

horn 12
2018-10-16, 21:19:41
Bald für 700 Euro da der Absatz fehlt ?

https://www.hardware-planet.it/schede-video-nvidia/61446-vendita-schede-video-nvidia-scheda-video-nvidia-inno3d-geforce-rtx-2080-8gb-x2-oc-n20802-08d6x-1180633-4895223100165.html

Und ausverkauft! <-----

dildo4u
2018-10-16, 21:38:29
Das kommt komplett auf die Implementation drauf an,hier sieht die 1080 Ti ok aus.

https://www.techspot.com/review/1727-nvidia-geforce-rtx-2070/page2.html

Reaping_Ant
2018-10-17, 04:55:13
Jetzt wo der Turing-Lauch nach der 2070 vorerst durch ist (von der obligatorischen Titan mal abgesehen), versuche ich mich mal an einem persoenlichen Fazit:

Einerseits sind die Karten aus rein technischer Sicht ziemlich sexy. Allen voran natuerlich die 2080 Ti: Monstroese Chipgroesse, massig Rohleistung und Speicherbandbreite; dazu ein paar wirklich neue Features in Hardware (Tensor- und RT-Einheiten).
Auch, dass man offenbar durch einige grundlegende Verbesserungen (gleichzeitig nutzbare INT/FP Einheiten, kein Context-Switch zwischen Graphics und Compute mehr noetig) die Rohleistung nun noch besser als vorher schon auf die Strasse bekommt, gefaellt.
Die konkrete Umsetzung im Rahmen der FE finde ich (zumindest bei der 2080 (Ti)) ebenfalls ziemlich gut gelungen.
NV ist mit Turing meiner Meinung nach einen recht mutigen Schritt gegangen und hat eine sehr solide Basis fuer die naechsten Jahre geschaffen. Ich bin gespannt, was sich mit den neuen Features noch so alles anstellen laesst.

Andererseits haelt sich mein "haben wollen" Gefuehl hier und heute sehr in Grenzen. Das liegt natuerlich einerseits an den recht gesalzenen Preisen - und das sage ich als jemand, der zum Launch 780 Euro fuer eine 1080 FE bezahlt hat. Waere die 2080 jetzt 60 bis 80 Prozent schneller, haette ich wahrscheinlich wieder bei der FE zugeschlagen. So ist mir der Sprung dann doch nicht gross genug und die 2080 Ti ist mir einfach zu teuer. Andererseits muss ich auch sagen, dass mir im Moment einfach der Druck zum Aufruesten fehlt. Fuer 1440p bis 1800p mit leicht angepassten Details reicht mir die 1080 eigentlich noch voellig.
Und schliesslich ist es mir noch etwas zu undurchsichtig, was die neuen Hardwarefeatures tatsaechlich bringen, und vor allem ob sich diese (insbesondere RT) mit Turing in der Praxis jemals vernuenftig nutzen lassen. Die "drei Jahre lang sorgenfrei" Karte, die die 1080 fuer mich letztendlich ist, sehe ich hier deshalb (noch) nicht.

Darum werde ich persoenlich erstmal abwarten. Wenn die mich die ersten konkreten RT/DLSS Umsetzungen vom Hocker hauen, kann es natuerlich sein, dass ich doch noch schwach werde.

basix
2018-10-17, 08:22:58
Das "Fine Wine" ist doch normal "AMD´s Sache" ^^
NV sagt man doch nach das sie "so gut wie fertig optimiert" an den Start gehen ...
( Konkurrenzdruck hätte NV zu mindestens nicht gehabt als das sie irgendwas überstürzen hätten müssen ... )

Es war schon immer so, dass neuere Architekturen mit der Zeit den Vorsprung vergrössern. Die Frage ist nur, wie viel ;) Turing ist z.B. bei Compute deutlich stärker als Pascal. Wenn die Tendenz bei vielen neuen Spielen ebenfalls in Richtung Compute geht (so sieht es momentan aus), wird Turing also schneller im Vergleich zu Pascal ;)

derpinguin
2018-10-17, 12:02:49
reisst euch mal am Riemen.

JVC
2018-10-17, 12:49:12
Das kommt komplett auf die Implementation drauf an,hier sieht die 1080 Ti ok aus.

https://www.techspot.com/review/1727-nvidia-geforce-rtx-2070/page2.html

Danke für den Link :)

Hab mir zwar nur die 4K Tests angesehen ...
aber die sehen ziemlich realistisch aus finde ich.

m.f.g. JVC

wolik
2018-10-17, 12:58:42
Mit SLI 1080Ti umsteig auf 20XX noch schwieriger... 2080 (8Gb) Eine 2080Ti (verschlechtert man sich wo SLI gut läuft) Zwei 2080Ti (2,6K) ;(

Dural
2018-10-17, 13:16:30
Das kommt komplett auf die Implementation drauf an,hier sieht die 1080 Ti ok aus.

https://www.techspot.com/review/1727-nvidia-geforce-rtx-2070/page2.html

Turing ist einfach nur krass, die 2070 braucht satte 200watt wenniger als eine vega 64 lc für die selbe leistung :freak:

Eine vega dürfte max noch 300.- kosten, die karte ist mit 499.- masslos überteuert und offensichtlich völlig überholt.

nixda
2018-10-17, 14:07:38
Leider blenden das die Leute immer wieder aus, den Stromverbrauch und die Leistung pro Watt. Hier hat Nvidia über die Jahre deutlich bessere Arbeit abgeliefert als AMD.

basix
2018-10-17, 14:29:07
Turing ist einfach nur krass, die 2070 braucht satte 200watt weniger als eine vega 64 lc für die selbe leistung :freak:

Die V64 LC ist einfach völlig am Limit und streng genommen zu hoch getaktet. Das Bild verbessert sich dadurch zwar nicht, aber auch Pascal und Turing saufen wenn man sie ans Limit bringt. Eine V56 oder V64 Custom hat meistens ein "Quiet" BIOS und hier sieht die Effizienzkurve ganz anders aus. Ist ja das selbe mit Polaris. Der Chip an sich ist eigentlich recht effizient, aber am Limit halt bei weitem nicht mehr. Das selbe sieht man jetzt ja auch am Intel 9900K. Für +20% Takt die doppelte Leistungsaufnahme.

Ich finde nämlich gar nicht, dass Nvidia einen so extremen Effizienzvorteil hat. Er ist vorhanden aber er ist nicht unüberwindbar gross. Die AMD Karten sind einfach taktmässig viel zu hoch angesetzt worden, um auf die selbe Performance wie die Nvidia Pendants zu kommen. Nur sieht man in den meisten Diagrammen nur die Performance ;)

MorPheuZ
2018-10-17, 14:41:01
Pascal war/ist ja gerade der Grund warum sie so hoch getaktet werden müssen. Nicht weil sie es cool fanden...

Geächteter
2018-10-17, 16:33:06
Eine 2080Ti (verschlechtert man sich wo SLI gut läuft) Zwei 2080Ti (2,6K) ;(
Da Turing gut für zukünftige Spiele ist und bis dahin Multi-GPU in Games wohl endgültig komplett tot ist, brauchst du nur eine Karte. :biggrin:

dargo
2018-10-17, 18:10:03
Turing ist einfach nur krass, die 2070 braucht satte 200watt wenniger als eine vega 64 lc für die selbe leistung :freak:

Eine vega dürfte max noch 300.- kosten, die karte ist mit 499.- masslos überteuert und offensichtlich völlig überholt.
Ja... die 2070 ist so krass, dass sie hier das Niveau einer Vega56 erreicht. :eek:
https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/11

Und aus den 200W weniger werden plötzlich 80 Watt weniger (Gesamtsystem). Aber uns ist natürlich klar warum du Vergleiche mit einer Vega64 LCE anstellen musst. :rolleyes:

PS: Bei Power verglichen mit der Armor, bei der Gaming Z wären es nur 46W weniger.

Troyan
2018-10-17, 18:14:44
Was ist eigentlich aus Wolfenstein 2 geworden? Nicht mehr relevant?

Die Asus RTX2070@OC ist 50% schneller als die Vega56 bei 20W weniger Verbrauch: https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/3/#diagramm-wolfenstein-2-2560-1440

Aber gut, nun ist Horizon 4 das neue Wolfenstein 2. :freak:

dargo
2018-10-17, 18:19:10
Was ist eigentlich aus Wolfenstein 2 geworden? Nicht mehr relevant?

Habe mir von einem gewissen Troyan sagen lassen Bethesda Softworks wäre von AMD gekauft bzw. bestochen. Aber offenbar seit Turing nicht mehr. X-D

btw.
Solange ich nicht weiß wie jede Redaktion Wolfenstein 2 auf Radeon bencht (mit externen Overlays oder ohne) ist für mich jeder Wolf 2 Benchmark wertlos da er u.U. nicht die tatsächliche Performance einer Radeon wiederspiegelt.

VpOIhV582pQ

Troyan
2018-10-17, 18:21:41
Nö, ich habe gesagt, dass Wolfenstein 2 absichtlich miserabel auf Pascal laufen muss.
Du hast dagegen doch immer Wolfenstein 2 angebracht, um irgendwelche imaginären AMD-Vorteile herbeizuschwören.

So also, wieso nimmst du Horizon 4 und nicht Wolfenstein 2? Oder sind 50% Mehrleistung der RTX2070 gegen der Vega56 nicht relevant genug?

dildo4u
2018-10-17, 18:27:00
Nvidia hatte zusätzlich noch eine Wolf 2 Demo zu VRS kein Plan ob das Turing Exklusiv ist.Da ist also noch Luft.

https://www.tomshardware.com/reviews/nvidia-turing-gpu-architecture-explored,5801-9.html

Dural
2018-10-17, 18:28:30
Lass ihn doch, der muss seine Vega64 rechtfertigen ;)

Aber immerhin ist die Vega in einem einzigen Spiel fast so gut wie Turing, ist doch toll! Damit kann man gleich eine Kaufempfehlung aussprechen! :freak:

dargo
2018-10-17, 18:31:24
Lass ihn doch, der muss seine Vega64 rechtfertigen ;)

Genau... weil in meinem Leben es nichts anderes gibt als eine Grafikkarte. Oh man... manche haben echt Probleme. :facepalm:

Edit:
Lol... so langsam muss ich mich ernsthaft fragen ob das Testsystem der CB nicht nur bei den CPU-Benchmarks kaputt war. :freak:

01.10.2018
https://www2.pic-upload.de/img/36124773/CB_1.jpg

https://www.computerbase.de/thema/grafikkarte/rangliste/#diagramm-performancerating-fps-2560-1440

16.10.2018
https://www2.pic-upload.de/img/36124774/CB_2.jpg

https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/3/#diagramm-wolfenstein-2-2560-1440

Am 01.10.18 war die Referenz Vega64 noch 6% vor der 1080TI FE. Zwei Wochen später ist die 1080Ti FE auf wundersame Weise plötzlich 14% schneller als die Referenz Vega64. Sorry, aber CB sollte mal vielleicht ihr Testsystem gründlich überprüfen.

Ergänzend dazu... die Referenz Vega56 war am 01.10.18 noch 14% vor der 1080 FE. Zwei Wochen später ist die 1080FE plötzlich 12% vor der Referenz Vega56. Sorry, aber bei so einem Chaos kann ich CB nicht mehr ernst nehmen.

Edit 2:
Nächstes, großes Fragezeichen.
https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11828245&postcount=1586

basix
2018-10-17, 19:57:32
Pascal war/ist ja gerade der Grund warum sie so hoch getaktet werden müssen. Nicht weil sie es cool fanden...

Da hast du absolut recht. Ich wollte nur sagen, dass Vega als Architektur nicht per se ineffizient ist ;) Aber ich bin bei dem Thema raus, es geht hier um Turing.

Deshalb on topic:
Performance mässig bin ich zufrieden mit der 2080 Ti (kommend von einer 980 Ti). Für 1440p wirklich grandios. Irgendwie sind auch die Frametimes besser und zwar unabhängig von den FPS. Evtl. der mittlerweile besser optimierte Boost 4.0, welcher das Takt-Gezappel verbessert hat? Hat das mal jemand untersucht?

Der Kaufpreis hat aber schon ein paar Tränen hervorgerufen *mit NVDA Aktie abwisch* :D

Rancor
2018-10-17, 20:01:42
Ja... die 2070 ist so krass, dass sie hier das Niveau einer Vega56 erreicht. :eek:
https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/11

Und aus den 200W weniger werden plötzlich 80 Watt weniger (Gesamtsystem). Aber uns ist natürlich klar warum du Vergleiche mit einer Vega64 LCE anstellen musst. :rolleyes:

PS: Bei Power verglichen mit der Armor, bei der Gaming Z wären es nur 46W weniger.

Lächerlich. Forza Horizon 4 ist eines der ganz wenigen Spiele, wo die Karten nicht so gut performen. Ansonsten sieht VEGA gegen alle Turings überhaupt kein Land mehr. Da kannste Cherrypicken soviel wie du willst.,

JVC
2018-10-18, 14:38:22
Irgendwie sind auch die Frametimes besser und zwar unabhängig von den FPS. Evtl. der mittlerweile besser optimierte Boost 4.0, welcher das Takt-Gezappel verbessert hat? Hat das mal jemand untersucht?

Der Kaufpreis hat aber schon ein paar Tränen hervorgerufen *mit NVDA Aktie abwisch* :D

Hastest du bei deiner alten auch im Windof unter "NV Systemsteuerung"
den Punkt "Energieverwaltungsmodus" auf "maximale Leistung bevorzugen" gestellt ?
( wie sich die neuen da verhalten weis ich nicht )

Das umstellen hat bei mir irgendwie ein "merklich angenehmeres Bild"
(Frametimes) bewirkt.

Jaja das richtige Taschentuch kann durchaus helfen :biggrin:

m.f.g. JVC

Cubitus
2018-10-18, 15:21:49
Forza ist eben gut optimiert, man muss nur die Grafik maximal hochfahren..
Ich denke nicht das Vega bei 4k+Extreme+8xaa an eine TI so ohne weiteres ran kommt

bei der 1080ti ists ähnlich, sobald die Settings oben sind, wird der Abstand zu vega deutlicher größer.

Robspassion
2018-10-18, 18:00:53
Die 2080 Ti Founders kann aktuell wieder bei Nvidia gekauft werden falls noch jemand Interesse hat.

Lu
2018-10-18, 18:20:46
Von der sollte man aber die Finger lassen. Wird zu sehr beschnitten durch das PT und ist Stand heute nicht flashbar.

RoughNeck
2018-10-18, 18:47:07
Ja... die 2070 ist so krass, dass sie hier das Niveau einer Vega56 erreicht. :eek:
https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/11

Und aus den 200W weniger werden plötzlich 80 Watt weniger (Gesamtsystem). Aber uns ist natürlich klar warum du Vergleiche mit einer Vega64 LCE anstellen musst. :rolleyes:

PS: Bei Power verglichen mit der Armor, bei der Gaming Z wären es nur 46W weniger.

Ach Dargo
Von dir bin ich besseres gewohnt. Aber gut, read this

https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/17

Ja wo ist denn Vega 64? :biggrin:

dargo
2018-10-18, 19:06:15
Lustig wer da wieder alles auf meinen nicht so ganz ernst gemeinten Post drauf anspringt. :biggrin:

Ich gehe mal einfach bei den Kirschen mit. ;D
https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/9

Wahnsinn wieviel schneller die 2070 Armor gegenüber einer Referenz V56 ist. :eek:

RoughNeck
2018-10-18, 20:02:52
Mein :biggrin: war anscheinend zu wenig.
OK, ab in die nächste Runde

https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/12

Die AMD Fans dürfen suchen wie die Vegas sind.

dargo
2018-10-18, 20:25:28
Scheinst ja richtig Spaß zu haben.
https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/18

V56 in 1440p schneller als MSI Gaming X Trio RTX 2080 OC. :cool:

PS: AMD kann nichts dafür, dass der Nvidia Treiber im stärkeren CPU-Limit @DX12 bei Turing so versagt. :P

RoughNeck
2018-10-18, 21:08:45
Ich habe immer Spaß.
https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/10

Tolle arbeit von AMD, da gibt man doch gern 500€ aus für :P

Rancor
2018-10-18, 21:32:23
Scheinst ja richtig Spaß zu haben.
https://www.overclock3d.net/reviews/gpu_displays/msi_rtx_2070_gaming_z_review/18

V56 in 1440p schneller als MSI Gaming X Trio RTX 2080 OC. :cool:

PS: AMD kann nichts dafür, dass der Nvidia Treiber im stärkeren CPU-Limit @DX12 bei Turing so versagt. :P

Also wenn schon eine 1070 schneller als eine 2070 ist, dann ist das eindeutig Treiberfuck und hat nix mit dem Chip oder der Architektur zu tun.

Digidi
2018-10-18, 22:54:56
19.3 und 19.5 höher sich stark nach primitive shaders und mesh shaders an

https://www.khronos.org/registry/vulkan/specs/1.0-extensions/html/vkspec.html#drawing-primitive-shading

horn 12
2018-10-18, 23:02:47
Und dies heißt bitte auf Gut Deutsch?

pixeljetstream
2018-10-18, 23:06:07
19.3 war schon immer da ;) ich hab 19.5 im Zuge der Mesh shader extension hinzugefügt. Die spec die du verlinkt hast enthält alle Hersteller Extensions. Kapitel 23 (Mesh Shader) und 29 sind z.Bsp auch von mir und 32 (raytracing) von Kollege.

Digidi
2018-10-18, 23:10:48
19.3 war schon immer da ;) ich hab 19.5 im Zuge der Mesh shader extension hinzugefügt. Die spec die du verlinkt hast enthält alle Hersteller Extensions.

Ok Danke! 19.5 sind mesh shader aber 19.3... ist dann allgemein oder ist das die Extension von AMD?

pixeljetstream
2018-10-18, 23:16:17
Das ist allgemein. Einfach durchlesen dann siehst ja dass es die klassische Pipeline ist. Mit dem Quadro Launch nächste Woche müsste dann auch bald ein mesh shader sample auf github online gehen.

Edgecrusher86
2018-10-18, 23:53:59
Ja, ist schon beeindruckend, was Turing im Best Case so raushaut - hier ein Vergleich von Blaire - Wolfenstein II jeweils mit max PTs - Gigabyte GeForce RTX 2080 Ti Gaming OC BIOS F3 (366W max PT), TITAN X(Pascal) (300W max PT) und RX VEGA 64 Air (345W ASIC max PT, ~400W max) @ 4K Extreme Settings - also alles maximiert inkl. Extreme Streaming:

Gigabyte GeForce RTX 2080 Ti Gaming OC:
https://abload.de/thumb/2080ti-extreme-maxptk3ipm.jpg (https://abload.de/image.php?img=2080ti-extreme-maxptk3ipm.jpg)
149 fps! (+187%) [+64%]

NVIDIA TITAN X (Pascal):
https://abload.de/thumb/xp-extremex7c52.jpg (https://abload.de/image.php?img=xp-extremex7c52.jpg)
91 fps (+75%) [Basis]

AMD Radeon RX VEGA 64 Air:
https://abload.de/thumb/v64-extreme9aenm.jpg (https://abload.de/image.php?img=v64-extreme9aenm.jpg)
52 fps (Basis)

https://abload.de/thumb/v64-meinlebenbgftq.jpg (https://abload.de/image.php?img=v64-meinlebenbgftq.jpg)
76 fps @ Mein Leben! (+46%)


System: W10 v1709, i7-3930K @ 3,8 GHz, ASUS RAMPAGE IV EXTREME, 16GB DDR3 2400.

Auf MSI AB OSD wurde aufgrund dem Performance Verlust @ idTech6 Vulkan - sowohl NV, als auch AMD Karten betreffend, verzichtet.



E: Ebenfalls sehr interessant - RTX 2080 Ti FE SLI Benchmarks - integrierte Benchmarks jeweils - @ 5K maxed out:

F1 2018 (meistens mit 120+ fps! :eek::biggrin: - teilweise über 100% Scaling mit NVLINK!)
https://www.youtube.com/watch?v=yfIIu8_DuXQ

Dirty Rally
https://www.youtube.com/watch?v=zETzUUjbgnE

Assetto Corsa
https://www.youtube.com/watch?v=Yt3M40ur2-k

JVC
2018-10-19, 09:02:07
Hat hier ein 1080Ti @2Ghz Besitzer auf ne 2080Ti gewechselt ?
Ist er der Meinung das es sich gelohnt hat ?
( wie viel %mehr fps hat er jetzt ? )

Also ich würde das teil z.b. gerne mit 400W und dafür zuverlässigen 2,2Ghz kaufen ...
( dann wären mir die 1,25K auch recht ;) )
... Verbrauch ist mir "egal" ... Hauptsache stabil zuverlässig und schnell :)
( ich glaube ich bohre sowieso mal ein Loch in den Boden
und verfrachte den Rechner einen Stock tiefer in den Keller ^^ )

m.f.g. JVC

w0mbat
2018-10-19, 09:20:07
@JVC: Da bekommst du sicherlich mehr FPS, wenn du erstmal deine CPU aufrüstest. Oder wartest du auf nen 9900K/9700K?

Weil dein 3570K limitiert ganz sicher schon deine 1080 Ti, das wird mit der 2080 Ti nicht anders sein. Selbst meine R9 290 wurde zT durch einen 3570K@4,4GHz limitiert und ist jetzt, mit einem Ryzen 5 2600X, deutlich schneller.

JVC
2018-10-19, 09:28:58
@JVC: Da bekommst du sicherlich mehr FPS, wenn du erstmal deine CPU aufrüstest. Oder wartest du auf nen 9900K/9700K?
Ja ich weis, nach ~6 Jahren guter dienste ist sie mittlerweile wirklich schon ziemlich am ende.
Mindestens auf den 8Kerner oder falls ich es aushalte *habenmuss*
auf den 7nm Zen ... wobei wenn 5,5Ghz mit Wasser auf nem Intel gehen ....
das muss AMD erst mal schaffen ( noch weis man ja nicht wie weit AMD den Takt wirklich bringt ... )
Und leider hab ich immer noch so Spiele die an "einem Kern" hängen :mad:

m.f.g. JVC

w0mbat
2018-10-19, 09:38:05
Ryzen hat aber >10% mehr IPC als IVB und schon ein 2600X ohne OC boostet auf über 4,2GHz wenn nicht alle Kerne unter Last stehen. D.h. auch Spiele die an "einem Kern" hänge würden mit nem Ryzen schneller laufen. Das gilt natürlich auch für alle aktuellen Intel CPUs. Nur 4C/4T sind 2018, vor allem mit einer 1080 Ti, schon etwas wenig. Da würde ich an deiner Stelle wirklich nicht noch über eine 2080 Ti nachdenken.

JVC
2018-10-19, 09:50:12
Interessieren würde es mich aber trotzdem was eben eine ~MAX OC 2080Ti
an mehr Performance gegenüber einer ~MAX OC 1080Ti schafft.

Ich weis nicht wie weit die 2080Ti ohne Biosmod oder anderen
extremeren umbau Maßnahmen so kommen ...
Aber die gegengetestete 1080Ti sollte min 2Ghz halten können in dem Test ;)
( im Optimalfall beides auf einem 5Ghz+ 8Kerner oder auch 6Kerner )
Gibt's so einen Test vielleicht sogar schon, weis wer was ?

m.f.g. JVC

p.s.: das ganze ist für Leute gedacht die 1-2K mehr beim PC nicht stören
und die möglichst viel Leistung haben wollen obwohl sie eigentlich
0 Ahnung von Hardware oder mit OC haben ... also ein OC das man auch einem "Idiotien"
anvertrauen kann ohne das es dabei ständig Probleme ( anrufe bei mir ) gibt ;)
( nur zum testen hol ich mir jetzt bestimmt keine 2080Ti )
Vielleicht hab ich ja das glück und es will einer noch dieses Jahr genau so einen Rechner ^^
Dann kann ich mich ein bisschen mit der Hardware spielen :biggrin:

SKYNET
2018-10-19, 10:12:41
Interessieren würde es mich aber trotzdem was eben eine ~MAX OC 2080Ti
an mehr Performance gegenüber einer ~MAX OC 1080Ti schafft.



naja, der vorsprung von 30% von 1080 Ti FE zur 2080 Ti FE dürfte auf unter 20% zusammenschmelzen... :biggrin: somit eigentlich nur eine frage der auflösung, ob der wechselt lohnt... <4K = nein, 4k+ = ja....

Troyan
2018-10-19, 10:14:56
Schon wieder zurück mit deinen Lügen-Zahlen? :rolleyes:

JVC
2018-10-19, 10:17:35
Zu mindestens für mich sind beim PC 4K schon Standard :)
Und Leuten die soviel Geld für den PC in die Hand nehmen
empfehle ich mindestens WQHD ~27-32" oder 4K ~40"+
( da wäre ein ~23" FHD wirklich n schlechter Schertz ^^ )

m.f.g. JVC

@Troyan Hör bitte auf mit so sinnfreien "Ein-Zeilern" !!!
Ich empfinde das Wort Lüge als schwere Anschuldigung.
Gerade wenn es ohne beleg oder sonstigem einfach in den Raum geworfen wird.
Und solange wir von Spekulationen, Schätzungen und Vermutungen ausgehen, kann doch garkeiner Lügen.

Troyan
2018-10-19, 10:30:13
Ich sehe hier kein Beleg für die Zahlen von Skynet, du etwa? Daher ist der Begriff "Lügen-Zahl" passend. Einfach keine Fantasiezahlen in den Raum werfen. Dann entstehen auch keine "sinnfreien 'Ein-Zeiler'".

JVC
2018-10-19, 10:34:16
naja, der vorsprung von 30% von 1080 Ti FE zur 2080 Ti FE dürfte auf unter 20% zusammenschmelzen... :biggrin: somit eigentlich nur eine frage der auflösung, ob der wechselt lohnt... <4K = nein, 4k+ = ja....

Ich sehe hier kein Beleg für die Zahlen von Skynet, du etwa? Daher ist der Begriff "Lügen-Zahl" passend. Einfach keine Fantasiezahlen in den Raum werfen. Dann entstehen auch keine "sinnfreien 'Ein-Zeiler'".

Bitte lese etwas gründlicher.
SKYNET stelle somit nur eine Vermutung an und nicht mehr.

Und selbst wenn er eine Behauptung aufstellt,
kannst du es erst der Lüge bezichtigen wenn du es
eindeutig widerlegen kannst ;)

m.f.g. JVC

Troyan
2018-10-19, 10:42:36
Turing lässt sich höher takten als Pascal. Das bedeutet also, dass er hier wieder nur trollen wollte, richtig?

Das beste für den Thread (und alle, die mit Turing zu tun haben) ist es, wenn ihr endlich aufhört zu trollen.

TobiWahnKenobi
2018-10-19, 10:45:52
was sind das für komische fragen?

wenn die ollen pascal-gurken irgendwo, aus dem letzten loch pfeiffend 50fps schaffen, hat man mit besseren karten dort 60fps. bei den meisten passt das dann zum UHD-refresh und das war es dann schon. take it or leave it.

tut die aufrüstung weh oder ist das geld so knapp, dass man wochenlang drüber nachdenken muss -> sein lassen!

wenn ich mir schon das iphone7 oder 8 vom mund abgespart habe, denke ich nicht über ein neues 10er nach.



(..)

mfg
tobi

Rancor
2018-10-19, 10:46:33
Turing lässt sich höher takten als Pascal. Das bedeutet also, dass er hier wieder nur trollen wollte, richtig?

Das beste für den Thread (und alle, die mit Turing zu tun haben) ist es, wenn ihr endlich aufhört zu trollen.

Turing lässt sich nicht höher Takten als Pascal, was redest du dafür einen Blödsinn? Und du verlangst, das hier niemand mit Fantasie Fakten hausieren geht ;D

mustrum
2018-10-19, 10:56:23
Hat hier ein 1080Ti @2Ghz Besitzer auf ne 2080Ti gewechselt ?
Ist er der Meinung das es sich gelohnt hat ?
( wie viel %mehr fps hat er jetzt ? )

Also ich würde das teil z.b. gerne mit 400W und dafür zuverlässigen 2,2Ghz kaufen ...
( dann wären mir die 1,25K auch recht ;) )
... Verbrauch ist mir "egal" ... Hauptsache stabil zuverlässig und schnell :)
( ich glaube ich bohre sowieso mal ein Loch in den Boden
und verfrachte den Rechner einen Stock tiefer in den Keller ^^ )

m.f.g. JVC
Bin von Titan X Pascal (praktisch eine TI) @ 2.1Ghz auf eine 2080 TI @ 2.1Ghz gewechselt. Beide jeweils mit EKWB Wakü.

Lohnt es sich? Für mich ja, da ich in einem Monat meine Pimax 8K (oder 5K+ noch nicht sicher) bekommen werde und die alles in die Knie zwingt - 2080 Ti inklusive. Da zählt jedes % Mehrleistung.

Ansonsten habe ich einen 34 Zoll 21:9 Monitor - 3440er Auflösung. Dafür hätte auch die Titan X Pascal noch gereicht.

Meiner Meinung nach lohnt es sich für die wenigsten. Die neuen Features klingen toll, aber bis auf Ausnahmen kommt da sicher lange nicht viel.

Wer Hardware mag wird die 2080 TI aber schon lieben. Was für ein Biest. Ich habe noch nie so einen großen Die gesehen. Irre.

Troyan
2018-10-19, 10:59:17
Turing lässt sich nicht höher Takten als Pascal, was redest du dafür einen Blödsinn? Und du verlangst, das hier niemand mit Fantasie Fakten hausieren geht ;D

Na, dann belege dies bitte. Meine Asus RTX2080TI taktet rund 100Mhz höher als meine Zotac AMP GTX1080TI. Die Asus RTX2070 taktet ebenfalls rund 100Mhz höher als die GTX1080FE:
https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast

Viel Erfolg.

Rancor
2018-10-19, 11:02:03
Na, dann belege dies bitte. Meine Asus RTX2080TI taktet rund 100Mhz höher als meine Zotac AMP GTX1080TI. Die Asus RTX2070 taktet ebenfalls rund 100Mhz höher als die GTX1080FE:
https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast

Viel Erfolg.

Ja und Silicon Lottery sagt dir etwas? Mein Güte. Meine MSI Armor 1070 macht auch 2Ghz mit. Gibt auch welche die machen das nicht. Bei 100 MHZ mehr davon zu sprechen, das sich Architektur X höher Takten lässt als Y ist schon etwas hahnebüchen... Das liegt alles noch im Bereich der Chipgüte.

Cubitus
2018-10-19, 11:07:09
Die 2080 Ti Founders kann aktuell wieder bei Nvidia gekauft werden falls noch jemand Interesse hat.

Von der sollte man aber die Finger lassen. Wird zu sehr beschnitten durch das PT und ist Stand heute nicht flashbar.

Hab zugeschlagen, da ich letztens eine Inno3D schießen konnte, diese mir aber ehrlich gesagt zu laut ist, VapoChamber hin oder her.

http://www.inno3d.com/products_detail.php?refid=382

Die Karte basiert auf dem Ref-Design und ist mit dem Standardbios auch auf 111% PT limitiert.
Klar könnte ich die Karte unter Wasser setzen, (wobei das bei einem ITX etwas schwerer ist).
Zumindest ließe sich ein anderes Bios flashen, aber ich sehe für mich persönlich keinen Sinn dahinter :confused:


@Thread
Ganz ehrlich, jede Takterhöhung ist teuer erkauft

1. Kostet ne Wasserkühlung verhältnismäßig viel Geld.

2. Der ganze Aufwand + Wartung (manchen Leuten ist einfach Ihre Zeit zu Schade).

3. Sind die Stromkosten nicht zu verachten, es ist ein Unterschied ob man jeden Monat 40 Euro oder 60-80 Euro Abschlag bezahlt, es gibt so komische Leute, die auch unter der Woche bis tief in die Nacht zoggen ;D

4. Es gibt Systeme, so wie meines, welche auf Effizienz, Lautstärke und wenig Platzbedarf getrimmt sind, der 8700 non k mit seinen 65 Watt TDP, dazu das passive Netzteil mit 500 Watt.
Da passt so ein Dampfhammer der fast 400 Watt frisst und das wegen gerade mal "vielleicht möglichen" 150-200 Mhz+ mehr, einfach nicht ins gesamte Konzept.

Bei der Inno hob ich das PT an und ließ den Auto OC Scanner drüber laufen.
Die Karte läuft jetzt konstant zwischen 1800-1970 Mhz bei 280 Watt und 123 Mhz OC.

Aber die Lüfter sind mir wie gesagt einen Tick zu laut und die Temperatur natürlich bei 88 Grad am Limit, jetzt schaue ich wie sich die FE schlägt
und wenn diese leiser ist und mit etwas weniger Saft meinen gesetzten Sweetspot ermöglicht, wird diese genommen.

Troyan
2018-10-19, 11:20:09
Ja und Silicon Lottery sagt dir etwas? Mein Güte. Meine MSI Armor 1070 macht auch 2Ghz mit. Gibt auch welche die machen das nicht. Bei 100 MHZ mehr davon zu sprechen, das sich Architektur X höher Takten lässt als Y ist schon etwas hahnebüchen... Das liegt alles noch im Bereich der Chipgüte.

Das hat nichts mit "Silicon Lottery" zu tun. Turing erreicht ähnliche Taktraten bei (viel) niedriger Spannung.

JVC
2018-10-19, 11:21:08
Bin von Titan X Pascal (praktisch eine TI) @ 2.1Ghz auf eine 2080 TI @ 2.1Ghz gewechselt. Beide jeweils mit EKWB Wakü.

Lohnt es sich? Für mich ja, da ich in einem Monat meine Pimax 8K (oder 5K+ noch nicht sicher) bekommen werde und die alles in die Knie zwingt - 2080 Ti inklusive. Da zählt jedes % Mehrleistung.

Auchhabenwill :eek:
Ich würde mich da über die eine oder andere Info freuen wenn du deine 8K hast :up:
Danke für die Info :)
( wie viel % Mehrleistung waren es bei dir ~geschätzt ? )

Na, dann belege dies bitte. Meine Asus RTX2080TI taktet rund 100Mhz höher als meine Zotac AMP GTX1080TI. Die Asus RTX2070 taktet ebenfalls rund 100Mhz höher als die GTX1080FE:
https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast

Viel Erfolg.
Da du nur deine eigene Erkenntnis mitteilst handelt es sich um eine/deine Meinung.

Meine 1080Ti kann ich auf fast 2,1Ghz MIN Takt "Prügeln".
( ohne Mod, Bios Flash oder umbau )
Und trotzdem kann ich das nicht als Standard hinstellen.

Die Testseiten spiegeln auch nur die Sicht ihrer "dinge" wieder
und liefern daher eher Richtwerte.

m.f.g. JVC

p.s.: Als unnötig betrachte ich auch Leute die sich einzelne Spiele Tests heraussuchen nur um ihre Meinung/Ansicht zu untermauern
und die das eigene Weltbild, als das in ihren Augen einzig richtige, laut "hinausbrüllen" müssen.
Seine Meinung kund zu tun ist völlig in Ordnung ... nur man muss auch den anderen eine eigene Meinung zugestehen ;)

Troyan
2018-10-19, 11:44:57
Du schaffst keine 2100Mhz mit Luft. Ehrlich, solchen Unsinn hier zu posten kannst du dir sparen. Genau das meine ich hier. Es werden einfach komplett reine Fantasiezahlen gepostet.

Cubitus
2018-10-19, 11:49:50
Du schaffst keine 2100Mhz mit Luft. Ehrlich, solchen Unsinn hier zu posten kannst du dir sparen. Genau das meine ich hier. Es werden einfach komplett reine Fantasiezahlen gepostet.

Vielleicht kurzzeitig wenn das System kalt ist :uponder: Aber dauerhaft haltbar ist das sicherlich nicht..

Eventuell geht das mit so einem Monster besser, sind jetzt auch schon RTX kompatibel
https://www.arctic.ac/de_de/accelero-xtreme-iv.html

Bei einem ATX Gehäuse wäre das noch eine Alternative zur Wasserkühlung.

Linmoum
2018-10-19, 11:52:03
Natürlich gehen 2.1GHz unter Luft. Wie kommt man auf den Schmarn, dass das gänzlich nicht möglich sei?

Rancor
2018-10-19, 11:53:11
Das hat nichts mit "Silicon Lottery" zu tun. Turing erreicht ähnliche Taktraten bei (viel) niedriger Spannung.

Ja und ? Trotzdem bekomm ich Pascal Chips so hoch getaket wie Turing Chips. Deine Aussage war pauschal: Turing lässt sich höher Takten als Pascal und das stimmt so einfach nicht.

Von der benötigten Spannung und dem Stromverbrauch war nie die Rede, Kollege ;)

Cubitus
2018-10-19, 11:54:37
Natürlich gehen 2.1GHz unter Luft. Wie kommt man auf den Schmarn, dass das gänzlich nicht möglich sei?

Reden wir jetzt von einer RTX2080 TI oder von einer 1080TI?

RoughNeck
2018-10-19, 11:57:07
Das hat nichts mit "Silicon Lottery" zu tun. Turing erreicht ähnliche Taktraten bei (viel) niedriger Spannung.

Halte ich für ein Gerücht.
Meine 2080 TI macht mit 850mv 1,8 GHZ, wie auch schon meine 1080 TI. Ob das ganze auch mit RT stabil ist wird sich zeigen wenn es endlich verfügbar ist.

SKYNET
2018-10-19, 11:57:21
Na, dann belege dies bitte. Meine Asus RTX2080TI taktet rund 100Mhz höher als meine Zotac AMP GTX1080TI. Die Asus RTX2070 taktet ebenfalls rund 100Mhz höher als die GTX1080FE:
https://www.computerbase.de/2018-10/nvidia-geforce-rtx-2070-test/2/#abschnitt_die_tatsaechlichen_taktraten_unter_last_mit_gpuboost_40
https://www.computerbase.de/2016-05/geforce-gtx-1080-test/6/#abschnitt_bis_zu_1785_mhz_takt_unter_dauerlast

Viel Erfolg.

und meine 1080Ti hält den takt durchgehend bei 2063MHz, und boostet auch bis 2150, aber da geht sie wieder runter weil temp "zu hoch"(62°c.)... zeig mir mal ne 2080Ti die das macht :P

JVC
2018-10-19, 11:59:06
Du schaffst keine 2100Mhz mit Luft. Ehrlich, solchen Unsinn hier zu posten kannst du dir sparen. Genau das meine ich hier. Es werden einfach komplett reine Fantasiezahlen gepostet.

Und wieder stellst du eine Behauptung auf die du nicht belegen kannst.
Und bezeichnest etwas als "Unsinn" was du nicht be- oder widerlegen kannst.

Wohingegen meine Formulierung vorsichtig
und nur im Bezug auf mich gehalten ist.
"fast 2,1Ghz MIN Takt "
1. fast
2. unter was ? Stresstest, Spielen, ohne Last ???

Falls dir meine Aussage zu unpräzise ist dann frage bitte nach.
( ich habe kein Problem damit etwas einzugestehen ;) )

m.f.g. JVC

p.s.: das ist das letzte mal das ich auf "OT" von dir
versuche vernünftig zu antworten.

Troyan
2018-10-19, 12:04:11
Ja und ? Trotzdem bekomm ich Pascal Chips so hoch getaket wie Turing Chips. Deine Aussage war pauschal: Turing lässt sich höher Takten als Pascal und das stimmt so einfach nicht.

Von der benötigten Spannung und dem Stromverbrauch war nie die Rede, Kollege ;)

Logik?! Pascal lässt sich nicht so hoch takten, da Pascal für ähnliche Taktraten mehr Spannung benötigt und nVidia diese bei rund 1,063V cappt.

Ich verstehe auch nicht, wieso man ein Problem damit hat. :freak:

Und wieder stellst du eine Behauptung auf die du nicht belegen kannst.
Und bezeichnest etwas als "Unsinn" was du nicht be- oder widerlegen kannst.

Wohingegen meine Formulierung vorsichtig
und nur im Bezug auf mich gehalten ist.
"fast 2,1Ghz MIN Takt "
1. fast
2. unter was ? Stresstest, Spielen, ohne Last ???

Falls dir meine Aussage zu unpräzise ist dann frage bitte nach.
( ich habe kein Problem damit etwas einzugestehen ;) )

m.f.g. JVC

p.s.: das ist das letzte mal das ich auf "OT" von dir
versuche vernünftig zu antworten.

Aha. Also 2100Mhz sind bei dir möglich - jedoch nicht in Spielen. Gut. :rolleyes:

JVC
2018-10-19, 12:14:52
Meine 2080 TI macht mit 850mv 1,8 GHZ, wie auch schon meine 1080 TI. Ob das ganze auch mit RT stabil ist wird sich zeigen wenn es endlich verfügbar ist.
Wie hoch schätzt du den Leistungsgewinn bei dir ~ein ?
( dein Takt dürfte ja bei beiden Karten auch im betrieb gleich gewesen sein ?)
( hast du vergleiche mit gleichem höheren Takt beider karten ? ~Skalierungsverhalten beider Karten wäre interessant :) )
Danke

Aha. Also 2100Mhz sind bei dir möglich - jedoch nicht in Spielen. Gut. :rolleyes:

Und wieder behauptest du etwas was du nicht belegen kannst ^^
( ist zwar unterhaltsam aber ... )
Ich empfehle dir einen Rhetorikkurs.
http://www.acadas.com/rprm?gclid=EAIaIQobChMIur33haGS3gIVg7DtCh2rYwYkEAAYASAAEgIyIfD_BwE
"Erfolgreich vor Publikum, überzeugend im Gespräch und souverän in jeder Situation"
Die Sprache besteht nicht nur aus Buchstaben, Wörtern oder Grammatik ;)

m.f.g. JVC

p.s.: Falls ein Mod hier aufräumt und mein Verhalten für unangebracht hält, bitte ich darum mich in Kenntnis zu setzen ! Danke :)
( im Moment hab ich nur meinen Spaß ^^ auch wenn es mühselig ist )

Troyan
2018-10-19, 12:36:51
Wieso sollte ich es belegen? Da du die Behauptung aufstellst, bist du derjenige, der hier etwas belegen sollte. Haufenweise Leute haben in diesem Forum Pascal-Karten und niemand wird durchgehend "mindesten fast 2100MHz" mit Luft anliegen haben, da das Power-Limit die Karten einschränkt. Eine GTX1080TI benötigt damit 350W+, da die höchsten Boost-Steps Anwendung finden.

Du bist hier nicht in einem Forum, wo die Leute keine Ahnung haben. Also lass es einfach mit Fantasiewerten Stimmung zu machen.

wolik
2018-10-19, 12:41:16
Das hat nichts mit "Silicon Lottery" zu tun. Turing erreicht ähnliche Taktraten bei (viel) niedriger Spannung.
Meine beide 1080Ti laufen unter Wasser mit 2063, Last 2050. Ohne Spannung erhöhen (weil bringt nichts) Schaue was noch paar Foren Mitglieder dazu sagen, werde wohl auch paar 2080Ti holen.

Troyan
2018-10-19, 13:00:10
Ja, Wasser ist notwendig für weniger als 60°C. Ab da reduziert nVidia in bestimmten Abständen die möglichen Boost-Steps. Deswegen schafft man auch keine "mindesten fast 2100Mhz" mit Luft bei Pascal.

Techpowerup hat eine Reihe von Custom-GTX1080TI getestet und keine von denen hat 2100MHz als Max Clock erreicht: https://www.techpowerup.com/reviews/MSI/GTX_1080_Ti_Gaming_X_Trio/33.html

JVC
2018-10-19, 13:24:52
Wieso sollte ich es belegen? Da du die Behauptung aufstellst, bist du derjenige, der hier etwas belegen sollte. Haufenweise Leute haben in diesem Forum Pascal-Karten und niemand wird durchgehend "mindesten fast 2100MHz" mit Luft anliegen haben, da das Power-Limit die Karten einschränkt. Eine GTX1080TI benötigt damit 350W+, da die höchsten Boost-Steps Anwendung finden.

Du bist hier nicht in einem Forum, wo die Leute keine Ahnung haben. Also lass es einfach mit Fantasiewerten Stimmung zu machen.

Welche allgemein gültige Behauptung habe ich den konkret aufgestellt :confused:

Ich habe meine Karte nur relativ kurz "Ausgetestet" da meine CPU im Moment schon eher die Bremse ist ;)
Und da sie "out of the Box" schon mit bis zu 2037Mhz lief und auch in Spielen bei mir nur auf ~1960Mhz herunterfällt
( komplett offener Aufbau, Graka Umgebungstep. = Raumtemp. )
( minimal hab ich mal bei nem "Stresstest" glaube 1860Mhz gesehen )
betreibe ich sie komplett auf Standard.
https://www.userbenchmark.com/UserRun/8739664
( mein Rechner, Graka unangetastet mit 250W PL )

Habe zwar kurz mal mit "MSI Afterburner" drüber getestet aber die NV Treiber sind leider sehr OC feindlich und ein Zusatz Tool will ich im Moment nicht.
Da kahmen dann mit Spielelasst stabile bis zu ~ 2112MHZ raus.
( Diablo 3, GW2, WoW alles in 4K mit V-sync 60Hz,
wobei bei etwaigen Fps Drops immer die CPU schuld war ... )
Hab aber nicht genauer getestet weil mir die Graka dann doch etwas zu Laut war mit Max Powerlimmit (375W)
( begrenzt wurde die Karte immer durch "V-rel" , die Spannung für die GPU hab ich nie angegriffen )

So jetzt hast du etwas genauere angaben ;)
Belegen muss ich nichts, da es für mich so passt wie es ist
und ich keinen Geltungszwang habe.
Und eine allgemein gültige Behauptung stelle ich ja auch jetzt noch nicht auf ;)
Ich bin einfach nur froh scheinbar mal ein gutes Exemplar erwischt zu haben :smile:
( war ja auch teuer genug 813.- )

m.f.g. JVC

p.s.: Ich weis das 2Ghz durchaus realistisch sind und eine solche hätt ich hald gerne mal gegen ne 2080Ti "realistisches max oc" gegengetestet :)
Nur sind mir da mittlerweile Erfahrungsberichte lieber als diese "Launch Artikel".

TobiWahnKenobi
2018-10-19, 14:12:37
erfahrungsberichte finde ich auch immer toll.. bedien dich an meinen erfahrungen..

Shadow of the Tomb Raider

https://abload.de/img/rtxti_sottr_uhd_ultrauccze.jpg
https://abload.de/img/gv100_sottr_uhd_ultraujcaj.jpg
UHD, ultrahoch, TAA
https://abload.de/img/rtxti_sottr_wqhd_ultrfwiom.jpg
https://abload.de/img/gv100_sottr_wqhd_ultrwtdbg.jpg
WQHD, ultrahoch, TAA
https://abload.de/img/rtxti_sottr_fhd_ultragsfve.jpg
https://abload.de/img/gv100_sottr_fhd_ultra3mikt.jpg
FHD, ultrahoch, TAA

------------------------------------------------------
Star Wars Battlefront II, UHD, Ultra


2080Ti
62324 frames rendered in 637.969 s
Average framerate : 97.6 FPS
Minimum framerate : 61.3 FPS
Maximum framerate : 121.7 FPS

GV100
110622 frames rendered in 991.812 s
Average framerate : 111.5 FPS
Minimum framerate : 73.4 FPS
Maximum framerate : 200.4 FPS

------------------------------------------------------
Witcher 3 UHD, preset hoch, 4x Hairworks AA

2080Ti
73498 frames rendered in 955.125 s
Average framerate : 76.9 FPS
Minimum framerate : 56.1 FPS
Maximum framerate : 599.8 FPS

GV100
105238 frames rendered in 1417.859 s
Average framerate : 74.2 FPS
Minimum framerate : 54.4 FPS
Maximum framerate : 98.9 FPS

------------------------------------------------------
Far Cry 5

2080Ti
https://abload.de/img/rtxti_fc5_ultra_wqhd_s3egi.jpg
https://abload.de/img/rtxti_fc5_ultra_uhd_2n3i0l.jpg

GV100
https://abload.de/img/gv100_fc5_ultra_wqhd84dm1.jpg
https://abload.de/img/gv100_fc5_ultra_uhd7yed7.jpg

------------------------------------------------------
Unigine Super Position

https://abload.de/img/superposition_benchma13ex1.png
https://abload.de/img/gv100_usp_4koeede1.jpg

erfahrung? hmm, ernüchternde zeitverschwendung.. drei neue karten (2x FE, 1x custom).. eine alte (GV100).. etliche KW/h verballert, rumgewartet, unspektakulär - RTX fixt mich einfach nicht an. die messungen sind mit RTXen @kotzgrenze (100% lüfter), 26MHz vor treiberreset durchgeführt. die geposteten werte sind die höchsten,
die ich erreichen konnte.



(..)

mfg
tobi

TobiWahnKenobi
2018-10-19, 14:21:03
hier noch 3D Mark

3DMark

https://abload.de/img/firestrike_vergleich_f5fz1.jpg
https://abload.de/img/firestrike_extreme_venrdnq.jpg
https://abload.de/img/firestrike_ultra_verg2yeea.jpg
https://abload.de/img/timespy_vergleich_rtx79eip.jpg
https://abload.de/img/timespy_extreme_vergltner2.jpg
NVidia Geforce RTX 2080Ti FE OC (jeweils links im vergleich, die falsche bezeichung ist ein sysinfo-problem)

möglich, dass man noch homöopathische mehrleistung kreieren kann, wenn man das powerlimit aushebelt und die RTXen im weltall kühlt, aber
dann zeigt die anzeige auf meinem leistungsmessgerät auch keine 520-530W in der spitze mehr an. für alte karte gilt natürlich das selbe.


(..)

mfg
tobi

JVC
2018-10-19, 14:28:59
@TobiWahnKenobi Danke für die Arbeit :smile: !

Das sind mal gute Vergleiche :up:
Das Ergebnis berauscht mich jetzt nicht so sehr und
von RTX sowie DLSS halte ich im Moment auch noch nichts ...
( wird die Zeit zeigen wie sich diese 2 "Zugpferde" von NV entwickeln )

Empfehlen werde ich die 2080Ti ( für Leute die der Preis wirklich nicht juckt ) trotzdem.
( in ihrem Leistungsbereich ist sie trotz der Kosten ohne Konkurrenz, mögliche alternative )

Zuerst brauche ich sowieso mal ne gescheite Cpu ;)

m.f.g. JVC

RoughNeck
2018-10-19, 14:29:52
@JVC

Bei Far Cry 5 habe ich 28 FPS mehr
Bei AC Odyssey sind es 21 FPS mehr
Bei Witcher 3 sind es 23 FPS mehr
Bei Shadow of the Tomb Raider sind es 26 FPS mehr

GTX 1080 TI @ 1835 MHZ / 850mv / 300 MHZ mehr beim VRAM
RTX 2080 TI @ 1835 MHZ / 850mv / 300 MHZ mehr beim VRAM

Das Setting kann auch ein BeQuiet E9 450W NT versorgen. Rest ist noch ein 8700K @ 4,5 GHZ All Core bei 1,10V, 32 GB DDR4 3466 CL15, Asus mini ITX Gaming-I, Dark Rock Pro 4, 2x 1TB Samsung 850 Evo, 3x 140mm BeQuiet Silent Wing 3.
Wollte einfach wissen was das E9 NT noch kann, mehr habe ich noch nicht getestet, komme im Moment einfach nicht dazu. Aber für mich hat es sich gelohnt, das mehr an Power ist spürbar.

JVC
2018-10-19, 16:02:21
@RoughNeck

Danke für die Werte aber soll das wirklich "FPS" heißen oder nicht eher % ?
( bei fps wäre der 1080Ti wert für einen Vergleich notwendig )

"Aber für mich hat es sich gelohnt, das mehr an Power ist spürbar. "
Nur auf das kommt es schlussendlich an ^^ spürbar ist immer gut ;)

m.f.g. JVC

RoughNeck
2018-10-19, 16:47:54
Nö, sind FPS.
Oder halt 35 - 40%, ändert am Ergebnis nichts.

4K Witcher 3 hatte ich mit der 1080 TI immer so um die 45 FPS (Skellige, Insel müsste Undvic sein), mit der 2080 TI sind es 68 FPS.
Bin noch auf der Arbeit, die anderen Werte habe ich jetzt nicht so im Kopf. Ich merke den Unterschied sofort, mit der 2080 TI läuft es einfach geschmeidiger.

JVC
2018-10-19, 18:10:40
Nö, sind FPS.
Oder halt 35 - 40%, ändert am Ergebnis nichts.

4K Witcher 3 hatte ich mit der 1080 TI immer so um die 45 FPS (Skellige, Insel müsste Undvic sein), mit der 2080 TI sind es 68 FPS.
Bin noch auf der Arbeit, die anderen Werte habe ich jetzt nicht so im Kopf. Ich merke den Unterschied sofort, mit der 2080 TI läuft es einfach geschmeidiger.

35-40% klingen schon fast verlockend.
( ich hätte da eher mit max 25-30% gerechnet )
Witcher 3 lief bei mir mit um die 55 fps oder so,
ist schon etwas her und hab ich nicht mehr drauf,
mit leichter Anpassung immer über 60fps.
(ich musste jedenfalls die Regler etwas bemühen
da es Max Settings nicht über 60fps bleiben wollte)

Das wichtigste ist aber das man den unterschied auch merkt :)
Und gerade bei 4K nimmt man was man nur kriegen kann ...
( naja vielleicht kommt ja nächstes Frühjahr doch noch einmal eine NV in meinen Rechner
... hindert fast nur noch die fehlende VRR Unterstützung )

m.f.g. JVC

basix
2018-10-19, 18:35:34
Tobi zeigt mir einmal mehr, dass sich OC mit den neuen Chips nicht wirklich lohnt, wenn man keine WaKü hat.

RTX 2080 Ti @ 180W. GPU-Spannung während des Benches praktisch immer <0.8V.

Cubitus
2018-10-19, 19:15:57
Bin eigl ziemlich ähnlich wie RoughNeck unterwegs,
bei mir sieht es so aus, scheint auch am Treiber zu liegen, der gude 411.70 ist immer noch etwas schneller als die Nachfolger :confused:

OC ans Limit, wenn man es möchte, lohnt wirklich nur mit Wasser.
Mich würde interessieren was mit HighEnd Luft und Standard Bios möglich wäre, wenn dauerhaft an die 2Ghz zustande kämen, wäre der Abstand zu Wasser auch nicht mehr allzu hoch.
Der Stromverbrauch bei höheren Takt ist imo nicht zu verachten, man muss ja nicht immer gleich mit der Brechstange kommen.


https://abload.de/img/2018-10-1919_19_20-wilwdvb.png (https://abload.de/image.php?img=2018-10-1919_19_20-wilwdvb.png)

RoughNeck
2018-10-19, 19:18:03
@JVC

Skellige hat einige Stellen wo die FPS nicht so berauschend sind.
Ohne Haiworks und Schatten auf Hoch packt die 1080 TI auch fast immer 60 FPS.

basix
2018-10-19, 20:30:11
Mal ein kleiner Vergleich mit den Werten von Tobi. 4K Werte mangels Bildschirm inkl. DSR. In 4K liegt der Abstand bei ca. 20% und in 1440p bei ca. 14%.
Der Unterschied zwischen den Auflösungen ist aber normal, da bei geringerer Auflösung der Boost höher geht, wenn man so wie ich bei 180W immer voll im Power Limit ist.

Benchmark|RTX 2080 Ti @ Max (Tobi)|RTX 2080 TI @ 180W @ 950rpm FAN
Superposition (4k Optimized)|12865 Punkte|11020 Punkte
Shadow of the Tomb Raider @ 1440p|109 fps|96 fps
Shadow of the Tomb Raider @ 4K|63 fps|52 fps
Far Cry 5 @ 1440p|137 fps|121 fps
Far Cry 5 @ 4K|83 fps|69 fps
Fire Strike Extreme (GPU Score)|18328|16047
Fire Strike Ultra (GPU Score)|8936|7867
Time Spy (GPU Score)|15410|13194
Time Spy Extreme (GPU Score)|7333|6221

Edgecrusher86
2018-10-20, 15:38:35
@ basix: Netter Vergleich, danke dafür.
Könntest du vielleicht bitte auch ein paar Screenshots anfertigen inkl. OSD (Taktraten, Temperatur, Spannung usw.)?

Danke im Voraus.

Ich fahre meine Ti(s) auch immer mit UV.
Habe letztens einen Vergleich in AC:Or. gemacht (per Inspector Voltage Points)...war schon krass...62 fps @ P2 1557/5006 MHz @ 725mV (grob 112,5W) vs. 74 fps @ 2000/5508 MHz @ 1043mV (grob 230-240W) ist schon eine krasse Differenz gewesen bezüglich Effizienz.

basix
2018-10-20, 17:22:46
Bitteschön :)

Die Taktraten bewegen sich mit 180W die meiste Zeit und bei den meisten Spielen zwischen 1650-1700 MHz. Je nach Spiel auch deutlich höher (z.B. Assassins Creed Origins & Odyssey bei 1800+MHz) oder tiefer (z.B. Star Wars Battlefront 2 zwischen 1550-1600MHz). Und wie gesagt, bei 4k sind die Taktraten tiefer, so im Schnitt wohl ca. -50..100MHz im Vergleich zu 1440p. Ganz extrem ist Superposition mit etwa -200MHz :freak: Die maximale Temperatur nach 1h ist ca. 75°C.


Far Cry 5:
https://abload.de/thumb/fc5_4kh7c7e.jpg (https://abload.de/image.php?img=fc5_4kh7c7e.jpg)

Assassin's Creed - Origins:
https://abload.de/thumb/acorigins_1440pwbe9q.jpg (https://abload.de/image.php?img=acorigins_1440pwbe9q.jpg)

Shadow of the Tomb Raider:
https://abload.de/thumb/sottr_1440p_1cpic9.jpg (https://abload.de/image.php?img=sottr_1440p_1cpic9.jpg)https://abload.de/thumb/sottr_4k_1wkfqi.jpg (https://abload.de/image.php?img=sottr_4k_1wkfqi.jpg)https://abload.de/thumb/sottr_4k_2offwv.jpg (https://abload.de/image.php?img=sottr_4k_2offwv.jpg)

Super Position (4K Optimized):
https://abload.de/thumb/superposition_4k_opti21fty.jpg (https://abload.de/image.php?img=superposition_4k_opti21fty.jpg)https://abload.de/thumb/superposition_4k_optidpdw5.jpg (https://abload.de/image.php?img=superposition_4k_optidpdw5.jpg)

Star Wars Battlefront 2:
https://abload.de/thumb/starwarsbattlefrontii93iw0.jpg (https://abload.de/image.php?img=starwarsbattlefrontii93iw0.jpg)https://abload.de/thumb/starwarsbattlefrontiifscks.jpg (https://abload.de/image.php?img=starwarsbattlefrontiifscks.jpg)

The Witcher 3:
https://abload.de/thumb/witcher3_1440p_11lde7.jpg (https://abload.de/image.php?img=witcher3_1440p_11lde7.jpg)https://abload.de/thumb/witcher3_1440p_2grf3t.jpg (https://abload.de/image.php?img=witcher3_1440p_2grf3t.jpg)https://abload.de/thumb/witcher3_1440p_37dfvz.jpg (https://abload.de/image.php?img=witcher3_1440p_37dfvz.jpg)


Angehängt noch der Screenshot des Curve Editors. Geht leider nicht <0.80V :D Habe jetzt nicht extrem viel Zeit mit optimieren verbracht aber ist bei meinem Betriebspunkt wohl ziemlich ausgereizt. Zwischen 1.6-1.9GHz sind es jeweils ca. +50mV alle 100MHz mit 1.6GHz startend bei etwa 0.75V. Die 2.0GHz werden mit knapp unter 1.0V geknackt.

Edgecrusher86
2018-10-20, 20:44:59
Vielen Dank - ja, mit MSI AB oder EVGA Precision CE geht es nicht unter 800mV - per Inspector schon -> händisch. TU scheint hier 6,25mV Schritte zu nutzen (statt 12,5mV Steps bei Pascal) - wie man auch schön an dem Curve Editor Bild sieht.

Eine Verknüpfung von Inspector erstellt und im Ziel Folgendes anhängen:


nvidiaInspector.exe "-lockVoltagePoint:0,787500 Ein Beispiel für fixe 787,5mV (die 0 steht für GPU 0)

Das dürften die passenden Werte unterhalb 800mV für Turing sein:

650000|656250|662500|668750|675000|681250|687500|
693750|700000|706250|712500|718750|725000|731250|
737500|743750|750000|756250|762500|768750|775000|
781250|787500|793750|800000

Ist identisch wie "L" eines Punktes im Curve Editor -> Spannung wird gelocked. ;)

https://abload.de/thumb/3pgf2r.png (https://abload.de/image.php?img=3pgf2r.png)
Ein Beispiel Profile von mir.

Man muss dann allerdings noch Offset einstellen, wie auch beim Curve Editor, damit der Takt bei einer fixen Spannung hoch gezogen wird. :)


Einfach jeweils übernehmen und Inspector dann starten -> Spannung fix.


Zurück gesetzt wird es mit:
nvidiaInspector.exe "-lockVoltagePoint:0,0

Muss man nach Beenden des Spieles, sonst taktet sich die Karte nicht mehr herunter. Bei MSI AB reicht dann ein Klick auf Reset.
Hoffe, das geht auch bei Turing. ;)


Ein Beispiel mit Pascal - 1080 Ti @ 1658/5508 MHz @ 762,5mV (+230MHz GPU Offset):

Spannung fix:
https://abload.de/thumb/09oeoe.png (https://abload.de/image.php?img=09oeoe.png)

Offset eingestellt:
https://abload.de/thumb/1kqcfq.png (https://abload.de/image.php?img=1kqcfq.png)

Ingame:
https://abload.de/thumb/acorigins_66fps-1658-brccr.png (https://abload.de/image.php?img=acorigins_66fps-1658-brccr.png)

Zurück gesetzt:
https://abload.de/thumb/21qd4t.png (https://abload.de/image.php?img=21qd4t.png)

Anzumerken ist hier, dass bei niedrigen Spannungen im P2 (Mem Offset auf volle 11 Gbps und mehr sind möglich) und P0 deutlich höhere Offsets stabil laufen, als mit höheren Spannungen und Taktraten. Richtung max. OC ging dann je Voltage-Step oft nicht einmal mehr +150 MHz stabil. :D


E: Also mit fixen Spannungen und Offsets solltest du noch etwas optimieren können, denke ich - hier mal ein extremes UV Beispiel im P2-State -> mit G-SYNC flüssige 50er fps bei 1405/5006MHz @ 681mV bei ~ 102,5W (Schwankungen natürlich grob 7,5W min. und max müssen mit einbezogen werden). :)

https://abload.de/thumb/acorigins_54fps-1404-p3cn1.png (https://abload.de/image.php?img=acorigins_54fps-1404-p3cn1.png)

AC: Origins wie wohl auch Odyssey (in Videos gesehen) sind ja nicht sehr power hungrig, aber ich kann zumindest für den ersten Fall sagen, dass das Spiel extrem schnell crasht, wenn etwas nicht stabil ist - teilweise schon im Menü (den neusten Teil habe ich noch nicht).
Die P8 Spannungen bei der RTX 2080 Ti liegen wohl bei 706,25mV bzw 712,5mV je nach Güte, wie ich gesehen habe, also so extrem tief herunter mit relativ "hohen Taktraten" wie bei Pascal kommt man hier leider nicht. Die UV Güte scheint aber nochmals besser zu sein (etwa 1,9 GHz mit unter 900mV möglich bei mehreren Usern).

Geächteter
2018-10-20, 21:00:15
Kann es sein, dass bei Win 7 in den Nvidia-Treiberpaketen die Treiber für USB-C/Virtual Link fehlen? Habe 2 schöne Ausrufezeichen in der Systemsteuerung, PCI und USB-Universal. Auch braucht die CPU jetzt mit ner Zotac RTX 2080 Blower laut Coretemp jetzt knappe 6 Watt mehr im Leerlauf als mit der 1080 GTX, obwohl weiter C3 und 800 Mhz anliegen. Kann das am USB-C liegen?:confused:
Muss ich doch mal WIN 10 einschmeißen?

basix
2018-10-20, 21:11:22
Das dürften die passenden Werte unterhalb 800mV für Turing sein:

706250|712500|718750|725000|731250|737500|743750|
750000|756250|762500|768750|775000|781250|787500|
793750

Ist identisch wie "L" eines Punktes im Curve Editor -> Spannung wird gelocked. ;)

Sollte so passen. Und danke für den Tipp mit dem Lock, das war genau das was ich noch vermisst hatte. Weil bei Niedriglast Szenarien hat die GPU einfach immer das Power Target ausgefüllt ohne allzu grossen Nutzen. Da ich von Maxwell komme ist der Curve Editor neu für mich :D Wo Pascal rauskam dachte ich mir bereits "Verdammt, das wäre genau das richtige für die 980 Ti". Das Locken klappt zumindest mit dem AB ohne Probleme. Es wird aber nur die obere Grenze gelockt. Gegen unten wird die Spannung trotzdem noch dynamisch angepasst, sobald ich im Power Limit bin. War das bei Pascal auch schon so? Dann noch eine weitere Frage: Kann man die maximale Spannung fixieren wie beim Curve Lock, aber gleichzeitig trotzdem noch einen 2D Modus zu haben?


Anzumerken ist hier, dass bei niedrigen Spannungen im P2 (Mem Offset auf volle 11 Gbps und mehr sind möglich) und P0 deutlich höhere Offsets stabil laufen, als mit höheren Spannungen und Taktraten. Richtung max. OC ging dann je Voltage-Step oft nicht einmal mehr +150 MHz stabil. :D

Jop, deswegen sieht meine Curve so aus. +150MHz über den gesamten Range klappt bei mir auch nicht. Bei 0.8V bin ich bei +220MHz :)

Edgecrusher86
2018-10-20, 22:09:36
(y) Gern geschehen - schauen wir mal, ob du noch etwas verbessern kannst. :cool:

Ja, genau - ein Lock ist nur konstant mit Taktraten und Spannung, sofern du noch innerhalb der Targets bist - sei es PT oder TT. Also unter Umständen würde es dann z.B. bei 200W PT gehalten werden können.
Mit meinen beiden Beispielen oben bin ich aber weit entfernt von den Targets (habe default, also 100% PT gelassen).

Ich fürchte, das geht nicht - fixe Spannung und Heruntertakten in den P8 auf dem Desktop. Naja, zumindest oberhalb 800mV kann man ja Profile erstellen und dann halt schnell auf default gehen. Per Inspector ist es etwas umständlich, ja.
Gäbe es so einen Voltage Point Slider etwa im Bereich des ausgegrauten OVs, dann könnte man sicherlich zumindest je einen Clock Shortcut erstellen. Eventuell könnte das ja auch besser optional wie -showFermiClocks eingebaut werden für die Experementierfreudigen. :)

Offset kann man so auch noch einstellen - aber gut, das geht ja auch per Slider schnell:
-lockVoltagePoint:0,787500;123000 -> 787,5mV fix +123 MHz


E: Turing schafft wohl doch weniger als 706mV, wie ich gerade von einem Kumpel erfahren habe - 650mV ist wohl der P5 State (810 MHz Mem). Der GDDR6 taktet also im P2 wohl auch auf 5000MHz (10 Gbps).

650000|656250|662500|668750|675000|681250|687500|
693750|700000|706250|712500|718750|725000|731250|
737500|743750|750000|756250|762500|768750|775000|
781250|787500|793750|800000

Liste erweitert. ;)

Tja, mit P5 laufen dann wohl maximal so alte Schinken voll ausgefahren noch flüssig, ansonsten ist die Anbindung einfach viel zu gering und Offset mag auch nicht mehr. ;)

Geächteter
2018-10-20, 23:46:46
650000|656250|662500|668750|675000|681250|687500|
693750|700000|706250|712500|718750|725000|731250|
737500|743750|750000|756250|762500|768750|775000|
781250|787500|793750|800000

Liste erweitert. ;)
E: Turing schafft wohl doch weniger als 706mV, wie ich gerade von einem Kumpel erfahren habe - 650mV ist wohl der P5 State (810 MHz Mem). Der GDDR6 taktet also im P2 wohl auch auf 5000MHz (10 Gbps).

Tja, mit P5 laufen dann wohl maximal so alte Schinken voll ausgefahren noch flüssig, ansonsten ist die Anbindung einfach viel zu gering und Offset mag auch nicht mehr. ;)
Bei meiner 2080 Non-Ti werden die Spannungen unter 0,71250 V, die bei Auslesen durch AB um 0,718 V sind, nicht umgesetzt. Geht man in den 0,6x Bereich werden nur irgendwann die niedrigeren Power States getriggert.

Orbmu2k
2018-10-21, 01:29:51
Dann noch eine weitere Frage: Kann man die maximale Spannung fixieren wie beim Curve Lock, aber gleichzeitig trotzdem noch einen 2D Modus zu haben?

Also du kannst ihn auf die Maximalspannung limitieren mit der Curve in dem du allen folgenden Voltage Points ein negatives Taktoffset gibst das unter dem Takt deiner Zielspannung liegt. Dann funktioniert auch weiterhin der normale PState Wechsel.



nvidiaInspector.exe "-setVoltagePoints:0,450000;0|462500;0|475000;0|481250;0|493750;0|500000;0|512500; 0|525000;0|531250;0|543750;0|550000;0|562500;0|575000;0|581250;0|593750;0|600000 ;0|612500;0|625000;0|631250;0|643750;0|650000;0|662500;0|675000;0|681250;0|69375 0;0|700000;0|712500;0|725000;0|731250;0|743750;0|750000;100000|762500;-1500000|775000;-1500000|781250;-1500000|793750;-1500000|800000;-1500000|812500;-1500000|825000;-1500000|831250;-1500000|843750;-1500000|850000;-1500000|862500;-1500000|875000;-1500000|881250;-1500000|893750;-1500000|900000;-1500000|912500;-1500000|925000;-1500000|931250;-1500000|943750;-1500000|950000;-1500000|962500;-1500000|975000;-1500000|981250;-1500000|993750;-1500000|1000000;-1500000|1012500;-1500000|1025000;-1500000|1031250;-1500000|1043750;-1500000|1050000;-1500000|1062500;-1500000|1075000;-1500000|1081250;-1500000|1093750;-1500000|1100000;-1500000|1112500;-1500000|1125000;-1500000|1131250;-1500000|1143750;-1500000|1150000;-1500000|1162500;-1500000|1175000;-1500000|1181250;-1500000|1193750;-1500000|1200000;-1500000|1212500;-1500000|1225000;-1500000|1231250;-1500000|1243750;-1500000|"

basix
2018-10-21, 10:08:29
@Orbmu2k: Alles klar, werde ich mir mal anschauen :up:

Hier noch ein Screen mit 150W Power Limit anstatt 180W sowie -500MHz Mem-Offset. Man verliert nochmals ca. 10% Leistung aber eigentlich noch immer ganz OK. Was man aber unbedingt vermeiden sollte, dass das Power Limit mit der minimalen Spannung überschritten wird (ist bei mir 706..712mV), weil dann der Takt dann sehr stark abfällt um das Power Limit zu halten. Deswegen der negative Speicheroffset.

Edgecrusher86
2018-10-21, 11:01:29
Bei meiner 2080 Non-Ti werden die Spannungen unter 0,71250 V, die bei Auslesen durch AB um 0,718 V sind, nicht umgesetzt. Geht man in den 0,6x Bereich werden nur irgendwann die niedrigeren Power States getriggert.
Hm, also bei Pascal hier kann ich alles innerhalb der 12,5mV Schritte setzen - ich war davon ausgegangen, dass dies auch für TU der Fall sei. Was ist denn die niedrigste P2-Spannung bei dir? Da kannst ja noch Offsets Core und Mem geben und hast halbwegs Leistung.
P5 dann wie gesagt fällt extrem ab wegen 810MHz - alte Games würden sicher gut laufen. Ich glaub, ich habe mal einen Test in AC: Origins gemacht...3440 -> 70% Res. Scale und Medium oder Low Settings...40-50 fps @ 45W :biggrin: oder ähnliches war möglich...sah natürlich meh aus. :freak:



Also du kannst ihn auf die Maximalspannung limitieren mit der Curve in dem du allen folgenden Voltage Points ein negatives Taktoffset gibst das unter dem Takt deiner Zielspannung liegt. Dann funktioniert auch weiterhin der normale PState Wechsel.



nvidiaInspector.exe "-setVoltagePoints:0,450000;0|462500;0|475000;0|481250;0|493750;0|500000;0|512500; 0|525000;0|531250;0|543750;0|550000;0|562500;0|575000;0|581250;0|593750;0|600000 ;0|612500;0|625000;0|631250;0|643750;0|650000;0|662500;0|675000;0|681250;0|69375 0;0|700000;0|712500;0|725000;0|731250;0|743750;0|750000;100000|762500;-1500000|775000;-1500000|781250;-1500000|793750;-1500000|800000;-1500000|812500;-1500000|825000;-1500000|831250;-1500000|843750;-1500000|850000;-1500000|862500;-1500000|875000;-1500000|881250;-1500000|893750;-1500000|900000;-1500000|912500;-1500000|925000;-1500000|931250;-1500000|943750;-1500000|950000;-1500000|962500;-1500000|975000;-1500000|981250;-1500000|993750;-1500000|1000000;-1500000|1012500;-1500000|1025000;-1500000|1031250;-1500000|1043750;-1500000|1050000;-1500000|1062500;-1500000|1075000;-1500000|1081250;-1500000|1093750;-1500000|1100000;-1500000|1112500;-1500000|1125000;-1500000|1131250;-1500000|1143750;-1500000|1150000;-1500000|1162500;-1500000|1175000;-1500000|1181250;-1500000|1193750;-1500000|1200000;-1500000|1212500;-1500000|1225000;-1500000|1231250;-1500000|1243750;-1500000|"





Interessant, dass also mit dem Trick doch ein P-State-Wechsel möglich ist.
Es dürfte wohl ausreichend sein, wenn die Liste von 6xx - 1100mV geht - mehr oder weniger wird man mit Pascal oder Turing (abseits von XOC) eh nicht sehen.
webmi im Luxx hatte mal Screens gepostet mit Wasser und "niedriger Power Usage" bis zu 2250 MHz @ 2080 Ti in Heaven @ 1093,75mV waren möglich (960er Auflösung mit dem 380W Galax BIOS :freak:)

Habe mal ergänzt für 6,25mV:


650000|656250|662500|668750|675000|681250|687500|
693750|700000|706250|712500|718750|725000|731250|
737500|743750|750000|756250|762500|768750|775000|
781250|787500|793750|800000|806250|812500|818750|
825000|831250|837500|843750|850000|856250|862500|
868750|875000|881250|887500|893750|900000|906250|
912500|918750|925000|931250|937500|943750|950000|
956250|962500|968750|975000|981250|987500|993750|
1000000|1006250|1012500|1018750|1025000|1031250|
1037500|1043750|1050000|1056250|1062500|1068750|
1075000|1081250|1087500|1093750|1100000

Mit dem negativen Offset ist wohl ;-150000 gemeint, oder?

JVC
2018-10-22, 13:13:00
Laut der neuen Übersicht sind es
1080Ti FE --->2080Ti 35%
Link zur News:
https://www.3dcenter.org/news/hardware-und-nachrichten-links-des-2021-oktober-2018
( und im vergleich zu meiner sicherlich nur noch ~+20% )
Also meine 1080Ti darf noch eine weile bleiben ;)
Over and Out.

m.f.g. JVC

ne 1080Ti Custom ist sicherlich 10% schneller als eine FE ;)
und somit eher mit der neuen übertakteten FE zu vergleichen.

Hier
https://gpu.userbenchmark.com/
kommen in der breiten Praxis ~+25% heraus
( 153 ---> 192 )

Edgecrusher86
2018-10-22, 15:55:26
Es gibt bereits zwei modifizierte Versionen von NVFlash über overclock.net, mit dem man zum Beispiel schon auf eine 2080 Ti FE das Galax 380W BIOS flashen konnte.

https://www.overclock.net/forum/27676770-post2485.html

NVFlash wurde modded...FE Karten können nun auch geflasht werden. :cool:

DOWNLOAD NVFLASH 5.527 patched:
https://drive.google.com/file/d/1q7mF8J9QF2QRXQfpQPbeEEOlFnKU01df/view

Gut möglich, dass mit der neusten Version auch die RTX 2070 unterstützt wird. Das würde den kleinen Modellen natürlich enorm zu Gute kommen, sind sie doch oft auf nur 200W limitiert.

Raff
2018-10-22, 16:01:55
Was heißt "patched"? Trojaner implementiert? ;) Oder wurden da Security checks disabled?

MfG,
Raff

Edgecrusher86
2018-10-22, 16:37:25
Korrekter Link zum Post und der ersten modifizierten Version 5.513:

https://www.overclock.net/forum/27676770-post2485.html


The command list only hints at the overridesub (6 being the 'shortcut') parameter to overwrite a PCI subsystem ID mismatch, but the code for the other commands is still there.



So, the actual commandlist for the parser doesn't contain the overrideboard parameter anymore so that is why it would never catch on. To fix that I had to patch NVFlash anyway, so I went ahead and just overwrote the logic that requires the overrideboard parameter in the first place.


Ja, das Original wurde entsprechend überschrieben. ;)

Geächteter
2018-10-22, 19:38:53
Also du kannst ihn auf die Maximalspannung limitieren mit der Curve in dem du allen folgenden Voltage Points ein negatives Taktoffset gibst das unter dem Takt deiner Zielspannung liegt. Dann funktioniert auch weiterhin der normale PState Wechsel.



nvidiaInspector.exe "-setVoltagePoints:0,450000;0|462500;0|475000;0|481250;0|493750;0|500000;0|512500; 0|525000;0|531250;0|543750;0|550000;0|562500;0|575000;0|581250;0|593750;0|600000 ;0|612500;0|625000;0|631250;0|643750;0|650000;0|662500;0|675000;0|681250;0|69375 0;0|700000;0|712500;0|725000;0|731250;0|743750;0|750000;100000|762500;-1500000|775000;-1500000|781250;-1500000|793750;-1500000|800000;-1500000|812500;-1500000|825000;-1500000|831250;-1500000|843750;-1500000|850000;-1500000|862500;-1500000|875000;-1500000|881250;-1500000|893750;-1500000|900000;-1500000|912500;-1500000|925000;-1500000|931250;-1500000|943750;-1500000|950000;-1500000|962500;-1500000|975000;-1500000|981250;-1500000|993750;-1500000|1000000;-1500000|1012500;-1500000|1025000;-1500000|1031250;-1500000|1043750;-1500000|1050000;-1500000|1062500;-1500000|1075000;-1500000|1081250;-1500000|1093750;-1500000|1100000;-1500000|1112500;-1500000|1125000;-1500000|1131250;-1500000|1143750;-1500000|1150000;-1500000|1162500;-1500000|1175000;-1500000|1181250;-1500000|1193750;-1500000|1200000;-1500000|1212500;-1500000|1225000;-1500000|1231250;-1500000|1243750;-1500000|"


Funktioniert irgendwie bei Turing nicht oder ich bin zu blöd dafür.
Habe die 0,0625 Voltage Steps verwendet und auch mal den negativen Offset bis zu 500k erhöht. Habe es aber auch nur bis 1043750 gemacht, dürfte aber egal sein, weil TDP habe ich eh auf 58 % begrenzt?

basix
2018-10-22, 20:29:03
Hab es auch nicht zum laufen gekriegt. Habe aber auch den AB nicht deinstalliert, das verträgt sich nicht so gut :) Den AB benutze ich schon seit etlichen Jahren und möchte nicht umsteigen. Habe jetzt über den AB zwei verschiedene Profile erstellt: 1x mit Lock und einmal ohne. Funktioniert perfekt wie ich das will, ausser dass ich nach dem Beenden des Spiels daran denken muss wieder das Profil mit 2D Modus zu aktivieren und evtl. noch ein Profil mit <0.800V OK wäre. Ausserdem habe ich mit total 5 Profilen noch die Möglichkeit, je nach Bedarf Leistung zu oder wegzuschalten. Für mich ist momentan gut so :)

Edgecrusher86
2018-10-23, 13:32:06
Hardware Unboxed - Does the RTX 2080 Ti, 2080 & 2070 Need GDDR6 Memory?

https://www.youtube.com/watch?v=Kn_d5Az75C4

GDDR6 Scaling auf TU. Auch mal ganz interessant.

TobiWahnKenobi
2018-10-23, 14:14:43
angeregt durch das vorhandensein eines 380W bios und das nichtvorhandensein einer adäquaten kühlung für die FEs die ich hier hatte, habe ich mir nochmal eine RTX-Ti geschnappt. diesmal eine gainward und zur sicherheit von den beiden verfügbaren modellen das golden sample.

mit aufgerissenem triplelüfter verlagert sich jetzt der übliche round-about-2GHz-tanz (stock-bios) in den bereich von 2.1GHz (380W-bios). damit wäre/hätte/könnte es möglich, die wassergekühlte gv100 dauerhaft ein- und zu überholen. im SOTTR benchmark (4k/uh/taa) verbesserten sich "unter luft" die frames von 63 auf 67fps (RTX-Ti max. OC stockbios vs. 380W-bios); die gv100 führt meinen test mit 69fps (TV @300W) an; default liefern alle karten weniger als 60fps.

apropos weniger.. weniger leistet jetzt auch die titan v im zweitrechner, für den ich auf die schnelle eine wakü zusammengeschustert habe, damit ich sie nicht zerlegen muss. der kleine 140er radiator ist mit der TV und meinen gewohnten settings schnell überfordert, sodass ich die erstmal ohne erhöhung des PL betreibe und ihr nur 100MHz OC zugestehe. es gibt auch keinen betrieb ohne OSD. wenn die karte anfängt auf die 80°C zuzumarschieren mache ich aus. in diesem zustand würde ich ihr eher WQHD+60Hz@sync zumuten, falls ich damit spielen müsste.

notiz: der kleine ryzen5 1500+ (4k/8t, 3.5GHz) reicht mit der karte zum tombraider und oculus -spielen aus. das war aber eher ein versuch unter "ferner liefen" oder "aus spaß an der freude". wenn ich schon sowas unausgewogenes zusammenstecke, muss ich es wenigstens mal beim daddeln gesehen und gehört haben. und: ich bin zu doof einen AMD zu übertakten.

ähm.. worum ging? rtx.. für die RTX habe ich spontan noch einen wasserkühler geordert und eigentlich sollte der heute hier noch eintrudeln. ob ich den umbau zeitnah packe, weiss ich nicht, weil das mit den grakas echt zeit (sinnlos) vernichtet, aber vielleicht verlagert sich der jetzige 2.1GHz-tanz damit in richtung 2.2GHz und die tombraider-frames steigen auf 70..

oh man.. das ist lustig.. und herrlich sinnlos.


(..)

mfg
tobi

Raff
2018-10-23, 14:29:25
Kannst du mit 2,1 GHz und 380 Watt auch den Speicher auf (mehr als) 8.000 MHz ziehen oder suckt das zu viel Energie? Sollte ganz nett skalieren.

MfG,
Raff

TobiWahnKenobi
2018-10-23, 14:53:00
mehr habe ich nie getestet weil ich das precissionx nur verwende um das licht auszuschalten. :P

muss ich mir mal anschauen, wenn ich mehr zeit habe. oder halt über zeitraum xyz falls die karte länger bleibt.

ich glaube nichtmal an die 8000 aber um dazu was sagen zu können, müsste ich spielen. geht grad nicht.


(..)

mfg
tobi

basix
2018-10-23, 17:39:42
Bei 8000 MHz gibt es bei mir auch Disco auf dem Bildschirm. Mal was ganz anderes als sonst beim Speicher-OC :D So 7600-7700 sollten aber gehen.

Dural
2018-10-23, 17:52:48
Hat eigentlich einer eine Erklärung wie so die 8000MHz bei den meisten 2070 gehen, bei den 2080 aber nicht?

Mir kommt nichts in den Sinn, der Speicher sollte der gleiche sein, sogar das PCB ist oft das gleiche. Da bleibt nur die GPU für sich übrig, aber wie so sollte es da Abweichungen zwischen TU106 und dem TU104 geben, wenn der TU104 mehr Takt mitmachen würde könnte man es ja noch verstehen, aber TU106 :confused:


Edit:
Der TU106 kann die volle Bandbreite vielleicht auch gar nicht zu 100% ausnützen... weniger Belastung = mehr Takt hmm.

Radeonfreak
2018-10-23, 18:25:56
Ich bin ja total überaus zufrieden mit der RTX 2080 TI, aber wieso zum Geier gibt es nicht eine Raytracing Demo öffentlich zu downloaden?

Ich geb zu das stört mich ein bisschen.

Das Killerfeature und es gibt nur Videos davon, nichts testbares.

Cubitus
2018-10-23, 19:22:03
Bin von der lauten Inno zur relativ leisen FE gewechselt.

Hat sich imo gelohnt.
Der begrenzte Platz im ITX und das 500 Watt passiv Netzteil bremsen die abgesteckte Leistung zumindest nicht aus. Klar HighEnd OC ist so nicht möglich, aber die Chipgüte und der wohl beste Axial-Lüfter ever reißen es raus.
Hab den OC Scanner angeworfen und kam damit auf ein stabiles Plus von 185 Mhz, hab zusätzlich den Speicher auf 7500 Mhz erhöht.
Für die Betriebs-Parameter ist das Ergebnis in Ordnung :)

Als Sähnehäuchen würde ich mir einen Zero-Fan Modus wünschen.
Der Treiber-Bug, welcher sich bisher hartnäckig hält, :uponder: lässt die Lüfter im Idle leider auf 1500 U/Min laufen.

https://abload.de/img/2018-10-2319_09_47-31e58.png (https://abload.de/image.php?img=2018-10-2319_09_47-31e58.png)

Mit Wasser, mehr Strom und etwas Glück, wären sicherlich knapp über 14k drin....


Das Killerfeature und es gibt nur Videos davon, nichts testbares.
Eine Techdemo wäre auch zum benchen super

crux2005
2018-10-23, 19:56:58
angeregt durch das vorhandensein eines 380W bios und das nichtvorhandensein einer adäquaten kühlung für die FEs die ich hier hatte, habe ich mir nochmal eine RTX-Ti geschnappt. diesmal eine gainward und zur sicherheit von den beiden verfügbaren modellen das golden sample.

mit aufgerissenem triplelüfter verlagert sich jetzt der übliche round-about-2GHz-tanz (stock-bios) in den bereich von 2.1GHz (380W-bios). [..]

mfg
tobi

Verstehe ich das Richtig. Auf die Gainward RTX 2080 Ti GS das GALAX (380W) Bios draufgeflashed? :freak:

Danke für die Info. Die Gainward könnte ich relativ billig kaufen.

Godmode
2018-10-23, 20:06:56
Ich bin ja total überaus zufrieden mit der RTX 2080 TI, aber wieso zum Geier gibt es nicht eine Raytracing Demo öffentlich zu downloaden?

Ich geb zu das stört mich ein bisschen.

Das Killerfeature und es gibt nur Videos davon, nichts testbares.

Da bist du nicht die einzige. Erst groß rumposauen und dann können sie uns nichtmal eine kleine Techdemo geben. :mad:

basix
2018-10-23, 20:26:00
@ Cubitus: Schönes Ergebnis. Anscheinend sind die Karten alle sehr nahe beieinander (FE + Custom).

User / Setting|Superposition (4k Optimized) Score
Tobi / Max.|12865 Punkte|
Cubitus / OC Scanner|12847 Punkte|
basix / Kotzgrenze|12876 Punkte https://benchmark.unigine.com/results/rid_18dcf2cd45c041b89dfa60fd1a643ef7|
basix / OC Scanner |12637 Punkte|
basix / 180W |11020 Punkte|
basix / 150W |10021 Punkte|


Bin noch #1 hier :deal::D;D

Wenn jetzt Tobi mit dem 380W BIOS Ergebnis um die Ecke kommt, ist es damit dann aber vorbei :)

TobiWahnKenobi
2018-10-23, 22:17:00
versprich dir da nicht zuviel. mit aufgerissenem gainward-lüfter 13.600 punkte @380W bios.


https://abload.de/img/rtx_ti_380w_luft_supen9i0m.jpg
RTX2080Ti @380W PL
https://abload.de/img/380w-bios-leistungsme85dw6.jpg
geschmeidige >600W unter last fürs gesamtsystem

titan v macht das mit 300W und entsprechendem delta auf dem messegerät.

https://abload.de/img/tv_2g_i7_5100_sp_4k_oezf8r.jpg


Verstehe ich das Richtig. Auf die Gainward RTX 2080 Ti GS das GALAX (380W) Bios draufgeflashed? :freak:

Danke für die Info. Die Gainward könnte ich relativ billig kaufen.

ja, das verstehst du richtig. aber: was ist denn relativ billig? diese GS hier kam für 1369€ rein und das ist verglichen mit der eh schon zu teuren FE für 1259€ preislich eher ungünstiger gewesen. die karte ist out-of-the-box auch nicht schneller als die FE. aber: trotz der hässlichkeit und ausladenden dimensionen des lüfters (passt sicher nicht in jedes case) ist sie leiser als die FE und man kann die farbe der LED ändern. das reisst schon einiges raus :)
die GPU bleibt auch einiges kühler (unter 70°C mit 380W bios @laut).

@raff
augenscheinlich läuft der verlötete micron-ram bis knapp unter 8000mhz fehlerfrei. zwischen 8000 und 8200mhz stellen sich fehler und abstürze ein (zumindest im superposition).


(..)

mfg
tobi

crux2005
2018-10-23, 23:07:00
ja, das verstehst du richtig. aber: was ist denn relativ billig? diese GS hier kam für 1369€ rein und das ist verglichen mit der eh schon zu teuren FE für 1259€ preislich eher ungünstiger gewesen. die karte ist out-of-the-box auch nicht schneller als die FE. aber: trotz der hässlichkeit und ausladenden dimensionen des lüfters (passt sicher nicht in jedes case) ist sie leiser als die FE und man kann die farbe der LED ändern. das reisst schon einiges raus :)
die GPU bleibt auch einiges kühler (unter 70°C mit 380W bios @laut).

(..)

mfg
tobi

1k€ ohne Steuern. Ist über dem Limit was ich ausgeben wollte. Und leider konnte ich keine Reviews zu der Karte finden. Aber evtl. gönne ich sie mir.
Wobei für so viel Geld sollte der Lüfter lautlos sein. :D

Raff
2018-10-24, 08:22:58
@raff
augenscheinlich läuft der verlötete micron-ram bis knapp unter 8000mhz fehlerfrei. zwischen 8000 und 8200mhz stellen sich fehler und abstürze ein (zumindest im superposition).


(..)

mfg
tobi

Das ist die erwartete Range. Ich hatte allerdings gedacht, dass die Kombination aus guter Kühlung und hoher Auto-Spannung (dank des hohen Powerbudgets) dem Speicher-Controller etwas hilft und du stabil über 8.000 MHz kommst. Es ist eben ein Glücksspiel. Aber 2.100/8.000 MHz wären ja schon mal was. Angenehme Geschwindigkeit. :D

MfG,
Raff

Dural
2018-10-24, 09:48:19
Also meine 2070 macht kein einziges MHz mehr als die 8GHz.

Haben die 2070 mehr vGPU als die 2080 Karten?

Cubitus
2018-10-24, 19:23:24
@ Cubitus: Schönes Ergebnis. Anscheinend sind die Karten alle sehr nahe beieinander (FE + Custom).

User / Setting|Superposition (4k Optimized) Score
Tobi / Max.|12865 Punkte|
Cubitus / OC Scanner|12847 Punkte|
basix / Kotzgrenze|12876 Punkte https://benchmark.unigine.com/results/rid_18dcf2cd45c041b89dfa60fd1a643ef7|
basix / OC Scanner |12637 Punkte|
basix / 180W |11020 Punkte|
basix / 150W |10021 Punkte|


Bin noch #1 hier :deal::D;D

Wenn jetzt Tobi mit dem 380W BIOS Ergebnis um die Ecke kommt, ist es damit dann aber vorbei :)

Danke :)

Die FEs sind definitiv nah zusammen, das zeugt zumindest von gleich guter Qualität, aber bei den Customs.. da gibt es schon so Gurken.
Die Inno vorher schaffte nur 110 % PT und mit dem RAM Takt ging da gar nix.

Hab die FE jetzt auch bis zur Kotzgrenze ausgefahren, Lüfter hoch und Takt dementsprechend angepasst das ca 2050 Mhz fast immer gehalten werden.
Ram war bei mir max 7800 Mhz möglich.

https://abload.de/img/2018-10-2419_16_05-wixpcwl.png (https://abload.de/image.php?img=2018-10-2419_16_05-wixpcwl.png)

Für die Testumgebung: ITX, 500 Watt NT und Drossel-Bios geht der Score voll in Ordnung.

Bin immer noch geflasht was die Axial-Lüfter weg kühlen.
Klar mit 95 % Lüfter Drehzahl ist das alles andere als leise!

Aber das die Karte, bei OC, knapp unter 70 Grad bei so engen Raum-Verhältnissen bleibt, Respekt.

Troyan
2018-10-24, 19:40:43
Test mal Wolfenstein 2. Das Ding bringt Turing zum Schreien. :eek:

Cubitus
2018-10-24, 19:50:41
Test mal Wolfenstein 2. Das Ding bringt Turing zum Schreien. :eek:

Hab ich leider nicht ;(

Troyan
2018-10-24, 20:00:20
Die Demo ist ausreichend.

Cubitus
2018-10-24, 22:54:20
Die Demo ist ausreichend.

Die hat aber leider keinen Benchmark, das verkompliziert die Sache leider..

Troyan
2018-10-24, 23:39:41
Na, einfach bis zur ersten Szene mit den Rollstuhl "spielen".

Der Unterschied zwischen 320W und 360W bei meiner Gaming OC sind 3-4% Mehrleistung. :D

gravitationsfeld
2018-10-25, 03:42:30
Test mal Wolfenstein 2. Das Ding bringt Turing zum Schreien. :eek:
Aber das ist doch von der Firma, die NVIDIA hasst?

crux2005
2018-10-25, 04:46:24
Aber das ist doch von der Firma, die NVIDIA hasst?

Ist das so? :confused:

Dural
2018-10-25, 09:37:20
Es ist wohl eher "Zufall" das Turing in W2 so abgeht, wohl kaum eine bewusste Entscheidung der Entwickler. :wink:

Troyan
2018-10-25, 09:56:23
Richtig. Turing überperformt in Wolfenstein 2. Liegt wahrscheinlich daran, dass all das Pacal-Detuning nun einen positiven Effekt hat. Immerhin unterscheidet sich Turing deutlich von Pascal in Bereichen, die man vorher einfach mal ausnutzen konnte, um Pascal auszubremsen.

robbitop
2018-10-25, 10:24:13
Da helfen sicherlich die int32 Einheiten aber auch die erhöhte fp16 Rate und das deutlich verbesserte AC.
Was Vega geholfen hat scheint auch gut für Turing zu sein.

Rancor
2018-10-25, 10:33:17
Richtig. Turing überperformt in Wolfenstein 2. Liegt wahrscheinlich daran, dass all das Pacal-Detuning nun einen positiven Effekt hat. Immerhin unterscheidet sich Turing deutlich von Pascal in Bereichen, die man vorher einfach mal ausnutzen konnte, um Pascal auszubremsen.

:facepalm:

Also ob Machine Games / Bethesda extra Pascal ausgebremst hätten. Wie kann man nur auf so einen absoluten Schwachsinn kommen, das wird mir für immer ein Rätsel bleiben.

Pascal Detuning... Ohne Witz.. Was ist hier bloß los im Forum.

Ist das so? :confused:
Da er ja selber an Wolfenstein 2 entwickelt hat, wurde ihm das hier von den üblichen NV Fanboys zig mal vorgeworfen.

Dural
2018-10-25, 11:31:17
Bewusst Pascal ausgebremst wohl eher nicht, aber offensichtlich doch bewusst für Vega optimiert ;)

Edgecrusher86
2018-10-25, 11:39:50
Schon die X(P) (FE) ist auch durch ihren VRAM bis zu 75% schneller als V64 (Air) in 4K @ Extreme Settings (Pics weiter vorne im Thread) - ich sehe da null Ausbremsen. Selbst V64 mit Mein Leben! ist hinter X(P) @ Extreme. Die Werte sind btw. mit maximierten Targets. Die Stelle mag jetzt natürlich ein Bestcase gewesen sein, aber dennoch, überholt V64 GP102 nirgends in dem Titel oder liegt gleich auf, auch wenn das andere User immer wieder beharrlich behaupten. Ich habe W2 auch mit beiden Karten selber gespielt - an die 70-100 fps @ 4K Ultra, die die 1080 Ti FE lieferte kam die V64 nicht vorbei. Dass natürlich eine Custom V64 oder LCE zum Beispiel @ Mein Leben! grob 10-12% flotter (oder mehr wenn man sie Richtung 17xx MHz prügelt) wäre als die Air, ist natürlich klar. Aber die X(P) könnte ja auch zum Beispiel mit 2000 MHz laufen @ 300W PT. ;)

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11829321&postcount=1658

dargo
2018-10-25, 12:18:49
Schon die X(P) (FE) ist auch durch ihren VRAM bis zu 75% schneller als V64 (Air) in 4K @ Extreme Settings (Pics weiter vorne im Thread) - ich sehe da null Ausbremsen. Selbst V64 mit Mein Leben! ist hinter X(P) @ Extreme. Die Werte sind btw. mit maximierten Targets. Die Stelle mag jetzt natürlich ein Bestcase gewesen sein, aber dennoch, überholt V64 GP102 nirgends in dem Titel oder liegt gleich auf, auch wenn das andere User immer wieder beharrlich behaupten. Ich habe W2 auch mit beiden Karten selber gespielt - an die 70-100 fps @ 4K Ultra, die die 1080 Ti FE lieferte kam die V64 nicht vorbei. Dass natürlich eine Custom V64 oder LCE zum Beispiel @ Mein Leben! grob 10-12% flotter (oder mehr wenn man sie Richtung 17xx MHz prügelt) wäre als die Air, ist natürlich klar. Aber die X(P) könnte ja auch zum Beispiel mit 2000 MHz laufen @ 300W PT. ;)

https://www.forum-3dcenter.org/vbulletin/showpost.php?p=11829321&postcount=1658
Keine Ahnung was bei dir im System mit der Vega64 nicht stimmte, aber ich erreiche an der gleichen Stelle mit meiner UV Vega64 LCE in 4k @~170W ASIC (ca. 220W gesamte Karte) 78-79fps.
https://www2.pic-upload.de/thumb/36162849/2018.10.25-12.11.png (https://www.pic-upload.de/view-36162849/2018.10.25-12.11.png.html)

Und du kommst mit 345W ASIC auf nur 52fps? :|

Raff
2018-10-25, 12:21:07
Das möchte ich unterstreichen, da ist etwas faul. Eine 8-GiByte-Grafikkarte bricht nur zusammen, wenn man vor den Tests wild die Auflösungen hin- und herwechselt und somit alte Buffer-Reste im RAM hinterlässt. Fakt ist aber, dass 8 GiByte mit maximierten Details in Ultra HD etwas bremsen. Das gilt aber auch für Turing.

MfG,
Raff

dildo4u
2018-10-25, 12:22:23
VRam voll wie bei der PCGH dort fällt sie auch unter 60.